Hasta ahora las críticas a ChatGTP estaban destinadas a que estudiantes e investigadores, así como usuarios en general, confiasen de las respuesta de la inteligencia artificial generativa si no han sido verificadas personalmente, pero la asociación vienesa Noyb, una ONG activa en la defensa de la protección de datos, va ahora más allá y anuncia la presentación de una demanda contra el programa estrella de inteligencia artificial generativa ChatGPT porque «inventa regularmente respuestas», «responde sistemáticamente con información falsa» y «divaga». La demanda asegura, además, que el editor OpenAI «no puede impedírselo».
Cuando se pregunta a ChatGPT la fecha de nacimiento de su fundador Max Schrems, según ha podido comprobar la ONG, responde «sistemáticamente con una falsa información» en lugar de reconocer que no sabe. «Si un sistema no puede suministrar resultados correctos y transparentes, no debería ser utilizado para generar datos sobre personas», defiende la abogada Maartje de Graaf en el comunicado de la organización, «la tecnología debe plegarse a la ley y no al contrario». Noyb demanda a ChatGTP por incumplimiento de la Reglamentación General Europea sobre la Protección de Datos (RGPD), que estipula la obligación de exactitud. Con mayor razón cuando la empresa OpenAI «ha rechazado la petición del demandante de corregir o borrar el error». Tampoco ha respondido a su petición de acceso a los datos que le conciernen y a las fuentes de información, violando de nuevo la ley, por lo que la organización ha pedido a la Autoridad austriaca la protección de datos que abra una investigación y multe a la empresa californiana.
No es nuevo que a los chatbots como ChatGPT les guste «alucinar«, como se dice en el argot. A menudo es difícil determinar exactamente por qué la inteligencia artificial arroja información falsa que suena convincente. Según la definición de Google, estas „alucinaciones« son causadas por datos de entrenamiento insuficientes, suposiciones incorrectas del modelo o distorsiones en los datos de entrenamiento, el llamado sesgo. Este problema ha sido admitido por la empresa desarrolladora OpenAI desde el lanzamiento de ChatGTP en 2022, pero desde el punto de vista de la organización Noyb supone un verdadero problema si los datos personales se tergiversan porque, según el artículo 15 del Reglamento General de Protección de Datos, los datos personales deben ser tratados correctamente. También está protegido el derecho a corregir información incorrecta y la oportunidad de solicitar su eliminación, que ChatGTP no cumple, a juicio de la ONG. Además, las empresas deben poder demostrar qué datos poseen sobre las personas y de qué fuentes provienen«. »La información inexacta puede ser tolerable cuando los estudiantes usan ChatGPT para sus tareas, pero es inaceptable cuando se trata de información sobre individuos«, die el comunicado, »inventar información falsa es muy problemático en sí mismo, pero cuando se trata de información falsa sobre personas, puede tener graves consecuencias y está claro que, actualmente, las empresas no pueden regular los chatbots como ChatGPT de acuerdo a la legislación de la UE«. »Si un sistema no puede proporcionar datos precisos y resultados transparentes, no se debe utilizar para generar datos personales. La tecnología debe cumplir con los requisitos legales, y no al revés«, resuelve Maartje de Graaf
Datos personales
El origen de la demanda es una persona anónima que comprobó que ChatGPT tergiversa repetidamente su fecha de cumpleaños cuando se le formula la pregunta, en lugar de decirles a los usuarios que faltan los datos necesarios para elaborar la respuesta. Según Noyb, la persona se puso en contacto con OpenAI y pidió que se corrigieran los datos, pero la empresa estadounidense se negó y rechazó tyambién una solicitud de eliminación. El argumento fue que, técicamente, no era posible la corrección. Puede bloquear datos para determinadas solicitudes, como el nombre del denunciante, pero no sin impedir que ChatGPT filtre toda la información sobre el denunciante. «OpenAI tampoco respondió adecuadamente a la solicitud de información del denunciante. Aunque el RGPD otorga a los usuarios el derecho a solicitar una copia de todos los datos personales, OpenAI no reveló los datos procesados, sus fuentes ni sus destinatarios», dice Noyb, «la obligación de cumplir con una solicitud de información se aplica a todas las empresas y por supuesto es posible registrar los datos de formación utilizados para al menos tener una idea de las fuentes de información». «No se puede permitir que, con cada 'innovación', otro grupo de empresas imponga que sus productos no tienen que cumplir la ley», insiste.
Noyb ha pedido a la Autoridad Austriaca de Protección de Datos (DSB) que investigue las prácticas de procesamiento de datos de OpenAI, apuntando el interés particular sobre la cuestión de qué medidas ha tomado la empresa para garantizar la exactitud de los datos personales. Además, exige que OpenAI cumpla con la solicitud de información del denunciante y ajuste su procesamiento al RGPD, sin perjuicio de que las autoridades impongan una multa para garantizar el cumplimiento de la ley en el futuro.