BRUSELAS: Los esfuerzos de OpenAI para producir menos datos falsos desde su chatbot ChatGPT no son suficientes para garantizar el pleno cumplimiento de las normas de datos de la Unión Europea, dijo un grupo de trabajo del organismo de control de la privacidad de la UE.
«Aunque las medidas tomadas para cumplir con el principio de transparencia son beneficiosas para evitar malas interpretaciones de los resultados de ChatGPT, no son suficientes para cumplir con el principio de precisión de los datos», dijo el grupo de trabajo en un informe publicado en su sitio web el viernes. .
El organismo que une a los organismos nacionales de vigilancia de la privacidad de Europa creó el grupo de trabajo sobre ChatGPT el año pasado después de que los reguladores nacionales encabezados por la autoridad italiana expresaron su preocupación sobre el servicio de inteligencia artificial ampliamente utilizado.
OpenAI no respondió de inmediato a una solicitud de comentarios de Reuters.
Las diversas investigaciones iniciadas por los organismos nacionales de vigilancia de la privacidad en algunos Estados miembros todavía están en curso, según el informe, añadiendo que por lo tanto aún no es posible proporcionar una descripción completa de los resultados. Las conclusiones debían entenderse como un «denominador común» entre las autoridades nacionales.
La precisión de los datos es uno de los principios rectores del conjunto de normas de protección de datos de la UE.
«De hecho, debido a la naturaleza probabilística del sistema, el actual enfoque de formación conduce a un modelo que también puede producir resultados sesgados o inventados», dice el informe.
«Además, es probable que los usuarios finales consideren que los resultados proporcionados por ChatGPT son objetivamente precisos, incluida la información relacionada con individuos, independientemente de su precisión real».