WASHINGTON: ChatGPT, un programa de inteligencia artificial de rápido crecimiento, ha recibido elogios por su capacidad para escribir respuestas rápidamente a una amplia gama de consultas y atrajo la atención de los legisladores estadounidenses con preguntas sobre su impacto en la seguridad nacional y la educación.
Se estimó que ChatGPT alcanzó los 100 millones de usuarios activos mensuales solo dos meses después del lanzamiento, lo que la convirtió en la aplicación para consumidores de más rápido crecimiento en la historia y en un objetivo cada vez mayor para la regulación.
Fue creado por OpenAI, una empresa privada respaldada por Microsoft Corp, y se puso a disposición del público de forma gratuita. Su ubicuidad ha generado temor de que la IA generativa como ChatGPT pueda usarse para difundir desinformación, mientras que a los educadores les preocupa que los estudiantes la usen para hacer trampa.
El representante Ted Lieu, un demócrata en el Comité de Ciencias de la Cámara de Representantes, dijo en un artículo de opinión reciente en el New York Times que estaba entusiasmado con la IA y las «increíbles formas en que continuará haciendo avanzar a la sociedad», pero también «asustado por IA, específicamente IA que no se controla ni se regula».
Lieu presentó una resolución escrita por ChatGPT que decía que el Congreso debería centrarse en la IA «para garantizar que el desarrollo y la implementación de la IA se realicen de manera segura, ética y que respete los derechos y la privacidad de todos los estadounidenses, y que los beneficios de la La IA está ampliamente distribuida y los riesgos se minimizan».
En enero, el director ejecutivo de OpenAI, Sam Altman, fue al Capitolio, donde se reunió con legisladores orientados a la tecnología, como los senadores Mark Warner, Ron Wyden y Richard Blumenthal y el representante Jake Auchincloss, según asesores de los legisladores demócratas.
Un asistente de Wyden dijo que el legislador presionó a Altman sobre la necesidad de asegurarse de que la IA no incluyera sesgos que conducirían a la discriminación en el mundo real, como la vivienda o el trabajo.
«Si bien el senador Wyden cree que la IA tiene un tremendo potencial para acelerar la innovación y la investigación, está muy concentrado en garantizar que los sistemas automatizados no automaticen la discriminación en el proceso», dijo Keith Chu, asistente de Wyden.
Un segundo asistente del Congreso describió que las discusiones se centraron en la velocidad de los cambios en la IA y cómo podría usarse.
Impulsado por las preocupaciones sobre el plagio, ChatGPT ya ha sido prohibido en las escuelas de Nueva York y Seattle, según informes de los medios. Un asistente del Congreso dijo que la preocupación que escuchaban de los electores provenía principalmente de educadores centrados en hacer trampa.
OpenAI dijo en un comunicado: «No queremos que ChatGPT se use con fines engañosos en las escuelas o en cualquier otro lugar, por lo que ya estamos desarrollando mitigaciones para ayudar a cualquiera a identificar el texto generado por ese sistema».
En una entrevista con Time, Mira Murati, directora de tecnología de OpenAI, dijo que la compañía agradece los aportes, incluidos los de los reguladores y los gobiernos. «No es demasiado pronto (para que los reguladores se involucren)», dijo.
Andrew Burt, socio gerente de BNH.AI, un bufete de abogados centrado en la responsabilidad de la IA, señaló las preocupaciones de seguridad nacional y agregó que ha hablado con los legisladores que están estudiando si regular ChatGPT y sistemas de IA similares como Bard de Google, aunque él dijo que no podía revelar sus nombres.
«Toda la propuesta de valor de este tipo de sistemas de IA es que pueden generar contenido a escalas y velocidades que los humanos simplemente no pueden», dijo.
«Yo esperaría que actores maliciosos, actores no estatales y actores estatales que tienen intereses contradictorios con los de Estados Unidos utilicen estos sistemas para generar información que podría ser incorrecta o perjudicial».
ChatGPT, cuando se le preguntó cómo debería regularse, objetó y dijo: «Como modelo neutral de lenguaje de IA, no tengo una postura sobre leyes específicas que pueden o no promulgarse para regular sistemas de IA como yo». Pero luego pasó a enumerar áreas potenciales de enfoque para los reguladores, como la privacidad de los datos, el sesgo y la equidad, y la transparencia en la forma en que se escriben las respuestas.