«Si esta tecnología sale mal, puede salir bastante mal», dijo Altman.
Considerado como una oportunidad para educar a los legisladores, Altman aprovechó la sesión para instar al Congreso a imponer nuevas reglas a las grandes tecnologías, a pesar de las profundas divisiones políticas que durante años han bloqueado la legislación destinada a regular Internet.
Pero los gobiernos de todo el mundo están bajo presión para actuar rápidamente después del lanzamiento de ChatGPT, un bot que puede generar contenido similar al humano en un instante, se volvió viral y asombró y asustó a los usuarios.
Desde entonces, Altman se ha convertido en el rostro global de la IA, ya que impulsa la tecnología de su empresa, incluso a Microsoft y a decenas de otras empresas, y advierte que el trabajo podría tener efectos nefastos en la sociedad.
«OpenAI se fundó con la creencia de que la inteligencia artificial tiene el potencial de mejorar casi todos los aspectos de nuestras vidas, pero también crea riesgos graves», dijo Altman en la audiencia.
Insistió en que, con el tiempo, la IA generativa desarrollada por OpenAI «abordará algunos de los mayores desafíos de la humanidad, como el cambio climático y la cura del cáncer».
Sin embargo, dadas las preocupaciones sobre la desinformación, la seguridad laboral y otros peligros, «pensamos que la intervención regulatoria de los gobiernos será fundamental para mitigar los riesgos de modelos cada vez más poderosos», dijo.
IR «GLOBAL»
Altman sugirió que el gobierno de EE. UU. podría considerar una combinación de requisitos de licencia y prueba antes del lanzamiento de poderosos modelos de IA, con el poder de revocar permisos si se violan las reglas.
También recomendó el etiquetado y una mayor coordinación global en el establecimiento de reglas sobre la tecnología, así como la creación de una agencia estadounidense dedicada al manejo de la inteligencia artificial.
“Creo que Estados Unidos debería liderar aquí y hacer las cosas primero, pero para ser efectivos necesitamos algo global”, agregó.
Blumenthal subrayó que Europa ya había avanzado considerablemente con su Ley de IA que se someterá a votación el próximo mes en el Parlamento Europeo.
Un texto legislativo extenso, la medida de la UE podría ver prohibiciones en la vigilancia biométrica, el reconocimiento de emociones y ciertos sistemas policiales de IA.
Crucialmente para OpenAI, los legisladores estadounidenses subrayaron que también busca colocar los sistemas de IA generativa como ChatGPT y DALL-E en una categoría que requiere medidas especiales de transparencia, como notificaciones a los usuarios de que la salida fue realizada por una máquina.
DALL-E de OpenAI el año pasado provocó una carrera en línea para crear Van Goghs que se pareciera y ha hecho posible generar ilustraciones y gráficos con una simple solicitud.
Los legisladores también escucharon advertencias de que la tecnología aún estaba en sus primeras etapas.
«Hay más genios por venir por más botellas», dijo el profesor emérito de la Universidad de Nueva York, Gary Marcus, otro panelista.
«No tenemos máquinas que realmente puedan… mejorarse a sí mismas. No tenemos máquinas que tengan conciencia de sí mismas, y es posible que nunca queramos ir allí», dijo.
Christina Montgomery, directora de privacidad y confianza de IBM, instó a los legisladores a no ser demasiado amplios al establecer reglas sobre IA.
«Un chatbot que puede compartir recomendaciones de restaurantes o redactar un correo electrónico tiene un impacto diferente en la sociedad que un sistema que respalda las decisiones sobre crédito, vivienda o empleo», dijo.