WASHINGTON (AP) — La Casa Blanca recibirá el jueves a los directores ejecutivos de las principales empresas de inteligencia artificial, incluidas Google y Microsoft de Alphabet Inc, para analizar los riesgos y las salvaguardas a medida que la tecnología capta la atención de gobiernos y legisladores de todo el mundo.
La inteligencia artificial generativa se ha convertido en una palabra de moda este año, con aplicaciones como ChatGPT captando la atención del público, provocando una carrera entre las empresas para lanzar productos similares que creen que cambiarán la naturaleza del trabajo.
Millones de usuarios han comenzado a probar dichas herramientas, que según sus partidarios pueden hacer diagnósticos médicos, escribir guiones, crear informes legales y depurar software, lo que genera una creciente preocupación sobre cómo la tecnología podría conducir a violaciones de privacidad, decisiones de empleo sesgadas y estafas de poder e información errónea. campañas
«Nuestro objetivo es tener una discusión franca sobre los riesgos que vemos en el desarrollo de IA actual y a corto plazo», dijo un alto funcionario de la administración, hablando bajo condición de anonimato debido a la sensibilidad del asunto. «Nuestra estrella polar aquí es esta idea de que si vamos a aprovechar estos beneficios, tenemos que empezar por gestionar los riesgos».
La reunión del jueves incluirá a Sundar Pichai de Google, Satya Nadella de Microsoft, Sam Altman de OpenAI y Dario Amodei de Anthropic junto con la vicepresidenta Kamala Harris y funcionarios de la administración, incluido el jefe de gabinete de Biden, Jeff Zients, el asesor de seguridad nacional Jake Sullivan, el director del Consejo Económico Nacional Lael Brainard y la Secretaria de Comercio Gina Raimondo.
Antes de la reunión, la administración anunció una inversión de $ 140 millones de la Fundación Nacional de Ciencias para lanzar siete nuevos institutos de investigación de IA y dijo que la Oficina de Administración y Presupuesto de la Casa Blanca publicaría una guía de políticas sobre el uso de IA por parte del gobierno federal. Los principales desarrolladores de IA, incluidos Anthropic, Google, Hugging Face, NVIDIA, OpenAI y Stability AI, participarán en una evaluación pública de sus sistemas de IA en AI Village en DEFCON 31, una de las convenciones de hackers más grandes del mundo, y ejecutarán en una plataforma creada por Scale AI y Microsoft.
Poco después de que Biden anunciara su candidatura a la reelección, el Comité Nacional Republicano produjo un video que presenta un futuro distópico durante un segundo mandato de Biden, que se construyó completamente con imágenes de IA.
Se espera que estos anuncios políticos se vuelvan más comunes a medida que prolifere la tecnología de IA.
Los reguladores de los Estados Unidos no han alcanzado el enfoque estricto que los gobiernos europeos han adoptado en la regulación tecnológica y en la elaboración de reglas estrictas sobre falsificaciones profundas y desinformación que las empresas deben seguir o arriesgarse a fuertes multas.
«No vemos esto como una carrera», dijo el funcionario de la administración, y agregó que la administración está trabajando en estrecha colaboración con el Consejo de Comercio y Tecnología de EE. UU. Y la UE sobre el tema.
En febrero, Biden firmó una orden ejecutiva que ordena a las agencias federales que eliminen el sesgo en el uso de la IA. La administración Biden también ha publicado una Declaración de derechos de AI y un marco de gestión de riesgos.
La semana pasada, la Comisión Federal de Comercio y la División de Derechos Civiles del Departamento de Justicia también dijeron que usarían sus autoridades legales para luchar contra los daños relacionados con la IA.
Los gigantes tecnológicos se han comprometido muchas veces a combatir la propaganda sobre las elecciones, las noticias falsas sobre las vacunas contra el COVID-19, los mensajes racistas y sexistas, la pornografía y la explotación infantil, y los mensajes de odio dirigidos a grupos étnicos.
Pero no han tenido éxito, según muestran las investigaciones y los eventos noticiosos. Aproximadamente uno de cada cinco artículos de noticias falsas en inglés en seis de las principales plataformas de redes sociales fueron etiquetados como engañosos o eliminados, según descubrió un estudio reciente de la ONG activista Avaaz, y los artículos en otros idiomas europeos no fueron marcados.