AUSTIN: Los rápidos avances en inteligencia artificial tienen el potencial de exacerbar los problemas sociales e incluso representar una amenaza existencial para la vida humana, aumentando la necesidad de una regulación global, dijeron expertos en IA en la conferencia MOMENTUM de Reuters esta semana.
La explosión de la IA generativa, que puede crear texto, fotos y videos en respuesta a indicaciones abiertas, en los últimos meses ha generado tanto entusiasmo por su potencial como temores de que podría volver obsoletos algunos trabajos, trastocar las economías e incluso posiblemente dominar a los humanos. .
«Estamos volando por la carretera en este automóvil de IA», dijo Ian Swanson, CEO y cofundador de Protect AI, que ayuda a las empresas a proteger sus sistemas de IA y aprendizaje automático, durante un panel MOMENTUM de Reuters el martes.
«Entonces, ¿qué debemos hacer? Necesitamos controles de seguridad. Necesitamos hacer el mantenimiento básico adecuado y necesitamos regulación».
Los reguladores no necesitan mirar más allá de las plataformas de redes sociales para comprender cómo el crecimiento descontrolado de una nueva industria puede tener consecuencias negativas, como la creación de una cámara de eco de información, dijo Seth Dobrin, presidente del Instituto de Inteligencia Artificial Responsable.
«Si ampliamos la brecha digital… eso conducirá a la disrupción de la sociedad», dijo Dobrin. «Los reguladores deben pensar en eso».
Ya se está preparando la regulación en varios países para abordar los problemas relacionados con la IA.
La Ley de IA propuesta por la Unión Europea, por ejemplo, clasificaría las aplicaciones de IA en diferentes niveles de riesgo, prohibiendo los usos considerados «inaceptables» y sometiendo las aplicaciones de «alto riesgo» a evaluaciones rigurosas.
Los legisladores estadounidenses presentaron el mes pasado dos proyectos de ley separados centrados en la IA, uno que requeriría que el gobierno de los EE. UU. sea transparente al usar la IA para interactuar con las personas y otro que establecería una oficina para determinar si Estados Unidos sigue siendo competitivo en las últimas tecnologías.
Una amenaza emergente contra la que los legisladores y los líderes tecnológicos deben protegerse es la posibilidad de que la IA haga que las armas nucleares sean aún más poderosas, dijo Anthony Aguirre, fundador y director ejecutivo del Future of Life Institute, en una entrevista en la conferencia.
El desarrollo de una IA cada vez más poderosa también correrá el riesgo de eliminar puestos de trabajo hasta el punto en que sea imposible para los humanos simplemente aprender nuevas habilidades e ingresar a otras industrias.
«Vamos a terminar en un mundo donde nuestras habilidades son irrelevantes», dijo.
El Future of Life Institute, una organización sin fines de lucro destinada a reducir los riesgos catastróficos de la inteligencia artificial avanzada, apareció en los titulares en marzo cuando publicó una carta abierta en la que pedía una pausa de seis meses en el entrenamiento de sistemas de IA más potentes que el GPT-4 de OpenAI. Advirtió que los laboratorios de IA se han «encerrado en una carrera fuera de control» para desarrollar «mentes digitales poderosas que nadie, ni siquiera sus creadores, pueden entender, predecir o controlar de manera confiable».
“Parece lo más obvio del mundo no poner a la IA en el mando y control nuclear”, dijo. «Eso no significa que no lo haremos, porque hacemos muchas cosas imprudentes».