Desbloquea el Editor’s Digest gratis
Roula Khalaf, editora del FT, selecciona sus historias favoritas en este boletín semanal.
Puede sonar un poco a trama de ciencia ficción, pero en el futuro la inteligencia artificial podría alcanzar un punto de rápida superación personal, evadir el control humano y desatar el caos sobre los humanos mediante ataques cibernéticos o incluso desastres nucleares. Ésa es la preocupación de algunos científicos y desarrolladores, y fue la motivación para un proyecto de ley de seguridad de la IA en California, donde se encuentran 32 de las 50 principales empresas de IA del mundo. Pero el domingoel gobernador del estado, Gavin Newsom, vetó la legislación. La decisión se considera una gran victoria para las grandes empresas tecnológicas, una decisión imprudente para la seguridad pública y una oportunidad perdida para establecer estándares de facto de seguridad de la IA a nivel nacional. No es tan simple.
Establecer reglas para proteger contra los daños potenciales de una tecnología, particularmente una que aún está en desarrollo, es un acto de equilibrio complicado. Si es demasiado autoritario, se corre el riesgo de sofocar la innovación, lo que significa que la sociedad también pierde sus beneficios potenciales. Y, aunque el proyecto de ley de California fue diluido tras una intensa presión de Silicon Valley, aún persisten las incertidumbres sobre su efecto en el desarrollo y despliegue de la IA.
Un objetivo amplio del proyecto de ley de California era aumentar la responsabilidad de los desarrolladores por el mal uso de sus modelos. Por muy admirable que sea, puede tener efectos secundarios. Por ejemplo, a los desarrolladores les resulta difícil saber ex ante cómo se podría utilizar su tecnología. Podrían reconciliar eso alejándose de la investigación. Expertos en IA También le preocupaba que los protocolos de seguridad del proyecto de ley, que incluían el requisito de que las empresas construyeran un «interruptor de apagado» en los modelos que superaran un cierto umbral, pudieran desalentar el desarrollo y el uso de modelos de código abierto, donde se lleva a cabo gran parte de la innovación.
Otra preocupación era que la legislación no se centraba específicamente en los sistemas de IA utilizados en entornos de alto riesgo, como en infraestructuras críticas, o si utilizaban datos confidenciales. Aplicó normas estrictas incluso funciones básicas.
Dadas estas preocupaciones, la decisión de Newsom parece razonable. Eso, sin embargo, no significa empresas tecnológicas debería tener una carrera libre. A medida que la carrera de la IA gana velocidad, existe una preocupación genuina de que los constructores de modelos puedan pasar por alto los puntos débiles. Por lo tanto, tendría sentido que los legisladores revisen ahora las reglas propuestas y aclaren la redacción vaga, para equilibrar mejor las preocupaciones en torno al impacto en la innovación actual. Newsom anunció una asociación prometedora con expertos para desarrollar “barandillas viables”. También es positivo que el gobernador haya firmado recientemente proyectos de ley destinados a regular de forma clara y presente AI riesgos, en lugar de hipotéticos, incluidos los relacionados con deepfakes y desinformación.
Si bien el liderazgo de California en materia de regulación de la IA es encomiable, también sería mejor si reglas de seguridad fueron debatidos y promulgados a nivel federal. Eso proporcionaría protecciones en todo Estados Unidos, evitaría que surgiera un mosaico de leyes estatales diferentes y evitaría poner al Estado Dorado, el epicentro de la innovación estadounidense y global en IA, en una desventaja competitiva.
De hecho, aunque el atractivo del grupo de inversores y talentos de Silicon Valley sigue siendo fuerte, existe el riesgo de que una regulación unilateral y demasiado estricta de la IA pueda impulsar el desarrollo de modelos en otros lugares, debilitando en el proceso el ecosistema tecnológico de IA del estado. Tal como están las cosas, California tiene impuestos altos y es el país más estado regulado en los EE.UU. La propiedad también es cara. Empresas como la empresa estadounidense de análisis de datos Palantir y la corredora Charles Schwab abandonaron el estado recientemente, y algunas empresas de tecnología han recortado espacio para oficinas.
Gestionar las preocupaciones de seguridad en torno al desarrollo de la IA es un arte para preservar lo bueno y al mismo tiempo protegerse contra lo malo. Las amenazas tecnológicas a nuestras sociedades no deben tomarse a la ligera, pero tampoco deben impedir el surgimiento de una innovación que podría ayudar a diagnosticar enfermedades, acelerar la investigación científica e impulsar la productividad. Vale la pena hacer el esfuerzo para hacerlo bien.