Ai en el campo de batalla
Sin embargo, la noción de que los principios éticos también deben «evolucionar» con el mercado es incorrecta. Sí, estamos viviendo en un paisaje geopolítico cada vez más complejo, como lo describe Hassabis, pero abandonar un código de ética para la guerra podría generar consecuencias que se desvanecen.
Traiga la IA al campo de batalla y podrían obtener sistemas automatizados que respondan entre sí a la velocidad de la máquina, sin tiempo para la diplomacia. La guerra podría volverse más letal, a medida que los conflictos aumentan antes de que los humanos tengan tiempo de intervenir. Y la idea del combate automatizado «limpio» podría obligar a más líderes militares a la acción, a pesar de que los sistemas de IA cometen muchos errores y también podrían crear bajas civiles.
La toma de decisiones automatizada es el verdadero problema aquí. A diferencia de la tecnología anterior que hizo que los militares hicieran más eficientes o poderosos, los sistemas de IA pueden cambiar fundamentalmente quién (o qué) toma la decisión de tomar la vida humana.
También es preocupante que Hassabis, de todas las personas, tenga su nombre en la justificación cuidadosamente redactada de Google. Cantó una melodía muy diferente en 2018, cuando la compañía estableció sus principios de IA y se unió a más de 2,400 personas en IA para poner sus nombres en una promesa de no trabajar en armas autónomas.
Menos de una década después, esa promesa no ha contado mucho. William Fitzgerald, ex miembro del equipo de políticas de Google y cofundador de la agencia de trabajadores, una firma de políticas y comunicaciones, dice que Google había estado bajo intensa presión durante años para recoger contratos militares.
Recordó al ex secretario de defensa adjunto de los Estados Unidos, Patrick Shanahan, visitando la sede de Sunnyvale, California, la sede del negocio de la nube de Google en 2017, mientras que el personal de la unidad estaba construyendo la infraestructura necesaria para trabajar en proyectos militares de alto secreto con el Pentágono. La esperanza de contratos fue fuerte.
Fitzgerald ayudó a detener eso. Coorganizó las protestas de la compañía sobre Project Maven, un acuerdo que Google hizo con el Departamento de Defensa para desarrollar IA para analizar imágenes de drones, que los Googlers temían que pudieran conducir a la orientación automatizada. Unos 4.000 empleados firmaron una petición que declaró: «Google no debería estar en el negocio de la guerra», y aproximadamente una docena renunció en protesta. Google finalmente cedió y no renovó el contrato.
Mirando hacia atrás, Fitzgerald lo ve como un error. «Fue una anomalía en la trayectoria de Silicon Valley», dijo.