in

Las herramientas de administración de IA representan una amenaza para la seguridad nacional

NIPRGPT logo

Manténgase informado con actualizaciones gratuitas

El escritor es científico jefe de IA en el AI Now Institute.

La inteligencia artificial ya se utiliza en el campo de batalla. La adopción acelerada está a la vista. Este año, Meta, Anthropic y OpenAI declararon que sus modelos básicos de IA estaban disponibles para su uso por parte de la seguridad nacional de EE. UU. La guerra con IA es controvertida y ampliamente criticada. Pero ya se ha integrado discretamente en el ejército estadounidense un conjunto más insidioso de casos de uso de la IA.

A primera vista, las tareas para las que se utilizan los modelos de IA pueden parecer insignificantes. Ayudan con las comunicaciones, la codificación, la resolución de tickets de TI y el procesamiento de datos. El problema es que incluso las aplicaciones banales pueden presentar riesgos. La facilidad con la que se están desplegando podría comprometer la seguridad de la infraestructura civil y de defensa.

Tomemos como ejemplo el Comando África de EE.UU., uno de los comandos combatientes del Departamento de Defensa de EE.UU., que ha sido explícito sobre el uso de una herramienta OpenAI para “análisis unificados para el procesamiento de datos”.

Estas tareas administrativas pueden contribuir a decisiones de misión crítica. Sin embargo, como lo han demostrado repetidas demostraciones, las herramientas de IA fabrican constantemente resultados (conocidos como alucinaciones) e introducen nuevas vulnerabilidades. Su uso podría dar lugar a una acumulación de errores. Como USAfricom es una fuerza de guerra, con el tiempo pequeños errores podrían resultar en decisiones que causen daños a civiles y errores tácticos.

USAfricom no está solo. Este año, la Fuerza Aérea y la Fuerza Espacial de EE. UU. lanzaron un chatbot generativo de IA llamado Transformador de preentrenamiento generativo de protocolo de Internet no clasificado, o NIPRGPT. Puede «responder preguntas y ayudar con tareas como correspondencia, documentos de antecedentes y código». Mientras tanto, la Marina ha desarrollado un modelo de herramienta de soporte técnico de IA conversacional al que llama Amelia.

Las organizaciones militares justifican su uso de modelos de IA afirmando que mejoran la eficiencia, la precisión y la escalabilidad. En realidad, su obtención y adopción revelan una preocupante falta de conciencia sobre los riesgos que plantean.

Estos riesgos incluyen adversarios. envenenamiento conjuntos de datos en los que se entrenan los modelos, lo que les permite subvertir los resultados cuando ciertos desencadenar palabras clave se utilizan, incluso en sistemas supuestamente «seguros». Los adversarios también podrían convertir las alucinaciones en un arma.

A pesar de esto, las organizaciones militares estadounidenses no han abordado ni dado garantías sobre cómo pretenden proteger la infraestructura de defensa crítica.

La falta de idoneidad para el propósito plantea tantos riesgos de seguridad, si no más, como los ataques deliberados. La naturaleza de los sistemas de IA es proporcionar resultados basados ​​en correlaciones estadísticas y probabilísticas de datos históricos, no en evidencia fáctica, razonamiento o “causalidad”. Tome la generación de código y las tareas de TI, donde investigadores en la Universidad de Cornell el año pasado descubrieron que ChatGPT, GitHub Copilot y Amazon CodeWhisperer de OpenAI generaban código correcto solo el 65,2 por ciento, 46,3 por ciento y 31,1 por ciento de las veces, respectivamente.

Aunque las empresas de IA nos aseguran que están trabajando en mejoras, lo que es innegable es que las tasas de error actuales son demasiado altas para aplicaciones que requieren precisión, exactitud y seguridad. La dependencia excesiva y la confianza en las herramientas podrían hacer que los usuarios pasar por alto sus errores también.

Esto plantea la pregunta: ¿cómo se ha permitido a las organizaciones militares adquirir IA e implementar modelos con facilidad?

Una respuesta proviene del hecho de que parecen considerarse una extensión de la infraestructura de TI, cuando en realidad podrían usarse como herramientas analíticas que pueden alterar los resultados de misiones cruciales. Esta capacidad de clasificar el uso de la IA como infraestructura, sin pasar por los canales de adquisición apropiados que los evalúan como adecuados para fines de misión crítica, debería hacernos reflexionar.

En la búsqueda de posibles eficiencias futuras, el uso de herramientas administrativas de IA por parte de agencias militares introduce riesgos reales. Se trata de una compensación que sus supuestos beneficios no pueden justificar.

Fuente

Written by PyE

Lockheed forma una filial para ayudar a las empresas de defensa a adoptar la IA

Lockheed forma una filial para ayudar a las empresas de defensa a adoptar la IA

Volodin ordenó descubrir por qué Napso no asiste a las reuniones de la Duma Estatal

Volodin ordenó descubrir por qué Napso no asiste a las reuniones de la Duma Estatal