in

Comentario: Múltiples banderas rojas aún no están ralentizando el tren generativo de IA

LA NECESIDAD DE UNA MEJOR GOBERNANZA

Al menos tres hilos deben ser desmantelados en medio de la controversia. La primera, y más fácil de descartar, es la pánico moral que acompaña a casi todas las nuevas tecnologías, ya sean trenes de vapor, electricidad, automóviles o computadoras.

Incluso los ancianos de la Iglesia se opusieron inicialmente a la invención de Benjamin Franklin del aparentemente inocuo pararrayos por temor a que interfiriera con la «artillería del cielo». Por regla general, es mejor debatir cómo utilizar adecuadamente tecnologías comercialmente valiosas que maldecir su llegada.

La segunda es cómo los intereses comerciales tienden a coincidir con las posturas morales.

OpenAI comenzó en 2015 como un laboratorio de investigación sin fines de lucro, con la promesa de colaborar con socios externos para garantizar el desarrollo seguro de la IA. Pero en 2019, OpenAI cambió a un modelo con fines de lucro limitado, lo que le permitió recaudar fondos de capital de riesgo y emitir opciones sobre acciones para atraer a los mejores investigadores de IA. Desde entonces, ha atraído grandes inversiones de Microsoft y convertirse más en una entidad comercial cerrada. Dicho esto, al menos algunas de las críticas provienen de rivales interesados ​​en frenar el desarrollo de OpenAI.

Pero el tercer y más importante hilo es que muchos expertos serios en IA, bien familiarizados con los últimos avances, están realmente preocupados por la velocidad y la dirección del viaje. Sus preocupaciones se magnifican por la tendencia entre algunas grandes empresas tecnológicas, como Microsoft, Meta, Google y Amazon, de reducir sus equipos de ética.

Como escribió Gates en su publicación, las fuerzas del mercado por sí solas no abordarán las desigualdades sociales. Las organizaciones de la sociedad civil se están movilizando rápidamente y algunos gobiernos tienen como objetivo establecer una regulación más clara. Esta semana, el Reino Unido publicó un borrador de reglas a favor de la innovación sobre IA, mientras que la UE está redactando una directiva más estricta sobre el control del uso de la tecnología en dominios de alto riesgo. Pero por el momento estos esfuerzos parecen poco más que agitar una pequeña bandera roja ante un tren que acelera.

A menos que las empresas que lideran la revolución de la IA puedan demostrar de manera creíble que sus modelos están diseñados para alinearse con los mejores intereses de la humanidad, pueden esperar una reacción pública mucho más feroz. Las instituciones independientes expertas con el poder de auditar los algoritmos de las empresas de IA y restringir su uso deberían ser las siguientes en la agenda.

John Thornhill es el fundador de Sifted, un sitio respaldado por FT sobre nuevas empresas europeas.

Fuente

Publicado por PyE

Canciller alemán Scholz: conflicto en Ucrania podría durar de dos a cuatro años

Los mercados de bonos todavía están nerviosos, pero tienen motivos para estarlo