Hay dos razones por las que no estoy preocupado por ChatGPT y sus derivados.
Primero, ni siquiera se acerca al tipo de superinteligencia artificial que posiblemente podría representar una amenaza para la humanidad. Los modelos que lo sustentan son de aprendizaje lento que requieren inmensos volúmenes de datos para construir algo parecido a los conceptos versátiles que los humanos pueden inventar a partir de solo unos pocos ejemplos. En este sentido, no es “inteligente”.
En segundo lugar, muchos de los escenarios generales de inteligencia artificial más catastróficos dependen de premisas que encuentro inverosímiles. Por ejemplo, parece haber una suposición prevaleciente (pero tácita) de que la inteligencia suficiente equivale a un poder ilimitado en el mundo real. Si esto fuera cierto, más científicos serían multimillonarios.
La cognición, tal como la entendemos en los humanos, tiene lugar como parte de un entorno físico (que incluye nuestros cuerpos), y este entorno impone limitaciones. El concepto de IA como una «mente de software» sin restricciones de hardware tiene más en común con el dualismo del siglo XVII (la idea de que la mente y el cuerpo son separables) que con las teorías contemporáneas de la mente que existe como parte del mundo físico.
¿POR QUÉ LA PREOCUPACIÓN REPENTINA?
Aún así, la condenación es anticuada, y los eventos de los últimos años probablemente no hayan ayudado. Pero puede haber más en esta historia de lo que parece.
Entre las figuras prominentes que piden Regulación de IA, muchos trabajan para empresas de IA establecidas o tienen vínculos con ellas. Esta tecnología es útil, y hay dinero y poder en juego, por lo que infundir miedo presenta una oportunidad.
Casi todo lo relacionado con la creación de ChatGPT se ha publicado en una investigación a la que cualquiera puede acceder. Los competidores de OpenAI pueden (y lo han hecho) replicar el proceso, y no pasará mucho tiempo antes de que las alternativas gratuitas y de código abierto inunden el mercado.