Si bien no deberíamos comparar seriamente a GPT-4o con Samantha, plantea preocupaciones similares. Los compañeros de IA ya están aquí. A medida que la IA se vuelve más experta en imitar las emociones y comportamientos humanos, aumenta el riesgo de que los usuarios formen vínculos emocionales profundos. Esto podría conducir a una dependencia excesiva, manipulación e incluso daño.
Si bien OpenAI demuestra preocupación por garantizar que sus herramientas de IA se comporten de manera segura y se implementen de manera responsable, todavía tenemos que conocer las implicaciones más amplias de liberar IA carismáticas en el mundo. Los sistemas de IA actuales no están diseñados explícitamente para satisfacer las necesidades psicológicas humanas, un objetivo que es difícil de definir y medir.
Las impresionantes capacidades de GPT-4o muestran lo importante que es que tengamos algún sistema o marco para garantizar que las herramientas de IA se desarrollen y utilicen de manera alineada con los valores y prioridades públicas.
AMPLIAR CAPACIDADES
GPT-4o también puede funcionar con vídeo (del usuario y su entorno, a través de la cámara de un dispositivo o vídeos pregrabados) y responder de forma conversacional. En las demostraciones de OpenAI, GPT-4o comenta sobre el entorno y la ropa del usuario, reconoce objetos, animales y texto y reacciona a las expresiones faciales.
El asistente de IA del Proyecto Astra de Google, presentado apenas un día después del GPT-4o, muestra capacidades similares. También parece tener memoria visual: en uno de los vídeos promocionales de Google, ayuda a una usuaria a encontrar sus gafas en una oficina ocupada, aunque actualmente no sean visibles para la IA.