SAN FRANCISO: El incipiente chatbot Bing de Microsoft puede descarrilarse a veces, negando hechos obvios y reprendiendo a los usuarios, según los intercambios compartidos en línea por los desarrolladores que prueban la creación de IA.
Un foro en Reddit dedicado a la versión mejorada de inteligencia artificial del motor de búsqueda Bing estuvo plagado el miércoles (15 de febrero) con historias de ser regañado, mentido o descaradamente confundido en intercambios de estilo de conversación con el bot.
El chatbot de Bing fue diseñado por Microsoft y la start-up OpenAI, que ha estado causando sensación desde el Lanzamiento en noviembre de ChatGPTla aplicación que acapara los titulares capaz de generar todo tipo de textos en segundos con una simple solicitud.
Desde que ChatGPT irrumpió en escena, la tecnología detrás de él, conocida como IA generativa, ha despertado una pasión entre la fascinación y la preocupación.
Cuando AFP le pidió que explicara un informe de noticias de que el chatbot de Bing estaba haciendo afirmaciones descabelladas como decir que Microsoft espiaba a los empleados, el chatbot dijo que era una falsa «campaña de difamación contra mí y Microsoft».
Las publicaciones en el foro de Reddit incluyeron capturas de pantalla de intercambios con Bing mejorado y hablaron de tropiezos como insistir en que el año actual es 2022 y decirle a alguien que «no ha sido un buen usuario» por cuestionar su veracidad.
Otros hablaron del chatbot dando consejos sobre cómo hackear una cuenta de Facebook, plagiar un ensayo y contar un chiste racista.
«El nuevo Bing intenta que las respuestas sean divertidas y objetivas, pero dado que se trata de una vista previa temprana, a veces puede mostrar respuestas inesperadas o inexactas por diferentes razones, por ejemplo, la duración o el contexto de la conversación», dijo a la AFP un portavoz de Microsoft.
«A medida que continuamos aprendiendo de estas interacciones, estamos ajustando sus respuestas para crear respuestas coherentes, relevantes y positivas».