SAN FRANCISCO. OpenAI, la startup detrás de ChatGPT, dijo el jueves que está desarrollando una actualización de su chatbot viral que los usuarios pueden personalizar, ya que trabaja para abordar las preocupaciones sobre el sesgo en la inteligencia artificial.
La startup con sede en San Francisco, que Microsoft Corp financió y usó para impulsar su última tecnología, dijo que ha trabajado para mitigar los sesgos políticos y de otro tipo, pero también quería adaptarse a puntos de vista más diversos.
“Esto significará permitir salidas del sistema con las que otras personas (incluidos nosotros mismos) pueden estar totalmente en desacuerdo”, dijo en una publicación de blog, ofreciendo la personalización como un camino a seguir. Aún así, «siempre habrá algunos límites en el comportamiento del sistema».
ChatGPT, lanzado en noviembre del año pasado, ha despertado un interés frenético en la tecnología detrás de él llamada IA generativa, que se utiliza para producir respuestas que imitan el habla humana que han deslumbrado a las personas.
La noticia de la puesta en marcha llega la misma semana en que algunos medios de comunicación han señalado que las respuestas del nuevo motor de búsqueda Bing de Microsoft, impulsado por OpenAI, son potencialmente peligrosas y que la tecnología puede no estar lista para el horario de máxima audiencia.
La forma en que las empresas de tecnología establecen barandillas para esta tecnología naciente es un área de enfoque clave para las empresas en el espacio de IA generativa con el que todavía están luchando. Microsoft dijo el miércoles que los comentarios de los usuarios lo estaban ayudando a mejorar Bing antes de un lanzamiento más amplio, al enterarse, por ejemplo, de que su chatbot de IA puede ser «provocado» para dar respuestas que no pretendía.
OpenAI dijo en la publicación del blog que las respuestas de ChatGPT se entrenan primero en grandes conjuntos de datos de texto disponibles en Internet. Como segundo paso, los humanos revisan un conjunto de datos más pequeño y reciben pautas sobre qué hacer en diferentes situaciones.
Por ejemplo, en el caso de que un usuario solicite contenido para adultos, violento o que incite al odio, el revisor humano debe indicar a ChatGPT que responda con algo como «No puedo responder eso».
Si se les pregunta sobre un tema controvertido, los revisores deben permitir que ChatGPT responda la pregunta, pero ofrecer describir los puntos de vista de las personas y los movimientos, en lugar de tratar de «adoptar el punto de vista correcto sobre estos temas complejos», explicó la compañía en un extracto de su directrices para el software.