in

OpenAI y sus rivales buscan un nuevo camino hacia una IA más inteligente a medida que los métodos actuales encuentran limitaciones

OpenAI y sus rivales buscan un nuevo camino hacia una IA más inteligente a medida que los métodos actuales encuentran limitaciones

Las empresas de inteligencia artificial como OpenAI están tratando de superar retrasos y desafíos inesperados en la búsqueda de modelos de lenguaje cada vez más grandes mediante el desarrollo de técnicas de entrenamiento que utilizan formas más humanas para que los algoritmos «piensen».

Una docena de científicos, investigadores e inversores en IA dijeron a Reuters que creen que estas técnicas, que están detrás del modelo o1 recientemente lanzado por OpenAI, podrían remodelar la carrera armamentista de la IA y tener implicaciones para los tipos de recursos que las empresas de IA tienen una demanda insaciable, desde energía a tipos de chips.

OpenAI se negó a hacer comentarios para esta historia. Después del lanzamiento del chatbot viral ChatGPT hace dos años, las empresas de tecnología, cuyas valoraciones se han beneficiado enormemente del auge de la IA, han sostenido públicamente que «ampliar» los modelos actuales mediante la adición de más datos y potencia informática conducirá consistentemente a modelos de IA mejorados.

Pero ahora, algunos de los científicos de IA más destacados están hablando de las limitaciones de esta filosofía de que “cuanto más grande, mejor”.

Ilya Sutskever, cofundador de los laboratorios de IA Safe Superintelligence (SSI) y OpenAI, dijo recientemente a Reuters que los resultados de la ampliación del entrenamiento previo, la fase de entrenamiento de un modelo de IA que utiliza una gran cantidad de datos sin etiquetar para comprender patrones y estructuras del lenguaje. – se han estancado.

A Sutskever se le atribuye ampliamente el mérito de ser uno de los primeros defensores de lograr avances masivos en el avance de la IA generativa mediante el uso de más datos y potencia informática en la capacitación previa, lo que finalmente creó ChatGPT. Sutskever dejó OpenAI a principios de este año para fundar SSI.

“La década de 2010 fue la era de la ampliación, ahora volvemos a la era de las maravillas y los descubrimientos. Todo el mundo está buscando lo siguiente”, dijo Sutskever. «Escalar lo correcto es más importante ahora que nunca».

Sutskever se negó a compartir más detalles sobre cómo su equipo está abordando el problema, aparte de decir que SSI está trabajando en un enfoque alternativo para ampliar la capacitación previa.

Detrás de escena, los investigadores de los principales laboratorios de IA se han enfrentado a retrasos y resultados decepcionantes en la carrera por lanzar un modelo de lenguaje grande que supere al modelo GPT-4 de OpenAI, que tiene casi dos años, según tres fuentes familiarizadas con asuntos privados.

Las llamadas «carreras de entrenamiento» para modelos grandes pueden costar decenas de millones de dólares si se ejecutan simultáneamente cientos de chips. Es más probable que tengan fallas inducidas por el hardware dado lo complicado que es el sistema; Es posible que los investigadores no conozcan el rendimiento final de los modelos hasta el final del experimento, lo que puede llevar meses.

Otro problema es que los grandes modelos lingüísticos devoran enormes cantidades de datos y los modelos de IA han agotado todos los datos fácilmente accesibles del mundo. La escasez de energía también ha dificultado los entrenamientos, ya que el proceso requiere grandes cantidades de energía.

Para superar estos desafíos, los investigadores están explorando la “computación en tiempo de prueba”, una técnica que mejora los modelos de IA existentes durante la llamada fase de “inferencia”, o cuando se utiliza el modelo. Por ejemplo, en lugar de elegir inmediatamente una única respuesta, un modelo podría generar y evaluar múltiples posibilidades en tiempo real y, en última instancia, elegir el mejor camino a seguir.

Este método permite que los modelos dediquen más potencia de procesamiento a tareas desafiantes como problemas matemáticos o de codificación u operaciones complejas que exigen un razonamiento y una toma de decisiones similares a los humanos.

«Resultó que hacer que un robot pensara durante sólo 20 segundos en una mano de póquer conseguía el mismo rendimiento que ampliar el modelo 100.000 veces y entrenarlo 100.000 veces más», dijo Noam Brown, investigador de OpenAI que trabajó el o1, en la conferencia TED AI en San Francisco el mes pasado.

OpenAI ha adoptado esta técnica en su modelo recién lanzado conocido como «o1», anteriormente conocido como Q* y Strawberry, que Reuters informó por primera vez en julio. El modelo O1 puede «pensar» en los problemas en varios pasos, similar al humano. El razonamiento también implica el uso de datos y comentarios seleccionados de doctores y expertos de la industria. La salsa secreta de la serie o1 es otro conjunto de capacitación realizada sobre modelos «básicos» como GPT-4, y la compañía dice que planea aplicar. esta técnica con más y más grande modelos básicos.

Al mismo tiempo, investigadores de otros importantes laboratorios de IA, de Anthropic, xAI y Google DeepMind, también han estado trabajando para desarrollar sus propias versiones de la técnica, según cinco personas familiarizadas con los esfuerzos.

«Vemos muchos frutos al alcance de la mano que podemos aprovechar para mejorar estos modelos muy rápidamente», dijo Kevin Weil, director de productos de OpenAI en una conferencia de tecnología en octubre. «Para cuando la gente se ponga al día, intentaremos estar tres pasos más por delante».

Google y xAI no respondieron a las solicitudes de comentarios y Anthropic no hizo comentarios de inmediato.

Las implicaciones podrían alterar el panorama competitivo para el hardware de IA, hasta ahora dominado por una demanda insaciable de chips de IA de Nvidia. Destacados inversores de capital de riesgo, desde Sequoia hasta Andreessen Horowitz, que han invertido miles de millones para financiar el costoso desarrollo de modelos de IA en múltiples laboratorios de IA, incluidos OpenAI y xAI, están tomando nota de la transición y sopesando el impacto en sus costosas apuestas.

«Este cambio nos llevará de un mundo de clusters masivos de preentrenamiento a nubes de inferencia, que son servidores de inferencia distribuidos y basados ​​en la nube», dijo a Reuters Sonya Huang, socia de Sequoia Capital.

La demanda de los chips de inteligencia artificial de Nvidia, que son los más avanzados, ha impulsado su ascenso hasta convertirse en la empresa más valiosa del mundo, superando a Apple en octubre. A diferencia de los chips de entrenamiento, donde domina Nvidia, el gigante de los chips podría enfrentarse a una mayor competencia en el mercado de inferencia.

Cuando se le preguntó sobre el posible impacto en la demanda de sus productos, Nvidia señaló las presentaciones recientes de la compañía sobre la importancia de la técnica detrás del modelo o1. Su director ejecutivo, Jensen Huang, ha hablado de la creciente demanda de utilizar sus chips para realizar inferencias.

«Ahora hemos descubierto una segunda ley de escala, y esta es la ley de escala en un momento de inferencia… Todos estos factores han llevado a que la demanda de Blackwell sea increíblemente alta», dijo Huang el mes pasado en una conferencia en India. , refiriéndose al último chip de IA de la compañía.

Fuente

Written by PyE

Rudy Giuliani, exabogado de Trump, amenazado con desacato

Rudy Giuliani, exabogado de Trump, amenazado con desacato

Las acciones asiáticas luchan mientras el plan de apoyo de China fracasa y el bitcoin alcanza un récord

Las acciones asiáticas luchan mientras el plan de apoyo de China fracasa y el bitcoin alcanza un récord