
ARTDEPARTMENT

La irrupción de DeepSeek y su maniquí DeepSeek R1 ha generado un terremoto en la industria de la IA. Este maniquí chino de código amplio no solo ha captado la atención mediática, sino que asimismo ha provocado un impacto significativo en los mercados, afectando incluso a gigantes tecnológicos como NVIDIA (con una caída del 16,1 % en sus acciones).
De modo que la pregunta que todos nos hacemos ahora es, ¿cómo responderá OpenAI a este nuevo desafío?
El maniquí DeepSeek R1 representa una desarrollo tecnológica que ha sacudido las bases del sector. Este maniquí razonador, desarrollado en China (pero, frente a todo, desarrollado como un maniquí open source), ha demostrado estar a la valor de las mejores soluciones de OpenAI, como GPT-4 y 'o1', a una fracción de su costo.
A diferencia de los modelos tradicionales que generan respuestas inmediatas, los modelos razonadores emplean un longevo tiempo de computación para producir resultados más precisos y contextualizados. OpenAI lideró inicialmente este tipo con la ingreso de 'o1' , pero DeepSeek ha llevado esta idea un paso más allá.
La aparición de DeepSeek plantea ahora interrogantes sobre el maniquí de negocio de OpenAI y otras empresas occidentales que han invertido miles de millones en infraestructura de computación. Sin confiscación, las innovaciones que aporta DeepSeek no cambian el hecho de que tener llegada a computación de detención rendimiento es un aspecto fundamental para mantenerse a la vanguardia: sencillamente, permiten sacarle mucho más provecho al hardware ya existente.

Horas luego de que su patrón Sam Altman se pronunciara por primera vez sobre DeepSeek, Mark Chen, director patrón de investigación de OpenAI, ha ampliado la postura de su compañía sobre su imprevisto nuevo rival.
Según Chen, el 'paper' publicado por los desarrolladores de DeepSeek demuestra que han llegado de forma independiente a ideas secreto que OpenAI asimismo descubrió durante el proceso de exposición de su maniquí 'o1'. Les da la enhorabuena por ello...
... pero asimismo señala que la respuesta externa al logro de DeepSeek ha sido "poco exagerada", especialmente en lo que respecta a las narrativas sobre los costos. Según él, uno de los aspectos más interesantes de los avances en modelos de razonamiento es la posibilidad de optimizar capacidades a lo dilatado de dos ejes diferentes: el pre-entrenamiento y el razonamiento.
Esta optimización dual permite acortar costos, pero asimismo implica nuevos desafíos. En palabras de Chen, "tener dos ejes para ascender significa que ahora podemos ofrendar una enorme cantidad de posibles computacionales a los dos".

Uno de los puntos más destacados del descomposición de Chen es que los costos de implementar y ascender modelos de IA no están necesariamente vinculados al exposición de mayores capacidades. En su opinión, los avances en técnicas de destilación de modelos ya están permitiendo que la reducción de costos y la mejoramiento de capacidades sean objetivos cada vez más independientes.
Esto tendrá importantes implicaciones para la industria de la IA, porque mientras que algunas compañías del sector buscarán minimizar los costos para aplicaciones más accesibles y prácticas, otros no dejarán de forzar el tope de sus capacidades, incluso si eso significa mayores inversiones en computación.
Chen reafirma que OpenAI continuará trabajando en ambas áreas: acortar los costos de ejecutar modelos (especialmente a mayores latencias) y, al mismo tiempo, seguir avanzando en la capacidad de los mismos. Su hilo concluye con el anuncio de que OpenAI planea propalar nuevos modelos aún más avanzados a lo dilatado de "este trimestre y durante todo el año".
Imagen | Marcos Merino mediante IA
En Genbeta | DeepSeek ha cambiado en un día el maniquí que teníamos de IA de 'cuanto más mejor': su primera víctima ha sido Nvidia
Compartir este artículo
Consultoria Personalizada
¡Si aun no tienes presencia en internet o
necesitas ayuda con tus proyectos, por favor, escribenos!