ARTDEPARTMENT

Solicitar una consulta

no tenemos ventaja competitiva... y OpenAI tampoco

Publicado el 
enero 31, 2025

En estos días, la IA de DeepSeek ha estado sacudiendo el mercado tecnológico mundial: su chatbot regalado superó en descargas a ChatGPT en la App Store de iOS y ha provocado un desplome del 18% en las acciones de NVIDIA y despertando temores en Silicon Valley sobre el dominio estadounidense en la IA.

Sin retención, este tablado no ha tomado (o no debería acontecer tomado) por sorpresa a todos. En Google, algunos expertos ya advirtieron hace casi dos primaveras que la irrupción de un competidor 'open source' era solo cuestión de tiempo.

'Sgroogled.com': cuando MICROSOFT lanzaba anuncios ANTI-GOOGLE

Una revolución anunciada

A mediados de 2023 se filtraba un noticia interno de Google que señalaba que la tendencia cerca de modelos de IA de código franco no solo era imparable, sino que pondría en peligro el predominio de las grandes tecnológicas en el sector. En aquel momento, sin retención, la atención del mundo estaba centrada en el divulgación de GPT-4 por parte de OpenAI y en la carrera entre Microsoft y Google por liderar la revolución de los chatbots con IA.

Uno de los argumentos esencia del noticia era que el maniquí de negocio de OpenAI y Google, basado en ofrecer llegada restringido a potentes modelos propietarios, no sería sostenible a dadivoso plazo:

"Si perfectamente los modelos cerrados aún tienen ventajas en términos de calidad y control, la velocidad de innovación del código franco es imparable".

De hecho, Google ya había experimentado esta presión de primera mano con la aparición de LLaMA de Meta y otros modelos abiertos que, aunque menos avanzados en aquel momento, mostraban un rápido crecimiento.

Semanas
Semanas

La velocidad de innovación de la que hacía ya vestidura la IA open source (primeras tres columnas)

El noticia abordaba cómo el ecosistema de código franco estaba logrando lo que parecía impensable: ejecutar LLMs en dispositivos tan pequeños como un teléfono móvil, afinar inteligencias artificiales personalizadas en portátiles domésticos en cuestión de horas y desarrollar modelos multimodales con tan pronto como una fracción de los capital necesarios hasta entonces. Todo esto, con una velocidad de innovación vertiginosa, en las que las nuevas versiones surgían en semanas, no en meses.

"No creo que haya nada mágico aquí": los expertos explican cómo DeepSeek ha revolucionado partes de la IA que no se creían posibles

La idea de que los usuarios no pagarían por modelos restrictivos cuando había alternativas gratuitas y comparables en calidad ponía en sospecha su maniquí de negocio

Uno de los puntos más preocupantes para los investigadores de Google era que la vistoso delantera competitiva de tener llegada a enormes cantidades de datos y poder computacional estaba desvaneciéndose ("Ya no tenemos ninguna 'salsa secreta'", decían), ya que los desarrolladores independientes lograban resultados sorprendentes con presupuestos modestos y hardware accesible.

Ya en ese momento, técnicas como 'Low-Rank Adaptation' (LoRA) permitían ajustes rápidos y económicos a modelos ya entrenados, democratizando el llegada a capacidades avanzadas de IA.

Encima, la publicación de modelos abiertos por parte de actores inesperados, como Meta con su filtración de LLaMA, había empezado a convertirse en la chispa de un incendio de innovación colectiva: cada perfeccionamiento hecha por un individuo o congregación se construía sobre la susodicho, creando una cascada de avances que dejaba detrás la rigidez corporativa de las grandes tecnológicas.

Los autores del noticia interno de Google argumentaban que la única forma de mantenerse relevante era abrazar esta civilización de transigencia, colaborando más estrechamente con la comunidad externa y considerando liberar versiones más pequeñas y manejables de sus propios modelos.

El control ajustado sobre sus modelos, pensado para proteger sus inversiones, en existencia estaba acelerando su obsolescencia frente a alternativas libres y adaptables.

Enfrentamos a DeepSeek contra ChatGPT: sorprende con sus resultados y nos hace dudar si merece pagar ChatGPT Plus

DeepSeek: bajo costo, stop impacto

Lo que hace que DeepSeek-R1 sea tan disruptivo y haya atraído tanta atención mediática y de los mercados no es solo su rendimiento comparable a GPT-4, sino acontecer podido combinarlo con un bajo costo computacional.

Mientras que modelos como Gemini de Google o Claude de Anthropic requieren enormes centros de datos y miles de GPUs para su funcionamiento, DeepSeek ha conseguido estrechar la carga de hardware a una décima parte de lo que se consideraba necesario para un maniquí de lengua a gran escalera.

Este avance ha generado inquietud en Estados Unidos, donde algunos analistas han descrito el divulgación del chatbot de DeepSeek como un 'momento Sputnik' para la IA estadounidense, en remisión al shock que supuso el divulgación del primer adiátere soviético en 1957 (incluso es cierto que EE.UU. terminó teniendo su 'momento Apolo 11', así que no nos apresuremos a sacar aún conclusiones geopolíticas a dadivoso plazo).

Imagen | Marcos Merino mediante IA

En Genbeta | DeepSeek lo cambia todo a la hora de educarse a programar porque ofrece poco que ChatGPT no: un vistazo a cómo piensa

Source link

Compartir este artículo

[social_warfare]

Consultoria Personalizada

¡Si aun no tienes presencia en internet o 
necesitas ayuda con tus proyectos, por favor, escribenos!

Enviar Consulta Gratis

Más para leer

En ARTDEPARTMENT nos especializamos en brindar soluciones para que tu negocio, empresa o proyecto sea visible en internet.

Diseño WEB

Hosting

Google Ads

WordPress

Posicionamiento SEO

cloud-syncearthbullhorn linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram