ARTDEPARTMENT

Solicitar una consulta

las compañías tienen razones poderosas para que así sea

Publicado el 
julio 15, 2025

El contemporáneo auge de las herramientas de IA ha desencadenado una revolución en la forma en que programan código, escriben textos y diseñan imágenes, permitiendo así producir contenidos más precisos y/o complejos.

Pero en medio de tal entusiasmo, empieza a emerger entre susurros una inquietud generalizada: hay quien observa que, en muchas IAs, por impresionante que haya resultado su extensión, poco a poco los resultados terminan siendo mucho menos sobresaliente que al principio. Como si las IAs se volvieran más tontas... o perezosas.

Este engendro, que algunos han empezado a denominar recientemente 'subscription fog' (niebla de las suscripciones), describe una sinceridad frustrante para los usuarios: retribuir una suscripción mensual por una útil que parece sobrevenir perdido parte de su potencia, sin tener claro si sólo son imaginaciones suyas y/o por qué ha ocurrido.

¿Qué es la 'niebla de las suscripciones'?

El término ha sido acuñado por el usuario @nickbaumann_ en X, quien lo define como una sensación creciente entre los usuarios de herramientas de IA: aquellos que hace poco estaban entusiasmados por cosechar en un mes 3000 dólares gracias a código generado que exclusivamente les había costado 200 dólares... de pronto comienzan a notar una lenta pero progresiva decadencia en la calidad del servicio.

Y el problema no se limitan a que los modelos "fallen más" o no: el problema central de la niebla de las suscripciones reside en la opacidad: que cuando los proveedores controlan tanto la infraestructura de inferencia (el maniquí) como la interfaz que canaliza las peticiones del sucesor (el chatbot), los usuarios pierden la capacidad de entender qué está sucediendo. ¿Es el mismo maniquí de antaño? ¿Están limitando el contexto? ¿Está siendo más paulatino? ¿Ha habido cambios ocultos?

La trampa de los incentivos perversos

Baumann destaca un punto secreto: los modelos no están necesariamente optimizados para ofrecer la mejor experiencia de sucesor posible, sino para ser sostenibles económicamente. Y esto da división a incentivos perversos: así, si una compañía descubre que puede economizar costos reduciendo contexto, cambiando a un maniquí más moderado en ciertas consultas, o intercalando tiempos de latencia más largos, es posible que lo haga… especialmente si el sucesor no puede notarlo fácilmente.

OpenAI insiste en que GPT-4 no es más tonto que antes. Esta investigación demuestra que sí lo es: así ha empeorado en dos meses

Como los modelos son inherentemente no deterministas (es proponer, una misma consulta puede arrojar resultados distintos cada vez), cualquier degradación en el rendimiento se puede atribuir a la "variabilidad habitual" del sistema. Esto hace que sea prácticamente irrealizable para el sucesor determinar si el producto ha cambiado o no.

El caso de Claude Code: de la optimismo a la frustración

En los últimos días, la comunidad de desarrolladores ha intensificado sus quejas respecto a Claude Code. Varios hilos en Reddit y GitHub reflejan la percepción de que poco ha cambiado repentinamente —y para peor— en el comportamiento del loado asistente de programación de Anthropic.

De "increíble" a "casi inutilizable"

Recientes publicaciones en el subreddit de r/ClaudeAI resume fielmente esta transformación dramática:

"Siento que hace como dos semanas (preciso luego de suscribirme) Claude Code era poco asombroso y entonces, de repete, esta última semana ha sido como cuando usaba GPT-4, poco muy decepcionante".

Así, los usuarios describen una caída abrupta en rendimiento: olvida el contexto constantemente, entra en bucles absurdos y genera respuestas irrelevantes o erráticas. "Se olvida de lo que estaba haciendo tras sólo dos pasos", afirma un sucesor que sospecha además que

"Anthropic puede estar manipulado activamente el comportamiento del maniquí entre bastidores",

Y no se comercio de casos aislados. En GitHub, los usuarios denuncian que Claude Code ha empezado a funcionar muy lentamente ("más que Gemini CLI") o que no deja de bloquearse cuando pegan varias líneas de código o cuando el problema se vuelve enrevesado.

La disparidad en la experiencia del sucesor

Una constante en la comunidad es la inconsistencia: mientras unos usuarios denuncian caídas drásticas, otros continúan con un rendimiento aceptable.

"¿Queréis que lancemos GPT-6 como open source? ¿Sí? Pues no va a pasar". El CEO de OpenAI descarta la idea (¿pero no del todo?)

Uno comenta que tras unos días de problemas, el servicio volvió a funcionar "habitual", una variabilidad que fortalece la hipótesis de que los cambios de rendimiento podría deberse a despliegues progresivos de nuevas versiones, a la realización de pruebas A/B, o a limitaciones selectivas que permitan optimizar medios durante picos de demanda.

La naturaleza opaca de los modelos cerrados

Uno de los grandes desafíos en el ecosistema contemporáneo es la yerro de transparencia: a diferencia de software de código rajado donde los usuarios pueden inspeccionar los cambios, las herramientas comerciales de IA funcionan como cajas negras. No hay notas detalladas de versiones, ni métricas claras sobre el rendimiento, y encima los cambios pueden ocurrir sin previo aviso.

Esto contrasta fuertemente con lo que se considerarían expectativas razonables en otros sectores tecnológicos. Si un proveedor de almacenamiento en la aglomeración cambia la latencia o la capacidad sin avisar, los clientes se quejan —y con razón. Pero en el mundo de la IA, la niebla es más difícil de disipar.

¿Qué medidas deben tomarse?

Para disipar esta 'niebla', algunos expertos sugieren una serie de cambios estructurales que podrían devolver la confianza a los usuarios:

  1. Transparencia técnica: Los proveedores deberían ofrecer bitácoras de cambios, métricas de calidad y versiones claras de los modelos disponibles.
  2. Interfaces abiertas: Permitir que los usuarios puedan conectar sus propios chatbots o usar frameworks que no oculten los detalles técnicos.
  3. Controles de calidad públicos: Crear organismos independientes y/o iniciativas de benchmarking que evalúen periódicamente el rendimiento de los modelos de IA.
  4. Modelos de determinismo opcional: Aunque la aleatoriedad es útil en muchos casos, permitir una opción de respuesta determinista facilitaría comparar con precisión resultados entre versiones.
  5. Políticas claras de 'downgrade': Informar abiertamente si un maniquí está siendo sustituido por otro de pequeño capacidad durante picos de demanda u optimizaciones de costos.

Imagen | Marcos Merino mediante IA

En Genbeta | Cada vez más compañías 'regalan' sus proyectos de IA para que el mundo los use independientemente. Tienen sus razones, y no son altruistas 

Source link

Compartir este artículo

[social_warfare]

Consultoria Personalizada

¡Si aun no tienes presencia en internet o 
necesitas ayuda con tus proyectos, por favor, escribenos!

Enviar Consulta Gratis

Más para leer

En ARTDEPARTMENT nos especializamos en brindar soluciones para que tu negocio, empresa o proyecto sea visible en internet.

Diseño WEB

Hosting

Google Ads

WordPress

Posicionamiento SEO

cloud-syncearthbullhorn linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram