
ARTDEPARTMENT

El contemporáneo auge de las herramientas de IA ha desencadenado una revolución en la forma en que programan código, escriben textos y diseñan imágenes, permitiendo así producir contenidos más precisos y/o complejos.
Pero en medio de tal entusiasmo, empieza a emerger entre susurros una inquietud generalizada: hay quien observa que, en muchas IAs, por impresionante que haya resultado su extensión, poco a poco los resultados terminan siendo mucho menos sobresaliente que al principio. Como si las IAs se volvieran más tontas... o perezosas.
Este engendro, que algunos han empezado a denominar recientemente 'subscription fog' (niebla de las suscripciones), describe una sinceridad frustrante para los usuarios: retribuir una suscripción mensual por una útil que parece sobrevenir perdido parte de su potencia, sin tener claro si sólo son imaginaciones suyas y/o por qué ha ocurrido.
El término ha sido acuñado por el usuario @nickbaumann_ en X, quien lo define como una sensación creciente entre los usuarios de herramientas de IA: aquellos que hace poco estaban entusiasmados por cosechar en un mes 3000 dólares gracias a código generado que exclusivamente les había costado 200 dólares... de pronto comienzan a notar una lenta pero progresiva decadencia en la calidad del servicio.
Y el problema no se limitan a que los modelos "fallen más" o no: el problema central de la niebla de las suscripciones reside en la opacidad: que cuando los proveedores controlan tanto la infraestructura de inferencia (el maniquí) como la interfaz que canaliza las peticiones del sucesor (el chatbot), los usuarios pierden la capacidad de entender qué está sucediendo. ¿Es el mismo maniquí de antaño? ¿Están limitando el contexto? ¿Está siendo más paulatino? ¿Ha habido cambios ocultos?
Baumann destaca un punto secreto: los modelos no están necesariamente optimizados para ofrecer la mejor experiencia de sucesor posible, sino para ser sostenibles económicamente. Y esto da división a incentivos perversos: así, si una compañía descubre que puede economizar costos reduciendo contexto, cambiando a un maniquí más moderado en ciertas consultas, o intercalando tiempos de latencia más largos, es posible que lo haga… especialmente si el sucesor no puede notarlo fácilmente.

Como los modelos son inherentemente no deterministas (es proponer, una misma consulta puede arrojar resultados distintos cada vez), cualquier degradación en el rendimiento se puede atribuir a la "variabilidad habitual" del sistema. Esto hace que sea prácticamente irrealizable para el sucesor determinar si el producto ha cambiado o no.
En los últimos días, la comunidad de desarrolladores ha intensificado sus quejas respecto a Claude Code. Varios hilos en Reddit y GitHub reflejan la percepción de que poco ha cambiado repentinamente —y para peor— en el comportamiento del loado asistente de programación de Anthropic.
Recientes publicaciones en el subreddit de r/ClaudeAI resume fielmente esta transformación dramática:
"Siento que hace como dos semanas (preciso luego de suscribirme) Claude Code era poco asombroso y entonces, de repete, esta última semana ha sido como cuando usaba GPT-4, poco muy decepcionante".
Así, los usuarios describen una caída abrupta en rendimiento: olvida el contexto constantemente, entra en bucles absurdos y genera respuestas irrelevantes o erráticas. "Se olvida de lo que estaba haciendo tras sólo dos pasos", afirma un sucesor que sospecha además que
"Anthropic puede estar manipulado activamente el comportamiento del maniquí entre bastidores",
Y no se comercio de casos aislados. En GitHub, los usuarios denuncian que Claude Code ha empezado a funcionar muy lentamente ("más que Gemini CLI") o que no deja de bloquearse cuando pegan varias líneas de código o cuando el problema se vuelve enrevesado.
Una constante en la comunidad es la inconsistencia: mientras unos usuarios denuncian caídas drásticas, otros continúan con un rendimiento aceptable.

Uno comenta que tras unos días de problemas, el servicio volvió a funcionar "habitual", una variabilidad que fortalece la hipótesis de que los cambios de rendimiento podría deberse a despliegues progresivos de nuevas versiones, a la realización de pruebas A/B, o a limitaciones selectivas que permitan optimizar medios durante picos de demanda.
Uno de los grandes desafíos en el ecosistema contemporáneo es la yerro de transparencia: a diferencia de software de código rajado donde los usuarios pueden inspeccionar los cambios, las herramientas comerciales de IA funcionan como cajas negras. No hay notas detalladas de versiones, ni métricas claras sobre el rendimiento, y encima los cambios pueden ocurrir sin previo aviso.
Esto contrasta fuertemente con lo que se considerarían expectativas razonables en otros sectores tecnológicos. Si un proveedor de almacenamiento en la aglomeración cambia la latencia o la capacidad sin avisar, los clientes se quejan —y con razón. Pero en el mundo de la IA, la niebla es más difícil de disipar.
Para disipar esta 'niebla', algunos expertos sugieren una serie de cambios estructurales que podrían devolver la confianza a los usuarios:
Imagen | Marcos Merino mediante IA
En Genbeta | Cada vez más compañías 'regalan' sus proyectos de IA para que el mundo los use independientemente. Tienen sus razones, y no son altruistas
Compartir este artículo
Consultoria Personalizada
¡Si aun no tienes presencia en internet o
necesitas ayuda con tus proyectos, por favor, escribenos!