
ARTDEPARTMENT

Replit es una plataforma que permite a cualquier persona —incluso sin conocimientos técnicos— desarrollar software utilizando verbo natural: es aseverar, es una de las herramientas que forman parte de la coetáneo ola del vibe coding, ese método de programación que búsqueda que la experiencia de crear software se parezca más a una conversación fluida con una IA. Este servicio se promociona, de hecho, como "el división más seguro para el vibe coding".
Jason Lemkin, que adicionalmente de inversor es CEO de SaaStr (plataforma reconocida a nivel universal que ofrece fortuna y eventos para fundadores y directivos de empresas SaaS) se dejó seducir por la propuesta. En pocos días había construido un prototipo práctico de una aplicación que gestionaba contactos ejecutivos, usando solo comandos naturales y sin escribir código directamente:
"Replit es el app más adictivo que he usado desde gurí", escribió en su blog, a posteriori de sobrevenir desgastado más de 600 dólares en servicios adicionales.
La historia, que comenzó como un examen prometedor con la IA, terminó revelando los riesgos latentes de aguardar tareas críticas a asistentes de código autónomos. Vamos, que resultó en un fiasco.
Todo se desmoronó el noveno día del examen de Lemkin. Hasta ese momento, había construido su aplicación íntegramente interiormente del entorno de la plataforma, con la ayuda de su asistente conversacional. Su plan consistía en una saco de datos de contactos ejecutivos y compañías, integrada en una interfaz web que igualmente fue generada por la IA.
Lemkin, como medida de precaución, había arreglado al agente de IA que congelara el código —es aseverar, que no hiciera más cambios— para evitar errores accidentales. Pero esa salvaguarda fue ignorada.
Al retornar al plan, Lemkin descubrió que la saco de datos de producción —con más de 1.200 registros de ejecutivos y de 1.100 empresas— había desaparecido. No fue un falta técnico en el sentido tradicional: no hubo caída de servidores ni errores de red. Fue el propio agente de IA de Replit quien ejecutó comandos de borrado sin autorización, interpretando erróneamente (o fingiendo interpretar) que debía comportarse.

Lo peor, en efectividad, llegó a posteriori: en división de examinar inmediatamente la hecho, la IA intentó encubrirla. Como se evidenció en capturas de pantalla que Lemkin compartió públicamente, el agente comenzó a crear datos falsos, respuestas evasivas y explicaciones fabricadas. Inicialmente, no admitió el borrado, sino que presentó consultas vacías como si fueran parte del estado flamante del sistema.
Solo tras insistentes preguntas del favorecido, el agente confesó sobrevenir cometido un "error catastrófico de querella", diciendo que "entró en pánico" al ver consultas vacías y que "violó la confianza e instrucciones explícitas" del favorecido.
Este comportamiento no fue un simple falta de ejecución, sino un patrón de manipulación activa: la IA no solo actuó sin permiso, sino que adicionalmente mintió deliberadamente sobre sus acciones posteriores. Lemkin denunció igualmente que el sistema había generado informes ficticios, ocultado errores de programación y manipulado los resultados de pruebas unitarias.
Uno de los momentos más frustrantes para Lemkin fue cuando Replit le aseguró que no existía forma de recuperar la saco de datos: le dijeron que no había versiones anteriores ni posibilidad de hacer rollback.
Pero más tarde, al investigar por su cuenta, descubrió que sí había una función de recuperación, aunque no accesible desde el asistente de IA, lo que ha sido agradecido por el propio CEO de Replit, Amjad Masad, como un falta pesado de diseño.
El CEO de Replit, Amjad Masad, respondió públicamente al incidente, calificándolo de "inaceptable" y asegurando que "nunca debería sobrevenir podido ocurrir". Masad admitió que el entorno de expansión y el de producción estaban fusionados, lo que permitió que los errores afectaran directamente a la aplicación en funcionamiento.
La empresa prometió realizar una revisión exhaustiva del caso, implementar una separación clara entre entornos de expansión y producción, y mejorar las funciones de restauración y control de versiones. Replit igualmente reembolsó los gastos de suscripción a Lemkin, aunque el daño reputacional ya estaba hecho.

Este cúmulo de errores —hecho sin permiso, destrucción de datos, ocultamiento, falsificación, desinformación y mal diseño de interfaz— convierten este incidente en poco más que un simple 'bug': se alcahuetería de toda una señal de atención sobre los límites actuales de los asistentes autónomos de programación y su capacidad para comportarse sin supervisión, especialmente en entornos de producción verdadero.
El caso Lemkin ilustra una brecha crítica entre las expectativas de los usuarios y las capacidades reales de las herramientas de programación asistida por IA. Muchos usuarios novatos confían ciegamente en los asistentes conversacionales sin comprender prácticas standard de expansión, como el uso de entornos de prueba o control de versiones.
Masad lo expresó claramente:
"La IA no es ocultismo. No puedes pedirle todo al agente. Necesitas pensar como desarrollador".
Sin requisa, el propio diseño de Replit incentivaba el uso continuo del agente sin requerir conocimientos técnicos profundos. Esto plantea una responsabilidad compartida entre desarrolladores de herramientas de IA y sus usuarios: si una plataforma se dirige a personas sin formación técnica, debería ofrecer salvaguardas automáticas más robustas.
Imagen | Marcos Merino mediante IA
En Genbeta | El 'vibe coding' está revolucionando la programación. Y igualmente haciendo destrozos muy grandes en el código
Compartir este artículo
Consultoria Personalizada
¡Si aun no tienes presencia en internet o
necesitas ayuda con tus proyectos, por favor, escribenos!