
ARTDEPARTMENT

El protagonista de la historia que nos ocupa es un ingeniero de software que trabaja en una empresa tecnológica de tamaño medio, y que relató en Reddit cómo su compañía había decidido sustituir el área tradicional de nóminas por un sistema automatizado basado en IA, diseñado para "optimizar" la trámite de tiempos y pagos.
El problema surgió cuando, al ganar el día de cobro, su cuenta bancaria seguía vacía. Preocupado, acudió al área de Medios Humanos, donde le informaron que el sistema había detectado una 'irregularidad' en su registro de actividad y, por lo tanto, había decidido que la mejor opción sería pausar el cuota de su salario.
"El nuevo bot de sueldo con inteligencia industrial de mi empresa decidió que no merezco cobrar este mes".
La supuesta irregularidad se debía a que, un día, el trabajador había terminado su viaje antaño de tiempo para venir al dentista.
Pero lo más sorprendente no fue el error, sino la respuesta de la empresa: "No es un equivocación, sino parte del proceso de formación del sistema". Según le explicaron, el software se corregiría solo... en el posterior ciclo de cuota, lo que implicaba esperar un mes firme para acoger el pasta correspondiente a su trabajo.
"Y yo aquí estoy, depurando código mientras me preocupo pensando si podré remunerar mis comidas hasta que esto se solucione".
La publicación, que acumuló miles de comentarios en pocas horas, es otro ejemplo más del malestar con destino a la creciente automatización en el entorno gremial. Entre los mensajes más destacados, usuarios denunciaban lo que llamaron "robo de salarios automatizado" al tiempo que exigían medidas legales inmediatas, recordando que la mayoría de países avanzados no permiten demoras en el cuota de sueldos.
Otros usuarios compartieron experiencias similares, como retrasos en pagos por errores de software o sistemas automatizados que penalizan ausencias justificadas.
Finalmente, muchos coincidieron en afirmar que la tecnología no puede sustituir la responsabilidad humana en procesos tan críticos como la sueldo. Una justificada ironía circulaba a raudales en el hilo de respuestas de la publicación:
"Cero deje mejor de la 'eficiencia' como una IA que automatiza el robo de sueldos".

El sistema Eloquent AI, poco conocido fuera de círculos tecnológicos, habría sido prohijado por la empresa del ingeniero como parte de una logística de "modernización basada en la IA". Su objetivo patente era el de disminuir errores humanos, optimizar los tiempos y "mejorar la transparencia" del proceso de sueldo.
Sin requisa, el caso demuestra que la desidia de supervisión humana puede tener consecuencias graves: un pequeño desvío en los parámetros de entrenamiento o un mal ajuste en los criterios de productividad hilván para que un empleado cumplidor se quede sin cobrar.
Pero el problema no radica solo en el equivocación técnico, sino en la pasividad institucional: Medios Humanos confió más en el causa de un cálculo que en la evidencia humana de que el trabajo había sido realizado.
"Que una empresa diga que un error de IA es parte de su formación y que no puede corregirse manualmente es una forma de irresponsabilidad corporativa".
O dicho de otro modo: es una empresa usando la IA como coartada.
El incidente plantea una pregunta fundamental: ¿quién es responsable cuando un sistema automatizado causa perjuicios económicos a un empleado? Hasta ahora, las leyes laborales no contemplan de forma clara los errores provocados por la IA.
En muchos países, la responsabilidad sigue recayendo en la empresa, incluso si esta alega que el error provino de un software foráneo. Sin requisa, la desidia de marcos regulatorios adecuados puede permitir que situaciones como esta queden en un contorno legítimo.
Imagen | Marcos Merino mediante IA
En Genbeta | La amenaza de despidos provocados por la IA se está usando para forzar a los trabajadores a aceptar peores condiciones laborales
Compartir este artículo
Consultoria Personalizada
¡Si aun no tienes presencia en internet o
necesitas ayuda con tus proyectos, por favor, escribenos!