Cómo los algoritmos y la inteligencia artificial transforman el mobbing laboral en un fenómeno estructural, difícil de detectar y aún más difícil de combatir

El acoso laboral ya no necesita gritos ni despachos cerrados. Hoy puede ejecutarlo un sistema que nunca parpadea, nunca olvida y nunca descansa. Algoritmos invisibles analizan datos, evalúan comportamientos y deciden ascensos o despidos sin escuchar razones ni entender contextos.
El mobbing ha mutado: ahora es digital, invisible y mucho más difícil de combatir. Lo que nació como una herramienta para optimizar procesos ha creado un entorno donde cada error es penalizado y cada trabajador es reducido a una estadística. Si la ley no se adelanta, pronto el jefe no tendrá rostro ni responsabilidad, solo código.
En España, tu jornada, tu proyección profesional o incluso tu continuidad en el empleo podrían depender de un algoritmo que nadie entiende, que nadie explica y que, muchas veces, nadie controla. Ya no se trata sólo de compañeros hostiles o jefes autoritarios. Estamos ante una modalidad de acoso invisible y digital, diseñada para optimizar productividad pero que puede erosionar derechos fundamentales. Este nuevo mobbing 4.0 no es una hipótesis: está ocurriendo ya.
Un ejemplo reciente que evidencia el problema es el caso de una trabajadora de la residencia Medirest Social, en Poblete, provincia de Ciudad Real, tras años de insultos y trato vejatorio, la afectada desarrolló ansiedad y fue reconocida en situación de incapacidad temporal. La empresa no adoptó medidas correctoras pese a conocer el acoso. El TSJ de Castilla-La Mancha confirmó en enero de 2025 una indemnización de 30.000 euros a favor de la empleada. Este caso refleja un patrón: el acoso no siempre es físico ni verbal directo; a menudo se perpetúa a través de sistemas de evaluación y dinámicas digitales que deshumanizan la relación laboral.
Según el INE, más del 15 % de los ocupados teletrabajan de forma habitual, mientras que un estudio de InfoJobs revela que el 72 % de los empleados españoles no logra desconectarse fuera de horario, contestando correos y llamadas. Estos datos se traducen en una jornada interminable y en el uso generalizado de herramientas de control digital. Softwares que capturan pantallas, analizan patrones de escritura o miden pulsaciones de teclado son cada vez más comunes, y no siempre están regulados.
La inteligencia artificial multiplica este fenómeno. Plataformas de reparto, transporte y logística llevan años aplicando algoritmos que determinan asignaciones y calificaciones. Según Digital Future Society, un 18 % de la población activa ha trabajado en plataformas digitales, y un 2,6 % depende de ellas como fuente principal de ingresos. Estos sistemas no solo evalúan rendimiento: condicionan ingresos, horarios y estabilidad. Y al estar integrados en procesos corporativos, afectan ya a banca, retail, educación y otros sectores.
La IA se emplea bastante en las relaciones laborales. Por eso es importante el control humano para evitar cualquier tipo de desviación (Imagen: E&J)
La jurisprudencia comienza a marcar límites. La STS 805/2020 del Tribunal Supremo, en el caso Glovo, determinó que el algoritmo ejercía funciones de dirección empresarial: “el control tecnológico no elimina la dependencia laboral, sino que la refuerza”. El fallo confirmó que las empresas no pueden escudarse en software para eludir responsabilidades. Asimismo, la sentencia del TSJ Castilla-La Mancha en 2025 demuestra que la pasividad ante un acoso probado, sea humano o estructural, no quedará impune.
La frontera entre control legítimo y acoso laboral se ha difuminado. El trabajador que siente que cada acción es evaluada sin descanso vive bajo presión constante. El acoso deja de ser una actitud individual para convertirse en un patrón estructural, amparado por métricas “objetivas” que invisibilizan el daño psicológico.
El ordenamiento español y europeo tiene herramientas para combatir este fenómeno. El Estatuto de los Trabajadores y la Ley de Prevención de Riesgos Laborales obligan a las empresas a proteger la integridad física y mental. El artículo 18 del Estatuto ampara el derecho a la intimidad, y el artículo 88 de la LOPDGDD reconoce el derecho a la desconexión digital. A nivel comunitario, el AI Act, en vigor desde 2024, clasifica de alto riesgo los algoritmos que evalúan personas y exige trazabilidad, transparencia y supervisión humana obligatoria. No obstante, la aplicación práctica es desigual, y muchas empresas operan sin protocolos claros ni formación especializada.
La solución no pasa por demonizar la tecnología, sino por gobernarla. Los sistemas de IA pueden equilibrar cargas de trabajo, reducir sesgos humanos y aumentar la productividad, pero solo si cuentan con auditorías independientes, políticas de uso claras y derechos de impugnación efectivos. La Inspección de Trabajo debería ampliar su alcance para supervisar también los algoritmos corporativos, y los jueces, abogados y sindicatos deben desempeñar un papel pedagógico: traducir lo técnico en derechos concretos.
Los algoritmos tóxicos no son ciencia ficción. Penalizan errores que el sistema interpreta como fallos de productividad, establecen rankings que fomentan competencia desmedida y difuminan los límites de la jornada laboral. Este mobbing 4.0 es más difícil de denunciar porque carece de rostro humano. Sin embargo, su impacto es profundo: ansiedad, burnout, bajas prolongadas y pérdida de confianza en el entorno laboral. Detrás de cada métrica y cada puntuación hay historias invisibles: trabajadores agotados, relaciones laborales deterioradas y carreras truncadas sin derecho a réplica. Cuando la evaluación constante se convierte en norma, el empleado deja de ser sujeto de derechos y pasa a ser un dato, gestionado por sistemas que rara vez comprenden el contexto o la dignidad.
El futuro del trabajo no puede construirse sobre la deshumanización. Si la tecnología se diseña sin empatía, sin supervisión y sin límites claros, normalizaremos que la dignidad sea una métrica más. Urge un debate serio entre legisladores, empresas y sociedad para anticiparse a este escenario. No basta con reaccionar cuando el daño ya está hecho: es momento de construir marcos legales dinámicos, protocolos de auditoría y una cultura empresarial que priorice bienestar sobre productividad extrema. Porque cuando el acoso se digitaliza, se vuelve más difícil de señalar, pero no menos dañino. Y si no actuamos ahora, corremos el riesgo de dejar que el futuro laboral lo escriba un algoritmo, sin rostro ni responsabilidad.