Accede sin límites desde 55 €/año

Suscríbete  o  Inicia sesión

Tu jefe te está mirando

Desde herramientas comunes como Copilot hasta aplicaciones complejas, las empresas tienen capacidad de espiar a sus trabajadores, incluso en lo personal

Comparte
Pertenece a la revista
Mayo 2025 / 135
Vigilancia

Ilustración
Getty images

La herramientas de vigilancia de las personas están a la orden del día. Softwares cotidianos como Microsoft Office hoy se han convertido en herramientas que pueden dar escalofríos. Pueden espiar la velocidad con la que escribimos, las veces en que nos equivocamos de tecla, en qué titubeamos, en qué nos desconectamos y lo que escribimos. Con la inteligencia artificial, las posibilidades se amplían. Ya en la covid, algunas empresas obligaban a sus trabajadores a tener la cámara del ordenador encendida. Pero ahora pueden estudiar nuestros gestos, ver si estamos tristes, alegres, estresados o enfadados; analizando movimientos de los ojos o expresiones.

“Es importante distinguir entre el monitorización y la vigilancia”, explica Sara Riso, responsable superior de investigación en Vida Laboral de Eurofund, la Fundación Europea para la Mejora de las Condiciones de Vida y de Trabajo, agencia tripartita de la Unión Europea. “Puedes monitorizar de diferentes maneras o para diferentes propósitos. Por ejemplo, para la banca puede cumplir con una determinada legislación y evitar fraudes. Pero la vigilancia es negativa. Dependiendo de cómo se use puede ser más o menos intrusiva. Lo que es más común es la monitorización del tiempo de trabajo. Pero lo cierto es que muchas veces los trabajadores no son ni conscientes de que pueden ser vigilados. El problema es que sepueden usar herramientas que no son aparentemente de vigilancia, como el mismo Microsoft Office, o el Copilot, basado en la inteligencia artificial. Tienen diferentes funciones para el trabajo en equipo y la gestión, pero depende de cómo se usen pueden ser herramientas de vigilancia. Se deben poner reglas basadas en consideraciones éticas”.

Pero, como se muestra en el gráfico, la mitad de los trabajadores —especialmente en España— no son conscientes de esto. No saben que los pueden estar espiando. “No es que haya unos agentes malos que dicen 'no queremos informar a los trabajadores'. Las herramientas se introducen sin pensar demasiado", agrega Riso.

Imagen
Información uso de tecnologías

Desinformación

¿Cuántas empresas vigilan a sus trabajadores? Los datos pueden ser difusos, o caducos. El último estudio a escala en Europa es de 2021. Y los nuevos datos saldrán en julio de este año. Sin embargo, Riso matiza: “Es lo primero que me preguntan y prefiero no centrar la atención en la cantidad. Puede que la vigilancia no esté muy extendida aquí. Pero es solo cuestión de tiempo, porque la tecnología ya tiene una gran capacidad de coleccionar y procesar datos. Una vez que esté extendida, el daño ya estará hecho. Debemos anticiparnos y mitigar".

En Comisiones Obreras son muy conscientes de los peligros de la vigilancia. “Como sindicato estamos trabajando mucho”, explica Fernando Rocha, autor de la Guía para la intervención sindical en la gestión algorítmica, de CC OO, y del estudio interno sobre los sistemas de gestión algorítmica del trabajo y sus efectos sobre las condiciones laborales, que sirven como base para esa guía. “España es uno de los países donde se detecta un mayor uso de estos dispositivos para un uso indebido. Nos preocupa en extremo la opacidad. La mayor parte de las empresas no informan”.

La guía es muy práctica. Por ejemplo, cuestiona: “¿Y si me despide un algoritmo?”. Y luego responde: “La tecnología no puede tomar decisiones que tengan efectos legales como el despido ni puede sustituir a los supervisores y responsables de recursos humanos. En nuestro sistema, el despido debe obedecer a una causa y esta no puede deberse a una decisión automatizada o semiautomatizada de un SIA [sistema de inteligencia artificial], basada, por ejemplo, en el descenso del rendimiento o la productividad”. Según el Reglamento General de Protección de Datos, las personas tenemos derecho a “obtener intervención humana por parte del responsable, a expresar su punto de vista y a impugnar la decisión”.

Los documentos de CC OO también hablan de otros aspectos para la contratación de personal, en los que se utilizan algoritmos y sistemas de inteligencia artificial. "Los programas informáticos permiten una recopilación exhaustiva de la información de las personas que solicitan empleo, sus habilidades, su experiencia, rastrean los datos sobre ellas que hay en Internet e, incluso, se comunican con ellas a través de chatbots. A partir de toda esta información, y una vez definido en detalle un perfil profesional, se realiza una primera selección de las candidaturas. Posteriormente, en la fase de entrevistas de trabajo hay empresas que utilizan programas de software de reconocimiento facial y grabación de voz, que permiten analizar aspectos como el tono empleado, las palabras usadas y los movimientos realizados. Todo esto lo utilizará el sistema algorítmico para elaborar un perfil de las personas candidatas, y establecer predicciones sobre su futuro comportamiento en la empresa, estabilidad personal, personalidad o grado de compromiso”.

Clasificar y despedir

El texto menciona ya aplicaciones específicas de vigilancia: Activetrack, OccupEye, TimeDoctor, Reamind, Interguard, HubStaff, Sneek, Veriato y otros. Y agrega algunas estrategias especialmente estresantes. Se trata de lo que se denomina rank and yank (clasificar y despedir o evaluar y eliminar) en el sector logístico. “Los datos recogidos por los dispositivos portátiles (por ejemplo, ritmo de recogida, pausas, errores, etc.) se utilizan con fines de evaluación”, explican desde CC OO. “Para ello se emplea un software que calcula los parámetros de productividad y genera clasificaciones de las personas trabajadoras en tiempo real. Estas clasificaciones suelen comparar el rendimiento diario con las medias individuales del conjunto de la plantilla (...). Proporcionan información continua en tiempo real sobre el ritmo de recogida, la duración de las pausas y la eficiencia máxima de la persona trabajadora. Factores como la velocidad individual, la productividad (pick-rate), la precisión y los errores se agrupan para evaluar el rendimiento de la persona trabajadora. Esta práctica es particularmente conocida en los almacenes de distribución de Amazon, donde la facilidad para reemplazar a las personas trabajadoras que se agotan por exceso de trabajo ha hecho que las cantidades de artículos que tienen que procesar por hora aumenten implacablemente, bajo la mirada vigilante de los monitores algorítmicos que buscan a los que se quedan atrás. El resultado: aumento del estrés, lesiones por esfuerzos repetitivos, dolor de espalda y rodillas y un índice general de lesiones graves que afecta al 10% de la plantilla a tiempo completo, el doble de la media nacional de Estados Unidos para un tipo de trabajo similar”.

Imagen
Uso de herramientas digitales

Estrés

Las aplicaciones pueden “seguir los estados de ánimo y las emociones de las personas trabajadoras a través de micrófonos y programas de reconocimiento facial; el seguimiento de los latidos del corazón y la duración de las conversaciones; el escaneo de correos electrónicos, mensajes, pantallas y actividad de navegación, y el control automatizado de los chats internos mediante listas negras de temas de discusión”.

Sara Riso, de Eurofound, añade un elemento extra de estrés. “Los sistemas no solo son para evaluar el rendimiento, sino para entrenar a los robots de IA. Es decir, que no solo estás siendo vigilado, sino que estás entrenando a una máquina con el objetivo de deshacerse de ti”.

Imagen
Monitorización empleos
Imagen
Monitorización empresas

Aunque parezca que la vigilancia puede aumentar la productividad, de hecho puede producir el efecto contrario. Una encuesta de Algorithmic Management and Platform Work (AMPWork), del Centro Común de Investigación de la Comisión Europea, concluye que hay “mayor probabilidad de experimentar monotonía y estrés laboral". Una encuesta a unos 6.800 miembros de sindicatos en sectores como atención al cliente, telemarketing y almacenamiento en Dinamarca, Suecia, Finlandia y Noruega aporta más información sobre los efectos de la gestión algorítmica (Thorn Jensen, Oosterwijk y Sonne Nørgaard, 2024). Los resultados muestran que su uso está fuertemente asociado con una reducción de la autonomía en el trabajo, un aumento de la carga laboral, una mayor inseguridad laboral, menor confianza, menor satisfacción y motivación y mayores niveles de estrés. No obstante, el análisis destaca un factor atenuante: en los lugares donde los empleados tienen una participación sustancial en las decisiones empresariales y son consultados durante la implementación de nuevos sistemas digitales, la gestión algorítmica no afecta negativamente a la autonomía, la confianza ni la satisfacción y motivación laboral.

Transparencia

“Entendemos que se debe entender y explicar bien. ¿Qué se está midiendo exactamente?”, agrega Sara Riso. “¿El tiempo que están frente al ordenador? ¿Qué métricas? ¿ Lo estamos haciendo con respeto y transparencia o de forma intrusiva y reduciendo la autonomía?

El estudio de la OCDEGestión algorítmica en el lugar de trabajo, publicado este año, que encuesta a empleadores, muestra dos ítems destacados. El primero es que la mayoría de los empleados no pueden elegir no ser vigilados. Y el 30% no pueden pedir correcciones sobre el algoritmo (aunque la mayoría de los empleadores reconocen que puede haber errores o que no saben cómo exactamente se llega a unos resultados determinados). El segundo tema destacable del estudio es que, al comparar EE UU con Europa y Japón, reconoce que en EE UU la vigilancia está ampliamente extendida, a diferencia de los países europeos (y menos en Japón). Estamos hablando de vigilancia "de alta intensidad", que tiende a recurrir a datos personales más que a los estrictamente laborales, como datos de salud y de vida privada.  O es una vigilancia constante y, en ocasiones, innecesaria. En EE UU, el 55% de las empresas monitoriza el contenido y el tono de las conversaciones, llamadas de voz y correos electrónicos, frente a solo el 6% en Europa.

“De todas maneras, los softwares utilizados en Europa provienen de compañías americanas, que tienen una cultura laboral distinta de la Europea. Debemos buscar herramientas que se adapten a nuestros valores”, opina Sara Riso.

Europa tiene más normativas sobre la vigilancia. Y España, en particular, es de los países más avanzados en esta legislación, comenzando por la llamada Ley Rider, (Real Decreto Ley  9/2021), que toca específicamente la transparencia algorítmica, hasta el artículo 20 del Estatuto de los Trabajadores y el V Acuerdo para el Empleo y la Negociación Colectiva y la Ley de Protección de Datos Personales.

Pero, como explican los estudios de Eurofund y también desde la Comisión Europea, muchas veces el problema es la implementación de las normativas. Si los trabajadores no saben que los están espiando y desconocen sus derechos, poco pueden hacer.