agosto 02, 2025

Vigilancia Invisible: La IA que te observa… incluso cuando crees que nadie lo hace.

 

👁️ Vigilancia Invisible: La IA que te observa… incluso cuando crees que nadie lo hace


La realidad que nadie vio venir

Ella se llama Claudia.

Tiene 32 años y trabaja en soporte técnico para una empresa transnacional con sede en México. Su jornada transcurre frente a una pantalla, respondiendo llamadas, resolviendo problemas… cumpliendo con lo que se espera de ella.

Pero un día nota algo raro.

📉 Cada vez que bosteza, su sistema de trabajo le marca una “alerta de actitud”.

Cree que es casualidad. Luego, lo confirma: el software registra su tono de voz, expresión facial, velocidad al teclear, silencios, movimientos oculares… 😳

Y entonces llega el correo:

“Tus métricas emocionales han bajado. Necesitamos mejorar tu actitud frente al cliente.”

🛑 Claudia nunca autorizó eso.

Nunca firmó un consentimiento para que la inteligencia artificial analizara sus emociones, ni para que se extrajeran conclusiones sobre su “rendimiento emocional”.

¿Puede una empresa calificar tu desempeño por cómo se ve tu rostro, suena tu voz o reacciona tu cuerpo?

¿Es legal que una máquina —no una persona— decida si eres útil o prescindible?


⚖️ Cuando la ley aún no llega… pero la IA sí

En México, la Ley Federal del Trabajo no regula todavía el uso de inteligencia artificial para monitorear emociones, gestos o expresiones.

Y sin embargo…

👀 Ya está ocurriendo.

👔 Cada vez más empresas utilizan herramientas de IA que prometen "medir la productividad" o "optimizar la actitud" a través de:

  • el análisis facial 😐😠😴
  • la detección de voz y pausas ⏸️
  • el seguimiento ocular 👁️
  • la evaluación emocional y de tono 🤖

Todo esto sin leyes claras, sin supervisión pública y, en muchos casos, sin el consentimiento expreso de la persona trabajadora.


🧠 Un Hard Case de Dworkin en versión mexicana

Ronald Dworkin llamó hard cases a aquellos donde la norma legal no resuelve el conflicto.

Donde no hay un artículo que diga sí o no.

Y donde el juez, lejos de improvisar, debe buscar la mejor teoría del caso, aquella que respete los valores más profundos del sistema jurídico.

📚 En este tipo de dilemas, un “juez Hércules” no debe inventar la ley, sino interpretarla con profundidad moral, protegiendo la dignidad humana, la intimidad y la libertad frente al poder, incluso si ese poder se disfraza de algoritmo.


📚 Qué dice la ley (y qué no)

🧾 La Ley Federal del Trabajo contempla la obligación de respetar la dignidad y privacidad del trabajador.

Pero:

No prohíbe ni regula el uso de IA emocional.

No exige transparencia en la toma de decisiones automatizadas.

No garantiza el derecho a impugnar lo que decide un software.

🔐 Aquí es donde entra otra norma fundamental: la Ley Federal de Protección de Datos Personales en Posesión de los Particulares (LFPDPPP).

Esta ley protege los datos biométricos, fisiológicos y emocionales, considerándolos datos personales sensibles.

👉 Y para tratarlos se necesita consentimiento expreso, libre, informado y por escrito.

😟 Claudia nunca dio ese consentimiento.

Y su caso —como muchos otros— ya es un vacío legal en plena expansión.


🌐 Dignidad laboral: un valor universal

La Organización Internacional del Trabajo (OIT) ha advertido que el uso de tecnologías para vigilar trabajadores debe tener límites éticos y jurídicos claros.
El trabajo decente —uno de sus principios— exige privacidad, consentimiento y dignidad humana.

📜 Estas no son solo ideas bonitas: son parámetros internacionales que deben influir en la interpretación de la ley mexicana, especialmente cuando ésta guarda silencio.


🧭 Final abierto: aún no hay norma, pero sí principios

El caso de Claudia no es aislado.

Cada día más trabajadores son medidos, evaluados o presionados por tecnologías que no comprenden y que nadie ha autorizado realmente.

📊 El algoritmo no conoce la ansiedad, el cansancio, el duelo ni la dignidad.

Pero la ley sí debe conocerlos.

Este es un caso difícil.

Y en ausencia de reglas escritas, los principios deben hablar más fuerte que los silencios legislativos.


💬 ¿Tú qué opinas?

👉 ¿Aceptarías que una IA mida tus emociones para conservar tu empleo?

👉 ¿Debe haber un límite al poder digital dentro del trabajo?

👉 ¿Y si el próximo “caso difícil” eres tú?


✍️ Autor: Enrique Rueda Santillán

🧠 Edición y estilo con IA