👁️ Vigilancia Invisible:
La IA que te observa… incluso cuando crees que nadie lo hace
La realidad que nadie vio
venir
Ella se llama Claudia.
Tiene 32 años y trabaja en
soporte técnico para una empresa transnacional con sede en México. Su jornada
transcurre frente a una pantalla, respondiendo llamadas, resolviendo problemas…
cumpliendo con lo que se espera de ella.
Pero un día nota algo raro.
📉 Cada vez que bosteza, su sistema de
trabajo le marca una “alerta de actitud”.
Cree que es casualidad.
Luego, lo confirma: el software registra su tono de voz, expresión facial,
velocidad al teclear, silencios, movimientos oculares… 😳
Y entonces llega el correo:
“Tus métricas emocionales han
bajado. Necesitamos mejorar tu actitud frente al cliente.”
🛑 Claudia nunca autorizó eso.
Nunca firmó un consentimiento
para que la inteligencia artificial analizara sus emociones, ni para que se
extrajeran conclusiones sobre su “rendimiento emocional”.
¿Puede una empresa calificar
tu desempeño por cómo se ve tu rostro, suena tu voz o reacciona tu cuerpo?
¿Es legal que una máquina —no
una persona— decida si eres útil o prescindible?
⚖️ Cuando la ley aún no llega… pero la IA
sí
En México, la Ley Federal
del Trabajo no regula todavía el uso de inteligencia artificial para
monitorear emociones, gestos o expresiones.
Y sin embargo…
👀 Ya está ocurriendo.
👔 Cada vez más empresas utilizan
herramientas de IA que prometen "medir la productividad" o
"optimizar la actitud" a través de:
- el análisis facial 😐😠😴
- la detección de voz y pausas ⏸️
- el seguimiento ocular 👁️
- la evaluación emocional y de tono 🤖
Todo esto sin leyes claras,
sin supervisión pública y, en muchos casos, sin el consentimiento expreso de
la persona trabajadora.
🧠 Un Hard Case de
Dworkin en versión mexicana
Ronald Dworkin llamó hard
cases a aquellos donde la norma legal no resuelve el conflicto.
Donde no hay un artículo que
diga sí o no.
Y donde el juez, lejos de
improvisar, debe buscar la mejor teoría del caso, aquella que respete los
valores más profundos del sistema jurídico.
📚 En este tipo de dilemas, un “juez
Hércules” no debe inventar la ley, sino interpretarla con profundidad
moral, protegiendo la dignidad humana, la intimidad y la libertad frente
al poder, incluso si ese poder se disfraza de algoritmo.
📚 Qué dice la ley (y qué no)
🧾 La Ley Federal del Trabajo contempla la
obligación de respetar la dignidad y privacidad del trabajador.
Pero:
❌ No prohíbe ni regula el uso de IA emocional.
❌ No exige transparencia en la toma de
decisiones automatizadas.
❌ No garantiza el derecho a impugnar lo que
decide un software.
🔐 Aquí es donde entra otra norma
fundamental: la Ley Federal de Protección de Datos Personales en Posesión de
los Particulares (LFPDPPP).
Esta ley sí protege
los datos biométricos, fisiológicos y emocionales, considerándolos datos
personales sensibles.
👉 Y para tratarlos se necesita consentimiento
expreso, libre, informado y por escrito.
😟 Claudia nunca dio ese consentimiento.
Y su caso —como muchos otros—
ya es un vacío legal en plena expansión.
🌐 Dignidad laboral: un valor
universal
La Organización
Internacional del Trabajo (OIT) ha advertido que el uso de tecnologías para
vigilar trabajadores debe tener límites éticos y jurídicos claros.
El trabajo decente —uno de sus principios— exige privacidad,
consentimiento y dignidad humana.
📜 Estas no son solo ideas bonitas: son parámetros
internacionales que deben influir en la interpretación de la ley mexicana, especialmente
cuando ésta guarda silencio.
🧭 Final abierto: aún no hay
norma, pero sí principios
El caso de Claudia no es
aislado.
Cada día más trabajadores son
medidos, evaluados o presionados por tecnologías que no comprenden y que
nadie ha autorizado realmente.
📊 El algoritmo no conoce la ansiedad, el
cansancio, el duelo ni la dignidad.
Pero la ley sí debe
conocerlos.
Este es un caso difícil.
Y en ausencia de reglas
escritas, los principios deben hablar más fuerte que los silencios
legislativos.
💬 ¿Tú qué opinas?
👉 ¿Aceptarías que una IA mida tus
emociones para conservar tu empleo?
👉 ¿Debe haber un límite al poder digital
dentro del trabajo?
👉 ¿Y si el próximo “caso difícil” eres tú?
✍️ Autor: Enrique Rueda Santillán
🧠 Edición y estilo con IA