2025 ha sido el año del gran despegue de la inteligencia artificial. Para muchos, ese avance genera vértigo e incertidumbre; para otros, confirma algo ya inevitable: la IA ha llegado para quedarse y no como un rival, sino como una herramienta más con la que aprender a convivir. El último ejemplo va un paso más allá de lo que creíamos posible: ya existe una IA capaz de interpretar el lenguaje no verbal —gestos, posturas o niveles de atención— en tiempo real, sin usar reconocimiento facial ni datos biométricos. Un “traductor” de reacciones cognitivas que promete medir cómo reaccionamos… pero que también abre preguntas clave sobre fiabilidad, límites y privacidad.
Así lo explica Fabio Assolini, director del Global Research and Analysis Team (GReAT) de Kaspersky —la unidad de investigación internacional de la compañía especializada en ciberseguridad, amenazas digitales y análisis avanzado de tecnologías emergentes—, que advierte de que estas herramientas no leen emociones ni pensamientos, sino patrones de comportamiento observables que deben interpretarse siempre con cautela y supervisión humana.
¿Qué significa que una IA pueda interpretar lenguaje no verbal sin usar reconocimiento facial ni datos biométricos? ¿Hasta qué punto es técnicamente fiable este tipo de análisis?
Que una IA interprete lenguaje no verbal sin reconocimiento facial ni datos biométricos significa que no identifica a la persona ni utiliza rasgos biológicos únicos, sino que analiza patrones de comportamiento como postura, movimientos, ritmo gestual o características generales de la voz tratadas de forma no identificativa. Estos sistemas emplean modelos de visión por computador y análisis acústico para extraer señales abstractas y generar inferencias probabilísticas sobre estados generales (por ejemplo, estrés o carga cognitiva), sin determinar identidades ni emociones concretas, lo que reduce el impacto en la privacidad, aunque sigue siendo un área legalmente sensible.
En términos de fiabilidad, este tipo de análisis es limitadamente fiable y funciona mejor para detectar tendencias o cambios de comportamiento en contextos controlados, con precisiones moderadas. No es adecuado para inferir intenciones, emociones complejas o tomar decisiones críticas de forma automática, ya que depende mucho del contexto y puede ser manipulado. En ciberseguridad, debe usarse solo como apoyo y nunca como prueba o criterio único de decisión.
Emogg afirma medir respuestas cognitivas externas (gestos, posturas, microexpresiones) y no emociones internas. ¿Qué puede deducirse realmente del lenguaje corporal y qué límites tiene esta interpretación?
Del lenguaje corporal solo pueden deducirse respuestas externas observables, como niveles generales de activación, tensión física, atención o carga cognitiva, siempre de forma probabilística y dependiente del contexto. Gestos, posturas y microexpresiones reflejan cómo una persona reacciona ante un estímulo, pero no permiten conocer con certeza sus emociones internas, pensamientos o intenciones, ya que un mismo patrón corporal puede corresponder a estados internos distintos.
Los límites de esta interpretación son importantes: el lenguaje no verbal es contextual y cultural, puede ser modificado de forma consciente y es sensible a errores y sesgos del modelo. Por ello, estas inferencias deben usarse solo como señales auxiliares y no como una representación objetiva o concluyente del estado emocional o psicológico de una persona.
Este tipo de IA trabaja con parámetros como atención, aversión, impacto o exaltación. ¿Son indicadores suficientemente robustos como para evaluar a una audiencia o existe riesgo de interpretaciones erróneas?
Parámetros como atención, aversión, impacto o exaltación pueden ser útiles para evaluar tendencias generales de una audiencia, ya que se basan en patrones agregados de comportamiento observable (postura, movimiento, ritmo de respuesta) y permiten identificar cambios relativos ante un estímulo. En contextos de análisis colectivo, investigación de mercado o evaluación de contenidos, estos indicadores pueden ofrecer señales razonables sobre qué capta interés o genera rechazo, siempre que se interpreten de forma comparativa y no absoluta.
No obstante, existe un riesgo claro de interpretaciones erróneas si se aplican a nivel individual o sin contexto, ya que estos parámetros son inferencias indirectas y altamente dependientes de factores culturales, situacionales y técnicos. Fatiga, distracciones externas o estilos personales de comunicación pueden alterar los resultados sin relación con el contenido evaluado. Por ello, estos indicadores deben usarse como métricas orientativas, combinadas con otros datos y con supervisión humana, evitando decisiones automáticas o conclusiones deterministas.
¿Qué riesgos de privacidad existen cuando una IA analiza grupos mediante cámaras, aunque asegure que no identifica personas? ¿Qué debe entender el ciudadano medio sobre este tipo de tecnologías?
Aunque una IA analice grupos con cámaras y no identifique personas, existen riesgos de privacidad, ya que se siguen captando y procesando comportamientos para inferir estados como atención o rechazo. Estos datos pueden usarse para crear perfiles colectivos, combinarse con otras fuentes y derivar en usos no previstos, como vigilancia o control del comportamiento, especialmente si no hay límites claros sobre su finalidad y conservación.
Los usuarios deben saber que no identificar personas no significa ausencia de riesgo: se sigue generando información sensible sobre cómo actúan y reaccionan las personas. Por ello, es fundamental exigir transparencia, conocer el propósito del sistema, las garantías de anonimización y los mecanismos de control, entendiendo que este tipo de tecnologías debe usarse con cautela y supervisión.
No identificar personas no significa ausencia de riesgo: se sigue generando información sensible sobre cómo actúan y reaccionan las personas
La empresa asegura que no almacena datos y que todo se procesa de forma local. En términos de ciberseguridad, ¿qué garantías mínimas debería tener una herramienta así para ser considerada segura?
Que una herramienta procese datos localmente y no los almacene es un buen punto de partida, pero no basta por sí solo. Como garantías mínimas, debe demostrar que no existe persistencia de datos ni de inferencias, que la memoria se limpia tras cada uso y que no hay comunicaciones ocultas ni posibilidad de exfiltración. También son necesarios controles de acceso, aislamiento del sistema y cifrado si hay cualquier transmisión puntual.
Además, la seguridad exige transparencia y verificabilidad: auditorías externas, documentación clara sobre qué se procesa y cómo, protección frente a manipulaciones y una gestión segura de actualizaciones y vulnerabilidades. Sin estas garantías, la promesa de “procesamiento local sin almacenamiento” no puede considerarse suficiente desde un punto de vista de ciberseguridad.
¿Qué beneficios reales puede aportar esta tecnología en entornos como eventos, empresas o estudios de audiencia? ¿Puede sustituir las encuestas tradicionales o solo complementarlas?
Esta tecnología puede aportar beneficios reales al ofrecer mediciones en tiempo casi real, no intrusivas y basadas en comportamiento observable, lo que permite detectar niveles generales de atención, impacto o rechazo en eventos, entornos empresariales o estudios de audiencia. Esto ayuda a evaluar contenidos, dinámicas de presentaciones o respuestas colectivas sin interrumpir a los participantes y reduce sesgos habituales de las encuestas, como respuestas racionalizadas o deseabilidad social.
Sin embargo, no puede sustituir a las encuestas tradicionales, ya que no explica el porqué de las reacciones ni recoge opiniones conscientes o valoraciones explícitas. Su mayor valor está en complementarlas, aportando señales conductuales objetivas que, combinadas con métodos clásicos y análisis humano, ofrecen una visión más completa y fiable del comportamiento y la percepción de una audiencia.
¿Existe riesgo de sesgos culturales, contextuales o físicos a la hora de interpretar el lenguaje no verbal? ¿Cómo pueden afectar estos sesgos a los resultados?
Sí. Los gestos, posturas o niveles de expresividad varían mucho entre culturas, entornos sociales y situaciones concretas, y también dependen de factores físicos como edad, discapacidad, fatiga o condiciones médicas. Un comportamiento que en un contexto puede interpretarse como desinterés o aversión, en otro puede ser neutral o incluso positivo, lo que limita la universalidad de los modelos.
Estos sesgos pueden distorsionar los resultados, generando falsos positivos o negativos y llevando a conclusiones erróneas sobre atención, impacto o rechazo. Si los modelos se entrenan con datos poco diversos o se aplican fuera de su contexto original, pueden amplificar desigualdades y reducir la fiabilidad del análisis. Por ello, estos sistemas deben usarse con cautela, calibrarse para cada entorno y entenderse como herramientas orientativas, no como mediciones objetivas o universales del comportamiento humano.
El mayor riesgo es atribuir a estas tecnologías una capacidad de “leer la mente” que no tienen
Mirando al futuro, ¿cree que la IA capaz de leer lenguaje corporal será cada vez más común? ¿Qué usos positivos y qué usos preocupantes podrían aparecer en los próximos años?
Es muy probable que la IA capaz de analizar lenguaje corporal sea cada vez más común, impulsada por avances en el análisis de vídeo, sensores y modelos de IA más eficientes, así como por la demanda de sistemas de observación en tiempo real y no intrusivos. Sus usos positivos pueden incluir la mejora de la experiencia en eventos y educación, la evaluación de contenidos, el apoyo a la ergonomía y la seguridad laboral, o herramientas de accesibilidad y bienestar, siempre que se apliquen con transparencia y control humano.
No obstante, también pueden aparecer usos preocupantes, como vigilancia encubierta, evaluación automática de empleados o estudiantes, perfilado conductual o toma de decisiones basadas en inferencias poco fiables. El mayor riesgo es atribuir a estas tecnologías una capacidad de “leer la mente” que no tienen. Por ello, su adopción futura debe ir acompañada de límites legales claros, auditorías, supervisión humana y una comprensión social realista de sus capacidades y límites.







