Panorama Tecnología._ La inteligencia artificial ya no se limita a procesar información, sino que también es capaz de interpretar emociones y conductas humanas en tiempo real. Especialistas advierten que este avance tecnológico está superando las leyes actuales y podría representar riesgos para derechos fundamentales como la privacidad y la libertad personal.
La advertencia surge de una investigación realizada por Leire Escajedo San-Epifanio, quien analizó el impacto de los sistemas biométricos no identificantes impulsados por inteligencia artificial. El estudio sostiene que la regulación europea todavía no responde adecuadamente a estas nuevas tecnologías.
La investigación, titulada “Tratamientos biométricos no identificantes mediante inteligencia artificial”, explica que estos sistemas pueden deducir estados emocionales y patrones de comportamiento a partir de señales corporales. Esto ocurre sin que las personas expresen directamente cómo se sienten o sean plenamente conscientes del análisis realizado.
Actualmente, tecnologías de este tipo están presentes en teléfonos móviles, asistentes virtuales, plataformas digitales y videojuegos. Estos sistemas detectan niveles de atención, interés, cansancio y reacciones frente a contenidos o estímulos digitales para personalizar la experiencia del usuario.
Según el estudio, la información recopilada es utilizada para modificar anuncios, videos y mensajes con el objetivo de captar más atención e influir en las decisiones de las personas. A diferencia de la biometría tradicional, el propósito ya no es identificar a un individuo, sino interpretar su comportamiento y emociones.
La investigación advierte que este tipo de tecnología podría afectar la libertad personal al condicionar decisiones mediante ajustes constantes en el entorno digital. Los expertos alertan que muchos usuarios podrían ser guiados o influenciados sin comprender realmente cómo funcionan estos sistemas.
Otro de los riesgos señalados es la creación de perfiles automáticos basados en comportamientos y emociones. El estudio indica que estas clasificaciones podrían utilizarse para discriminar, segmentar usuarios o limitar oportunidades de manera poco transparente.
Escajedo San-Epifanio también cuestiona la efectividad del consentimiento informado en las plataformas digitales. Según explica, aceptar términos y condiciones no significa que las personas entiendan el alcance real de la información que se recopila ni cómo puede afectar sus decisiones cotidianas.
La investigación concluye que existe un desfase importante entre el avance de la inteligencia artificial y la capacidad de las leyes para regularla. Por ello, propone establecer límites legales más claros, exigir mayor transparencia y evaluar los riesgos de estas tecnologías antes de su implementación masiva.