‘La delgada línea entre la relevancia y la manipulación en el Reglamento de IA’, por Paula Ortiz

Desde el mes de febrero, el Reglamento de Inteligencia Artificial de la Unión Europea marca un punto de inflexión en la regulación de las prácticas publicitarias digitales, especialmente en lo que respecta a la manipulación subliminal y la explotación de vulnerabilidades emocionales o cognitivas. Recordemos que este marco legal no solo busca proteger los derechos fundamentales y la dignidad humana, sino también garantizar que las tecnologías avanzadas, como los sistemas de IA, se utilicen de manera ética y responsable.

Hasta ahora, la publicidad subliminal estaba regulada por normativas como la Ley General de Publicidad y la Ley de Competencia Desleal, que prohibían prácticas tradicionales como, por ejemplo, los mensajes ocultos en fotogramas. Sin embargo, el Reglamento de IA amplía significativamente este alcance. El Reglamento incluye la “prohibición de técnicas subliminales que escapen a la conciencia o técnicas deliberadamente manipuladoras o engañosas” e incluye, entre otros, el uso de tecnologías capaces de influir en las decisiones de los usuarios de forma imperceptible, como los sistemas de IA que modulan mensajes publicitarios en tiempo real basándose en el análisis de datos personales. Por ejemplo, un sistema que ajuste el contenido para incitar compras impulsivas ahora está expresamente prohibido. 

Además, el Reglamento aborda otro aspecto crítico: la explotación de vulnerabilidades. Esto incluye prácticas que buscan aprovecharse de personas en situaciones particularmente sensibles, como aquellas con problemas económicos, menores de edad o personas con discapacidad. Por ejemplo, un algoritmo que detecte búsquedas relacionadas con dificultades financieras y adapte los anuncios para incitar a contratar préstamos con condiciones abusivas. La prohibición también se extiende a situaciones sociales vulnerables, y obliga a las empresas a ser mucho más cuidadosas en la segmentación y personalización de sus campañas publicitarias.

En este contexto, la hiperpersonalización, que hasta ahora era y es una herramienta clave en la publicidad, se enfrenta a un escrutinio más riguroso. Si bien estas técnicas permiten a las empresas entender mejor a sus clientes y satisfacer sus necesidades, el uso de análisis profundo de comportamiento o datos biométricos para medir emociones debe garantizar que no se exploten vulnerabilidades ni se utilicen datos sensibles de manera indebida. Las empresas deben demostrar que estas prácticas no tienen un impacto negativo significativo en los consumidores, lo que introduce un nuevo nivel de responsabilidad en el diseño y aplicación de campañas publicitarias.

En ese sentido, uno de los desafíos más complejos del Reglamento es que la ilicitud de ciertas prácticas dependerá del impacto real y significativo en el usuario. La prohibición de técnicas subliminales, manipuladoras o engañosas, diseñadas para distorsionar el comportamiento individual o colectivo, está condicionada a que estas alteren la capacidad de decisión y generen un daño significativo. Aunque este enfoque busca equilibrar la protección del usuario con la innovación empresarial, deja un margen de interpretación que podría generar inseguridad jurídica en un sector donde la personalización es clave para la viabilidad de los negocios.

Otro aspecto clave del Reglamento es la alfabetización en IA, que obliga a las empresas a formar a los equipos responsables del desarrollo, implementación y supervisión de sistemas de inteligencia artificial. Esto implica diseñar programas de capacitación específicos que permitan a los equipos comprender cómo funcionan estos sistemas, cuáles son sus limitaciones y qué riesgos asociados presentan. La formación debe enfocarse en mitigar problemas como la opacidad algorítmica o las famosas "cajas negras", y asegurar que las tecnologías se diseñen y utilicen de manera ética. Además, esta obligación busca garantizar que las empresas puedan valorar el impacto real de estas tecnologías en sus operaciones y, sobre todo, en los consumidores.

En definitiva, la redefinición de los límites en la publicidad digital y las zonas grises que plantea exigen una revisión aún más minuciosa de las estrategias de targeting y personalización, así como garantizar la transparencia y el consentimiento informado en el uso de datos personales.

Paula Ortiz, Co-CEO de TheLegal.School

IA, Privacidad, Regulación, LegalNCIAB, IAB Spain