La Comisión Federal de Comunicaciones (FCC) de Estados Unidos ha propuesto un conjunto innovador de reglas destinadas a proteger a los consumidores de llamadas y mensajes de texto generados por inteligencia artificial (IA). Esta medida busca frenar el aumento de robocalls no deseados y fraudulentos mediante la transparencia en la identificación de estas comunicaciones automatizadas. La propuesta podría servir como modelo para España y el resto de Europa, donde la proliferación de estas tecnologías plantea una creciente amenaza.
Transparencia Obligatoria para Llamadas y Mensajes de IA
La nueva propuesta de la FCC exige que todas las llamadas y mensajes generados por IA revelen su origen artificial al principio de la comunicación. Esto significa que los sistemas automatizados deberán incluir una declaración explícita, como “No soy una persona real”, para informar a los consumidores de que están interactuando con una IA. Esta regla busca reducir la confusión y el riesgo de fraude asociado con las llamadas automatizadas.
La FCC define una llamada generada por IA como aquella que utiliza tecnología computacional, aprendizaje automático, modelos de lenguaje extensos (LLMs) o algoritmos predictivos para crear una “voz artificial o pregrabada” o un texto. La propuesta incluye sanciones para quienes no cumplan con este requisito de divulgación, complementando la normativa vigente que prohíbe las llamadas automatizadas sin consentimiento previo.
Una Respuesta Necesaria al Aumento del Fraude
Esta iniciativa surge en respuesta al creciente número de robocalls fraudulentos, como los recientes incidentes en New Hampshire, donde los residentes recibieron llamadas que imitaban la voz del presidente Joe Biden para engañarlos sobre las elecciones primarias. La FCC confía en que estas medidas de transparencia permitirán a los consumidores identificar y evitar fraudes con mayor facilidad.
La Necesidad de una Regulación Similar en España
La experiencia de EE. UU. pone de manifiesto la urgencia de que España y el resto de Europa adopten medidas similares. El avance de las tecnologías de IA y el aumento de fraudes telefónicos plantean un desafío significativo para la protección del consumidor. La implementación de reglas que exijan la divulgación clara del uso de IA en llamadas y mensajes podría ayudar a prevenir estafas y mejorar la seguridad en las comunicaciones digitales.
España, con su robusta legislación en protección de datos, como el Reglamento General de Protección de Datos (GDPR), debe considerar actualizar sus normativas para abordar estos nuevos riesgos. Adoptar medidas que aseguren la transparencia en el uso de tecnologías de IA en comunicaciones automáticas sería un paso crucial para salvaguardar a los ciudadanos y mantener la confianza en los canales de comunicación digital.