La compañía activa notificaciones para informar sobre el uso de publicaciones públicas en la UE; expertos advierten sobre los riesgos de alimentar modelos con datos personales

Meta ha iniciado una nueva fase en el desarrollo de su Inteligencia Artificial (IA) generativa en Europa: a partir del 15 de abril de 2025, la compañía ha comenzado a entrenar sus modelos con contenido público compartido por adultos en sus plataformas —como Facebook, Instagram o Threads—. Este contenido incluye publicaciones, comentarios e interacciones realizadas en abierto por usuarios mayores de edad dentro de la Unión Europea.

La medida, que llega tras el lanzamiento de Meta AI en Europa el mes pasado, busca —según la empresa— mejorar la comprensión de las culturas, lenguas y matices sociales del continente. El objetivo es que la IA “no solo esté disponible para los europeos, sino que esté construida para ellos”. Sin embargo, la iniciativa ha reavivado el debate sobre el uso masivo de datos personales para entrenar modelos de lenguaje y el verdadero precio de las plataformas digitales supuestamente gratuitas.

Una notificación para informar… y objetar

Desde esta semana, los usuarios europeos de productos de Meta están recibiendo notificaciones en la aplicación y por correo electrónico explicando el nuevo uso que se dará a sus datos. En ellas se detalla que las interacciones con Meta AI —como preguntas, respuestas o comandos en el asistente— también serán utilizadas para mejorar el sistema.

Meta ha habilitado un formulario sencillo para que cualquier usuario pueda oponerse a este tratamiento de datos. La compañía asegura que respetará tanto las objeciones nuevas como las ya presentadas con anterioridad. No obstante, varios expertos han advertido de que la opción de objeción no siempre es suficiente cuando el proceso está automatizado por defecto y el usuario promedio no es consciente de sus implicaciones.

La empresa ha aclarado que no se utilizarán mensajes privados entre amigos o familiares para entrenar los modelos, ni tampoco ningún contenido público generado por menores de 18 años en la UE.

El producto eres tú

Aunque el uso de datos para entrenar sistemas de IA no es nuevo, lo que diferencia esta etapa es la transparencia relativa con la que Meta lo anuncia. La empresa afirma que su enfoque es más claro que el de competidores como Google o OpenAI, que también han utilizado datos de usuarios europeos en sus entrenamientos.

Sin embargo, lo que subyace en esta estrategia es un principio básico de la economía digital: cuando un producto es gratuito, el producto eres tú. Meta, como otras grandes tecnológicas, basa su modelo de negocio en la recopilación y explotación de datos. Ahora, con el auge de la inteligencia artificial generativa, estos datos no solo se utilizan para segmentar anuncios o mejorar la experiencia de usuario, sino para entrenar sistemas que reproducen, predicen y generan lenguaje humano, imágenes o incluso vídeos.

Riesgos de alimentar a la máquina

Usar contenido público para entrenar modelos de IA puede parecer inofensivo, pero plantea riesgos importantes. Entre ellos, destacan:

  • Pérdida de control sobre el contexto: Una publicación hecha en tono irónico o dentro de un contexto local puede ser malinterpretada por una IA sin comprensión cultural real.
  • Erosión de la privacidad: Aunque los datos sean “públicos”, siguen siendo personales. Su reutilización masiva por algoritmos de entrenamiento crea nuevas capas de exposición no previstas por los usuarios.
  • Reproducción de sesgos: Las IA aprenden lo que ven. Si los datos públicos reflejan estereotipos, polarización o discursos discriminatorios, esos mismos sesgos pueden ser amplificados por los modelos.
  • Falta de garantías sobre el uso futuro: Una vez entrenado el modelo, no hay forma de extraer “tu contenido” del sistema. La retirada de datos a posteriori no implica que lo aprendido se desaprenda.

Además, aunque el tratamiento de datos por parte de Meta se ha retrasado hasta contar con una opinión favorable del Comité Europeo de Protección de Datos (EDPB), y actualmente se realiza en coordinación con la autoridad de protección irlandesa (IDPC), la escala del procesamiento y su potencial impacto societal aún genera preocupación en ámbitos académicos y jurídicos.

¿IA para todos o IA con todos?

Meta defiende que entrenar sus modelos con datos europeos permitirá ofrecer una IA que entienda mejor los acentos regionales, las referencias culturales, el humor o los localismos propios de cada país de la UE. Asegura que esto mejorará la calidad del servicio, especialmente en funciones multimodales (texto, voz, imagen, vídeo).

Sin embargo, algunos analistas señalan que este tipo de prácticas, aunque legales, intensifican la dependencia tecnológica de los ciudadanos respecto a plataformas cerradas. «Nos prometen una IA más personalizada, pero el coste es convertir nuestras publicaciones en materia prima para sistemas opacos y propietarios», advierte un experto en ética digital.

La paradoja no es nueva: la promesa de una inteligencia artificial más útil, más rápida y más adaptada a nuestras necesidades se sustenta, de nuevo, en poner a trabajar nuestros datos para otros. Y como en tantas otras ocasiones, el acceso gratuito a los servicios digitales tiene un precio. Esta vez, la factura la paga el conocimiento colectivo de millones de usuarios.

Fuente: Meta y Noticias inteligencia artificial

Lo último