A principios del mes de abril Meta ha dado su último adiós al uso de verificadores en Estados Unidos en todas sus plataformas (Facebook, Threads e Instagram). Lo ha hecho a favor del uso de notas comunitarias, siguiendo la estela del enfoque impulsado en X por Elon Musk.
Este movimiento, que no es único (a pesar de que haya plataformas que aún se mantienen en silencio y expectantes), pone de manifiesto el delicado teatro en el que se desenvuelven las principales fuentes de información referentes de la sociedad en 2025, un escenario de inflexión en el que convergen tecnología, política y regulación, y que a todas luces está redefiniendo cómo se produce, distribuye, verifica y consume la información.
Sobre el apartado concreto de la verificación, la respuesta no es unánime. Muchos expertos sugieren que el futuro de la verificación debería ser un híbrido entre la verificación asistida por IA (sistemas que identifiquen y prioricen la desinformación según su daño potencial y viralidad), verificación experta y aportes comunitarios estructurados.
Frente a este movimiento de las tecnológicas dueñas de las grandes plataformas sociales, los medios tradicionales se adaptan a un ecosistema digital cada vez más fragmentado y en extremo volátil. El momento es complejo. A la información generada por el usuario se añade, además, la inmensa cantidad de contenido que se está generando mediante IA, de manera automatizada y sin control, que atosiga a los algoritmos de posicionamiento y que confunde nuestra capacidad crítica. Slop content, en pocas palabras, contenido bazofia.
Por eso, los medios han decidido ser cautos con el uso de la IA generativa. IA sí, pero con ciertas normas de uso y transparencia.
En esta línea se resume un reciente estudio sobre autorregulación en medios de comunicación en el uso de la inteligencia artificial, elaborado en cooperación por la Universidad de Valladolid (España) y la Universidad de Beira Interior (Portugal), que revela cómo los medios de comunicación de 18 países diferentes están preocupados por establecer límites claros al uso de la IA generativa. El estudio, que analiza 45 manuales de estilo y normativas internas que han sido publicados en los últimos dos años, es claro: El 87% de los medios limitan el uso de IA generativa. Las normativas de medios como Agencia EFE, El País, BBC, Al Jazeera, Jot Down, New York Times, The Guardian, USA Today, Wired, DPA, DJV, Verdens Gang o Groupe Les Echos Le Parisien, entre otros muchos, reflejan tres grandes compromisos éticos fundamentales: La transparencia (el 96% de los documentos exigen identificar el contenido generado por IA), la verificación (el 76% enfatiza la importancia del fact-checking -en un mundo que viaja en dirección contraria-), y la supervisión humana (el 98% destaca la necesidad de control humano en el proceso).
El estudio, realmente interesante, se ha centrado en examinar cuatro grandes cuestiones: ¿Qué tipos de IA se permite y cuáles son sus limitaciones? ¿Qué regulación sobre contenido multimodal se implementa? ¿Qué compromisos éticos se establecen? Y ¿qué importancia tiene la supervisión humana?
Regulación:
– La mayoría de medios muestran mayor preocupación por la IA generativa que por la IA analítica
– El 87% de los documentos analizados limitan el uso de IA generativa reduciendo su rol a “herramienta de apoyo y nunca un sustituto del periodista”
– Solo el 7% permite un uso más amplio
IA Multimodal:
– La generación de texto con IA está limitada al 71% de los documentos. Se puede usar para traducción, transcripción o sugerencia de titulares
– En la creación de contenido audiovisual hay discrepancias (el 20% lo prohíbe explícitamente, mientras que el 53% lo permite con restricciones)
Compromiso ético:
– El 96% de los documentos incluye medidas de trasparencia, como la identificación del contenido generado por IA
– El 76% creen necesario la verificación y el fact-checking
– El 64% menciona expresamente el respeto a los derechos de autor
– El 62% cree necesario proteger los datos personales
Supervisión humana:
– El 98% de los documentos destaca la importancia de la supervisión humana en el proceso (human-in-the-loop)
– Todos consideran que el profesional aporta juicio crítico y contexto cultural que la IA no puede replicar
Navegar con el viento en contra
Los esfuerzos de los medios de comunicación son titánicos. Y lo son porque el contexto político actual implica navegar de bolina, es decir, contra el viento. Por un lado, tenemos la administración Trump, históricamente hostil hacia los medios de comunicación tradicionales. Durante su primer mandato se registraron más de 600 ataques a periodistas y, ahora, no cesan los intentos de politizar instituciones federales como el Departamento de Justicia o la Comisión Federal de Comunicaciones.
Por otro lado, nos encontramos una fuerte fragmentación de plataformas, y un aumento de la confianza en medios o bien impulsados por IA (nuevos motores semánticos basados en IA) o por influencers que dominan la atención del público (TikTok es la plataforma estrella preferida por los gobiernos populistas, como ocurrió recientemente en Rumania con Calin Georgescu, de fuerte eco en los votantes más jóvenes).
Esta situación obliga a incrementar los esfuerzos en reputación, tal y como señala el Instituto Reuters para el Estudio del Periodismo en su último informe: “Las empresas y gobiernos deben redoblar la transparencia, utilizando verificación independiente y asociaciones con medios confiables para contrarrestar la desinformación”. Y, también, a aumentar la regulación, como está haciendo la Unión Europea con la Ley de Servicios Digitales o la Ley Europea de Libertad de Medios (que entrará en vigor el próximo mes de agosto de 2025), que buscan crear un marco de mayor transparencia para proteger la independencia editorial.
Pero no somos los únicos. Australia está adoptando un enfoque cauteloso pero progresivo hacia la regulación de la inteligencia artificial en el periodismo y los medios de comunicación, equilibrando la innovación con la protección de valores fundamentales. El informe Medios de comunicación en Australia de 2025 de la ACMA revela que la confianza de los australianos en las noticias está disminuyendo, lo que ha puesto en alerta al Gobierno y a la importancia de mantener estándares periodísticos sólidos en la era de la IA.
Actualmente el país no tiene una legislación específica sobre IA, quedando a merced de las leyes existentes de privacidad, datos, protección al consumidor y seguridad cibernética. Pero todo apunta a que las próximas elecciones de mayo podrían influir significativamente en su regulación. Mientras tanto, el país ha tomado cartas en el asunto con respecto al uso de redes sociales, prohibiendo a los menores de 16 años su acceso. La frase con la que Julie Inman, Comisionada de Seguridad Electrónica, compara la ley nos ayuda a amainar el viento en el mar: “Queremos mantener a los niños nadando entre las banderas donde hay supervisión, para que no vayan a aguas más oscuras donde no hay supervisión”.