Navegar de bolina: Transparencia IA y verificación humana en los medios de comunicación

A principios del mes de abril Meta ha dado su último adiós al uso de verificadores en Estados Unidos en todas sus plataformas (Facebook, Threads e Instagram). Lo ha hecho a favor del uso de notas comunitarias, siguiendo la estela del enfoque impulsado en X por Elon Musk.

Este movimiento, que no es único (a pesar de que haya plataformas que aún se mantienen en silencio y expectantes), pone de manifiesto el delicado teatro en el que se desenvuelven las principales fuentes de información referentes de la sociedad en 2025, un escenario de inflexión en el que convergen tecnología, política y regulación, y que a todas luces está redefiniendo cómo se produce, distribuye, verifica y consume la información.

Sobre el apartado concreto de la verificación, la respuesta no es unánime. Muchos expertos sugieren que el futuro de la verificación debería ser un híbrido entre la verificación asistida por IA (sistemas que identifiquen y prioricen la desinformación según su daño potencial y viralidad), verificación experta y aportes comunitarios estructurados.

Frente a este movimiento de las tecnológicas dueñas de las grandes plataformas sociales, los medios tradicionales se adaptan a un ecosistema digital cada vez más fragmentado y en extremo volátil. El momento es complejo. A la información generada por el usuario se añade, además, la inmensa cantidad de contenido que se está generando mediante IA, de manera automatizada y sin control, que atosiga a los algoritmos de posicionamiento y que confunde nuestra capacidad crítica. Slop content, en pocas palabras, contenido bazofia.

Por eso, los medios han decidido ser cautos con el uso de la IA generativa. IA sí, pero con ciertas normas de uso y transparencia.

En esta línea se resume un reciente estudio sobre autorregulación en medios de comunicación en el uso de la inteligencia artificial, elaborado en cooperación por la Universidad de Valladolid (España) y la Universidad de Beira Interior (Portugal), que revela cómo los medios de comunicación de 18 países diferentes están preocupados por establecer límites claros al uso de la IA generativa. El estudio, que analiza 45 manuales de estilo y normativas internas que han sido publicados en los últimos dos años, es claro: El 87% de los medios limitan el uso de IA generativa.  Las normativas de medios como Agencia EFE, El País, BBC, Al Jazeera, Jot Down, New York Times, The Guardian, USA Today, Wired, DPA, DJV, Verdens Gang o Groupe Les Echos Le Parisien, entre otros muchos, reflejan tres grandes compromisos éticos fundamentales: La transparencia (el 96% de los documentos exigen identificar el contenido generado por IA), la verificación (el 76% enfatiza la importancia del fact-checking -en un mundo que viaja en dirección contraria-), y la supervisión humana (el 98% destaca la necesidad de control humano en el proceso).

El estudio, realmente interesante, se ha centrado en examinar cuatro grandes cuestiones: ¿Qué tipos de IA se permite y cuáles son sus limitaciones? ¿Qué regulación sobre contenido multimodal se implementa? ¿Qué compromisos éticos se establecen? Y ¿qué importancia tiene la supervisión humana?

Regulación:
– La mayoría de medios muestran mayor preocupación por la IA generativa que por la IA analítica

– El 87% de los documentos analizados limitan el uso de IA generativa reduciendo su rol a “herramienta de apoyo y nunca un sustituto del periodista”

– Solo el 7% permite un uso más amplio

IA Multimodal:
– La generación de texto con IA está limitada al 71% de los documentos. Se puede usar para traducción, transcripción o sugerencia de titulares
– En la creación de contenido audiovisual hay discrepancias (el 20% lo prohíbe explícitamente, mientras que el 53% lo permite con restricciones)

Compromiso ético:
– El 96% de los documentos incluye medidas de trasparencia, como la identificación del contenido generado por IA

– El 76% creen necesario la verificación y el fact-checking
– El 64% menciona expresamente el respeto a los derechos de autor
– El 62% cree necesario proteger los datos personales

Supervisión humana:
– El 98% de los documentos destaca la importancia de la supervisión humana en el proceso (human-in-the-loop)
– Todos consideran que el profesional aporta juicio crítico y contexto cultural que la IA no puede replicar


Navegar con el viento en contra

Los esfuerzos de los medios de comunicación son titánicos. Y lo son porque el contexto político actual implica navegar de bolina, es decir, contra el viento. Por un lado, tenemos la administración Trump, históricamente hostil hacia los medios de comunicación tradicionales. Durante su primer mandato se registraron más de 600 ataques a periodistas y, ahora, no cesan los intentos de politizar instituciones federales como el Departamento de Justicia o la Comisión Federal de Comunicaciones.

Por otro lado, nos encontramos una fuerte fragmentación de plataformas, y un aumento de la confianza en medios o bien impulsados por IA (nuevos motores semánticos basados en IA) o por influencers que dominan la atención del público (TikTok es la plataforma estrella preferida por los gobiernos populistas, como ocurrió recientemente en Rumania con Calin Georgescu, de fuerte eco en los votantes más jóvenes).

Esta situación obliga a incrementar los esfuerzos en reputación, tal y como señala el Instituto Reuters para el Estudio del Periodismo en su último informe: “Las empresas y gobiernos deben redoblar la transparencia, utilizando verificación independiente y asociaciones con medios confiables para contrarrestar la desinformación”. Y, también, a aumentar la regulación, como está haciendo la Unión Europea con la Ley de Servicios Digitales o la Ley Europea de Libertad de Medios (que entrará en vigor el próximo mes de agosto de 2025), que buscan crear un marco de mayor transparencia para proteger la independencia editorial.


Pero no somos los únicos. Australia está adoptando un enfoque cauteloso pero progresivo hacia la regulación de la inteligencia artificial en el periodismo y los medios de comunicación, equilibrando la innovación con la protección de valores fundamentales. El informe Medios de comunicación en Australia de 2025 de la ACMA revela que la confianza de los australianos en las noticias está disminuyendo, lo que ha puesto en alerta al Gobierno y a la importancia de mantener estándares periodísticos sólidos en la era de la IA.

Actualmente el país no tiene una legislación específica sobre IA, quedando a merced de las leyes existentes de privacidad, datos, protección al consumidor y seguridad cibernética. Pero todo apunta a que las próximas elecciones de mayo podrían influir significativamente en su regulación. Mientras tanto, el país ha tomado cartas en el asunto con respecto al uso de redes sociales, prohibiendo a los menores de 16 años su acceso. La frase con la que Julie Inman, Comisionada de Seguridad Electrónica, compara la ley nos ayuda a amainar el viento en el mar: “Queremos mantener a los niños nadando entre las banderas donde hay supervisión, para que no vayan a aguas más oscuras donde no hay supervisión”.

Newsletter Serendipia

Mantente al tanto de toda la actualidad ATREVIA y las tendencias del mundo de la comunicación
Suscríbete

Dónde estamos

España Portugal Bruselas Argentina Bolivia Brasil Chile Colombia Ecuador México Uruguay Panamá Paraguay Perú República Dominicana

Madrid

C/ Arturo Soria, 99

28043 - Madrid

Tel. (+34) 91 564 07 25

madrid@atrevia.com

Cuéntanos

Barcelona

Trav. de les Corts, 55

08028 - Barcelona

Tel. (+34) 93 419 06 30

barcelona@atrevia.com

Cuéntanos

Valencia

C/Cirilo Amorós, 68

46004 - Valencia

Tel. (+34) 96 394 33 14

valencia@atrevia.com

Cuéntanos

Zona Norte

Av. Porto da Coruña, 3

15003 - A Coruña

Tel. (+34) 881 255 363

galicia@atrevia.com

Cuéntanos

Lisboa

Avda. da Liberdade, 157

1250-141 - Lisboa

Tel. (+351) 213 240 227

lisboa@atrevia.com

Cuéntanos

Oporto

Rua de Costa Cabral, 777 A

4200-212 - Porto

Tel. (+351) 933 461 279 / (+351) 92 672 82 92

porto@atrevia.com

Cuéntanos

Bruselas

Rue de Trèves 49-51 à 1040

Etterbeek - Bruselas

Tel. (+32) 2511 6527

bruselas@atrevia.com

Cuéntanos

Buenos Aires

Moreno 502

Ciudad Autónoma de Buenos Aires - CAPITAL FEDERAL

argentina@atrevia.com

Cuéntanos

Santa Cruz

Santa Cruz - Bolivia

Tel. (+591) 67155444

bolivia@atrevia.com

Cuéntanos

São Paulo

Av. Ibirapuera, 2120, Cjto. 134

São Paulo – Brasil

Tel. (+55) 11 000718080

brasil@atrevia.com

Cuéntanos

Santiago

Alcantara 200 304

Las Condes Santiago - Chile

Tel. Las Condes Santiago - Chile

chile@atrevia.com

Cuéntanos

Bogotá

Carrera 15# 93A - 84 oficina 805 edificio Business 93

Bogotá - Colombia

Tel. (+57) 3506614527

jmcarvajal@atrevia.com

Cuéntanos

Quito

Avda. Amazonas 3123 y Azuay. Edificio Copladi. Piso 8

Quito - Ecuador

Tel. (+593) 987164389

ecuador@atrevia.com

Cuéntanos

Guayaquil

Edificio Sky Building. Oficina 423

Ciudadela Bahía Norte Mz 57 - Guayaquil

Tel. (+593) 987164389

ecuador@atrevia.com

Cuéntanos

Ciudad de México

Enrique Wallon 414. Piso 2. Col. Polanco V sección, Alc. Miguel Hidalgo

11580 - Ciudad de México

Tel. (+52) 55 5922 4262

mexico@atrevia.com

Cuéntanos

Montevideo

Carlos Federico Saez 6438

11500 - Montevideo

Tel. +598 2600 4550

uruguay@atrevia.com

Cuéntanos

Panamá

Banistmo Tower. Planta 10. Aquilinio de la Guardia St.

Marbella - Panamá

panama@atrevia.com

Cuéntanos

Asunción

Capitán Solano Escobar 294

Asunción - Paraguay

paraguay@atrevia.com

Cuéntanos

Lima

Av. Camino Real Nº456 Oficina 1003-1004

Torre Real, San Isidro - Lima

Tel. (+51) 652-2422

peru@atrevia.com

Cuéntanos

Santo Domingo

Regus Santo Domingo. Roble Corporate Center. Planta 7

Rafael Auusto Sánchez 86, Piantini – Santo Domingo

rd@atrevia.com

Cuéntanos