Cada vez más, las salas de redacción de todo el mundo han incorporado la inteligencia artificial en sus flujos de trabajo, y está claro que no hay vuelta atrás. Sin embargo, este fenómeno -aparentemente inevitable- debe estar firmemente anclado en la ética, según los ponentes del 87º Congreso de la AIPS celebrado en Rabat, Marruecos.
La mesa redonda efectuada en la cita destacó algunos de los avances y retos más significativos de la IA, y cómo estos afectan al periodismo.
Mariagrazia Squicciarini, jefa de la Oficina Ejecutiva y directora interina del Sector de Ciencias Sociales y Humanas (SHS) de la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO), expuso la “aceleración sin precedentes” de la IA en el último año, en particular con la aparición de nuevos modelos fundamentales. Otros avances clave que destacó incluyen el auge de los modelos locales de IA, la diversificación y la apertura de los modelos de IA, así como la evolución de los agentes de IA. “Las posibilidades son enormes, especialmente para los actores más pequeños”, afirmó Squicciarini, haciendo hincapié en la necesidad de la supervisión humana para garantizar la integridad de la información.
Las profundas preocupaciones éticas relacionadas con el rápido auge de la IA llevaron a la UNESCO a elaborar la primera norma mundial sobre ética de la IA en noviembre de 2021.
DERECHOS DE AUTOR
Las herramientas de inteligencia artificial (IA) están revolucionando la forma en que operan las organizaciones de medios de comunicación, desde la producción y distribución de noticias, hasta la interacción con la audiencia. Ya sea para transcribir entrevistas, traducir artículos o incluso identificar ideas para historias, la IA ha supuesto un ahorro de tiempo para muchos periodistas y ha hecho que las redacciones sean más eficientes y productivas, según Sanjay Sindhwani, director ejecutivo de Indian Express Online Media Services. Sin embargo, planteó una cuestión importante: “Acabo de leer un informe de la Oficina de Derechos de Autor de Estados Unidos que contiene algunas conclusiones muy interesantes. Afirman que los motores de IA están infringiendo los derechos de autor, y esto debe abordarse”, asegura.
Recientemente, se han producido colaboraciones entre organizaciones de noticias y desarrolladores de IA, como la firma de un acuerdo plurianual entre AFP y Mistral AI por el que el chatbot de esta última utilizará los informes de la agencia de noticias para responder a las solicitudes de los usuarios. Durante la mesa redonda del Congreso de la AIPS, el director de Operaciones Importantes y Eventos Especiales de la AFP, Vincent Amalvy, ofreció una visión detallada de cómo la agencia de noticias internacional francesa está aprovechando la IA, por un lado, y protegiendo sus contenidos, por otro.
VERIFICACIÓN DE HECHOS O ‘FACT CHECKING’
Para garantizar que la confianza que sus suscriptores y el público tienen en su contenido no se vea comprometida, AFP creó en 2017 un departamento dedicado a la verificación de hechos y las investigaciones digitales, compuesto por unos 200 periodistas, con el fin de hacer frente a la difusión de información errónea y desinformación en línea. En el Congreso de la AIPS, Amalvy también habló sobre el proyecto Coalition for Content Provenance and Authenticity (C2PA), que es “un estándar técnico abierto que proporciona a los editores, creadores y consumidores la capacidad de rastrear el origen de diferentes tipos de medios”.
Durante las elecciones estadounidenses de 2024, la AFP combinó con éxito el estándar de certificación C2PA con una marca de agua única, invisible y encriptada, para garantizar la autenticidad de sus fotos. “Con una cámara compatible con C2PA, el fotógrafo toma una foto y añade una firma digital segura al archivo en el momento de la toma. A continuación, transmite su foto a la AFP. El archivo original se almacena en un lugar seguro, mientras que se envía una copia a los editores de fotos de la AFP para su procesamiento estándar. Por último, justo antes de que la foto se entregue a los clientes de la AFP, la imagen se tatúa con una marca de agua individual, cifrada e invisible”, cuenta el ejecutivo de agencia francesa.
DESAFÍOS
La crisis de credibilidad es un gran desafío para los medios de comunicación en la actualidad, debido al aumento masivo de problemas como las noticias falsas, la desinformación, la manipulación y el plagio. Por lo tanto, la seguridad del contenido también es una prioridad para la Agencia de Noticias Xinhua, y Zhou Jie, subdirector del Departamento de Noticias Deportivas, mencionó algunas de las tecnologías que utilizan, entre ellas el reconocimiento de palabras sensibles, la supervisión de los derechos de autor y la elaboración de perfiles de usuarios. “Sin embargo, al utilizar herramientas de IA, también nos enfrentamos a varios retos importantes”, señaló Zhou. Mencionó tres de estos desafíos: el alto costo de la tecnología, la escasez de profesionales que entiendan tanto de periodismo como de tecnología y la falta de calidad de los datos. “Estos tres grandes retos a los que nos enfrentamos deben resolverse. Si no es así, creo que la tecnología de IA no se utilizará plenamente en nuestra labor informativa”.
SIN TEMOR
El director general de Marca, Juan Ignacio Gallardo, añadió que “como periodistas, no debemos tener miedo a nada, ni siquiera a la IA. Se trata de una nueva realidad y debemos aprovecharla. Por lo tanto, debemos ser inteligentes en nuestro enfoque de la IA, ya que esta puede ser una herramienta excepcional y fabulosa en el ejercicio de nuestra profesión. Hay algo que la IA nunca podrá hacer y es dar noticias. La IA nunca podrá reunirse con una fuente para tomar un café e intentar confirmar una información. La IA nunca llamará por teléfono ni acudirá al lugar de los hechos para averiguar las noticias. Los periodistas sobreviviremos mientras sigamos dando las noticias, algo que la IA no puede hacer. Hablaba con Anas (periodista de investigación ghanés) y es imposible que la IA haga periodismo de investigación. Por lo tanto, debemos sentirnos seguros, confiados y valientes, y ser inteligentes a la hora de aprovechar la IA en nuestro beneficio”.
REPERCUSIÓN FINANCIERA
Tanto Amalvy como Sindhwani destacaron la repercusión financiera del uso de la IA en las empresas de medios de comunicación y la necesidad de crear un modelo de negocio para ello.
Por ejemplo, Sindhwani profundizó sobre la enorme caída en el número de visitas a las páginas web. “Con la IA, te sirven todo en bandeja. Creo que ese es el gran cambio al que las empresas de medios de comunicación deben adaptarse. Si la gente va a obtener la información a través de un intermediario sin visitar tu sitio web, entonces todo tu modelo de negocio se viene abajo. Y es interesante, porque como cliente, le veo valor y por eso lo uso cada vez más. Pero como propietario de un negocio en el sector de los medios de comunicación, donde mis ingresos provienen de la suma de visitas, es un gran reto”, afirma Sindhwani, que también prevé un futuro en el que habrá más periodistas sobre el terreno y menos en la oficina, ya que la IA se utilizará en gran medida para el procesamiento de contenidos. “Tendremos que volver a aprender, volver a empezar desde cero, trazar nuevos planes, ver cómo nos va a afectar esta nueva tecnología y reelaborar nuestros modelos de negocio”.
UN FUTURO SIN LÍMITES
Aunque todos los ponentes coincidieron en que la IA tiene un futuro sin límites, instaron a los profesionales de los medios deportivos a mantenerse alerta mientras se adaptan al impacto de la IA. También subrayaron la importancia de colaborar con las empresas tecnológicas y los organismos reguladores para establecer un sistema equilibrado que aborde las consideraciones financieras y éticas de la IA. “Si ayuda a las personas a hacer cosas, no se puede detener el progreso. Así que lo que tenemos que hacer es definir las barreras de seguridad, definir el marco legal en el que operará”, afirmó Sindhwani.
Squicciarini añadió que “la IA está impregnando muchos otros factores que realmente pueden cambiar la vida tal y como la conocemos, por lo que realmente tenemos que ponernos de acuerdo en lo que no queremos que la IA haga por nosotros y, a continuación, dejar que los avances vayan en la dirección de lo que puede ayudar a la humanidad y a todos y cada uno de nosotros”.