Inteligencia Artificial: la automatización de la noticia y peligros

El gremio periodístico han perdido empleos por el cierre de periódicos o porque los medios adquieren tecnologías y contratan menos personal.

Por Alberto Barrera

Pittsburg, California – El internet fue en el siglo XX un gran avance para la humanidad pero en la siguiente centuria afectó al periodismo, muchos diarios cerraron o se editan digitalmente y los audiovisuales se modernizan por la competencia con las redes sociales. Ahora preocupa el uso más frecuente de equipos y programas del galopante desarrollo de la Inteligencia Artificial (IA).

Algunos temen que la IA acelere la automatización de la noticia, pues las empresas periodísticas lo ven como parte del proceso de sostenibilidad y por la eficiencia de la producción. En lo básico se le encargan transcripciones o traducciones, aunque sus capacidades son cada vez mayores y provoca recelos.

En el gremio periodístico se han perdido empleos por el cierre de periódicos o porque los medios adquieren tecnologías y contratan menos personal. En algunos casos se han desechado puestos.

La redacción automática de notas informativas es ya una realidad porque medios y agencias internacionales de noticias han preferido máquinas que sustituyen la aportación humana o ésta es mínima.

Es un hecho que están cambiando las formas de conseguir, procesar, generar y distribuir noticias a través de máquinas y programas que impulsa la IA. Estados Unidos y Europa van a la cabeza de ese proceso desde hace una década.

Un ejecutivo de la agencia Reuters en Washington me dijo que utilizan dos software, uno “que genera alertas basadas en comunicados de prensa” y otro para traducciones, aunque siempre las revisa un editor.

The Conversation informó que medios estadounidenses como la agencia Bloomberg News utiliza en sus publicaciones cerca de un 30 por ciento de su material automatizado, la revista Forbes ayuda a sus periodistas a mejorar sus textos con la herramienta Bertie y The Associated Preess (AP) se auxilia de la plataforma Wordsmith Automated Insights para redacción automática.

En los medios europeos la inglesa BBC utiliza una plataforma en línea que permite a los periodistas diseñar sus propias plantillas para noticias automatizadas y el diario francés Le Monde realizó un ensayo en la cobertura de las elecciones 2015 al utilizar una redacción de textos automática y en 2018 usó un bot llamado Tobi que produjo casi 40 000 noticias sobre las elecciones en Suiza.

Según ese mismo medio en España El Confidencial utiliza el bot Anafut para la escribir crónicas deportivas y también las estatales Radio y Televisión Española (RTVE) y la agencia EFE tienen un proyecto para la redacción automática de textos.

Los peligros de la IA Generativa

La Inteligencia Artificial Generativa (IAG) utilizada para producir texto, imágenes y videos a partir de datos y crear nuevos contenidos, ha provocado reacciones luego de que circulara en las redes sociales una falsa imagen del Papa Francisco luciendo una chaqueta de la casa de modas de lujo Balenciaga de España y que retomara el influyente diario brasileño Folha de S. Paulo.

Es un caso flagrante de desinformación.
Además se cita el caso de una fotografía generada por IA y que ganó un concurso internacional el mes pasado. Según CNN el alemán Boris Eldagsen rechazó el prestigioso premio Sony World Photography Award de fotografía 2023, pues aseguró su imagen fue generada artificialmente y que lo hizo para que se abriera un debate sobre el tema.

Y lo más reciente es la difusión de una imagen de humo negro saliendo de un edificio en Washington y que algunos medios divulgaron como supuesta explosión cerca del Pentágono, lo cual provocó una reacción negativa del mercado de valores antes de que las autoridades aclararan que no hubo explosión y que era una foto falsa.

La agencia AP dijo que consultaron expertos y estos dijeron que era “una falsificación generada por IA”. Entre los medios que usaron esa imagen citaron a RT, una agencia de medios respaldada por Rusia. Agregó que la imagen fue divulgada “en círculos de inversión, incluida una cuenta con la marca de verificación azul de Twitter que sugería falsamente que estaba asociada con Bloomberg News.”

La luz de alerta se encendió en 2021 cuando el Consejo de las Naciones Unidas para la Educación y la Cultura (Unesco) aprobó el primer instrumento normativo:

“Recomendación sobre la Ética de la inteligencia artificial” que establece valores y principios éticos en los casos de “la gobernanza de datos, el medio ambiente, la igualdad de género, la economía y el trabajo, la cultura, la educación y la investigación” que están siendo afectadas por la IA.

El 3 de mayo, Día Mundial de la Libertad de Prensa, la Directora General de ese organismo Audrey Azoulay, advirtió que pese a que “las plataformas digitales nos han proporcionado innumerables nuevos medios para informarnos y expresarnos; pero también son terreno abonado para quienes siembran la desinformación y las teorías conspirativas.”

El Senado de Estados Unidos citó esta semana al CEO de OpenAI, Sam Altman, para que explicara los avances en el afán de conocer detalles para una futura ley que regule la aplicación de la inteligencia artificial en la sociedad.

“Si no prestamos atención a esto y actuamos de manera más rápida y efectiva que en las redes sociales, podríamos ver consecuencias aún más dañinas para nuestra sociedad, nuestra cultura, nuestra economía en el futuro”, dijo el senador demócrata Christopher A. Coons.

En la reunión los legisladores dijeron que su intención es saber y explorar sobre herramientas como ChatGPT, con la que se puede producir información errónea como el fenómeno llamado “alucinación”, por el cual la IA inventa hechos falsos y se puede desinformar.

The Conversation aludió que desde hace años si se buscaban datos sobre temas científicos, por ejemplo, lo normal ha sido buscar en Google y responde con opciones a escoger, pero en la actualidad las preguntas se pueden hacer a ChatGPT o cualquier otra plataforma de IAG “y recibir rápidamente una respuesta sucinta en forma de párrafo”, respuestas a la consulta con las combinaciones probables a partir de una variedad de información disponible en línea.

Sin embargo advierte que tiene fallas y “puede producir desinformación” al crear alucinaciones, o sea inventar. “Y no siempre resuelve con precisión los problemas de razonamiento”.

Eso es parte de los peligros que se corren al confiar demasiado en la IA, por lo que no solo es el entusiasmo del avance científico. En tiempo de elecciones a los políticos les preocupa.

Según el Washington Post la representante demócrata por Nueva York, Yvette Clarke, está presionando para exigir la divulgación del uso de IA en anuncios políticos, después de que el Comité Nacional Republicano publicó un anuncio político apuntando a la campaña de reelección del presidente Joe Biden que se habría generado con inteligencia artificial, lo cual advierten puede ser la herramienta en la campaña electoral de 2024 e inició el debate sobre la ética.