La inteligencia artificial aviva el debate sobre la ética en las salas de redacción

La inteligencia artificial aviva el debate sobre la ética en las salas de redacción

Con el crecimiento y desarrollo de la inteligencia artificial (IA) y su capacidad para ayudar a difundir información errónea e imprecisa, algunos expertos en medios creen que el sector del periodismo debería adoptar normas uniformes frente a esta nueva tecnología.

Entre las preguntas discutidas por los responsables de las redacciones está cómo la IA, que tiene un historial de errores y las llamadas «alucinaciones digitales», y que ya se utiliza para crear deepfakes (suplantaciones de identidad en audio, video o imagen), puede ser éticamente fiable para una industria cuya credibilidad depende de la confianza.

“Creo que a las organizaciones de noticias les llevará algún tiempo desarrollar mejores prácticas”, dijo Jared Schroeder, profesor asociado especializado en derecho y tecnología de los medios en la Escuela de Periodismo de la Universidad de Missouri.

“Aún no existen mejores prácticas establecidas y tenemos dos problemas: es nuevo y está cambiando. No hemos acabado. La IA de hoy será diferente el año que viene y dentro de cinco años”, añadió.

La IA generativa plantea un dilema interesante para una industria que sufre un declive económico. La tecnología puede ayudar a producir transcripciones, editar textos, narrar paquetes de audio o televisión y crear imágenes. Y los medios de investigación han confiado en esta tecnología desde hace ya mucho tiempo para rastrear grandes conjuntos de datos.

Pero también presenta un riesgo en cuanto a violaciones de derechos de autor y plagio, además de los posibles errores factuales.

Puede leer: La inserción de Acción Clero Cultural (ACC) al Movimiento Clandestino

La IA está teniendo «gran impacto» en el trabajo de los periodistas en América Latina: encuesta
El mes pasado, el New York Times demandó a Open AI y Microsoft por infracción de derechos de autor. Y un informe de agosto del organismo de control NewsGuard encontró que los chatbots de IA plagiaban miles de artículos de noticias..

A medida que las organizaciones de noticias comienzan a adoptar normas y prácticas, muchos expertos coinciden en que la IA es una herramienta útil para el periodismo, pero que todavía se necesita gente para supervisar su aplicación.

“Como periodista, no se me permite usar IA para redactar mis historias ni nada por el estilo”, dijo Ryan Heath, corresponsal de tecnología global del sitio web de noticias Axios. «Está bien usarlo para investigar un poco e inspirarte, pero no puedes usarlo para hacer informes o redactar tus artículos», dijo a la Voz de América.

Los medios de comunicación que experimentan con el uso de IA en lugar de reporteros lo han hecho con un éxito limitado.

El medio de comunicación estadounidense Sports Illustrated fue acusado en noviembre de publicar contenido generado por IA con firmas falsas. La publicación deportiva negó las acusaciones y dijo que un tercero proporcionó el contenido. Despidió a altos ejecutivos el mes siguiente, pero negó que su decisión estuviera relacionada con las acusaciones de IA.

El medio volvió a ser noticia el viernes, anunciando despidos masivos de personal después de perder su acuerdo de licencia en relación con pagos atrasados.

Por otra parte, el experimento con IA del sitio web de tecnología CNET, a principios del año pasado resultó en docenas de artículos que contenían errores. Después de publicar al menos 41 correcciones, el sitio anunció que ya no publicaría artículos producidos íntegramente por IA.

Heath, el periodista de Axios, asegura que su medio de comunicación ha adoptado un enfoque más cauteloso.

«Reconocen que definitivamente es una gran transformación, por lo que contrataron a personas como yo para escribir a tiempo completo sobre IA», dijo. «Pero primero quieren detenerse y pensar en ello».
Axios no es el único que contrata personal para centrarse en la IA. El New York Times anunció el mes pasado a Zach Seward como director editorial de iniciativas de IA.

En un comunicado de prensa, el editor dijo que el trabajo de Seward sería establecer principios para el uso de la inteligencia artificial en la organización. La VOA se acercó al Times para solicitar una entrevista, pero el periódico se negó.

Otros, como Associated Press, están firmando acuerdos de licencia con Open AI, el creador de ChatGPT.

TAMBIÉN LEA

Inteligencia artificial, riesgos y beneficios para el periodismo

AP rechazó la solicitud de entrevistas de la VOA. Pero en comunicados de prensa, la agencia de noticias ha dicho: “La precisión, la equidad y la velocidad son los valores rectores del informe de noticias de AP, y creemos que el uso consciente de la inteligencia artificial puede servir a estos valores y con el tiempo mejorar nuestra forma de trabajar”.

Las implicaciones de la IA en las redacciones son una tendencia clave para 2024, especialmente en un año en el que más de 40 países celebrarán elecciones importantes.

«Aprovechar lo mejor de la IA y al mismo tiempo gestionar sus riesgos será la narrativa subyacente del próximo año», escribió Nic Newman, investigador asociado sénior del Instituto Reuters para el Estudio del Periodismo, en el informe anual de tendencias de los medios de la organización.

Al señalar que las cuestiones sobre la confianza y la propiedad intelectual son claves, Newman añadió: “Los editores también pueden ver ventajas en hacer que sus negocios sean más eficientes y más relevantes para las audiencias”.

Los líderes de las redacciones y los organismos de control de los medios también están interviniendo.

La premio Nobel María Ressa se unió a Reporteros sin Fronteras y otros grupos para publicar la Carta de París sobre IA y Periodismo en noviembre. Los creadores de la carta dicen que quieren que sirva como modelo ético para el uso de la IA en el periodismo y quieren que las organizaciones de noticias adopten sus 10 principios.

Pero hasta ahora, la carta no ha sido adoptada por muchas organizaciones de noticias. Y la lista de periodistas que utilizan IA está creciendo.

0:001:430:00

La caja de Pandora se ha abierto, afirmó Schroeder, y añadió: “Sería peligroso que el periodismo no pensara en cómo debería utilizarse la IA. No significa que todas las organizaciones de noticias deban usarlo de la misma manera”.

Algunos Gobiernos parecen compartir esa opinión.

Una audiencia del subcomité de la Comisión Judicial del Senado de Estados Unidos analizó el 10 de enero las reservas sobre cómo la tecnología podría afectar al periodismo.

“De hecho, es una tormenta perfecta de ingresos decrecientes y desinformación explosiva, y gran parte de la causa de esta tormenta perfecta son, de hecho, tecnologías como la inteligencia artificial”, dijo el senador Richard Blumenthal, demócrata de Connecticut, que presidió la audiencia.

Y en diciembre, la Unión Europea aprobó la Ley de Inteligencia Artificial para garantizar el uso seguro y transparente de la tecnología. Se incluyen requisitos para que las empresas de tecnología revelen cuándo el contenido es generado por IA.

Los expertos en medios también están enfatizando la transparencia y la supervisión humana en sus debates sobre cómo y cuándo se utiliza la IA en el periodismo.

(Fuente: Boletín digital de la Sociedad Interamericana de Prensa, que a su vez lo tomó de La Voz de América)