EN PLENO BOOM DE LA INTELIGENCIA ARTIFICIAL

Las agencias de noticias apuestan por un código ético para usar la IA en los medios

EL OBJETIVO ES EVITAR LA PROPAGACIÓN DE NOTICIAS FALSAS

“La IA ayuda a eliminar tareas repetitivas que no aportan valor y ocupan mucho tiempo” y “es capaz de descargar trabajo rutinarios a las redacciones, de manera que periodistas pueden concentrarse en la elaboración de sus historias”, dicen los expertos

Publicidad

Los expertos se quejan: “Las compañías tecnológicas recogerán los frutos derivados de la IA generativa sin que estos lleven acompañada la responsabilidad asociada a generación de contenidos no veraces, porque a diferencia de los medios de información, las plataformas están exentas de esa responsabilidad”.

Cada vez es más habitual ver cómo la conversación sobre la Inteligencia Artificial (IA) va asentándose en las redacciones con tantas certezas como interrogantes. Los expertos en esta tecnología y reconocidos periodistas que se han pronunciado en los últimos meses y coinciden en que la IA, por un lado, abre una ventana llena de oportunidades, pero por otro, debe ser controlada para no generar daños en el sector de la comunicación.

Y es que, las agencias de noticias y las redacciones se enfrentan a desafíos impuestos por la IA que reclaman una regulación capaz de proteger los intereses de las empresas informativas, el trabajo de sus periodistas y la calidad de la información ofrecida. Una realidad que las instituciones europeas ya tiene sobre la mesa, pero por la que hay que seguir luchando.

En palabras de los expertos, “la IA ayuda a eliminar tareas repetitivas que no aportan valor y ocupan mucho tiempo” y “es capaz de descargar trabajo rutinarios a las redacciones, de manera que periodistas pueden concentrarse en la elaboración de sus historias”.  Sin embargo, afirman que si no se controla puede suponer “un peligro muy grande”.

Además, los medios cuando utilizan herramientas de IA para facilitar la elaboración de tareas están sujetos a responsabilidad plena respecto de toda información que sea adjudicada bajo sus marcas informativas. En cambio, las tecnológicas, que se nutren del trabajo de editores y talento de periodistas, además de no retribuir a los medios por ello, no garantizan la fiabilidad de las respuestas a las consultas planteadas por los ciudadanos, que se ven expuestos a informaciones erróneas presentadas como ciertas.

Y sumado a la falta de responsabilidad por parte de las compañías y el aumento de la desinformación en la sociedad, existen también otros problemas que está acarreando la IA, como la pérdida de tráfico en las webs, y posibilidades de monetización publicitaria, ya que el ciudadano obtendrá primeras respuestas a través de esta tecnología.

Por tanto, la IA supone un reto en el sector de la comunicación y deberá de enfrentarse a través de la normativo. Por ejemplo, los expertos españoles defiendne los acuerdos alcanzados por la organización Digital Content Next, al que pertenecen The Washington Post o Wall Street Journal, de que los editores perciban una remuneración justa por la propiedad intelectual”, y una mayor responsabilidad de las tecnológicas, que proporcionan la IA de manera “opaca y poco transparente”.

En definitiva, normativas que exigan que los operadores de IA generativa publiquen los datos que han utilizado para el entrenamiento, hagan una evaluación del impacto respecto a los derechos fundamentales para asegurar un uso transparente, y sobre ellos recaigan sanciones millonarias, equiparables a las de Competencia, si sus deepfakes [vídeo en el que se muestran imágenes falsas, habitualmente del rostro de una persona, que parecen ser reales] no llevan una marca de agua o una advertencia.

Seguiremos Informando…

Publicidad
Publicidad
Salir de la versión móvil