A lo largo de los últimos meses, organizaciones editoriales e industrias creativas de todo el mundo han expresado sus dudas sobre la razonabilidad de los actuales modelos de Inteligencia Artificial Generativa (IAG) basados en la utilización de obras e inversiones de terceros y alertan sobre la disrupción de esta tecnología en los modelos de negocio de los creadores de contenidos así como de los riesgos que esta tecnología presenta para la sociedad, al no garantizarse la fiabilidad de la información y los derechos individuales de las personas.
En este contexto, las organizaciones editoriales e industrias creativas de todo el mundo solicitan a los desarrolladores e implementadores tecnológicos respeto al esfuerzo inversor realizado por las organizaciones editoriales e industrias creativas, de manera que solo bajo licencia puedan ser utilizados por parte de la IAG los contenidos creados por terceros. Las organizaciones editoriales e industrias creativas de todo el mundo demandan también a los sistemas de IAG transparencia en cuanto a la identificación de los contenidos concretos que son utilizados para el entrenamiento de los sistemas de IAG como para la producción de los resultados de respuesta de estos sistemas.
Los medios de información y agencias de noticias miembros de la Asociación de Medios de Información, reunidos en asamblea general anual, queremos sumarnos a esta conversación para trasladar a las instituciones europeas y al Gobierno de España nuestra preocupación por el profundo impacto que la Inteligencia Artificial Generativa tendrá sobre nuestra actividad y solicitar el establecimiento de un sistema de garantías respetuoso con nuestro trabajo e inversión y que asegure:
1. El respeto por parte de los desarrolladores e implementadores de la IAG del esfuerzo inversor y del trabajo realizado por los creadores de los contenidos y, en concreto, de los derechos de los editores y agencias de noticias sobre los contenidos que los mismos generan.
2. El necesario reconocimiento de la capacidad de los editores y agencias de noticias a negociar y recibir en condiciones equitativas y justas una remuneración adecuada por el uso que desarrolladores e implementadores de sistemas de inteligencia artificial realizan de sus derechos de propiedad intelectual.
3. La protección de los editores y agencias de noticias y creadores frente al uso indebido y no licenciado de su obra.
4. La transparencia de los sistemas de IAG respecto de los materiales utilizados tanto para el entrenamiento de los sistemas de IAG como de los resultados que producen. Esta transparencia debe exigirse desde el respeto debido a los editores, agencias de noticias y creadores de noticias, así como a los propios lectores, que tienen derecho a conocer qué contenidos han sido producidos por sistemas de IAG y cuáles son las fuentes empleadas por cada resultado de respuesta del sistema de IAG.
5. La transparencia de los sistemas de IAG debe ser granular, de forma que sea posible realizar la trazabilidad completa de todo el contenido utilizado por desarrolladores e implementadores de IAGs.
6. La responsabilidad de los desarrolladores e implementadores de las IAG respecto de los resultados ofrecidos por sus sistemas.
7. El aseguramiento de que los sistemas de IA Generativa no facilitarán la creación de situaciones de competencia indebida en los mercados. En particular, el sistema debe garantizar que la negativa de un editor o agencia de noticias a facilitar el uso de su contenido a un sistema de Inteligencia Artificial Generativa no tendrá ningún impacto en la visibilidad de los contenidos de ese editor en el conjunto del ecosistema de Internet.
8. El respeto al derecho a la intimidad y seguridad de las personas.
En Madrid, a 20 de junio de 2023.