SEGÚN EL INFORME “IA Y POLÍTICA PÚBLICA: HACIA UNA NUEVA ARQUITECTURA DE INCIDENCIA”, ELABORADO POR LLYC

Sesgos de la IA: los pacientes, los más desfavorecidos

ESPAÑA, ALEMANIA O FRANCIA RECIBEN INFORMACIÓN MÁS COMPLETA QUE LOS PAÍSES DEL ESTE DE EUROPA

Para Daniel Fernández Trejo, Director General de Deep Learning en LLYC: “Nuestro análisis demuestra empíricamente que los modelos de lenguaje no son meros repositorios de datos, sino intermediarios activos que interpretan y sesgan la información según quién pregunte. Hemos pasado de una web de búsqueda a una de respuestas sintéticas, y para cualquier organización, entender la lógica algorítmica de esta nueva ‘arquitectura de la influencia’ es tan crítico hoy como lo fue entender a los medios de comunicación en el pasado”

Publicidad
Cargando…
Publicidad no disponible

Un nuevo informe presentado por LLYC en el marco del European Health Summit revela una profunda desigualdad en la calidad de la información sobre salud que ofrecen los sistemas de inteligencia artificial. El estudio, basado en 1.484 respuestas de cuatro grandes modelos de lenguaje —OpenAI, Anthropic, Perplexity y Gemini—, demuestra que las respuestas varían ampliamente según quién consulta, desde qué país lo hace y qué regulación europea se analiza.

Los autores advierten que la IA se ha convertido en un actor capaz de influir en la percepción pública sobre temas sanitarios y regulatorios. Carlos Parry, líder de Healthcare Europa en LLYC, subraya que las divergencias detectadas “plantean un desafío crítico de equidad”, ya que pueden favorecer a ciertos usuarios y moldear la opinión pública de forma sesgada. El informe llama a una vigilancia activa por parte de instituciones y empresas del sector.

La brecha informativa según el perfil del usuario es uno de los hallazgos más llamativos. Los profesionales sanitarios reciben respuestas más completas y técnicamente sólidas, mientras que los pacientes obtienen información notablemente más limitada. Los medios de comunicación son los peores parados, con menor visibilidad y rigor en las fuentes, y las Administraciones Públicas aparecen beneficiadas, con un trato especialmente favorable por parte de los modelos.

La importancia de la geografía

La geografía también importa. El estudio confirma que los modelos de IA no generan un discurso homogéneo, sino ajustado al contexto nacional. Países como Alemania, Francia y España obtienen respuestas más exhaustivas y con mejor respaldo documental, mientras que Polonia, Hungría y otros Estados de Europa del Este reciben información más fragmentada y con menor consenso. En este escenario, el European Health Data Space (EHDS) emerge como la regulación mejor posicionada, frente a normas como el AI Act, que muestra un tono emocional más marcado.

La comparativa entre modelos arroja diferencias significativas. Gemini se consolida como el líder en precisión y consistencia, además de ser el más alineado con las regulaciones europeas. Anthropic destaca por su capacidad estratégica para anticipar impactos regulatorios, Perplexity queda señalado como el modelo con mayor riesgo de desinformación por su fuerte dependencia de medios generalistas, y OpenAI ofrece un rendimiento moderado pero con un uso destacado de fuentes oficiales y literatura científica.

El informe concluye que los LLMs actúan como verdaderos intermediarios de información, interpretando y adaptando sus respuestas según el usuario. Daniel Fernández Trejo, director general de Deep Learning en LLYC, advierte que la transición hacia una web de “respuestas sintéticas” obliga a comprender el funcionamiento de esta nueva arquitectura de influencia. En conjunto, el análisis confirma la presencia de sesgos sistemáticos en la intersección entre inteligencia artificial y política pública en materia de salud.

Seguiremos Informando…

Publicidad
Cargando…
Publicidad no disponible
Publicidad
Cargando…
Publicidad no disponible
Salir de la versión móvil