En la Tierra a jueves, diciembre 11, 2025

LANZADA POR ELON MUSK EL PASADO MES DE OCTUBRE

Grokipedia: Nick Magnusson (Qlik) alerta sobre su crisis de confianza

PRNOTICIAS CONVERSA CON NICK MAGNUSSON, HEAD OF IA DE QLIK

“Los datos, por sí solos, no son conocimiento: requieren interpretación. Fomentar el pensamiento crítico implica enseñar a las personas a formular las preguntas adecuadas, a cuestionar las fuentes y a comprender cómo y por qué un algoritmo llega a una conclusión”

La polémica en torno a Grokipedia, la nueva enciclopedia impulsada por Elon Musk que se presenta como la versión tipo “Wikipedia” generada por inteligencia artificial, está generando un intenso debate sobre cómo estas herramientas pueden cambiar la forma en que entendemos la verdad, el sesgo y la memoria colectiva. Desde su lanzamiento, lo que ha conseguido es contro­versia por el cuestionamiento ante afirmaciones históricas y científicas diversas, o la falta de transparencia en su sistema de verificación. En este contexto, los expertos advierten que es momento de pedir más control sobre cómo se entrenan y supervisan estos sistemas.

Es el caso de la plataforma de visualización y descubrimiento de datos Qlik, cuyo Head of IA Nick Magnusson, asegura que el reto no es solo tecnológico, sino también ético y social: “cómo asegurarse de que la innovación esté al servicio de la confianza de la población, y no al revés”. Explica que las llamadas “alucinaciones” de la IA no está en los errores puntuales, sino la falta de criterios para interpretar y cuestionar lo que dice la IA. “La clave está en usarla como apoyo al juicio humano, no como sustituto”, señala.

Musk la presenta como una alternativa “más fiel a la verdad” y menos sujeta a sesgos editoriales que Wikipedia, apoyándose en lo que denomina una especie de “verdad algorítmica” generada por IA. La plataforma se concibe como un repositorio de información actualizado de forma automática y continua por sistemas de inteligencia artificial. Pero Magnusson no opina lo mismo. Desde PRNoticias conversamos con él para conocer los riesgos de esta nueva “enciclopedia” donde el conocimiento es producido y mantenido principalmente por IA.

¿Qué riesgos ve Qlik en usar IA para generar enciclopedias como Grokipedia sin supervisión humana rigurosa?

La inteligencia artificial debe cimentarse en datos fiables, trazables y sujetos a una gobernanza rigurosa; estos principios constituyen el núcleo de la filosofía de Qlik. Cuando el contenido se genera de forma automática y carece de la supervisión humana adecuada, como en el caso de Grokipedia, la ausencia de un marco sólido de calidad y gobernanza de datos puede amplificar sesgos, imprecisiones e interpretaciones incompletas.

¿Cómo afectan las “alucinaciones” de la IA a la confianza del público en la información histórica y científica?

En Qlik, la confianza constituye la piedra angular de cualquier ecosistema de datos. Es el activo más valioso que una organización puede poseer. Cuando los sistemas de IA se entrenan con datos no fiables, sin gobernanza o sin trazabilidad, la frecuencia y la gravedad de estas “alucinaciones” se incrementan, y con ellas, el escepticismo de los usuarios. Restablecer la credibilidad requiere algo más que sofisticación técnica. Depende de una gestión de datos sólida, garantizando que cada resultado se pueda trazar hasta fuentes fidedignas y bien documentadas.

¿Cree que la falta de transparencia en Grokipedia compromete la verificación de datos y la credibilidad del contenido?

La confianza depende de la trazabilidad: conocer el origen de cada dato y cómo se ha procesado. Esto asegura que el contenido, y las acciones que se derivan de esa información, se construyan sobre una base sólida. Es por ello que el linaje y la gobernanza de datos son pilares esenciales en todos los entornos de datos.

¿Qué mecanismos deberían implementarse para garantizar que la IA no refuerce sesgos o errores históricos?

Personalmente, abogo por un enfoque que incluya supervisión humana y auditorías rigurosas. Esto implica revisar los conjuntos de datos, identificar potenciales sesgos y asegurar que la información esté contextualizada y equilibrada. Además, la transparencia en los modelos y en los procesos de entrenamiento facilita resultados interpretables y fiables.

¿Qué papel deberían tener expertos humanos en la supervisión y validación de contenidos generados por Grokipedia?

En Qlik creemos que la inteligencia artificial no debe reemplazar el juicio humano, sino más bien complementarlo y optimizarlo. Por ello, promovemos un enfoque colaborativo en el que la IA y la supervisión experta trabajen de forma conjunta, respaldadas por datos fiables, auditables y bien gobernados.

¿Qué efecto puede tener Grokipedia en las nuevas generaciones?

Los datos, por sí solos, no son conocimiento: requieren interpretación. Fomentar el pensamiento crítico implica enseñar a las personas a formular las preguntas adecuadas, a cuestionar las fuentes y a comprender cómo y por qué un algoritmo llega a una conclusión.

Seguiremos Informando…

NOTICIAS RELACIONADAS

Relacionados Posts

Premiados de la XX edición de 'Los mejores de PR'

Noticias recientes

SUSCRÍBETE

Suscríbete a nuestro boletín y no te pierdas las noticias más relevantes y exclusivas.