Curas falsas o la afirmación de que la pandemia es un bulo. Desde el pasado mes de febrero, YouTube ha eliminado más de un millón de vídeos que contenían información peligrosa sobre la COVID-19.
Pero el problema va más allá de borrarlos o dejarlos. Neal Mohan, Chief Product Officer de YouTube, afirma que el objetivo de las políticas de la plataforma es eliminar cualquier vídeo que pueda provocar directamente un daño flagrante en el mundo real.
“En la situación actual de pandemia mundial, todos debemos tener a nuestra disposición la mejor información posible para tomar las mejores decisiones sanitarias, para nosotros y para nuestras familias”, afirma Mohan.
La desinformación, un fenómeno generalizado
YouTube confirma que la desinformación ha traspasado los límites de lo marginal y se ha convertido en un fenómeno generalizado. “Ya no se limita a colectivos bien delimitados como el de los negacionistas del Holocausto o los conspiranoicos del 11-S. Ahora se ramifica a todas las facetas de la sociedad y se propaga con una velocidad abrumadora”, dice el Chief Product Officer, y acota: “Parece que ningún tema se le resiste”.
YouTube refleja la realidad, pero eso es consciente de que también puede contribuir a darle forma. De ahí su firme compromiso de luchar contra la desinformación.
En la actualidad, YouTube elimina cerca de 10 millones de vídeos cada trimestre, la mayoría antes de que lleguen a tener 10 visualizaciones. Si hay que eliminar vídeos es importante hacerlo rápido.
Pero la reflexión va aun más allá y aclara que con eso no basta. “La mejor estrategia es el tratamiento que damos al conjunto de los contenidos que existen en YouTube“, dice Mohan.
Aumentar lo bueno
El Chief Product Officer de YouTube explica que lo más importante que la plataforma puede hacer es aumentar lo “bueno” y reducir lo “malo”. Por eso, están intensificando la información que procede de fuentes fiables y reduciendo la difusión de vídeos con desinformación perjudicial.
Así, cuando el público busca noticias o información, obtiene resultados optimizados según criterios de calidad, no por el sensacionalismo de los contenidos. Y hay una estrategia en tal enfoque.
En primer lugar, si solo se centran en qué cosas deben eliminarse, pierden la perspectiva de la enorme cantidad de contenidos que ve el público. Mohan dice que los contenidos “malos” representan un porcentaje minúsculo de los miles de millones de vídeos que hay en YouTube. Del total de visualizaciones, solo incumplen las políticas entre el 0,16 y el 0,18% de los contenidos.
Referencias claras
Para identificar con claridad lo que es un contenido “malo”, la plataforma dice necesitar una referencia clara. En el caso de la COVID-19, esa referencia es el consenso de los expertos de organizaciones sanitarias como los CDC y la OMS, que llevan un seguimiento de los progresos de la investigación científica.
Por desgracia, en la mayoría de los demás casos, está mucho menos claro qué es “desinformación”. Por su propia naturaleza, la información evoluciona constantemente y, muy habitualmente, no existe una fuente principal que pueda decir con exactitud quién tiene razón y quién no.
Por ejemplo, cuando se produce un atentado, aparece información contradictoria de distintas procedencias. A veces, los linchamientos públicos se equivocan a la hora de identificar a culpables y a víctimas, y las consecuencias de esos errores son terribles.
En estos casos -prosigue Neal Mohan- si no hay certezas, ¿deben las empresas tecnológicas decidir cuándo y dónde poner límites en un territorio tan nebuloso como es el de la desinformación? Su respuesta es no.
Por ejemplo, los días que siguieron a las elecciones presidenciales de Estados Unidos en 2020, hasta que no hubo una certificación electoral oficial que tomar como referencia, YouTube dejó oír todas las voces del espectro político. Desde entonces, ha retirado miles de vídeos que incumplían las políticas relativas a las elecciones. Más del 77% de esos vídeos se han eliminado antes de llegar a 100 visitas.
Libertad de expresión. YouTube se defiende
YouTube lo tiene claro: una política de eliminación de contenidos excesivamente agresiva podría coartar la libertad de expresión. Retirar vídeos es un instrumento contundente. Si se utiliza de manera demasiado pródiga, da la sensación de que las ideas controvertidas son inaceptables.
La plataforma se defiende. Hay voces críticas que los acusan de mantener contenidos polémicos porque se benefician económicamente de ellos. Pero ellos dicen comprobar que no es así.
Explica Mohan que este tipo de contenidos no funcionan bien en YouTube, sobre todo en comparación con otros contenidos populares como música o comedia. Por otro lado, también erosionan la confianza de los usuarios y de los anunciantes.
Apelan entonces a la responsabilidad. “Ser responsables es bueno para nuestro negocio”, señalan.
“A mí me parece que los resultados de estas primeras inversiones son alentadores. Nuestros equipos trabajan cada día para mejorar nuestros sistemas y seguir ampliando esa base que nos ayuda a combatir la desinformación. Volveré a retomar esta cuestión; entretanto, confío en que estas líneas hayan servido para dar un poco más de claridad al modo en que abordamos el enorme desafío de la desinformación en YouTube”, concluye el Chief Product Officer de la compañía.