La información errónea podría ser dañina en YouTube y, por ello, Neal Mohan, Director de Producto, ha explicado cómo está redoblando la plataforma sus esfuerzos para evitarla.
Durante los últimos cinco años, YouTube ha invertido mucho en un marco que llamado las 4Rs de la Responsabilidad. Usando una combinación de machine learning y personas, elimina contenido infractor, busca fuentes autorizadas y reduce la difusión de contenido problemático.
El trabajo conjunto de estas herramientas ha sido fundamental para mantener bajas las visualizaciones de contenido inadecuado y, al mismo tiempo, preservar la libertad de expresión en la plataforma. Y, sin embargo, a medida que las narrativas de desinformación surgen más rápido y se propagan más ampliamente, el enfoque debe evolucionar para mantener el ritmo.
Detección de áreas emergentes de desinformación
Durante varios años, el panorama de la desinformación en línea estuvo dominado por algunas narrativas principales: como los conspiracionistas del 11 de septiembre, las teorías de conspiración sobre el alunizaje y los terraplanistas. Estas teorías de conspiración acumularon un archivo de contenido.
Como resultado, YouTube pudo entrenar sus sistemas de machine learning en función de patrones en ese tipo de contenido para reconocer videos similares. Pero cada vez más, una narrativa completamente nueva puede surgir rápidamente y ganar vistas. O las narrativas pueden pasar de un tema a otro; por ejemplo, algún contenido general sobre bienestar puede generar dudas sobre las vacunas. Cada narrativa puede verse y propagarse de manera diferente y, en ocasiones, incluso ser hiperlocal.
Enfrentarse a estos desafíos al principio de la pandemia, cuando una teoría de conspiración de que las torres 5G causaron la propagación del coronavirus, llevó a las personas a quemar torres celulares en el Reino Unido. Debido al claro riesgo de daño en el mundo real, YouTube respondió actualizando las pautas y haciendo que este tipo de contenido sea infractor. En este caso, pudieron actuar rápidamente porque ya tenían políticas implementadas para la información errónea sobre la COVID-19 basadas en la orientación de las autoridades sanitarias locales y mundiales.
Pero no todas las narrativas de rápida difusión en el futuro tendrán una guía experta que pueda informar tales políticas. En estas situaciones, generalmente confían en reducir la propagación de información errónea potencial a través de sus sistemas.
Para abordar esto, Neal Mohan informa que la plataforma está continuamente entrenando su sistema con nuevos datos, buscando formas de aprovechar una combinación más específica de clasificadores, palabras clave en decenas de idiomas e información de analistas regionales para identificar narrativas que nuestro clasificador principal no capta. Con el tiempo, esto se hará más rápido y preciso para detectar estas narrativas virales de desinformación.
El problema multiplataforma: Abordando las vistas fuera de la plataforma de desinformación potencial
Otro desafío es la difusión de videos con información dudosa fuera de YouTube. Han revisado sus sistemas de recomendación para reducir significativamente el consumo de contenido dudoso que proviene de las recomendaciones por debajo del 1%. Pero, incluso, si no recomiendan un determinado video dudoso, aún puede obtener vistas a través de otros sitios web que tienen insertado o vinculan al video de YouTube.
Una posible forma de atender esto, explica el directivo, sería deshabilitar el botón de compartir o inhabilitar el enlace en videos que ya están limitando en las recomendaciones. Si bien esto bloquearía en gran medida que un video dudoso se vincule o se inserte en otro sitio, existen argumentos que indican que evitar que se comparta es ir demasiado lejos al restringir la libertad de expresión de un espectador.
El contexto también es importante: los videos dudosos insertados en un estudio de investigación o reporte de noticias pueden requerir excepciones o un tratamiento completamente diferente. La plataforma debe tener cuidado de equilibrar la limitación de la difusión de información errónea potencialmente dañina, al mismo tiempo que dar espacio para la discusión y la educación sobre temas delicados y controvertidos.
Reforzando esfuerzos alrededor del mundo
El trabajo de YouTube para frenar la desinformación ha arrojado resultados reales, pero persisten las complejidades mientras trabajan para llevarlo a los más de 100 países y decenas de idiomas.
Las culturas tienen diferentes actitudes hacia lo que hace que una fuente sea confiable. En algunos países, se considera que las emisoras públicas como la BBC en el Reino Unido, transmiten noticias acreditadas. Mientras tanto, en otros, las emisoras estatales pueden acercarse más a la propaganda.
Los países también muestran una variedad de contenido dentro de su ecosistema de noticias e información, desde medios que exigen estrictos estándares de verificación de hechos hasta aquellos con poca supervisión o verificación. Además, los entornos políticos, los contextos históricos y las noticias de última hora pueden dar lugar a narrativas hiperlocales de desinformación que no aparecen en ningún otro lugar del mundo. Por ejemplo, durante el brote de Zika en Brasil, algunos culparon de la enfermedad a conspiraciones internacionales. O recientemente en Japón, se difundieron falsos rumores en línea de que un terremoto fue causado por la intervención humana.
Frente a esta diversidad regional, los equipos de YouTube se encuentran con muchos de los mismos problemas que hay con la desinformación emergente, desde narrativas cambiantes hasta la falta de fuentes autorizadas. Al principio de la pandemia, vieron que no todos los países tenían las últimas investigaciones disponibles de sus autoridades sanitarias, y esas autoridades locales a veces tenían una orientación diferente.
Más allá del crecimiento continuo de los equipos con aún más personas que entienden los matices regionales entrelazados con la información errónea, YouTube confirma que está explorando nuevas inversiones en asociaciones con expertos y organizaciones no gubernamentales alrededor del mundo. Además, de manera similar al enfoque con nuevos temas virales, está trabajando en formas de actualizar los modelos con más frecuencia para detectar información errónea hiperlocal, con capacidad para admitir idiomas locales.
Seguiremos comunicando…