Las elecciones estadounidenses de 2016 fueron una llamada de atención sobre los peligros de la desinformación política en las redes sociales.
Con dos ciclos electorales más llenos de información errónea en su haber, las empresas de redes sociales tienen experiencia en identificar y contrarrestar la información errónea. Sin embargo, la naturaleza de la amenaza que representa la desinformación para la sociedad continúa cambiando en forma y objetivos.
Puede interesarte: No más errores: ahora Twitter te dejará editar tus tuits
La gran mentira sobre las elecciones presidenciales de 2020 se ha convertido en un tema importante, y las comunidades de inmigrantes están cada vez más en el punto de mira de las campañas de desinformación, esfuerzos deliberados para difundir información errónea.
Las empresas de redes sociales han anunciado planes para lidiar con la desinformación en las elecciones de mitad de período de 2022, pero las empresas varían en sus enfoques y efectividad. Por ello pedimos a algunos expertos en redes sociales que califiquen qué tan preparados están Facebook, TikTok, Twitter y YouTube para manejar la tarea.
2022 se parece a 2020
Dam Hee Kim, Profesor Asistente de Comunicación, de la Universidad de Arizona, considera que las redes sociales son fuentes importantes de noticias para la mayoría de los estadounidenses en 2022, pero que también podrían ser un terreno fértil para difundir información errónea.
“Las principales plataformas de redes sociales anunciaron planes para lidiar con la desinformación en las elecciones de mitad de período de Estados Unidos de 2022, pero los expertos señalaron que no son muy diferentes de sus planes para 2020.
En 2016 se culpó a Facebook de no combatir la desinformación durante la campaña electoral presidencial de ese país. Y aunque el compromiso con información errónea en Facebook alcanzó su punto máximo con 160 millones por mes durante las elecciones presidenciales de 2016, el nivel en julio de 2018, 60 millones por mes, todavía estaba en niveles altos.
La evidencia más reciente muestra que el enfoque de Facebook todavía necesita mejorar cuando se trata de administrar cuentas que difunden información errónea, marcar publicaciones de información errónea y reducir el alcance de esas cuentas y publicaciones.
En abril de 2020, los verificadores de datos notificaron a Facebook sobre 59 cuentas que difundían información errónea sobre el Covid-19, pero para noviembre de 2021, 31 de ellos seguían activos.
Algo similar pasa en Twitter
Si bien Twitter generalmente no ha sido tratado como el mayor culpable de la desinformación desde 2016, no está claro si sus medidas de desinformación son suficientes. De hecho, la cantidad de información errónea en Twitter aumentó de aproximadamente 3 millones por mes durante las elecciones presidenciales de 2016 a aproximadamente 5 millones por mes en julio de 2018.
Este patrón parece haber continuado, ya que más de 300 mil tuits, sin incluir los retuits, incluían enlaces que se marcaron como falsos después de verificaciones de hechos entre abril de 2019 y febrero de 2021.
Menos del tres por ciento de estos tuits se presentaron con etiquetas de advertencia o cuadros emergentes. Entre los tuits que compartían el mismo enlace a la información errónea, sólo una minoría mostraba estas advertencias, lo que sugiere que el proceso de poner advertencias sobre la información errónea no es automático, uniforme ni eficiente. Twitter anunció que rediseñó las etiquetas para dificultar más interacciones y facilitar los clics para obtener información adicional.
La plataforma más popular
Como la plataforma de redes sociales de más rápido crecimiento, TikTok tiene dos características notables: su base de usuarios predominantemente adultos jóvenes consume regularmente noticias en la plataforma, y sus videos cortos a menudo vienen con imágenes y sonidos que llaman la atención.
Si bien estos videos son más difíciles de revisar que el contenido basado en texto, es más probable que se recuerden, evoquen emociones y persuadan a las personas.
Cómo nos informa YouTube
Entre abril de 2019 y febrero de 2021, una organización de verificación de hechos marcó 170 videos de YouTube como falsos. A poco más de la mitad de ellos se les presentaron paneles de información de "aprender más", aunque sin ser marcados como falsos.
➡️ Suscríbete a nuestro Newsletter y recibe las notas más relevantes en tu correo
YouTube parece haber agregado paneles de información principalmente al detectar automáticamente ciertas palabras clave que involucran temas controvertidos como COVID-19, no necesariamente después de verificar el contenido del video en busca de información errónea.
Esta plataforma también podría recomendar más contenido de fuentes confiables para mitigar el desafío de revisar todos los videos subidos en busca de información errónea.
* Académicos de las Universidades de Arizona, Michigan e Indiana.
Lee también otros contenidos de Normal ⬇️