/ lunes 1 de marzo de 2021

¿Quién debe regular la desinformación?

Se requieren más proyectos de supervisión pública de las noticias falsas

El Código de Negociación Obligatoria para los Medios Noticiosos y las Plataformas Digitales del gobierno federal, que recientemente fue aprobado por el Senado australiano, destaca la necesidad de regular la desinformación.

En respuesta, Google, Facebook, Microsoft, TikTok, Redbubble y Twitter acordaron cumplir con un código de conducta dirigido a la desinformación.

Sin embargo, sospechosamente, el llamado Código de prácticas australiano sobre desinformación y desinformación fue desarrollado por, bueno, estas mismas empresas. Detrás está el Grupo de Industrias Digitales (DIGI), una asociación formada por ellos y algunas otras empresas.

Al autorregularse, esperan mostrarle al gobierno que están abordando la proliferación de información errónea (contenido falso que se difunde a pesar de la intención de engañar) y desinformación (contenido que intenta engañar) en sus plataformas.

Pero el único compromiso real bajo el código sería aparentar estar haciendo algo. Dado que el código es voluntario, las plataformas suscritas básicamente pueden "optar por" las medidas a su propia discreción.

El código sugiere que las plataformas podrían publicar tendencias de datos sobre información errónea conocida, o podrían etiquetar contenido falso conocido o contenido difundido por fuentes aparentemente poco confiables. Pueden identificar y restringir los anuncios políticos pagados que intentan engañar a los usuarios, o pueden revelar las fuentes de información errónea.

Todas estas son grandes acciones que las plataformas "podrían" realizar, ya que no están limitadas por el código. Más bien, el código probablemente los alentará a controlar la información errónea en torno a un "tema del día" al tomar acciones visibles en torno a un tema, sin enfrentar la difusión de otra información falsa rentable en sus plataformas.

Las consecuencias de esto serían grandes. Las "noticias" falsas pueden conducir a conspiraciones peligrosas y ataques armados. Incluso puede influir en las elecciones, que vimos en 2019 cuando Facebook alojó publicaciones que afirmaban que el Partido Laborista introduciría un "impuesto a la muerte" sobre la herencia. Las cosas se dispararon rápidamente.

El gobierno ha prometido una regulación más estricta de la desinformación si cree que el código voluntario no está funcionando. Sin embargo, debemos tener cuidado de permitir que los poderosos regulen a los poderosos.

No está claro, por ejemplo, si el gobierno de Morrison consideraría las publicaciones sobre un supuesto "impuesto a la muerte" laborista como una amenaza real para la democracia, a pesar de que se trata de información errónea.

Regular el habla en Internet es difícil. En particular, la información errónea es difícil de definir porque a menudo la distinción entre información errónea genuinamente peligrosa y un mito u opinión valiosa se basa en los valores de una comunidad.

Esta última es información que puede no ser precisa pero que las personas aún tienen derecho a expresar. Por ejemplo:

Nickelback es la mejor banda del planeta.

Probablemente esto sea falso. Pero la declaración es relativamente inofensiva. Si bien falta la "veracidad" real, su naturaleza subjetiva es clara. Teniendo en cuenta este matiz, la solución es que la desinformación sea vigilada por la propia comunidad, no por un cuerpo de élite.

Reset Australia, un grupo independiente que se centra en las amenazas digitales a la democracia, propuso recientemente un proyecto en el que las plataformas tecnológicas interesadas y los miembros del público podrían suscribirse a una lista en vivo del contenido de desinformación más popular.

Un jurado dirigido por ciudadanos podría monitorear la lista para ayudar a garantizar la supervisión pública. Esto involucraría a toda la esfera pública en el debate sobre la desinformación, no solo al gobierno y las plataformas.

Una vez que las noticias falsas están a la vista, resulta más fácil exponerlas a figuras públicas, periodistas y académicos.

Otra estrategia eficaz sería la creación de un registro nacional de fuentes y contenido de desinformación. Cualquiera puede registrar lo que cree que es información errónea en la Autoridad de Medios y Comunicaciones de Australia, lo que ayuda a identificar rápidamente fuentes maliciosas y alertar a las plataformas.

Las plataformas digitales ya lo hacen internamente, tanto a través de moderadores como al permitir que el público informe publicaciones. Pero no muestran cómo se juzgan las publicaciones y no divulgan los datos. Al crear un registro público, ACMA podría monitorear si las plataformas se autorregulan de manera efectiva.

Dicho registro también podría mantener un registro de fuentes de información legítimas e ilegítimas y otorgar a cada una una "puntuación de reputación". Las personas que informaron información errónea con precisión también podrían recibir calificaciones altas, similares a las calificaciones de Uber para conductores y pasajeros.

Si bien esto no restringiría el derecho de expresión de nadie, sería más fácil señalar la confiabilidad de la fuente de información.

Vale la pena señalar que este tipo de sistema de revisión por pares basado en la comunidad estaría abierto a posibles abusos. El sitio de reseñas de películas Rotten Tomatoes ha tenido serios problemas con las personas que revisan reseñas de películas.

Por ejemplo, Captain Marvel recibió una calificación de audiencia baja porque las comunidades en línea tóxicas decidieron que no les gustaba la idea de una superhéroe femenina, por lo que se coordinaron para calificar mal la película. Pero la plataforma pudo identificar este patrón de comportamiento.

En última instancia, el sitio protegió la banda sonora de la película al garantizar que solo las personas que habían comprado una entrada para ver la película pudieran calificarla. Si bien cualquier sistema está abierto al abuso, también lo está la "autorregulación" y las comunidades han demostrado que pueden (y están dispuestas a) resolver esos problemas.

Wikipedia es otro recurso de revisión por pares impulsado por la comunidad y uno que la mayoría de la gente considera muy valioso. Funciona porque hay suficientes personas en el mundo que se preocupan por la verdad.

Juzgar la exactitud de las afirmaciones hechas en público permite un consenso que está abierto a ser cuestionado. Por otro lado, dejar las decisiones sobre la verdad en manos de empresas privadas o partidos políticos podría exacerbar el problema de la desinformación.

El código de negociación de los medios de comunicación finalmente se aprobó. Facebook está listo para traer noticias a Australia, así como comenzar a hacer acuerdos para pagar a los editores de noticias locales por el contenido.

El acuerdo entre el gobierno y Facebook, que sirve a los intereses de esas partes, parece un eco más del pasado. Los grandes reproductores de medios conservarán algunos ingresos y Google y Facebook continuarán expandiendo su inmenso control de Internet.

Mientras tanto, los usuarios siguen dependiendo de la benevolencia de las plataformas tecnológicas para hacer lo suficiente sobre la desinformación para satisfacer al gobierno de turno. Debemos tener cuidado al ceder el poder tanto a las plataformas como a los gobiernos.

Este nuevo código no forzará cambios significativos en ninguno de los dos, a pesar de la necesidad urgente de hacerlo.

Lee también otros contenidos de Normal ⬇️

El Código de Negociación Obligatoria para los Medios Noticiosos y las Plataformas Digitales del gobierno federal, que recientemente fue aprobado por el Senado australiano, destaca la necesidad de regular la desinformación.

En respuesta, Google, Facebook, Microsoft, TikTok, Redbubble y Twitter acordaron cumplir con un código de conducta dirigido a la desinformación.

Sin embargo, sospechosamente, el llamado Código de prácticas australiano sobre desinformación y desinformación fue desarrollado por, bueno, estas mismas empresas. Detrás está el Grupo de Industrias Digitales (DIGI), una asociación formada por ellos y algunas otras empresas.

Al autorregularse, esperan mostrarle al gobierno que están abordando la proliferación de información errónea (contenido falso que se difunde a pesar de la intención de engañar) y desinformación (contenido que intenta engañar) en sus plataformas.

Pero el único compromiso real bajo el código sería aparentar estar haciendo algo. Dado que el código es voluntario, las plataformas suscritas básicamente pueden "optar por" las medidas a su propia discreción.

El código sugiere que las plataformas podrían publicar tendencias de datos sobre información errónea conocida, o podrían etiquetar contenido falso conocido o contenido difundido por fuentes aparentemente poco confiables. Pueden identificar y restringir los anuncios políticos pagados que intentan engañar a los usuarios, o pueden revelar las fuentes de información errónea.

Todas estas son grandes acciones que las plataformas "podrían" realizar, ya que no están limitadas por el código. Más bien, el código probablemente los alentará a controlar la información errónea en torno a un "tema del día" al tomar acciones visibles en torno a un tema, sin enfrentar la difusión de otra información falsa rentable en sus plataformas.

Las consecuencias de esto serían grandes. Las "noticias" falsas pueden conducir a conspiraciones peligrosas y ataques armados. Incluso puede influir en las elecciones, que vimos en 2019 cuando Facebook alojó publicaciones que afirmaban que el Partido Laborista introduciría un "impuesto a la muerte" sobre la herencia. Las cosas se dispararon rápidamente.

El gobierno ha prometido una regulación más estricta de la desinformación si cree que el código voluntario no está funcionando. Sin embargo, debemos tener cuidado de permitir que los poderosos regulen a los poderosos.

No está claro, por ejemplo, si el gobierno de Morrison consideraría las publicaciones sobre un supuesto "impuesto a la muerte" laborista como una amenaza real para la democracia, a pesar de que se trata de información errónea.

Regular el habla en Internet es difícil. En particular, la información errónea es difícil de definir porque a menudo la distinción entre información errónea genuinamente peligrosa y un mito u opinión valiosa se basa en los valores de una comunidad.

Esta última es información que puede no ser precisa pero que las personas aún tienen derecho a expresar. Por ejemplo:

Nickelback es la mejor banda del planeta.

Probablemente esto sea falso. Pero la declaración es relativamente inofensiva. Si bien falta la "veracidad" real, su naturaleza subjetiva es clara. Teniendo en cuenta este matiz, la solución es que la desinformación sea vigilada por la propia comunidad, no por un cuerpo de élite.

Reset Australia, un grupo independiente que se centra en las amenazas digitales a la democracia, propuso recientemente un proyecto en el que las plataformas tecnológicas interesadas y los miembros del público podrían suscribirse a una lista en vivo del contenido de desinformación más popular.

Un jurado dirigido por ciudadanos podría monitorear la lista para ayudar a garantizar la supervisión pública. Esto involucraría a toda la esfera pública en el debate sobre la desinformación, no solo al gobierno y las plataformas.

Una vez que las noticias falsas están a la vista, resulta más fácil exponerlas a figuras públicas, periodistas y académicos.

Otra estrategia eficaz sería la creación de un registro nacional de fuentes y contenido de desinformación. Cualquiera puede registrar lo que cree que es información errónea en la Autoridad de Medios y Comunicaciones de Australia, lo que ayuda a identificar rápidamente fuentes maliciosas y alertar a las plataformas.

Las plataformas digitales ya lo hacen internamente, tanto a través de moderadores como al permitir que el público informe publicaciones. Pero no muestran cómo se juzgan las publicaciones y no divulgan los datos. Al crear un registro público, ACMA podría monitorear si las plataformas se autorregulan de manera efectiva.

Dicho registro también podría mantener un registro de fuentes de información legítimas e ilegítimas y otorgar a cada una una "puntuación de reputación". Las personas que informaron información errónea con precisión también podrían recibir calificaciones altas, similares a las calificaciones de Uber para conductores y pasajeros.

Si bien esto no restringiría el derecho de expresión de nadie, sería más fácil señalar la confiabilidad de la fuente de información.

Vale la pena señalar que este tipo de sistema de revisión por pares basado en la comunidad estaría abierto a posibles abusos. El sitio de reseñas de películas Rotten Tomatoes ha tenido serios problemas con las personas que revisan reseñas de películas.

Por ejemplo, Captain Marvel recibió una calificación de audiencia baja porque las comunidades en línea tóxicas decidieron que no les gustaba la idea de una superhéroe femenina, por lo que se coordinaron para calificar mal la película. Pero la plataforma pudo identificar este patrón de comportamiento.

En última instancia, el sitio protegió la banda sonora de la película al garantizar que solo las personas que habían comprado una entrada para ver la película pudieran calificarla. Si bien cualquier sistema está abierto al abuso, también lo está la "autorregulación" y las comunidades han demostrado que pueden (y están dispuestas a) resolver esos problemas.

Wikipedia es otro recurso de revisión por pares impulsado por la comunidad y uno que la mayoría de la gente considera muy valioso. Funciona porque hay suficientes personas en el mundo que se preocupan por la verdad.

Juzgar la exactitud de las afirmaciones hechas en público permite un consenso que está abierto a ser cuestionado. Por otro lado, dejar las decisiones sobre la verdad en manos de empresas privadas o partidos políticos podría exacerbar el problema de la desinformación.

El código de negociación de los medios de comunicación finalmente se aprobó. Facebook está listo para traer noticias a Australia, así como comenzar a hacer acuerdos para pagar a los editores de noticias locales por el contenido.

El acuerdo entre el gobierno y Facebook, que sirve a los intereses de esas partes, parece un eco más del pasado. Los grandes reproductores de medios conservarán algunos ingresos y Google y Facebook continuarán expandiendo su inmenso control de Internet.

Mientras tanto, los usuarios siguen dependiendo de la benevolencia de las plataformas tecnológicas para hacer lo suficiente sobre la desinformación para satisfacer al gobierno de turno. Debemos tener cuidado al ceder el poder tanto a las plataformas como a los gobiernos.

Este nuevo código no forzará cambios significativos en ninguno de los dos, a pesar de la necesidad urgente de hacerlo.

Lee también otros contenidos de Normal ⬇️

Política

El PRI necesita una fumigación: Lorena Piñón Rivera

La diputada federal que busca disputarle la dirigencia nacional a Alito, advirtió que expulsará a los integrantes que han traicionado los estatutos del partido

CDMX

"Cobro de piso en CDMX es real", señala Coparmex

El nuevo dirigente de la Confederación local pide medidas para combatir el problema y habla sobre los beneficios del nearshoring

Sociedad

Guatemala pide ayuda para mexicanos desplazados

Aldeas de Unión Frontera y de Monterrico reportan que se les agotan los suministros para atender a los refugiados

CDMX

Basura provoca 6 de cada 10 inundaciones en CDMX

Suman 377 reportes de anegaciones en la vía pública durante la actual temporada de lluvias, según el Sacmex

Tecnología

Google Meet, Zoom y Teams dominan las reuniones en la oficina

Google Meet, Zoom, Microsoft Teams y Webex se convirtieron en pilares esenciales para las juntas laborales, según IBTM Américas

Mundo

Llegan las elecciones a Venezuela, un país en catástrofe

Crisis humanitaria, política, de inseguridad, de derechos humanos, económica, y más, es el panorama que buscan cambiar en Venezuela