/ lunes 1 de marzo de 2021

¿Quién debe regular la desinformación?

Se requieren más proyectos de supervisión pública de las noticias falsas

El Código de Negociación Obligatoria para los Medios Noticiosos y las Plataformas Digitales del gobierno federal, que recientemente fue aprobado por el Senado australiano, destaca la necesidad de regular la desinformación.

En respuesta, Google, Facebook, Microsoft, TikTok, Redbubble y Twitter acordaron cumplir con un código de conducta dirigido a la desinformación.

Sin embargo, sospechosamente, el llamado Código de prácticas australiano sobre desinformación y desinformación fue desarrollado por, bueno, estas mismas empresas. Detrás está el Grupo de Industrias Digitales (DIGI), una asociación formada por ellos y algunas otras empresas.

Al autorregularse, esperan mostrarle al gobierno que están abordando la proliferación de información errónea (contenido falso que se difunde a pesar de la intención de engañar) y desinformación (contenido que intenta engañar) en sus plataformas.

Pero el único compromiso real bajo el código sería aparentar estar haciendo algo. Dado que el código es voluntario, las plataformas suscritas básicamente pueden "optar por" las medidas a su propia discreción.

El código sugiere que las plataformas podrían publicar tendencias de datos sobre información errónea conocida, o podrían etiquetar contenido falso conocido o contenido difundido por fuentes aparentemente poco confiables. Pueden identificar y restringir los anuncios políticos pagados que intentan engañar a los usuarios, o pueden revelar las fuentes de información errónea.

Todas estas son grandes acciones que las plataformas "podrían" realizar, ya que no están limitadas por el código. Más bien, el código probablemente los alentará a controlar la información errónea en torno a un "tema del día" al tomar acciones visibles en torno a un tema, sin enfrentar la difusión de otra información falsa rentable en sus plataformas.

Las consecuencias de esto serían grandes. Las "noticias" falsas pueden conducir a conspiraciones peligrosas y ataques armados. Incluso puede influir en las elecciones, que vimos en 2019 cuando Facebook alojó publicaciones que afirmaban que el Partido Laborista introduciría un "impuesto a la muerte" sobre la herencia. Las cosas se dispararon rápidamente.

El gobierno ha prometido una regulación más estricta de la desinformación si cree que el código voluntario no está funcionando. Sin embargo, debemos tener cuidado de permitir que los poderosos regulen a los poderosos.

No está claro, por ejemplo, si el gobierno de Morrison consideraría las publicaciones sobre un supuesto "impuesto a la muerte" laborista como una amenaza real para la democracia, a pesar de que se trata de información errónea.

Regular el habla en Internet es difícil. En particular, la información errónea es difícil de definir porque a menudo la distinción entre información errónea genuinamente peligrosa y un mito u opinión valiosa se basa en los valores de una comunidad.

Esta última es información que puede no ser precisa pero que las personas aún tienen derecho a expresar. Por ejemplo:

Nickelback es la mejor banda del planeta.

Probablemente esto sea falso. Pero la declaración es relativamente inofensiva. Si bien falta la "veracidad" real, su naturaleza subjetiva es clara. Teniendo en cuenta este matiz, la solución es que la desinformación sea vigilada por la propia comunidad, no por un cuerpo de élite.

Reset Australia, un grupo independiente que se centra en las amenazas digitales a la democracia, propuso recientemente un proyecto en el que las plataformas tecnológicas interesadas y los miembros del público podrían suscribirse a una lista en vivo del contenido de desinformación más popular.

Un jurado dirigido por ciudadanos podría monitorear la lista para ayudar a garantizar la supervisión pública. Esto involucraría a toda la esfera pública en el debate sobre la desinformación, no solo al gobierno y las plataformas.

Una vez que las noticias falsas están a la vista, resulta más fácil exponerlas a figuras públicas, periodistas y académicos.

Otra estrategia eficaz sería la creación de un registro nacional de fuentes y contenido de desinformación. Cualquiera puede registrar lo que cree que es información errónea en la Autoridad de Medios y Comunicaciones de Australia, lo que ayuda a identificar rápidamente fuentes maliciosas y alertar a las plataformas.

Las plataformas digitales ya lo hacen internamente, tanto a través de moderadores como al permitir que el público informe publicaciones. Pero no muestran cómo se juzgan las publicaciones y no divulgan los datos. Al crear un registro público, ACMA podría monitorear si las plataformas se autorregulan de manera efectiva.

Dicho registro también podría mantener un registro de fuentes de información legítimas e ilegítimas y otorgar a cada una una "puntuación de reputación". Las personas que informaron información errónea con precisión también podrían recibir calificaciones altas, similares a las calificaciones de Uber para conductores y pasajeros.

Si bien esto no restringiría el derecho de expresión de nadie, sería más fácil señalar la confiabilidad de la fuente de información.

Vale la pena señalar que este tipo de sistema de revisión por pares basado en la comunidad estaría abierto a posibles abusos. El sitio de reseñas de películas Rotten Tomatoes ha tenido serios problemas con las personas que revisan reseñas de películas.

Por ejemplo, Captain Marvel recibió una calificación de audiencia baja porque las comunidades en línea tóxicas decidieron que no les gustaba la idea de una superhéroe femenina, por lo que se coordinaron para calificar mal la película. Pero la plataforma pudo identificar este patrón de comportamiento.

En última instancia, el sitio protegió la banda sonora de la película al garantizar que solo las personas que habían comprado una entrada para ver la película pudieran calificarla. Si bien cualquier sistema está abierto al abuso, también lo está la "autorregulación" y las comunidades han demostrado que pueden (y están dispuestas a) resolver esos problemas.

Wikipedia es otro recurso de revisión por pares impulsado por la comunidad y uno que la mayoría de la gente considera muy valioso. Funciona porque hay suficientes personas en el mundo que se preocupan por la verdad.

Juzgar la exactitud de las afirmaciones hechas en público permite un consenso que está abierto a ser cuestionado. Por otro lado, dejar las decisiones sobre la verdad en manos de empresas privadas o partidos políticos podría exacerbar el problema de la desinformación.

El código de negociación de los medios de comunicación finalmente se aprobó. Facebook está listo para traer noticias a Australia, así como comenzar a hacer acuerdos para pagar a los editores de noticias locales por el contenido.

El acuerdo entre el gobierno y Facebook, que sirve a los intereses de esas partes, parece un eco más del pasado. Los grandes reproductores de medios conservarán algunos ingresos y Google y Facebook continuarán expandiendo su inmenso control de Internet.

Mientras tanto, los usuarios siguen dependiendo de la benevolencia de las plataformas tecnológicas para hacer lo suficiente sobre la desinformación para satisfacer al gobierno de turno. Debemos tener cuidado al ceder el poder tanto a las plataformas como a los gobiernos.

Este nuevo código no forzará cambios significativos en ninguno de los dos, a pesar de la necesidad urgente de hacerlo.

Lee también otros contenidos de Normal ⬇️

El Código de Negociación Obligatoria para los Medios Noticiosos y las Plataformas Digitales del gobierno federal, que recientemente fue aprobado por el Senado australiano, destaca la necesidad de regular la desinformación.

En respuesta, Google, Facebook, Microsoft, TikTok, Redbubble y Twitter acordaron cumplir con un código de conducta dirigido a la desinformación.

Sin embargo, sospechosamente, el llamado Código de prácticas australiano sobre desinformación y desinformación fue desarrollado por, bueno, estas mismas empresas. Detrás está el Grupo de Industrias Digitales (DIGI), una asociación formada por ellos y algunas otras empresas.

Al autorregularse, esperan mostrarle al gobierno que están abordando la proliferación de información errónea (contenido falso que se difunde a pesar de la intención de engañar) y desinformación (contenido que intenta engañar) en sus plataformas.

Pero el único compromiso real bajo el código sería aparentar estar haciendo algo. Dado que el código es voluntario, las plataformas suscritas básicamente pueden "optar por" las medidas a su propia discreción.

El código sugiere que las plataformas podrían publicar tendencias de datos sobre información errónea conocida, o podrían etiquetar contenido falso conocido o contenido difundido por fuentes aparentemente poco confiables. Pueden identificar y restringir los anuncios políticos pagados que intentan engañar a los usuarios, o pueden revelar las fuentes de información errónea.

Todas estas son grandes acciones que las plataformas "podrían" realizar, ya que no están limitadas por el código. Más bien, el código probablemente los alentará a controlar la información errónea en torno a un "tema del día" al tomar acciones visibles en torno a un tema, sin enfrentar la difusión de otra información falsa rentable en sus plataformas.

Las consecuencias de esto serían grandes. Las "noticias" falsas pueden conducir a conspiraciones peligrosas y ataques armados. Incluso puede influir en las elecciones, que vimos en 2019 cuando Facebook alojó publicaciones que afirmaban que el Partido Laborista introduciría un "impuesto a la muerte" sobre la herencia. Las cosas se dispararon rápidamente.

El gobierno ha prometido una regulación más estricta de la desinformación si cree que el código voluntario no está funcionando. Sin embargo, debemos tener cuidado de permitir que los poderosos regulen a los poderosos.

No está claro, por ejemplo, si el gobierno de Morrison consideraría las publicaciones sobre un supuesto "impuesto a la muerte" laborista como una amenaza real para la democracia, a pesar de que se trata de información errónea.

Regular el habla en Internet es difícil. En particular, la información errónea es difícil de definir porque a menudo la distinción entre información errónea genuinamente peligrosa y un mito u opinión valiosa se basa en los valores de una comunidad.

Esta última es información que puede no ser precisa pero que las personas aún tienen derecho a expresar. Por ejemplo:

Nickelback es la mejor banda del planeta.

Probablemente esto sea falso. Pero la declaración es relativamente inofensiva. Si bien falta la "veracidad" real, su naturaleza subjetiva es clara. Teniendo en cuenta este matiz, la solución es que la desinformación sea vigilada por la propia comunidad, no por un cuerpo de élite.

Reset Australia, un grupo independiente que se centra en las amenazas digitales a la democracia, propuso recientemente un proyecto en el que las plataformas tecnológicas interesadas y los miembros del público podrían suscribirse a una lista en vivo del contenido de desinformación más popular.

Un jurado dirigido por ciudadanos podría monitorear la lista para ayudar a garantizar la supervisión pública. Esto involucraría a toda la esfera pública en el debate sobre la desinformación, no solo al gobierno y las plataformas.

Una vez que las noticias falsas están a la vista, resulta más fácil exponerlas a figuras públicas, periodistas y académicos.

Otra estrategia eficaz sería la creación de un registro nacional de fuentes y contenido de desinformación. Cualquiera puede registrar lo que cree que es información errónea en la Autoridad de Medios y Comunicaciones de Australia, lo que ayuda a identificar rápidamente fuentes maliciosas y alertar a las plataformas.

Las plataformas digitales ya lo hacen internamente, tanto a través de moderadores como al permitir que el público informe publicaciones. Pero no muestran cómo se juzgan las publicaciones y no divulgan los datos. Al crear un registro público, ACMA podría monitorear si las plataformas se autorregulan de manera efectiva.

Dicho registro también podría mantener un registro de fuentes de información legítimas e ilegítimas y otorgar a cada una una "puntuación de reputación". Las personas que informaron información errónea con precisión también podrían recibir calificaciones altas, similares a las calificaciones de Uber para conductores y pasajeros.

Si bien esto no restringiría el derecho de expresión de nadie, sería más fácil señalar la confiabilidad de la fuente de información.

Vale la pena señalar que este tipo de sistema de revisión por pares basado en la comunidad estaría abierto a posibles abusos. El sitio de reseñas de películas Rotten Tomatoes ha tenido serios problemas con las personas que revisan reseñas de películas.

Por ejemplo, Captain Marvel recibió una calificación de audiencia baja porque las comunidades en línea tóxicas decidieron que no les gustaba la idea de una superhéroe femenina, por lo que se coordinaron para calificar mal la película. Pero la plataforma pudo identificar este patrón de comportamiento.

En última instancia, el sitio protegió la banda sonora de la película al garantizar que solo las personas que habían comprado una entrada para ver la película pudieran calificarla. Si bien cualquier sistema está abierto al abuso, también lo está la "autorregulación" y las comunidades han demostrado que pueden (y están dispuestas a) resolver esos problemas.

Wikipedia es otro recurso de revisión por pares impulsado por la comunidad y uno que la mayoría de la gente considera muy valioso. Funciona porque hay suficientes personas en el mundo que se preocupan por la verdad.

Juzgar la exactitud de las afirmaciones hechas en público permite un consenso que está abierto a ser cuestionado. Por otro lado, dejar las decisiones sobre la verdad en manos de empresas privadas o partidos políticos podría exacerbar el problema de la desinformación.

El código de negociación de los medios de comunicación finalmente se aprobó. Facebook está listo para traer noticias a Australia, así como comenzar a hacer acuerdos para pagar a los editores de noticias locales por el contenido.

El acuerdo entre el gobierno y Facebook, que sirve a los intereses de esas partes, parece un eco más del pasado. Los grandes reproductores de medios conservarán algunos ingresos y Google y Facebook continuarán expandiendo su inmenso control de Internet.

Mientras tanto, los usuarios siguen dependiendo de la benevolencia de las plataformas tecnológicas para hacer lo suficiente sobre la desinformación para satisfacer al gobierno de turno. Debemos tener cuidado al ceder el poder tanto a las plataformas como a los gobiernos.

Este nuevo código no forzará cambios significativos en ninguno de los dos, a pesar de la necesidad urgente de hacerlo.

Lee también otros contenidos de Normal ⬇️

Finanzas

Tipo de cambio rebasa los 18 pesos por dólar por ataques a Irán

La moneda doméstica MXN= cotizaba en 17.9040 por dólar, con una abrupta pérdida del 4.86 por ciento

Mundo

Jorge Glas pide auxilio a AMLO: estoy en huelga de hambre, ayúdenme

Jorge Glas le pide ayuda a presidentes latinoamericanos

Política

Diputados en comisiones ratifican nuevamente creación del Fondo de Pensiones

Con 17 votos a favor, 10 en contra y cero abstenciones, el proyecto de dictamen será una vez más turnado al Pleno de San Lázaro para su discusión el próximo lunes

Elecciones 2024

Candidatas de Tlalpan debaten sus propuestas entre ataques por mala gestión

El debate de la alcaldía Tlalpan dio pie a acusaciones de mala gestión entre las candidatas

Elecciones 2024

Aprueban a Solórzano, Cantú y Arcila para moderar tercer debate presidencial

Cada moderador representará a una región del país: Luisa Cantú al norte, Javier Solórzano al centro y Elena Arcila al sur

Sociedad

Francisco Torres Vázquez se une al Comité de Asesores del CNTI

“Estoy listo para colaborar con el equipo para generar un impacto positivo”, señaló el vicepresidente ejecutivo de la Organización Editorial Mexicana (OEM)