/ viernes 21 de agosto de 2020

Dale compartir a la post-verdad

Por Sofía Quintanilla


Los algoritmos afectan a todos los usuarios de redes sociales. Existe una incapacidad de predecir qué posts, tuits, y/o videos se verán más y cuáles no. No obstante, es esencial mencionar cómo es que estos algoritmos favorecen y/o facilitan la polarización de ciertos temas.


Como explica Kevin Roose, columnista para el New York Times, los algoritmos en cada plataforma benefician al engagement (interacción). Si una publicación recibe altos números de likes, shares, y/o comentarios, significa que más personas lo verán y elevará de lugar (en engagement) dichas publicaciones, videos y/o tuits. Es decir, el comportamiento de la gente es lo que más le importa al algoritmo.


Esto provoca un enorme sesgo ya que el contenido que uno ve primero es el que tiene más engagement. Por ejemplo, Roose revela que el contenido que ha estado en los primeros lugares en engagement ha sido el conservador, polarizador, extremista, y/o no convencional; obteniendo la ventaja de tener la mayor probabilidad de ser visto. Además, gracias a los algoritmos y la forma de cómo las redes están construidas, unos alimentan a otros, provocando que se agranden los discursos de odio.


Por ende, es hora de repensar las métricas del engagement. Hemos visto como la forma en la que se lleva a cabo ha producido más desinformación, y, como consecuencia, se vuelve más propenso a que la gente lo comparta. Si esas fake news reciben altos números de likes, shares, y/o comentarios, el engagement incrementa. Sabemos que los directores generales de grandes compañías tecnológicas buscan reducir los impactos de desinformación, sin embargo, esto ha sido clave para el crecimiento de redes sociales como Facebook. En ocasiones pasadas, Mark Zuckerberg ha dicho que a Facebook le tomaría de 5 a 10 años hacer un cambio en el algoritmo, periodo en donde el odio y la hostilidad seguirá creciendo. Por ello, se requiere de más evidencia para lograr un cambio notable en ese aspecto.


Con lo dicho anteriormente, podemos confirmar que vivimos en una era de post-verdad, fenómeno que presenta un problema real, crítico y creciente para comprender la realidad. Esto, no solo tiene un impacto en la política y en la toma de decisiones, sino que, también, se encuentra en todos los niveles de la sociedad y en las distintas esferas que lo conforman. No toda la población tiene la capacidad de discernir si una noticia es falsa y/o las herramientas para informarse si algo es real o no. Por lo que es vital trabajar con todos los niveles de la sociedad para poder generar un capital humano valioso que ayude a contrarrestar ataques/campañas de desinformación.



@sofquintanilla

Por Sofía Quintanilla


Los algoritmos afectan a todos los usuarios de redes sociales. Existe una incapacidad de predecir qué posts, tuits, y/o videos se verán más y cuáles no. No obstante, es esencial mencionar cómo es que estos algoritmos favorecen y/o facilitan la polarización de ciertos temas.


Como explica Kevin Roose, columnista para el New York Times, los algoritmos en cada plataforma benefician al engagement (interacción). Si una publicación recibe altos números de likes, shares, y/o comentarios, significa que más personas lo verán y elevará de lugar (en engagement) dichas publicaciones, videos y/o tuits. Es decir, el comportamiento de la gente es lo que más le importa al algoritmo.


Esto provoca un enorme sesgo ya que el contenido que uno ve primero es el que tiene más engagement. Por ejemplo, Roose revela que el contenido que ha estado en los primeros lugares en engagement ha sido el conservador, polarizador, extremista, y/o no convencional; obteniendo la ventaja de tener la mayor probabilidad de ser visto. Además, gracias a los algoritmos y la forma de cómo las redes están construidas, unos alimentan a otros, provocando que se agranden los discursos de odio.


Por ende, es hora de repensar las métricas del engagement. Hemos visto como la forma en la que se lleva a cabo ha producido más desinformación, y, como consecuencia, se vuelve más propenso a que la gente lo comparta. Si esas fake news reciben altos números de likes, shares, y/o comentarios, el engagement incrementa. Sabemos que los directores generales de grandes compañías tecnológicas buscan reducir los impactos de desinformación, sin embargo, esto ha sido clave para el crecimiento de redes sociales como Facebook. En ocasiones pasadas, Mark Zuckerberg ha dicho que a Facebook le tomaría de 5 a 10 años hacer un cambio en el algoritmo, periodo en donde el odio y la hostilidad seguirá creciendo. Por ello, se requiere de más evidencia para lograr un cambio notable en ese aspecto.


Con lo dicho anteriormente, podemos confirmar que vivimos en una era de post-verdad, fenómeno que presenta un problema real, crítico y creciente para comprender la realidad. Esto, no solo tiene un impacto en la política y en la toma de decisiones, sino que, también, se encuentra en todos los niveles de la sociedad y en las distintas esferas que lo conforman. No toda la población tiene la capacidad de discernir si una noticia es falsa y/o las herramientas para informarse si algo es real o no. Por lo que es vital trabajar con todos los niveles de la sociedad para poder generar un capital humano valioso que ayude a contrarrestar ataques/campañas de desinformación.



@sofquintanilla