/ domingo 17 de octubre de 2021

Facebook perturba la esfera social. Y lo sabe

Twitter: @cons_gentil


El más reciente escándalo de Facebook es muy diferente a los que le han antecedido. Después de filtrar alrededor de 10,000 documentos de la compañía al periódico The Wall Street Journal y revelar su identidad en el programa 60 minutes, Francis Haugen, testificó ante el Congreso de Estados Unidos sobre la responsabilidad de la compañía en múltiples conflictos. Haugen trabajó en la compañía como Gerente de Producto, y su último puesto fue en el equipo de Integridad Cívica de Facebook, mismo que fue disuelto poco después de las elecciones en Estados Unidos.

La idea que permea en los documentos, dicha textualmente por Haugen en el testimonio, es que Facebook ha decidido continuamente maximizar sus ganancias por encima del bienestar de sus usuarios. Uno de los hallazgos principales es que, el algoritmo que se usa, orienta deliberadamente a los usuarios a exponerse a contenido que es potencialmente peligroso. Esto se debe a que el contenido que provoca reacciones extremas y/o emocionales tiene más probabilidad de generar una interacción por parte del usuario, como un comentario, un clic, y/o compartir el contenido. Esto repercute directamente en el incremento de ganancias de Facebook.

Es bien sabido que los modelos de negocios exitosos se desarrollan para crear fidelidad o dependencia en el cliente y que, por diferentes razones, éste decida seguir interactuando con el negocio y generando ganancias. Sin embargo, el caso de Facebook es mucho más complejo -y hasta perverso- que esto. Se estima que actualmente la cifra de usuarios con la que cuenta la compañía es de 2.89 millones de millones. Para dar una idea de la magnitud de esta cifra, según el Banco Mundial, en el planeta habitan 7.75 millones de millones de personas.

El problema con este algoritmo no es solo el hecho que promueva contenido violento para generar más interacción con los usuarios, sino también la cantidad de usuarios que pueden exponerse a este algoritmo y las consecuencias que esto puede tener a diferentes escalas. La investigación reflejada en los documentos producidos por Facebook determina que la compañía elige deliberadamente opciones que exponen al usuario a discursos de odio y desinformación a pesar de tener opciones para evitarlo. La compañía ha declarado que estos testimonios son engañosos, sin embargo las declaraciones vienen de investigaciones producidas por sus mismos empleados, con datos recabados por la misma compañía.

El contar con esta información y con esta cantidad de influencia debería obligar a la compañía a actuar de manera más responsable. La solución no es necesariamente terminar con la compañía, ni tampoco fue lo que Francis Haugen intentó pedir con su testimonio. Facebook es de las pocas compañías en el mundo que tiene los recursos y personal calificado para enfrentar problemas de esta magnitud. La compañía ha tenido éxito en hacer investigación con hallazgos relevantes precisamente porque tiene los recursos para hacerlo. El problema es que no ha decidido cambiar de dirección a pesar de tener la información en sus manos. Y es ahí donde los órganos legislativos domésticos e internacionales deben generar presión. Es importante que comencemos a ver las plataformas digitales como espacios de convivencia social, y que, al serlo, pueden también ser usadas de maneras que atentan contra el orden social. Es por eso que necesitan ser reguladas de forma que promuevan la seguridad de los usuarios, sin crear un espacio tóxico a través de su algoritmo.

Twitter: @cons_gentil


El más reciente escándalo de Facebook es muy diferente a los que le han antecedido. Después de filtrar alrededor de 10,000 documentos de la compañía al periódico The Wall Street Journal y revelar su identidad en el programa 60 minutes, Francis Haugen, testificó ante el Congreso de Estados Unidos sobre la responsabilidad de la compañía en múltiples conflictos. Haugen trabajó en la compañía como Gerente de Producto, y su último puesto fue en el equipo de Integridad Cívica de Facebook, mismo que fue disuelto poco después de las elecciones en Estados Unidos.

La idea que permea en los documentos, dicha textualmente por Haugen en el testimonio, es que Facebook ha decidido continuamente maximizar sus ganancias por encima del bienestar de sus usuarios. Uno de los hallazgos principales es que, el algoritmo que se usa, orienta deliberadamente a los usuarios a exponerse a contenido que es potencialmente peligroso. Esto se debe a que el contenido que provoca reacciones extremas y/o emocionales tiene más probabilidad de generar una interacción por parte del usuario, como un comentario, un clic, y/o compartir el contenido. Esto repercute directamente en el incremento de ganancias de Facebook.

Es bien sabido que los modelos de negocios exitosos se desarrollan para crear fidelidad o dependencia en el cliente y que, por diferentes razones, éste decida seguir interactuando con el negocio y generando ganancias. Sin embargo, el caso de Facebook es mucho más complejo -y hasta perverso- que esto. Se estima que actualmente la cifra de usuarios con la que cuenta la compañía es de 2.89 millones de millones. Para dar una idea de la magnitud de esta cifra, según el Banco Mundial, en el planeta habitan 7.75 millones de millones de personas.

El problema con este algoritmo no es solo el hecho que promueva contenido violento para generar más interacción con los usuarios, sino también la cantidad de usuarios que pueden exponerse a este algoritmo y las consecuencias que esto puede tener a diferentes escalas. La investigación reflejada en los documentos producidos por Facebook determina que la compañía elige deliberadamente opciones que exponen al usuario a discursos de odio y desinformación a pesar de tener opciones para evitarlo. La compañía ha declarado que estos testimonios son engañosos, sin embargo las declaraciones vienen de investigaciones producidas por sus mismos empleados, con datos recabados por la misma compañía.

El contar con esta información y con esta cantidad de influencia debería obligar a la compañía a actuar de manera más responsable. La solución no es necesariamente terminar con la compañía, ni tampoco fue lo que Francis Haugen intentó pedir con su testimonio. Facebook es de las pocas compañías en el mundo que tiene los recursos y personal calificado para enfrentar problemas de esta magnitud. La compañía ha tenido éxito en hacer investigación con hallazgos relevantes precisamente porque tiene los recursos para hacerlo. El problema es que no ha decidido cambiar de dirección a pesar de tener la información en sus manos. Y es ahí donde los órganos legislativos domésticos e internacionales deben generar presión. Es importante que comencemos a ver las plataformas digitales como espacios de convivencia social, y que, al serlo, pueden también ser usadas de maneras que atentan contra el orden social. Es por eso que necesitan ser reguladas de forma que promuevan la seguridad de los usuarios, sin crear un espacio tóxico a través de su algoritmo.