/ sábado 25 de noviembre de 2023

¿Puede la IA reducir la desinformación compensando al buen periodismo?

Sin duda, desde la lógica del periodismo y la información pública, una de las mayores preocupaciones que despiertan los desarrollos de Inteligencia Artificial generativa (IAG) –aquella que tiene la capacidad de crear nuevos contenidos en todo tipo de formato, como texto, imagen, video, sonido—tiene que ver con la posibilidad de generar información falsa que tenga la intención expresa de engañar y confundir a las personas y causar daño a la sociedad.

Este tipo de desinformación es cada vez más frecuente en momentos de crisis (como durante la pandemia de COVID, o los conflictos armados en Ucrania y el Medio Oriente), y en coyunturas específicas y periodos electorales. Hoy, atestiguamos discusiones en las redes sociodigitales con base en imágenes que, aunque luego resulten haber sido fabricadas, manipuladas o sacadas de su contexto original, ahondan las divisiones, la confrontación y la polarización.

En este sentido, los procesos electorales que tendremos en 2024, tanto en México, como en Estados Unidos y más de una decena de países, seguramente verán en la IAG una herramienta clave en la disputa por el poder. En este sentido, Meta, por ejemplo, ha anunciado apenas que no permitirá el uso de sus propios programas de IA en anuncios políticos y que exigirá que sus anunciantes hagan público cuando usen programas de IA de terceros. Al respecto, las demás plataformas no han establecido criterios y muy probablemente la mayoría no lo hará.

Sin embargo, la desinformación no es la única preocupación que despierta la IAG en el periodismo y en las organizaciones informativas. También habría que sumar el uso de la propiedad intelectual y de contenidos generados por periodistas y organizaciones informativas que hoy se utilizan sin los debidos permisos para alimentar y entrenar estas tecnologías.

Apenas este 31 de octubre la Alianza de Medios Informativos (News/Media Alliance) de Estados Unidos publicó un reporte donde muestra el uso extenso de información periodística sin permiso –y, desde luego, sin ningún pago correspondiente-- por parte de las empresas que diseñan IAG. Aquí es importante recordar que, allá por los años 90, cuando el mundo digital comenzaba a despegar en su popularidad, los buscadores daban acceso gratuito a la información que generaban las organizaciones informativas, dejando el pago publicitario en las plataformas y no en los medios –un tema que en gran parte del mundo sigue en disputa entre medios y corporaciones digitales.

Pero, el problema no se limita a este uso no autorizado ni debidamente compensado para alimentar y entrenar a la IAG por parte de las empresas desarrolladoras de estas tecnologías, sino que se extiende a otras organizaciones que, mediante el uso de IAG, recopilan la información y las noticias generadas por periodistas y medios informativos, la reformulan, la reescriben y la comercializan como suya sin pagar a nadie por esto.

Ante estos desafíos, a inicios de septiembre de este año más de 25 asociaciones de medios y organizaciones informativas acordaron y firmaron los Principios Globales en Inteligencia Artificial. Entre otras organizaciones signatarias, están la Sociedad Interamericana de Prensa, la Asociación Europea de Editores de Periódicos, el Consejo Editorial Europeo, la Alianza de Medios Informativos, la Asociación Mundial de Editores de Noticias y muchas organizaciones nacionales de medios informativos de todo el mundo.

A través de estos principios se hace “un llamado para el desarrollo responsable de sistemas y aplicaciones de IA bajo principios establecidos que protejan la propiedad intelectual, las marcas, las relaciones de consumo y las inversiones” y califican como carente de ética cualquier tipo de apropiación de los contenidos generados por las organizaciones informativas y periodísticas sin el debido permiso y la debida remuneración. A través de 11 principios, se pide a los desarrolladores de IAG, y a quienes utilicen estas tecnologías, respeto a la propiedad intelectual, transparencia, rendición de cuentas, integridad, equidad y seguridad, así como la incorporación de estos mismos principios en el diseño mismo de la IA.

Si bien la respuesta y, sobre todo, el compromiso de las grandes corporaciones digitales que desarrollan IAG está aún pendiente, la propuesta de estos principios, el peso y prestigio de sus organizaciones signatarias, así como la evidencia sobre la que basan su reclamo, conforman la acción más contundente hacia la posibilidad de un diálogo que resulte benéfico no sólo para las propias organizaciones informativas (que además podrían recibir la compensación debida por el uso de su contenido y propiedad intelectual), sino para la conversación pública que podría ver reducida la cantidad de desinformación que contamina y afecta la convivencia democrática.

Sin duda, desde la lógica del periodismo y la información pública, una de las mayores preocupaciones que despiertan los desarrollos de Inteligencia Artificial generativa (IAG) –aquella que tiene la capacidad de crear nuevos contenidos en todo tipo de formato, como texto, imagen, video, sonido—tiene que ver con la posibilidad de generar información falsa que tenga la intención expresa de engañar y confundir a las personas y causar daño a la sociedad.

Este tipo de desinformación es cada vez más frecuente en momentos de crisis (como durante la pandemia de COVID, o los conflictos armados en Ucrania y el Medio Oriente), y en coyunturas específicas y periodos electorales. Hoy, atestiguamos discusiones en las redes sociodigitales con base en imágenes que, aunque luego resulten haber sido fabricadas, manipuladas o sacadas de su contexto original, ahondan las divisiones, la confrontación y la polarización.

En este sentido, los procesos electorales que tendremos en 2024, tanto en México, como en Estados Unidos y más de una decena de países, seguramente verán en la IAG una herramienta clave en la disputa por el poder. En este sentido, Meta, por ejemplo, ha anunciado apenas que no permitirá el uso de sus propios programas de IA en anuncios políticos y que exigirá que sus anunciantes hagan público cuando usen programas de IA de terceros. Al respecto, las demás plataformas no han establecido criterios y muy probablemente la mayoría no lo hará.

Sin embargo, la desinformación no es la única preocupación que despierta la IAG en el periodismo y en las organizaciones informativas. También habría que sumar el uso de la propiedad intelectual y de contenidos generados por periodistas y organizaciones informativas que hoy se utilizan sin los debidos permisos para alimentar y entrenar estas tecnologías.

Apenas este 31 de octubre la Alianza de Medios Informativos (News/Media Alliance) de Estados Unidos publicó un reporte donde muestra el uso extenso de información periodística sin permiso –y, desde luego, sin ningún pago correspondiente-- por parte de las empresas que diseñan IAG. Aquí es importante recordar que, allá por los años 90, cuando el mundo digital comenzaba a despegar en su popularidad, los buscadores daban acceso gratuito a la información que generaban las organizaciones informativas, dejando el pago publicitario en las plataformas y no en los medios –un tema que en gran parte del mundo sigue en disputa entre medios y corporaciones digitales.

Pero, el problema no se limita a este uso no autorizado ni debidamente compensado para alimentar y entrenar a la IAG por parte de las empresas desarrolladoras de estas tecnologías, sino que se extiende a otras organizaciones que, mediante el uso de IAG, recopilan la información y las noticias generadas por periodistas y medios informativos, la reformulan, la reescriben y la comercializan como suya sin pagar a nadie por esto.

Ante estos desafíos, a inicios de septiembre de este año más de 25 asociaciones de medios y organizaciones informativas acordaron y firmaron los Principios Globales en Inteligencia Artificial. Entre otras organizaciones signatarias, están la Sociedad Interamericana de Prensa, la Asociación Europea de Editores de Periódicos, el Consejo Editorial Europeo, la Alianza de Medios Informativos, la Asociación Mundial de Editores de Noticias y muchas organizaciones nacionales de medios informativos de todo el mundo.

A través de estos principios se hace “un llamado para el desarrollo responsable de sistemas y aplicaciones de IA bajo principios establecidos que protejan la propiedad intelectual, las marcas, las relaciones de consumo y las inversiones” y califican como carente de ética cualquier tipo de apropiación de los contenidos generados por las organizaciones informativas y periodísticas sin el debido permiso y la debida remuneración. A través de 11 principios, se pide a los desarrolladores de IAG, y a quienes utilicen estas tecnologías, respeto a la propiedad intelectual, transparencia, rendición de cuentas, integridad, equidad y seguridad, así como la incorporación de estos mismos principios en el diseño mismo de la IA.

Si bien la respuesta y, sobre todo, el compromiso de las grandes corporaciones digitales que desarrollan IAG está aún pendiente, la propuesta de estos principios, el peso y prestigio de sus organizaciones signatarias, así como la evidencia sobre la que basan su reclamo, conforman la acción más contundente hacia la posibilidad de un diálogo que resulte benéfico no sólo para las propias organizaciones informativas (que además podrían recibir la compensación debida por el uso de su contenido y propiedad intelectual), sino para la conversación pública que podría ver reducida la cantidad de desinformación que contamina y afecta la convivencia democrática.