/ sábado 30 de marzo de 2024

Regular la Inteligencia Artificial: ¿derechos humanos o geopolítica?

El mes de marzo ha estado bastante movido en términos de las discusiones, acciones y decisiones en diferentes ámbitos que tocan a la Inteligencia Artificial (IA). En estas breves líneas propongo concentrarnos en lo que, para las potencias globales y regionales, parece una disyuntiva a la hora de pensar en la regulación de la IA: ¿optar por una regulación más estricta que busque proteger los derechos humanos y las libertades de usuarios, o bien optar por una visión más laxa que favorezca al mismo tiempo la innovación y sus intereses geopolíticos?

Los diferentes marcos regulatorios de la Unión Europea sobre IA que ya han comenzado, de forma paulatina y escalonada, a entrar en vigor –la Ley de Servicios Digitales, la Ley de Mercados Digitales y la Ley de Inteligencia Artificial—, tienen un denominador común: proteger y promover los derechos humanos. Independientemente del grado de eficacia que estos marcos regulatorios puedan tener en el presente, esta protección de derechos fundamenta y explica los varios requisitos de transparencia y rendición de cuentas a las que quedan sujetas las plataformas digitales –sobre todo, aquellas que se definen como muy grandes plataformas, tales como Facebook, Instagram, Snapchat, Tik Tok, YouTube, X, etc. En este sentido, algunas de éstas han comenzado a recibir solicitudes de más información y hasta multas por parte de las autoridades europeas. Por ejemplo, hace menos de dos semanas, la Comisión Europea les solicitó a varias de estas grandes plataformas más detalles acerca de cómo están mitigando los riesgos en sus servicios de Inteligencia Artificial generativa, sobre todo, en cuanto a la diseminación de Deepafakes (videos, imágenes o voces generadas con inteligencia artificial que, al parecer reales y auténticas, pueden usarse engañar), las “alucinaciones” (información generada que, aunque escrita coherentemente, contiene datos incorrectos o erróneos) y la manipulación informativa automatizada que pueda afectar el voto libre. A esta solicitud se suma ya otra investigación de la Comisión Europea acerca de posibles prácticas contrarias a la libre competencia por parte de Apple, Alphabet y Meta por dificultar el acceso de usuarios a aplicaciones de terceros.

En contraste, Estados Unidos ha optado por una aproximación regulatoria más laxa en cuanto al desarrollo y aplicaciones de la IA. Por ejemplo, tanto en las diversas audiencias que se llevaron a cabo en el congreso de ese país entre legisladores y los principales ejecutivos de estas plataformas entre junio y septiembre del año pasado, así como lo que se desprende de la Orden Ejecutiva de la Casa Blanca sobre IA (de octubre de 2023) queda claro que las razones para no optar por caminos regulatorios como los de la UE (además de responder a su tradición histórica de desconfianza ante casi cualquier tipo de regulación) responde a tres aspectos: 1) el temor de que una regulación más estricta, no sólo desincentive la innovación, sino que mueva la inversión a otros lugares; 2) dado que el principal motor de desarrollo de esta tecnología está en Estados Unidos (y se trata de empresas esencialmente estadounidenses), se busca así preservar el liderazgo por razones geopolíticas (sobre todo, impedir que China los rebase); 3) hacer de estas plataformas las aliadas naturales en un sistema de distribución de poder global que beneficia a Estados Unidos, por lo que cualquier intento de regular tomará en cuenta la opinión de las propias plataformas.

En esta misma dirección, el 13 de marzo en el marco del famoso festival South by Southwest (SXSW), Vishal Sharma, el VP de Amazon para IA General, decía en una charla con el sitio AXIOS+, especializado en tecnología, que su empresa apuesta por el desarrollo de una “inteligencia ambiental” a la medida de nuestras preferencias, como ahora sucede con Alexa, aunque mucho más potente que esté ahí cuando se le llame, y siempre atenta. Sharma pidió “imaginar a un paciente cuyo médico es contactado automáticamente por su sistema de IA basado en su detección de cambios en ciertas métricas vitales de la persona… y ésta recibe entonces sugerencias de cuidados”. De hecho, 40% de las interacciones con Alexa en Estados Unidos, ya las inicia la propia Alexa. El ejemplo puede tener un lado muy positivo, pero ¿qué sucedería si Alexa, o como se llame la nueva IA pasa nuestros datos a otras instancias, poniendo en riesgo privacidad y seguridad? Estas consideraciones de derechos no están en la mente de Sharma.

Es muy probable que la inversión y la innovación terminen moviéndose hacia aquellos lugares con menos menos barreras y limitaciones. Es claro que Estados Unidos desea mantener el liderazgo en lo que percibe una carrera, sobre todo, frente a China y para ello, la IA es clave. Otros gigantes regionales, como la India, buscan también capitalizar las inconformidades que las grandes plataformas están comenzando a tener con lo que perciben como “excesos regulatorios” de la UE. Así, acaba de autorizar la disponibilidad de cualquier aplicación –aunque sea poco fiable y segura para los usuarios—siempre y cuando les adviertan de esta condición. Su objetivo también es consolidar su papel de gigante regional en este sector y, por qué no, eventualmente poder rivalizar también con China en este campo.

La cuestión aquí es, ¿qué pasa con los derechos de todas las personas usuarias? Desde las visiones más laxas, las Deepfakes, las violaciones a los derechos de propiedad intelectual y a la privacidad son costos que hay que asumir por seguir avanzando para tener tecnologías más robustas. La UE ha apostado por el otro camino, ¿pero acaso esta vía es efectiva para mantener la inversión y la innovación? ¿Se puede equilibrar el desarrollo tecnológico con las protecciones adecuadas en derechos humanos? Y, finalmente, ¿hay forma de conciliar una visión geopolítica que también considere los derechos humanos y las libertades fundamentales de las personas en estos ámbitos de la IA?

El mes de marzo ha estado bastante movido en términos de las discusiones, acciones y decisiones en diferentes ámbitos que tocan a la Inteligencia Artificial (IA). En estas breves líneas propongo concentrarnos en lo que, para las potencias globales y regionales, parece una disyuntiva a la hora de pensar en la regulación de la IA: ¿optar por una regulación más estricta que busque proteger los derechos humanos y las libertades de usuarios, o bien optar por una visión más laxa que favorezca al mismo tiempo la innovación y sus intereses geopolíticos?

Los diferentes marcos regulatorios de la Unión Europea sobre IA que ya han comenzado, de forma paulatina y escalonada, a entrar en vigor –la Ley de Servicios Digitales, la Ley de Mercados Digitales y la Ley de Inteligencia Artificial—, tienen un denominador común: proteger y promover los derechos humanos. Independientemente del grado de eficacia que estos marcos regulatorios puedan tener en el presente, esta protección de derechos fundamenta y explica los varios requisitos de transparencia y rendición de cuentas a las que quedan sujetas las plataformas digitales –sobre todo, aquellas que se definen como muy grandes plataformas, tales como Facebook, Instagram, Snapchat, Tik Tok, YouTube, X, etc. En este sentido, algunas de éstas han comenzado a recibir solicitudes de más información y hasta multas por parte de las autoridades europeas. Por ejemplo, hace menos de dos semanas, la Comisión Europea les solicitó a varias de estas grandes plataformas más detalles acerca de cómo están mitigando los riesgos en sus servicios de Inteligencia Artificial generativa, sobre todo, en cuanto a la diseminación de Deepafakes (videos, imágenes o voces generadas con inteligencia artificial que, al parecer reales y auténticas, pueden usarse engañar), las “alucinaciones” (información generada que, aunque escrita coherentemente, contiene datos incorrectos o erróneos) y la manipulación informativa automatizada que pueda afectar el voto libre. A esta solicitud se suma ya otra investigación de la Comisión Europea acerca de posibles prácticas contrarias a la libre competencia por parte de Apple, Alphabet y Meta por dificultar el acceso de usuarios a aplicaciones de terceros.

En contraste, Estados Unidos ha optado por una aproximación regulatoria más laxa en cuanto al desarrollo y aplicaciones de la IA. Por ejemplo, tanto en las diversas audiencias que se llevaron a cabo en el congreso de ese país entre legisladores y los principales ejecutivos de estas plataformas entre junio y septiembre del año pasado, así como lo que se desprende de la Orden Ejecutiva de la Casa Blanca sobre IA (de octubre de 2023) queda claro que las razones para no optar por caminos regulatorios como los de la UE (además de responder a su tradición histórica de desconfianza ante casi cualquier tipo de regulación) responde a tres aspectos: 1) el temor de que una regulación más estricta, no sólo desincentive la innovación, sino que mueva la inversión a otros lugares; 2) dado que el principal motor de desarrollo de esta tecnología está en Estados Unidos (y se trata de empresas esencialmente estadounidenses), se busca así preservar el liderazgo por razones geopolíticas (sobre todo, impedir que China los rebase); 3) hacer de estas plataformas las aliadas naturales en un sistema de distribución de poder global que beneficia a Estados Unidos, por lo que cualquier intento de regular tomará en cuenta la opinión de las propias plataformas.

En esta misma dirección, el 13 de marzo en el marco del famoso festival South by Southwest (SXSW), Vishal Sharma, el VP de Amazon para IA General, decía en una charla con el sitio AXIOS+, especializado en tecnología, que su empresa apuesta por el desarrollo de una “inteligencia ambiental” a la medida de nuestras preferencias, como ahora sucede con Alexa, aunque mucho más potente que esté ahí cuando se le llame, y siempre atenta. Sharma pidió “imaginar a un paciente cuyo médico es contactado automáticamente por su sistema de IA basado en su detección de cambios en ciertas métricas vitales de la persona… y ésta recibe entonces sugerencias de cuidados”. De hecho, 40% de las interacciones con Alexa en Estados Unidos, ya las inicia la propia Alexa. El ejemplo puede tener un lado muy positivo, pero ¿qué sucedería si Alexa, o como se llame la nueva IA pasa nuestros datos a otras instancias, poniendo en riesgo privacidad y seguridad? Estas consideraciones de derechos no están en la mente de Sharma.

Es muy probable que la inversión y la innovación terminen moviéndose hacia aquellos lugares con menos menos barreras y limitaciones. Es claro que Estados Unidos desea mantener el liderazgo en lo que percibe una carrera, sobre todo, frente a China y para ello, la IA es clave. Otros gigantes regionales, como la India, buscan también capitalizar las inconformidades que las grandes plataformas están comenzando a tener con lo que perciben como “excesos regulatorios” de la UE. Así, acaba de autorizar la disponibilidad de cualquier aplicación –aunque sea poco fiable y segura para los usuarios—siempre y cuando les adviertan de esta condición. Su objetivo también es consolidar su papel de gigante regional en este sector y, por qué no, eventualmente poder rivalizar también con China en este campo.

La cuestión aquí es, ¿qué pasa con los derechos de todas las personas usuarias? Desde las visiones más laxas, las Deepfakes, las violaciones a los derechos de propiedad intelectual y a la privacidad son costos que hay que asumir por seguir avanzando para tener tecnologías más robustas. La UE ha apostado por el otro camino, ¿pero acaso esta vía es efectiva para mantener la inversión y la innovación? ¿Se puede equilibrar el desarrollo tecnológico con las protecciones adecuadas en derechos humanos? Y, finalmente, ¿hay forma de conciliar una visión geopolítica que también considere los derechos humanos y las libertades fundamentales de las personas en estos ámbitos de la IA?