/ sábado 30 de diciembre de 2023

¿Dónde estamos en cuanto a regulación sobre Inteligencia Artificial?

Este año ha atestiguado tanto el desarrollo acelerado de la Inteligencia Artificial (IA), como la amplia discusión sobre sus beneficios y riesgos, reales y potenciales. En entregas anteriores, he escrito acerca de algunos de ellos, por lo que ahora considero conveniente reflexionar acerca de dónde estamos en materia de regulación de la IA.

En términos generales, habría tres grandes modelos de regulación de la IA, que en gran parte definen la forma en que todos los demás países se adaptan a ella: el europeo, el estadounidense y el chino. Dados sus sistemas legales, la mayoría de los países en América Latina seguirán los pasos del modelo europeo, estadounidense o un compromiso entre ambos. ¿Qué establecen estos modelos?

El más amplio y ambicioso en sus alcances es, sin duda el europeo. Apenas a inicios de este mes se anunció el consenso sobre la Ley de Inteligencia Artificial de la Unión Europea, primera de su tipo en el mundo, cuya doble finalidad es reducir los riesgos en el uso de la IA y promover la investigación, el desarrollo y la innovación propias en este campo. De esta Ley cabe destacar tres aspectos.

Primero, establece reglas de carácter obligatorio en materia de ética y transparencia con el objetivo de proteger los derechos humanos. Entre otras cosas, será obligatorio para las empresas de tecnología informar a usuarios cuando estén interactuando con IA; etiquetar contenido generado por IA; hacer pruebas de riesgo para usuarios; permitir que usuarios planteen quejas sobre el funcionamiento de estos sistemas, así como de recibir una explicación de las empresas. Las multas por incumplimiento oscilarán entre 1.5% y 7% de los ingresos globales de la empresa, dependiendo de la falta y de su tamaño.

Segundo, la Ley regula usos, no tecnologías. Se establecen cuatro niveles de riesgos: a) inaceptables, prohibidos de entrada, como los sistemas reconocimiento de emociones en ámbitos educativos y laborales, los sistemas de crédito social, o los sistemas policiales predictivos (excepto cuando estén estrictamente supervisados por personas y tengan un uso específico y limitado). B) Altos, que pueden operar, bajo estricta supervisión humana y sujetos a pruebas de riesgo y transparencia. Por ejemplo, sistemas para seleccionar personal, sistemas aplicados a la impartición de justicia, o sistemas de infraestructura crítica, entre otros. Sobre este nivel de riesgo hubo gran debate debido a que la Ley señala que serán las propias empresas las que establecerán cuáles de sus productos podrían implicar este nivel de riesgo. C) Limitados, que obliga a generar reportes, avisar a usuarios de interacciones con IA y, transparentar bases de datos. Aquí estarían los Chatbots. D) Mínimos, prácticamente exentos de esta Ley, como videojuegos y filtros de spam.

Tercero, establece una Oficina de IA para supervisar la adecuada implementación de la regulación, armonizar los estándares, sugerir adecuaciones a la propia Ley, llevar los asuntos legales y, con ayuda de expertos, detectar riesgos y clasificar mejor los modelos de IA. Si bien la Ley entrará en vigor hasta 2025 –y todavía las empresas tendrían un periodo de ajuste de entre seis meses y dos años—, la Unión Europea solicitará a las empresas ir ajustándose a las reglas de forma voluntaria y paulatina (sin penalización por lo pronto).

En contraste, Estados Unidos tiene una posición menos detallada y estricta, dejando mucha mayor libertad a las empresas para auto-regularse, bajo el supuesto de que cualquier limitación al desarrollo tecnológico los puede dejar atrás en su competencia con China. Con todo, desde 2022, el gobierno –y recientemente el congreso-- han tratado de impulsar mayor discusión sobre todo en el tema de la seguridad en el uso de la IA. En este sentido, a fines de octubre, el gobierno publicó su Orden Ejecutiva en IA con la intención de establecer ciertos principios de transparencia, de generación de estándares (sobre todo en el etiquetado de contenido creado por IA) y, desde luego, de no frenar el desarrollo y la innovación. Los dos aspectos más importantes de esta Orden Ejecutiva son, primero, que establecerá, a través del Departamento de comercio, una serie de criterios generales para etiquetar contenido, que las empresas podrán tomar estándares voluntarios para sus propios desarrollos. Segundo, que las empresas deberán compartir con el gobierno los resultados de pruebas cuando haya riesgos a la seguridad nacional. A consideración de muchos expertos, las dos mayores debilidades de esta Orden Ejecutiva es que nada es obligatorio y que, al tratarse de un acto administrativo, el siguiente gobierno la puede revocar.

En América Latina, algunos países ya comienzan a mirar a uno y otro lado en busca de orientación. En nuestro país, si bien algunos legisladores han comenzado a pensar en el tema, la verdad es que aún estamos lejos de tener un debate serio al respecto. Desafortunadamente, el calendario electoral y el fin próximo de la legislatura actual hacen prácticamente imposible considerar una discusión de fondo antes del otoño de 2024, si bien nos va, sobre un tema altamente complejo, pero que tendrá cada vez mayores impactos en la vida de las personas como pocas cosas.


Este año ha atestiguado tanto el desarrollo acelerado de la Inteligencia Artificial (IA), como la amplia discusión sobre sus beneficios y riesgos, reales y potenciales. En entregas anteriores, he escrito acerca de algunos de ellos, por lo que ahora considero conveniente reflexionar acerca de dónde estamos en materia de regulación de la IA.

En términos generales, habría tres grandes modelos de regulación de la IA, que en gran parte definen la forma en que todos los demás países se adaptan a ella: el europeo, el estadounidense y el chino. Dados sus sistemas legales, la mayoría de los países en América Latina seguirán los pasos del modelo europeo, estadounidense o un compromiso entre ambos. ¿Qué establecen estos modelos?

El más amplio y ambicioso en sus alcances es, sin duda el europeo. Apenas a inicios de este mes se anunció el consenso sobre la Ley de Inteligencia Artificial de la Unión Europea, primera de su tipo en el mundo, cuya doble finalidad es reducir los riesgos en el uso de la IA y promover la investigación, el desarrollo y la innovación propias en este campo. De esta Ley cabe destacar tres aspectos.

Primero, establece reglas de carácter obligatorio en materia de ética y transparencia con el objetivo de proteger los derechos humanos. Entre otras cosas, será obligatorio para las empresas de tecnología informar a usuarios cuando estén interactuando con IA; etiquetar contenido generado por IA; hacer pruebas de riesgo para usuarios; permitir que usuarios planteen quejas sobre el funcionamiento de estos sistemas, así como de recibir una explicación de las empresas. Las multas por incumplimiento oscilarán entre 1.5% y 7% de los ingresos globales de la empresa, dependiendo de la falta y de su tamaño.

Segundo, la Ley regula usos, no tecnologías. Se establecen cuatro niveles de riesgos: a) inaceptables, prohibidos de entrada, como los sistemas reconocimiento de emociones en ámbitos educativos y laborales, los sistemas de crédito social, o los sistemas policiales predictivos (excepto cuando estén estrictamente supervisados por personas y tengan un uso específico y limitado). B) Altos, que pueden operar, bajo estricta supervisión humana y sujetos a pruebas de riesgo y transparencia. Por ejemplo, sistemas para seleccionar personal, sistemas aplicados a la impartición de justicia, o sistemas de infraestructura crítica, entre otros. Sobre este nivel de riesgo hubo gran debate debido a que la Ley señala que serán las propias empresas las que establecerán cuáles de sus productos podrían implicar este nivel de riesgo. C) Limitados, que obliga a generar reportes, avisar a usuarios de interacciones con IA y, transparentar bases de datos. Aquí estarían los Chatbots. D) Mínimos, prácticamente exentos de esta Ley, como videojuegos y filtros de spam.

Tercero, establece una Oficina de IA para supervisar la adecuada implementación de la regulación, armonizar los estándares, sugerir adecuaciones a la propia Ley, llevar los asuntos legales y, con ayuda de expertos, detectar riesgos y clasificar mejor los modelos de IA. Si bien la Ley entrará en vigor hasta 2025 –y todavía las empresas tendrían un periodo de ajuste de entre seis meses y dos años—, la Unión Europea solicitará a las empresas ir ajustándose a las reglas de forma voluntaria y paulatina (sin penalización por lo pronto).

En contraste, Estados Unidos tiene una posición menos detallada y estricta, dejando mucha mayor libertad a las empresas para auto-regularse, bajo el supuesto de que cualquier limitación al desarrollo tecnológico los puede dejar atrás en su competencia con China. Con todo, desde 2022, el gobierno –y recientemente el congreso-- han tratado de impulsar mayor discusión sobre todo en el tema de la seguridad en el uso de la IA. En este sentido, a fines de octubre, el gobierno publicó su Orden Ejecutiva en IA con la intención de establecer ciertos principios de transparencia, de generación de estándares (sobre todo en el etiquetado de contenido creado por IA) y, desde luego, de no frenar el desarrollo y la innovación. Los dos aspectos más importantes de esta Orden Ejecutiva son, primero, que establecerá, a través del Departamento de comercio, una serie de criterios generales para etiquetar contenido, que las empresas podrán tomar estándares voluntarios para sus propios desarrollos. Segundo, que las empresas deberán compartir con el gobierno los resultados de pruebas cuando haya riesgos a la seguridad nacional. A consideración de muchos expertos, las dos mayores debilidades de esta Orden Ejecutiva es que nada es obligatorio y que, al tratarse de un acto administrativo, el siguiente gobierno la puede revocar.

En América Latina, algunos países ya comienzan a mirar a uno y otro lado en busca de orientación. En nuestro país, si bien algunos legisladores han comenzado a pensar en el tema, la verdad es que aún estamos lejos de tener un debate serio al respecto. Desafortunadamente, el calendario electoral y el fin próximo de la legislatura actual hacen prácticamente imposible considerar una discusión de fondo antes del otoño de 2024, si bien nos va, sobre un tema altamente complejo, pero que tendrá cada vez mayores impactos en la vida de las personas como pocas cosas.