/ lunes 10 de abril de 2023

¿Por qué será difícil regular la Inteligencia Artificial?

La capacidad de la nueva generación de sistemas de IA generativa para crear textos e imágenes convincentes pero irreales está disparando las alarmas sobre eventuales casos de fraude y desinformación

El 29 de marzo, un grupo de investigadores y figuras públicas instaron a la industria a detener la capacitación adicional de las últimas tecnologías de IA o, salvo eso, a los gobiernos a "imponer una moratoria".

Estas tecnologías, generadores de imágenes como DALL-E, Midjourney y Stable Diffusion, y generadores de texto como Bard, ChatGPT, Chinchilla y LLaMA, ahora están disponibles para millones de personas y no requieren conocimientos técnicos para su uso.

Sigue leyendo: ¿Internet disminuye nuestra capacidad de leer profundamente?


Dado el potencial de daño generalizado a medida que las empresas de tecnología implementan estos sistemas de inteligencia artificial y los prueban en el público, los formuladores de políticas se enfrentan a la tarea de determinar si regular la tecnología emergente y cómo hacerlo.

The Conversation pidió a tres expertos en política tecnológica que explicaran por qué regular la IA es un desafío tan grande y por qué es tan importante hacerlo bien.

S. Shyam Sundar, quien es profesor de Efectos de los Medios y Director del Centro para la IA Socialmente Responsable de Penn State, asegura que la razón para regular la IA no es que la tecnología esté fuera de control, sino que la imaginación humana está desproporcionada.

“La gran cobertura de los medios ha alimentado creencias irracionales sobre las habilidades y la conciencia de la IA. Tales creencias se basan en el sesgo de automatización o la tendencia a bajar la guardia cuando las máquinas están realizando una tarea. Un ejemplo es la vigilancia reducida entre los pilotos cuando su avión está volando en piloto automático”, asegura.

“Numerosos estudios en mi laboratorio han demostrado -continúa- que cuando se identifica una máquina, en lugar de un ser humano, como fuente de interacción, desencadena un atajo mental en la mente de los usuarios que llamamos heurística de máquina. Ese atajo es la creencia de que las máquinas son precisas, objetivas, imparciales, infalibles, etcétera”.

La razón para regular la IA no es que la tecnología esté fuera de control, sino que la imaginación humana está desproporcionada

Por su parte, Cason Schmit, quien se desempeña como Profesor Asistente de Salud Pública en la Universidad Texas A&M, añade:

“Regular la IA es complicado. Para regular bien la IA, primero debe definir la IA y comprender los riesgos y beneficios anticipados de la IA. Definir legalmente la IA es importante para identificar qué está sujeta a la ley. Pero las tecnologías de IA aún están evolucionando, por lo que es difícil precisar una definición legal estable”, apunta.

“También es importante comprender los riesgos y beneficios de la IA -añade-. Las buenas regulaciones deben maximizar los beneficios públicos y minimizar los riesgos. Sin embargo, las aplicaciones de IA aún están surgiendo, por lo que es difícil saber o predecir cuáles podrían ser los riesgos o beneficios futuros. Este tipo de incógnitas hacen que las tecnologías emergentes como la IA sean extremadamente difíciles de regular con las leyes y regulaciones tradicionales”.

“Los legisladores suelen ser demasiado lentos para adaptarse al entorno tecnológico que cambia rápidamente. Algunas leyes nuevas son obsoletas cuando se promulgan o incluso se introducen. Sin nuevas leyes, los reguladores tienen que usar leyes antiguas para abordar nuevos problemas. A veces, esto conduce a barreras legales para los beneficios sociales o lagunas legales para conductas dañinas”.

Otra opción para hacerle frente

Megan Doerr, Jennifer Wagner y yo proponemos una tercera vía: Copyleft AI con Trusted Enforcement (CAITE). Este enfoque combina dos conceptos muy diferentes en propiedad intelectual: licencias copyleft y trolls de patentes.

La licencia de copyleft permite que el contenido se use, reutilice o modifique fácilmente bajo los términos de una licencia, por ejemplo, software de código abierto. El modelo CAITE utiliza licencias copyleft para exigir a los usuarios de IA que sigan pautas éticas específicas, como evaluaciones transparentes del impacto del sesgo.

En nuestro modelo, estas licencias también transfieren el derecho legal de hacer cumplir las infracciones de licencia a un tercero de confianza. Esto crea una entidad de cumplimiento que existe únicamente para hacer cumplir los estándares éticos de IA y puede financiarse en parte con multas por conducta poco ética.

Esta entidad es como un troll de patentes en el sentido de que es privada en lugar de gubernamental y se mantiene haciendo cumplir los derechos legales de propiedad intelectual que obtiene de otros. En este caso, en lugar de la aplicación con fines de lucro, la entidad hace cumplir las pautas éticas definidas en las licencias: un "troll para siempre".

Este modelo es flexible y adaptable para satisfacer las necesidades de un entorno de IA cambiante. También permite opciones de aplicación sustanciales como un regulador gubernamental tradicional. De esta manera, combina los mejores elementos de los enfoques de leyes duras y blandas para enfrentar los desafíos únicos de la IA.


Cuatro preguntas clave

John Villasenor, Profesor de Ingeniería Eléctrica, Derecho, Políticas Públicas y Gestión de la Universidad de California, Los Ángeles, lanza cuatro cuestionamientos para hacerle frente al tema:

1) ¿Es necesaria una nueva regulación específica para la IA? Muchos de los resultados potencialmente problemáticos de los sistemas de IA ya se abordan en los marcos existentes.

2) ¿Cuáles son los riesgos de regular una tecnología que cambia rápidamente en función de una instantánea del tiempo?

3) ¿Cuáles son las posibles consecuencias no deseadas?

4) ¿Cuáles son las implicaciones económicas y geopolíticas?

➡️ Suscríbete a nuestro Newsletter y recibe las notas más relevantes en tu correo

Considero que las regulaciones de IA redactadas con las cuatro preguntas anteriores en mente tendrán más probabilidades de abordar con éxito los daños potenciales de esta tecnología y al mismo tiempo garantizar el acceso a sus beneficios.

* Profesor de Efectos de los Medios, Codirector, Laboratorio de Investigación de Efectos de los Medios y Director, Centro para la IA Socialmente Responsable, Penn State.



El 29 de marzo, un grupo de investigadores y figuras públicas instaron a la industria a detener la capacitación adicional de las últimas tecnologías de IA o, salvo eso, a los gobiernos a "imponer una moratoria".

Estas tecnologías, generadores de imágenes como DALL-E, Midjourney y Stable Diffusion, y generadores de texto como Bard, ChatGPT, Chinchilla y LLaMA, ahora están disponibles para millones de personas y no requieren conocimientos técnicos para su uso.

Sigue leyendo: ¿Internet disminuye nuestra capacidad de leer profundamente?


Dado el potencial de daño generalizado a medida que las empresas de tecnología implementan estos sistemas de inteligencia artificial y los prueban en el público, los formuladores de políticas se enfrentan a la tarea de determinar si regular la tecnología emergente y cómo hacerlo.

The Conversation pidió a tres expertos en política tecnológica que explicaran por qué regular la IA es un desafío tan grande y por qué es tan importante hacerlo bien.

S. Shyam Sundar, quien es profesor de Efectos de los Medios y Director del Centro para la IA Socialmente Responsable de Penn State, asegura que la razón para regular la IA no es que la tecnología esté fuera de control, sino que la imaginación humana está desproporcionada.

“La gran cobertura de los medios ha alimentado creencias irracionales sobre las habilidades y la conciencia de la IA. Tales creencias se basan en el sesgo de automatización o la tendencia a bajar la guardia cuando las máquinas están realizando una tarea. Un ejemplo es la vigilancia reducida entre los pilotos cuando su avión está volando en piloto automático”, asegura.

“Numerosos estudios en mi laboratorio han demostrado -continúa- que cuando se identifica una máquina, en lugar de un ser humano, como fuente de interacción, desencadena un atajo mental en la mente de los usuarios que llamamos heurística de máquina. Ese atajo es la creencia de que las máquinas son precisas, objetivas, imparciales, infalibles, etcétera”.

La razón para regular la IA no es que la tecnología esté fuera de control, sino que la imaginación humana está desproporcionada

Por su parte, Cason Schmit, quien se desempeña como Profesor Asistente de Salud Pública en la Universidad Texas A&M, añade:

“Regular la IA es complicado. Para regular bien la IA, primero debe definir la IA y comprender los riesgos y beneficios anticipados de la IA. Definir legalmente la IA es importante para identificar qué está sujeta a la ley. Pero las tecnologías de IA aún están evolucionando, por lo que es difícil precisar una definición legal estable”, apunta.

“También es importante comprender los riesgos y beneficios de la IA -añade-. Las buenas regulaciones deben maximizar los beneficios públicos y minimizar los riesgos. Sin embargo, las aplicaciones de IA aún están surgiendo, por lo que es difícil saber o predecir cuáles podrían ser los riesgos o beneficios futuros. Este tipo de incógnitas hacen que las tecnologías emergentes como la IA sean extremadamente difíciles de regular con las leyes y regulaciones tradicionales”.

“Los legisladores suelen ser demasiado lentos para adaptarse al entorno tecnológico que cambia rápidamente. Algunas leyes nuevas son obsoletas cuando se promulgan o incluso se introducen. Sin nuevas leyes, los reguladores tienen que usar leyes antiguas para abordar nuevos problemas. A veces, esto conduce a barreras legales para los beneficios sociales o lagunas legales para conductas dañinas”.

Otra opción para hacerle frente

Megan Doerr, Jennifer Wagner y yo proponemos una tercera vía: Copyleft AI con Trusted Enforcement (CAITE). Este enfoque combina dos conceptos muy diferentes en propiedad intelectual: licencias copyleft y trolls de patentes.

La licencia de copyleft permite que el contenido se use, reutilice o modifique fácilmente bajo los términos de una licencia, por ejemplo, software de código abierto. El modelo CAITE utiliza licencias copyleft para exigir a los usuarios de IA que sigan pautas éticas específicas, como evaluaciones transparentes del impacto del sesgo.

En nuestro modelo, estas licencias también transfieren el derecho legal de hacer cumplir las infracciones de licencia a un tercero de confianza. Esto crea una entidad de cumplimiento que existe únicamente para hacer cumplir los estándares éticos de IA y puede financiarse en parte con multas por conducta poco ética.

Esta entidad es como un troll de patentes en el sentido de que es privada en lugar de gubernamental y se mantiene haciendo cumplir los derechos legales de propiedad intelectual que obtiene de otros. En este caso, en lugar de la aplicación con fines de lucro, la entidad hace cumplir las pautas éticas definidas en las licencias: un "troll para siempre".

Este modelo es flexible y adaptable para satisfacer las necesidades de un entorno de IA cambiante. También permite opciones de aplicación sustanciales como un regulador gubernamental tradicional. De esta manera, combina los mejores elementos de los enfoques de leyes duras y blandas para enfrentar los desafíos únicos de la IA.


Cuatro preguntas clave

John Villasenor, Profesor de Ingeniería Eléctrica, Derecho, Políticas Públicas y Gestión de la Universidad de California, Los Ángeles, lanza cuatro cuestionamientos para hacerle frente al tema:

1) ¿Es necesaria una nueva regulación específica para la IA? Muchos de los resultados potencialmente problemáticos de los sistemas de IA ya se abordan en los marcos existentes.

2) ¿Cuáles son los riesgos de regular una tecnología que cambia rápidamente en función de una instantánea del tiempo?

3) ¿Cuáles son las posibles consecuencias no deseadas?

4) ¿Cuáles son las implicaciones económicas y geopolíticas?

➡️ Suscríbete a nuestro Newsletter y recibe las notas más relevantes en tu correo

Considero que las regulaciones de IA redactadas con las cuatro preguntas anteriores en mente tendrán más probabilidades de abordar con éxito los daños potenciales de esta tecnología y al mismo tiempo garantizar el acceso a sus beneficios.

* Profesor de Efectos de los Medios, Codirector, Laboratorio de Investigación de Efectos de los Medios y Director, Centro para la IA Socialmente Responsable, Penn State.



Política

Senado da luz verde a ley de ingresos: prevé recaudación en 2025 por más de 9.3 billones de pesos

El Senado de la República aprobó la Ley de Ingresos de la Federación para 2025, el paquete fiscal establece recaudación récord de 9.3 billones de pesos y un techo de deuda de hasta 1.58 billones de pesos

México

Emite Secretaría de Salud alerta epidemiológica por 'Klebsiella oxytoca'

El comunicado va dirigido a clínicas y hospitales del país, a causa de un brote registrado en el Estado de México donde se contabilizaron 15 casos

Finanzas

El sector obrero busca dar un paso histórico más para mejorar el salario mínimo general

Se debe sumar productividad para avanzar y lograr más del 12% de aumento y acercarnos a 20%: Tereso Medina Ramírez

México

Empresarios sinaloenses exigen atender crisis económica causada por la violencia

Martha Reyes, presidenta de COPARMEX Sinaloa, y empresarios sinaloenses presentaron en el Senado un Plan Emergente de Recuperación Económica para Sinaloa

Metrópoli

Comerciantes podrán rescatar mercancía de Izazaga 89

César Cravioto, secretario de gobierno de CDMX, aseguró los comerciantes podrán recuperar la mercacía que se quedó dentro de Izazaga 89 ya que no figuraba dentro del rubro apócrifo o ilegal

México

Aprueba Senado Ley Federal de Derechos; proyectan ingresos para 2025 por 374 mil mdp

La Ley Federal de Derechos es un ordenamiento de carácter fiscal que establece el cobro de derechos por la prestación de servicios públicos o por el aprovechamiento de los bienes de dominio público de la nación