/ lunes 29 de mayo de 2023

En busca de una Inteligencia Artificial ética

Además de sus muchos beneficios, el uso comercial de la IA presenta riesgos sustanciales, y las empresas lo saben

La prisa por implementar nuevas y poderosas tecnologías de Inteligencia Artificial (IA) generativa, ha generado alarmas sobre posibles daños y mal uso, por lo que se espera que las empresas desarrollen tecnologías de manera ética

Pero, ¿qué significa exactamente eso? La respuesta directa sería alinear las operaciones de una empresa con uno o más de las docenas de conjuntos de principios éticos de IA que han producido gobiernos, grupos de múltiples partes interesadas y académicos. Pero eso es más fácil decirlo que hacerlo.

Te puede interesar: La IA generativa nos hará repensar la idea de la autenticidad

Nosotros y nuestros colegas pasamos dos años entrevistando y encuestando a profesionales de la ética de la IA en una variedad de sectores para tratar de comprender cómo buscaban lograr una IA ética, y qué es lo que podrían estar perdiendo.

Aprendimos que perseguir la ética de la IA en el terreno se trata menos de mapear principios éticos en acciones corporativas que de implementar estructuras y procesos de gestión que permitan a una organización detectar y mitigar amenazas.

Es probable que esta sea una noticia decepcionante para las organizaciones que buscan una guía inequívoca que evite las áreas grises y para los consumidores que esperan estándares claros y protectores. Pero apunta a una mejor comprensión de cómo las empresas pueden buscar una IA ética.

Lidiando con las incertidumbres

Nuestro estudio, que es la base de un próximo libro, se centró en los responsables de gestionar los problemas de ética de la IA en las principales empresas que la utilizan. Desde finales de 2017 hasta principios de 2019, entrevistamos a 23 de estos gerentes. Sus títulos iban desde oficial de privacidad y asesor de privacidad hasta uno que era nuevo en ese momento, pero cada vez más común en la actualidad: oficial de ética de datos. Nuestras conversaciones con estos gerentes de ética de IA produjeron cuatro conclusiones principales.

Primero, además de sus muchos beneficios, el uso comercial de la IA presenta riesgos sustanciales, y las empresas lo saben. Los gerentes de ética de AI expresaron su preocupación por la privacidad, la manipulación, el sesgo, la opacidad, la desigualdad y el desplazamiento laboral. En un ejemplo bien conocido, Amazon desarrolló una herramienta de inteligencia artificial para ordenar los currículos y la capacitó para encontrar candidatos similares a los que había contratado en el pasado.

El uso comercial de la IA presenta riesgos sustanciales, y las empresas lo saben

El dominio masculino en la industria tecnológica significó que la mayoría de los empleados de Amazon fueran hombres. En consecuencia, la herramienta aprendió a rechazar candidatas. Incapaz de solucionar el problema, Amazon finalmente tuvo que desechar el proyecto.

En segundo lugar, las empresas que persiguen una IA ética lo hacen en gran medida por razones estratégicas. Quieren mantener la confianza entre los clientes, socios comerciales y empleados. Y quieren adelantarse o prepararse para las regulaciones emergentes.

Las empresas que persiguen una IA ética lo hacen en gran medida por razones estratégicas

El escándalo de Facebook-Cambridge Analytica, en el que Cambridge Analytica usó datos de usuarios de Facebook, compartidos sin consentimiento, para inferir los tipos psicológicos de los usuarios y atacarlos con anuncios políticos manipuladores, mostró que el uso poco ético de análisis avanzados puede destruir la reputación de una empresa o incluso, como en el caso de la propia Cambridge Analytica, derribarlo.

El desafío que enfrentaron los gerentes de ética de la IA fue descubrir la mejor manera de lograr una "IA ética". Primero examinaron los principios éticos de la IA, en particular los que tienen sus raíces en la bioética o los principios de los derechos humanos, pero los encontraron insuficientes.

La justicia, la equidad, la beneficencia, la autonomía y otros principios similares son impugnados y sujetos a interpretación y pueden entrar en conflicto entre sí

No se trataba simplemente de que hubiera muchos conjuntos de principios en competencia. Era que la justicia, la equidad, la beneficencia, la autonomía y otros principios similares son impugnados y sujetos a interpretación y pueden entrar en conflicto entre sí.

Esto llevó a nuestra tercera conclusión: los gerentes necesitaban más que principios de IA de alto nivel para decidir qué hacer en situaciones específicas.

Los gerentes necesitaban más que principios de IA de alto nivel para decidir qué hacer en situaciones específicas

En cuarto lugar, los profesionales que se enfrentaban a incertidumbres éticas recurrieron a estructuras y procedimientos organizativos para llegar a juicios sobre qué hacer. Algunos de estos eran claramente inadecuados. Pero otros, aunque todavía estaban en gran parte en desarrollo, fueron más útiles, como:

➡️ Suscríbete a nuestro Newsletter y recibe las notas más relevan

Contratar a un oficial de ética de AI para construir y supervisar el programa; establecer un comité de ética interno de IA para sopesar y decidir cuestiones difíciles; elaborar listas de verificación de ética de datos y exigir que los científicos de datos de primera línea las completen, y llegar a académicos, ex reguladores y defensores de perspectivas alternativas.

De momento, y en ausencia de requisitos legales explícitos, las empresas, al igual que las personas, solo pueden hacer todo lo posible para ser conscientes de cómo la IA afecta a las personas y al medio ambiente y mantenerse al tanto de las preocupaciones del público y las últimas investigaciones e ideas de los expertos.


* Catedráticos de Informática y Filosofía, Universidad Estatal de Ohio.


La prisa por implementar nuevas y poderosas tecnologías de Inteligencia Artificial (IA) generativa, ha generado alarmas sobre posibles daños y mal uso, por lo que se espera que las empresas desarrollen tecnologías de manera ética

Pero, ¿qué significa exactamente eso? La respuesta directa sería alinear las operaciones de una empresa con uno o más de las docenas de conjuntos de principios éticos de IA que han producido gobiernos, grupos de múltiples partes interesadas y académicos. Pero eso es más fácil decirlo que hacerlo.

Te puede interesar: La IA generativa nos hará repensar la idea de la autenticidad

Nosotros y nuestros colegas pasamos dos años entrevistando y encuestando a profesionales de la ética de la IA en una variedad de sectores para tratar de comprender cómo buscaban lograr una IA ética, y qué es lo que podrían estar perdiendo.

Aprendimos que perseguir la ética de la IA en el terreno se trata menos de mapear principios éticos en acciones corporativas que de implementar estructuras y procesos de gestión que permitan a una organización detectar y mitigar amenazas.

Es probable que esta sea una noticia decepcionante para las organizaciones que buscan una guía inequívoca que evite las áreas grises y para los consumidores que esperan estándares claros y protectores. Pero apunta a una mejor comprensión de cómo las empresas pueden buscar una IA ética.

Lidiando con las incertidumbres

Nuestro estudio, que es la base de un próximo libro, se centró en los responsables de gestionar los problemas de ética de la IA en las principales empresas que la utilizan. Desde finales de 2017 hasta principios de 2019, entrevistamos a 23 de estos gerentes. Sus títulos iban desde oficial de privacidad y asesor de privacidad hasta uno que era nuevo en ese momento, pero cada vez más común en la actualidad: oficial de ética de datos. Nuestras conversaciones con estos gerentes de ética de IA produjeron cuatro conclusiones principales.

Primero, además de sus muchos beneficios, el uso comercial de la IA presenta riesgos sustanciales, y las empresas lo saben. Los gerentes de ética de AI expresaron su preocupación por la privacidad, la manipulación, el sesgo, la opacidad, la desigualdad y el desplazamiento laboral. En un ejemplo bien conocido, Amazon desarrolló una herramienta de inteligencia artificial para ordenar los currículos y la capacitó para encontrar candidatos similares a los que había contratado en el pasado.

El uso comercial de la IA presenta riesgos sustanciales, y las empresas lo saben

El dominio masculino en la industria tecnológica significó que la mayoría de los empleados de Amazon fueran hombres. En consecuencia, la herramienta aprendió a rechazar candidatas. Incapaz de solucionar el problema, Amazon finalmente tuvo que desechar el proyecto.

En segundo lugar, las empresas que persiguen una IA ética lo hacen en gran medida por razones estratégicas. Quieren mantener la confianza entre los clientes, socios comerciales y empleados. Y quieren adelantarse o prepararse para las regulaciones emergentes.

Las empresas que persiguen una IA ética lo hacen en gran medida por razones estratégicas

El escándalo de Facebook-Cambridge Analytica, en el que Cambridge Analytica usó datos de usuarios de Facebook, compartidos sin consentimiento, para inferir los tipos psicológicos de los usuarios y atacarlos con anuncios políticos manipuladores, mostró que el uso poco ético de análisis avanzados puede destruir la reputación de una empresa o incluso, como en el caso de la propia Cambridge Analytica, derribarlo.

El desafío que enfrentaron los gerentes de ética de la IA fue descubrir la mejor manera de lograr una "IA ética". Primero examinaron los principios éticos de la IA, en particular los que tienen sus raíces en la bioética o los principios de los derechos humanos, pero los encontraron insuficientes.

La justicia, la equidad, la beneficencia, la autonomía y otros principios similares son impugnados y sujetos a interpretación y pueden entrar en conflicto entre sí

No se trataba simplemente de que hubiera muchos conjuntos de principios en competencia. Era que la justicia, la equidad, la beneficencia, la autonomía y otros principios similares son impugnados y sujetos a interpretación y pueden entrar en conflicto entre sí.

Esto llevó a nuestra tercera conclusión: los gerentes necesitaban más que principios de IA de alto nivel para decidir qué hacer en situaciones específicas.

Los gerentes necesitaban más que principios de IA de alto nivel para decidir qué hacer en situaciones específicas

En cuarto lugar, los profesionales que se enfrentaban a incertidumbres éticas recurrieron a estructuras y procedimientos organizativos para llegar a juicios sobre qué hacer. Algunos de estos eran claramente inadecuados. Pero otros, aunque todavía estaban en gran parte en desarrollo, fueron más útiles, como:

➡️ Suscríbete a nuestro Newsletter y recibe las notas más relevan

Contratar a un oficial de ética de AI para construir y supervisar el programa; establecer un comité de ética interno de IA para sopesar y decidir cuestiones difíciles; elaborar listas de verificación de ética de datos y exigir que los científicos de datos de primera línea las completen, y llegar a académicos, ex reguladores y defensores de perspectivas alternativas.

De momento, y en ausencia de requisitos legales explícitos, las empresas, al igual que las personas, solo pueden hacer todo lo posible para ser conscientes de cómo la IA afecta a las personas y al medio ambiente y mantenerse al tanto de las preocupaciones del público y las últimas investigaciones e ideas de los expertos.


* Catedráticos de Informática y Filosofía, Universidad Estatal de Ohio.


México

CJNG tiene una estructura de franquicias para expandir su dominio: DEA

Este modelo le permite maximizar ganancias al no pagar directamente a los mandos de los grupos

Finanzas

Cenace declara estado de emergencia: suman tres días con apagones

Aguascalientes, Zacatecas, Querétaro e Hidalgo ya reportaron apagones luego de que el Cenance activara el estado operativo de emergencia

Valle de México

Extienden la contingencia ambiental: qué autos no circulan el viernes 10 de mayo

La Comisión Ambiental de la Megalópolis (CAMe) activó la Fase 1 por contingencia ambiental y el Hoy no circula en el Vallle de México

Sociedad

Enfrentamiento entre presuntos criminales y el Ejército deja 10 muertos en Guanajuato

Elementos del Ejército abatieron a 10 presuntos criminales y un militar resultó lesionado

Elecciones 2024

INE blinda PREP ante apagones con plantas de electricidad

El INE contrató poco más de 100 plantas de emergencia para apoyar a la captura de las actas de los resultados de votación de las casillas

CDMX

Conmemoran a sus familiares desaparecidos con velada en el Monumento a la Madre

Previo al 10 de mayo, madres buscadoras y familias trazaron un árbol de vida y esperanza con veladoras, fotografías y flores de papel