/ jueves 14 de enero de 2021

¿La inteligencia artificial puede aumentar la desigualdad?

Los humanos son capaces de detectar sus errores, las máquinas no, por lo que si los cometen, los repetirán permanentemente

El uso cada vez más diversificado de servicios que se basan en la inteligencia artificial (IA), como podrían ser los buscadores de información o las compras en línea nos hacen pensar que podemos confiar plenamente en los algoritmos con los que estos sistemas trabajan.

Y es que, a diferencia de los seres humanos, que tenemos la capacidad de identificar nuestros errores, y en su caso corregirlos, los especialistas nos recuerdan que cuando un sistema de IA comete un error, este se repetirá una y otra vez, sin importar cuántas veces observe los mismos datos.

▶️ Mantente informado en nuestro canal de Google Noticias

Esto se debe a que los sistemas de inteligencia artificial se entrenan utilizando datos que inevitablemente reflejan el pasado, y si un conjunto de datos de entrenamiento contiene sesgos inherentes de decisiones humanas pasadas, estos sesgos son codificados y amplificados por el sistema.

De la misma manera, si el sistema contiene menos datos sobre un grupo minoritario en particular, las predicciones para ese grupo tenderán a ser peores. A esto se le llama "sesgo algorítmico".

El sesgo algorítmico puede surgir debido a la falta de datos de entrenamiento adecuados o como resultado de un diseño o configuración inadecuados del sistema.

▶️ WhatsApp, Telegram o Signal: ¿quién es quién en las apps de mensajería?

Por ejemplo, un sistema que ayuda a un banco a decidir si concede o no préstamos, normalmente se capacitaría utilizando un gran conjunto de datos de las decisiones de préstamos anteriores del banco, así como otros datos relevantes a los que el banco tiene acceso.

El sistema puede comparar el historial financiero, de empleo y la información demográfica de un nuevo solicitante con la información correspondiente de solicitantes anteriores. Y a partir de esto, intenta predecir si el nuevo solicitante podrá reembolsar el préstamo.

Pero ese enfoque puede resultar problemático. Una forma en que podría surgir un sesgo algorítmico en esta situación es a través de sesgos inconscientes de los administradores de préstamos que tomaron decisiones anteriores sobre las solicitudes de hipotecas.

▶️ "Usen Signal" la recomendación de Elon Musk para dejar atrás el WhatsApp

¿CÓMO SURGE?

Por ejemplo: Si a los clientes de grupos minoritarios se les negaron préstamos injustamente en el pasado, la IA considerará que la capacidad de pago general de estos grupos es menor de lo que en realidad puede ser.

Así, los jóvenes, las personas de color, las mujeres solteras, las personas con discapacidad y los trabajadores manuales, por mencionar solo algunos grupos, pueden estar en desventaja.

El sistema de inteligencia artificial sesgado descrito anteriormente plantea dos riesgos clave para el banco:

Primero, el banco podría perder clientes potenciales al enviar víctimas de prejuicios a sus competidores. Pero también podría ser considerado responsable en virtud de las leyes contra la discriminación.

AFP

Si un sistema de inteligencia artificial aplica continuamente un sesgo inherente en sus decisiones, será más fácil para el gobierno o los grupos de consumidores identificar este patrón sistemático. Esto puede dar lugar a fuertes multas y sanciones.

El Gradient Institute de Australia realizó un estudio que demuestra cómo las empresas pueden identificar el sesgo algorítmico en los sistemas de inteligencia artificial y lo más importante: cómo pueden mitigarlo.

El estudio, que fue realizado en colaboración con la Comisión de Derechos Humanos de Australia, el Centro de Investigación de Políticas del Consumidor y organizaciones no gubernamentales como Data61 y CHOICE, también proporciona orientación técnica sobre cómo se puede eliminar este sesgo, para que los sistemas de inteligencia artificial produzcan resultados éticos que no discriminen en función de características como la raza, la edad, el sexo o la discapacidad.

▶️ Telegram gana usuarios tras recientes políticas de privacidad en WhatsApp

The Conversation realizó una simulación de un minorista de electricidad hipotético que utiliza una herramienta impulsada por IA para decidir cómo ofrecer productos a los clientes y en qué condiciones. La simulación se entrenó en datos históricos ficticios compuestos por individuos ficticios.

Con base en sus resultados, identificaron cinco enfoques para corregir el sesgo. Ese conjunto de herramientas se puede aplicar a empresas de una variedad de sectores para ayudar a garantizar que los sistemas de inteligencia artificial sean justos y precisos:

Obtener mejores datos. El riesgo de sesgo algorítmico se puede reducir al obtener puntos de datos adicionales o nuevos tipos de información sobre las personas, especialmente aquellas que están subrepresentadas (minorías) o aquellas que pueden aparecer de manera inexacta en los datos existentes.

▶️ Microsoft quiere participar en aplicación de vacunas contra Covid-19

Procesar previamente la información. Consiste en editar un conjunto de datos para enmascarar o eliminar información sobre atributos asociados con las protecciones bajo la ley contra la discriminación, como la raza o el género.

Incrementar la complejidad del modelo. Un modelo de IA más simple puede ser más fácil de probar, monitorear e interrogar. Pero también puede ser menos precisa y dar lugar a generalizaciones que favorezcan a la mayoría sobre las minorías.

Modificar el sistema. La lógica y los parámetros de un sistema de inteligencia artificial se pueden ajustar de forma proactiva para contrarrestar directamente el sesgo algorítmico.

▶️ AMD presenta nueva familia de procesadores Ryzen 5000 Series Mobile

Cambiar el objetivo de predicción. La medida específica elegida para guiar un sistema de IA influye directamente en cómo toma decisiones en diferentes grupos. Encontrar una medida más justa para usar como objetivo de predicción ayudará a reducir el sesgo mencionado.

Con las herramientas de toma de decisiones de IA cada vez más comunes, ahora tenemos la oportunidad no solo de aumentar la productividad, sino de crear una sociedad más equitativa y justa.



Escucha el podcast ▼

Apple Podcasts

Google Podcasts

Spotify

Acast

Deezer

Amazon Music



Lee también otros contenidos de Normal ⬇️

El uso cada vez más diversificado de servicios que se basan en la inteligencia artificial (IA), como podrían ser los buscadores de información o las compras en línea nos hacen pensar que podemos confiar plenamente en los algoritmos con los que estos sistemas trabajan.

Y es que, a diferencia de los seres humanos, que tenemos la capacidad de identificar nuestros errores, y en su caso corregirlos, los especialistas nos recuerdan que cuando un sistema de IA comete un error, este se repetirá una y otra vez, sin importar cuántas veces observe los mismos datos.

▶️ Mantente informado en nuestro canal de Google Noticias

Esto se debe a que los sistemas de inteligencia artificial se entrenan utilizando datos que inevitablemente reflejan el pasado, y si un conjunto de datos de entrenamiento contiene sesgos inherentes de decisiones humanas pasadas, estos sesgos son codificados y amplificados por el sistema.

De la misma manera, si el sistema contiene menos datos sobre un grupo minoritario en particular, las predicciones para ese grupo tenderán a ser peores. A esto se le llama "sesgo algorítmico".

El sesgo algorítmico puede surgir debido a la falta de datos de entrenamiento adecuados o como resultado de un diseño o configuración inadecuados del sistema.

▶️ WhatsApp, Telegram o Signal: ¿quién es quién en las apps de mensajería?

Por ejemplo, un sistema que ayuda a un banco a decidir si concede o no préstamos, normalmente se capacitaría utilizando un gran conjunto de datos de las decisiones de préstamos anteriores del banco, así como otros datos relevantes a los que el banco tiene acceso.

El sistema puede comparar el historial financiero, de empleo y la información demográfica de un nuevo solicitante con la información correspondiente de solicitantes anteriores. Y a partir de esto, intenta predecir si el nuevo solicitante podrá reembolsar el préstamo.

Pero ese enfoque puede resultar problemático. Una forma en que podría surgir un sesgo algorítmico en esta situación es a través de sesgos inconscientes de los administradores de préstamos que tomaron decisiones anteriores sobre las solicitudes de hipotecas.

▶️ "Usen Signal" la recomendación de Elon Musk para dejar atrás el WhatsApp

¿CÓMO SURGE?

Por ejemplo: Si a los clientes de grupos minoritarios se les negaron préstamos injustamente en el pasado, la IA considerará que la capacidad de pago general de estos grupos es menor de lo que en realidad puede ser.

Así, los jóvenes, las personas de color, las mujeres solteras, las personas con discapacidad y los trabajadores manuales, por mencionar solo algunos grupos, pueden estar en desventaja.

El sistema de inteligencia artificial sesgado descrito anteriormente plantea dos riesgos clave para el banco:

Primero, el banco podría perder clientes potenciales al enviar víctimas de prejuicios a sus competidores. Pero también podría ser considerado responsable en virtud de las leyes contra la discriminación.

AFP

Si un sistema de inteligencia artificial aplica continuamente un sesgo inherente en sus decisiones, será más fácil para el gobierno o los grupos de consumidores identificar este patrón sistemático. Esto puede dar lugar a fuertes multas y sanciones.

El Gradient Institute de Australia realizó un estudio que demuestra cómo las empresas pueden identificar el sesgo algorítmico en los sistemas de inteligencia artificial y lo más importante: cómo pueden mitigarlo.

El estudio, que fue realizado en colaboración con la Comisión de Derechos Humanos de Australia, el Centro de Investigación de Políticas del Consumidor y organizaciones no gubernamentales como Data61 y CHOICE, también proporciona orientación técnica sobre cómo se puede eliminar este sesgo, para que los sistemas de inteligencia artificial produzcan resultados éticos que no discriminen en función de características como la raza, la edad, el sexo o la discapacidad.

▶️ Telegram gana usuarios tras recientes políticas de privacidad en WhatsApp

The Conversation realizó una simulación de un minorista de electricidad hipotético que utiliza una herramienta impulsada por IA para decidir cómo ofrecer productos a los clientes y en qué condiciones. La simulación se entrenó en datos históricos ficticios compuestos por individuos ficticios.

Con base en sus resultados, identificaron cinco enfoques para corregir el sesgo. Ese conjunto de herramientas se puede aplicar a empresas de una variedad de sectores para ayudar a garantizar que los sistemas de inteligencia artificial sean justos y precisos:

Obtener mejores datos. El riesgo de sesgo algorítmico se puede reducir al obtener puntos de datos adicionales o nuevos tipos de información sobre las personas, especialmente aquellas que están subrepresentadas (minorías) o aquellas que pueden aparecer de manera inexacta en los datos existentes.

▶️ Microsoft quiere participar en aplicación de vacunas contra Covid-19

Procesar previamente la información. Consiste en editar un conjunto de datos para enmascarar o eliminar información sobre atributos asociados con las protecciones bajo la ley contra la discriminación, como la raza o el género.

Incrementar la complejidad del modelo. Un modelo de IA más simple puede ser más fácil de probar, monitorear e interrogar. Pero también puede ser menos precisa y dar lugar a generalizaciones que favorezcan a la mayoría sobre las minorías.

Modificar el sistema. La lógica y los parámetros de un sistema de inteligencia artificial se pueden ajustar de forma proactiva para contrarrestar directamente el sesgo algorítmico.

▶️ AMD presenta nueva familia de procesadores Ryzen 5000 Series Mobile

Cambiar el objetivo de predicción. La medida específica elegida para guiar un sistema de IA influye directamente en cómo toma decisiones en diferentes grupos. Encontrar una medida más justa para usar como objetivo de predicción ayudará a reducir el sesgo mencionado.

Con las herramientas de toma de decisiones de IA cada vez más comunes, ahora tenemos la oportunidad no solo de aumentar la productividad, sino de crear una sociedad más equitativa y justa.



Escucha el podcast ▼

Apple Podcasts

Google Podcasts

Spotify

Acast

Deezer

Amazon Music



Lee también otros contenidos de Normal ⬇️

Mundo

Senado de EU aprueba paquete de ayuda militar para Ucrania e Israel y ultimátum para TikTok

Otro proyecto busca forzar a la propiedad china de TikTok a vender la empresa en un periodo de un año si no quiere enfrentar una prohibición en EU

Sociedad

Dos personas mueren calcinadas por quema de autobús en Tabasco

El lunes pasado se desató una quema de vehículos en Cárdenas llevada a cabo por sujetos armados que, según autoridades, iniciaron la agresión tras confiscarles armas, drogas y vehículos

Elecciones 2024

Debate chilango: difieren candidatos sobre transparencia en construcciones en la BJ

Las acusaciones de corrupción entre la candidata de Morena y del candidato de Va x la CDMX protagonizaron el debate chilango por la alcaldía Benito Juárez

Finanzas

Fallece Consuelo Yolanda Luken, esposa del fundador de Coppel

Consuelo Yolanda Luken, viuda de Enrique Coppel Tamayo, falleció este marters a los 97 años de edad

Finanzas

México busca frenar comercio desleal con aranceles

Los aranceles tienen como finalidad que los productos subvaluados a bajos precios no desplacen a los productores nacionales