/ jueves 14 de enero de 2021

¿La inteligencia artificial puede aumentar la desigualdad?

Los humanos son capaces de detectar sus errores, las máquinas no, por lo que si los cometen, los repetirán permanentemente

El uso cada vez más diversificado de servicios que se basan en la inteligencia artificial (IA), como podrían ser los buscadores de información o las compras en línea nos hacen pensar que podemos confiar plenamente en los algoritmos con los que estos sistemas trabajan.

Y es que, a diferencia de los seres humanos, que tenemos la capacidad de identificar nuestros errores, y en su caso corregirlos, los especialistas nos recuerdan que cuando un sistema de IA comete un error, este se repetirá una y otra vez, sin importar cuántas veces observe los mismos datos.

▶️ Mantente informado en nuestro canal de Google Noticias

Esto se debe a que los sistemas de inteligencia artificial se entrenan utilizando datos que inevitablemente reflejan el pasado, y si un conjunto de datos de entrenamiento contiene sesgos inherentes de decisiones humanas pasadas, estos sesgos son codificados y amplificados por el sistema.

De la misma manera, si el sistema contiene menos datos sobre un grupo minoritario en particular, las predicciones para ese grupo tenderán a ser peores. A esto se le llama "sesgo algorítmico".

El sesgo algorítmico puede surgir debido a la falta de datos de entrenamiento adecuados o como resultado de un diseño o configuración inadecuados del sistema.

▶️ WhatsApp, Telegram o Signal: ¿quién es quién en las apps de mensajería?

Por ejemplo, un sistema que ayuda a un banco a decidir si concede o no préstamos, normalmente se capacitaría utilizando un gran conjunto de datos de las decisiones de préstamos anteriores del banco, así como otros datos relevantes a los que el banco tiene acceso.

El sistema puede comparar el historial financiero, de empleo y la información demográfica de un nuevo solicitante con la información correspondiente de solicitantes anteriores. Y a partir de esto, intenta predecir si el nuevo solicitante podrá reembolsar el préstamo.

Pero ese enfoque puede resultar problemático. Una forma en que podría surgir un sesgo algorítmico en esta situación es a través de sesgos inconscientes de los administradores de préstamos que tomaron decisiones anteriores sobre las solicitudes de hipotecas.

▶️ "Usen Signal" la recomendación de Elon Musk para dejar atrás el WhatsApp

¿CÓMO SURGE?

Por ejemplo: Si a los clientes de grupos minoritarios se les negaron préstamos injustamente en el pasado, la IA considerará que la capacidad de pago general de estos grupos es menor de lo que en realidad puede ser.

Así, los jóvenes, las personas de color, las mujeres solteras, las personas con discapacidad y los trabajadores manuales, por mencionar solo algunos grupos, pueden estar en desventaja.

El sistema de inteligencia artificial sesgado descrito anteriormente plantea dos riesgos clave para el banco:

Primero, el banco podría perder clientes potenciales al enviar víctimas de prejuicios a sus competidores. Pero también podría ser considerado responsable en virtud de las leyes contra la discriminación.

AFP

Si un sistema de inteligencia artificial aplica continuamente un sesgo inherente en sus decisiones, será más fácil para el gobierno o los grupos de consumidores identificar este patrón sistemático. Esto puede dar lugar a fuertes multas y sanciones.

El Gradient Institute de Australia realizó un estudio que demuestra cómo las empresas pueden identificar el sesgo algorítmico en los sistemas de inteligencia artificial y lo más importante: cómo pueden mitigarlo.

El estudio, que fue realizado en colaboración con la Comisión de Derechos Humanos de Australia, el Centro de Investigación de Políticas del Consumidor y organizaciones no gubernamentales como Data61 y CHOICE, también proporciona orientación técnica sobre cómo se puede eliminar este sesgo, para que los sistemas de inteligencia artificial produzcan resultados éticos que no discriminen en función de características como la raza, la edad, el sexo o la discapacidad.

▶️ Telegram gana usuarios tras recientes políticas de privacidad en WhatsApp

The Conversation realizó una simulación de un minorista de electricidad hipotético que utiliza una herramienta impulsada por IA para decidir cómo ofrecer productos a los clientes y en qué condiciones. La simulación se entrenó en datos históricos ficticios compuestos por individuos ficticios.

Con base en sus resultados, identificaron cinco enfoques para corregir el sesgo. Ese conjunto de herramientas se puede aplicar a empresas de una variedad de sectores para ayudar a garantizar que los sistemas de inteligencia artificial sean justos y precisos:

Obtener mejores datos. El riesgo de sesgo algorítmico se puede reducir al obtener puntos de datos adicionales o nuevos tipos de información sobre las personas, especialmente aquellas que están subrepresentadas (minorías) o aquellas que pueden aparecer de manera inexacta en los datos existentes.

▶️ Microsoft quiere participar en aplicación de vacunas contra Covid-19

Procesar previamente la información. Consiste en editar un conjunto de datos para enmascarar o eliminar información sobre atributos asociados con las protecciones bajo la ley contra la discriminación, como la raza o el género.

Incrementar la complejidad del modelo. Un modelo de IA más simple puede ser más fácil de probar, monitorear e interrogar. Pero también puede ser menos precisa y dar lugar a generalizaciones que favorezcan a la mayoría sobre las minorías.

Modificar el sistema. La lógica y los parámetros de un sistema de inteligencia artificial se pueden ajustar de forma proactiva para contrarrestar directamente el sesgo algorítmico.

▶️ AMD presenta nueva familia de procesadores Ryzen 5000 Series Mobile

Cambiar el objetivo de predicción. La medida específica elegida para guiar un sistema de IA influye directamente en cómo toma decisiones en diferentes grupos. Encontrar una medida más justa para usar como objetivo de predicción ayudará a reducir el sesgo mencionado.

Con las herramientas de toma de decisiones de IA cada vez más comunes, ahora tenemos la oportunidad no solo de aumentar la productividad, sino de crear una sociedad más equitativa y justa.



Escucha el podcast ▼

Apple Podcasts

Google Podcasts

Spotify

Acast

Deezer

Amazon Music



Lee también otros contenidos de Normal ⬇️

El uso cada vez más diversificado de servicios que se basan en la inteligencia artificial (IA), como podrían ser los buscadores de información o las compras en línea nos hacen pensar que podemos confiar plenamente en los algoritmos con los que estos sistemas trabajan.

Y es que, a diferencia de los seres humanos, que tenemos la capacidad de identificar nuestros errores, y en su caso corregirlos, los especialistas nos recuerdan que cuando un sistema de IA comete un error, este se repetirá una y otra vez, sin importar cuántas veces observe los mismos datos.

▶️ Mantente informado en nuestro canal de Google Noticias

Esto se debe a que los sistemas de inteligencia artificial se entrenan utilizando datos que inevitablemente reflejan el pasado, y si un conjunto de datos de entrenamiento contiene sesgos inherentes de decisiones humanas pasadas, estos sesgos son codificados y amplificados por el sistema.

De la misma manera, si el sistema contiene menos datos sobre un grupo minoritario en particular, las predicciones para ese grupo tenderán a ser peores. A esto se le llama "sesgo algorítmico".

El sesgo algorítmico puede surgir debido a la falta de datos de entrenamiento adecuados o como resultado de un diseño o configuración inadecuados del sistema.

▶️ WhatsApp, Telegram o Signal: ¿quién es quién en las apps de mensajería?

Por ejemplo, un sistema que ayuda a un banco a decidir si concede o no préstamos, normalmente se capacitaría utilizando un gran conjunto de datos de las decisiones de préstamos anteriores del banco, así como otros datos relevantes a los que el banco tiene acceso.

El sistema puede comparar el historial financiero, de empleo y la información demográfica de un nuevo solicitante con la información correspondiente de solicitantes anteriores. Y a partir de esto, intenta predecir si el nuevo solicitante podrá reembolsar el préstamo.

Pero ese enfoque puede resultar problemático. Una forma en que podría surgir un sesgo algorítmico en esta situación es a través de sesgos inconscientes de los administradores de préstamos que tomaron decisiones anteriores sobre las solicitudes de hipotecas.

▶️ "Usen Signal" la recomendación de Elon Musk para dejar atrás el WhatsApp

¿CÓMO SURGE?

Por ejemplo: Si a los clientes de grupos minoritarios se les negaron préstamos injustamente en el pasado, la IA considerará que la capacidad de pago general de estos grupos es menor de lo que en realidad puede ser.

Así, los jóvenes, las personas de color, las mujeres solteras, las personas con discapacidad y los trabajadores manuales, por mencionar solo algunos grupos, pueden estar en desventaja.

El sistema de inteligencia artificial sesgado descrito anteriormente plantea dos riesgos clave para el banco:

Primero, el banco podría perder clientes potenciales al enviar víctimas de prejuicios a sus competidores. Pero también podría ser considerado responsable en virtud de las leyes contra la discriminación.

AFP

Si un sistema de inteligencia artificial aplica continuamente un sesgo inherente en sus decisiones, será más fácil para el gobierno o los grupos de consumidores identificar este patrón sistemático. Esto puede dar lugar a fuertes multas y sanciones.

El Gradient Institute de Australia realizó un estudio que demuestra cómo las empresas pueden identificar el sesgo algorítmico en los sistemas de inteligencia artificial y lo más importante: cómo pueden mitigarlo.

El estudio, que fue realizado en colaboración con la Comisión de Derechos Humanos de Australia, el Centro de Investigación de Políticas del Consumidor y organizaciones no gubernamentales como Data61 y CHOICE, también proporciona orientación técnica sobre cómo se puede eliminar este sesgo, para que los sistemas de inteligencia artificial produzcan resultados éticos que no discriminen en función de características como la raza, la edad, el sexo o la discapacidad.

▶️ Telegram gana usuarios tras recientes políticas de privacidad en WhatsApp

The Conversation realizó una simulación de un minorista de electricidad hipotético que utiliza una herramienta impulsada por IA para decidir cómo ofrecer productos a los clientes y en qué condiciones. La simulación se entrenó en datos históricos ficticios compuestos por individuos ficticios.

Con base en sus resultados, identificaron cinco enfoques para corregir el sesgo. Ese conjunto de herramientas se puede aplicar a empresas de una variedad de sectores para ayudar a garantizar que los sistemas de inteligencia artificial sean justos y precisos:

Obtener mejores datos. El riesgo de sesgo algorítmico se puede reducir al obtener puntos de datos adicionales o nuevos tipos de información sobre las personas, especialmente aquellas que están subrepresentadas (minorías) o aquellas que pueden aparecer de manera inexacta en los datos existentes.

▶️ Microsoft quiere participar en aplicación de vacunas contra Covid-19

Procesar previamente la información. Consiste en editar un conjunto de datos para enmascarar o eliminar información sobre atributos asociados con las protecciones bajo la ley contra la discriminación, como la raza o el género.

Incrementar la complejidad del modelo. Un modelo de IA más simple puede ser más fácil de probar, monitorear e interrogar. Pero también puede ser menos precisa y dar lugar a generalizaciones que favorezcan a la mayoría sobre las minorías.

Modificar el sistema. La lógica y los parámetros de un sistema de inteligencia artificial se pueden ajustar de forma proactiva para contrarrestar directamente el sesgo algorítmico.

▶️ AMD presenta nueva familia de procesadores Ryzen 5000 Series Mobile

Cambiar el objetivo de predicción. La medida específica elegida para guiar un sistema de IA influye directamente en cómo toma decisiones en diferentes grupos. Encontrar una medida más justa para usar como objetivo de predicción ayudará a reducir el sesgo mencionado.

Con las herramientas de toma de decisiones de IA cada vez más comunes, ahora tenemos la oportunidad no solo de aumentar la productividad, sino de crear una sociedad más equitativa y justa.



Escucha el podcast ▼

Apple Podcasts

Google Podcasts

Spotify

Acast

Deezer

Amazon Music



Lee también otros contenidos de Normal ⬇️

Finanzas

Inflación no está fuera de control: Gerardo Esquivel

El subgobernador del Banco de México dijo que “la inflación está en un rango razonable, considerando los factores internacionales"

Mundo

Estados Unidos reporta primer caso de viruela del mono

El Departamento de Salud Pública de Massachusetts informó que se trata de un hombre que había recientemente a Canadá

Política

México analizará con EU inclusión de AL en Cumbre de las Américas

El presidente López Obrador y el canciller Marcelo Ebrard sostuvieron una reunión virtual con Christopher Dodd, asesor especial de la Casa Blanca

Mundo

Estados Unidos reporta primer caso de viruela del mono

El Departamento de Salud Pública de Massachusetts informó que se trata de un hombre que había recientemente a Canadá

Política

Alcaldesa de Álvaro Obregón defiende programa de estancias infantiles

Ante diputados locales, Lía Limón señaló que las estancias son un apoyo a las madres que tienen que trabajar y no tienen donde dejar a sus hijos

Finanzas

Oficina de Google en Rusia inicia procedimiento de quiebra

La compañía a inicios de mayo bloqueó ocho millones de anuncios relacionados con la campaña militar rusa en Ucrania, afectando la monetización

Finanzas

Expediente Electrónico Empresarial facilitará trámites de empresas: SE

"Permitirá que más empresas inicien operaciones y que sea menos costoso", aseguró Tatiana Clouthier

Finanzas

EU presenta queja laboral contra Panasonic en México

Estados Unidos pidió a México investigue si a los trabajadores de la planta de Panasonic en Reynosa se les negaron derechos laborales

Salud

¿Qué es la viruela del simio? Los signos y síntomas de la enfermedad

Esta viruela símica se ha caracterizado por ser rara y alertó a las autoridades sanitarias