/ sábado 12 de octubre de 2019

IA, ¿compatible con la humana?

“Con suerte, decidirán mantenernos como mascotas.”

Marvin Minsky

El evento más grande en la historia del ser humano, empieza a vislumbrarse poco a poco, como un sol, en el horizonte y no es posible observar ese “amanecer” sin sentir cierta inquietud interior...

Me refiero al momento en que la raza humana, sea relevada por máquinas como la especie más inteligente de la creación: La llegada de la superinteligencia artificial.

Los grandes poderes del mundo, apenas están comenzando a comprender este hecho que las grandes corporaciones ya conocían desde hace algún tiempo. Pero, lo que probablemente nadie ha entendido por completo, es cómo, si la inteligencia artificial continúa evolucionando en su forma actual, ese mismo evento podría llegar a convertirse en una catástrofe para la humanidad.

Para entender cómo y por qué esto puede llevarnos a una problemática seria, debemos entender las bases con las que se construyen la mayoría de los sistemas de inteligencia artificial.

Este “modelo estándar”, se basa en el hecho de que las máquinas, a diferencia de los humanos, no tienen sus propios objetivos. Somos nosotros los que les decimos qué deben hacer y, entre más inteligente es la máquina, mayor es la probabilidad de que logre su objetivo.

Desafortunadamente, este modelo es un error porque, si programamos una máquina con el objetivo equivocado, y esta es más inteligente que nosotros, ya perdimos.

Imaginemos que logramos diseñar un sistema de control climático superinteligente y le damos la tarea de regresar los niveles de CO2 a los de una época preindustrial: ¿Qué tal si decide que la mejor solución, es reducir la población humana a cero?...

Algunos dirán que siempre tendremos la opción de apagar la máquina, pero el problema es que la máquina ya habrá anticipado todas las formas en las que el humano podría interferir con su objetivo, y habrá tomado todos los pasos necesarios para evitar que esto suceda.

La solución que proponen algunos de los teóricos e investigadores más importantes del ramo como el Dr. Stuart Russell, de la Universidad de Berkeley, está en cambiar la forma en la que pensamos en el desarrollo de la inteligencia artificial: Debemos construir máquinas que no tengan certeza absoluta acerca de cuáles son sus objetivos.

Esto implica que, no importa cuan inteligentes lleguen a ser las máquinas, siempre estarán subordinadas a los humanos. Pedirán nuestro permiso cuando sea adecuado, aceptarán ser corregidas y, lo más importante, permitirán que las desconectemos cuando así se requiera.

Otra posibilidad, menos explorada pero no tan distante, es que el hombre logre una inteligencia superior a la de las máquinas gracias al desarrollo de la biotecnología, creando así una nueva raza de homínido más evolucionada que el Homo sapiens. Sin embargo, esto traería consigo otro tipo de problemas: ¿Cómo nos verían estos nuevos superhumanos? ¿Nos convertiríamos en una subespecie socialmente marginada? ¿Algo peor?

La solución, sea cual sea, debe estar lista antes que las capacidades de los sistemas de inteligencia artificial para tomar decisiones en el mundo real, excedan las del ser humano como especie.

Si fallamos, nos arriesgamos a perder el control de este mundo que, hasta hoy, hemos conocido como nuestro.

“Con suerte, decidirán mantenernos como mascotas.”

Marvin Minsky

El evento más grande en la historia del ser humano, empieza a vislumbrarse poco a poco, como un sol, en el horizonte y no es posible observar ese “amanecer” sin sentir cierta inquietud interior...

Me refiero al momento en que la raza humana, sea relevada por máquinas como la especie más inteligente de la creación: La llegada de la superinteligencia artificial.

Los grandes poderes del mundo, apenas están comenzando a comprender este hecho que las grandes corporaciones ya conocían desde hace algún tiempo. Pero, lo que probablemente nadie ha entendido por completo, es cómo, si la inteligencia artificial continúa evolucionando en su forma actual, ese mismo evento podría llegar a convertirse en una catástrofe para la humanidad.

Para entender cómo y por qué esto puede llevarnos a una problemática seria, debemos entender las bases con las que se construyen la mayoría de los sistemas de inteligencia artificial.

Este “modelo estándar”, se basa en el hecho de que las máquinas, a diferencia de los humanos, no tienen sus propios objetivos. Somos nosotros los que les decimos qué deben hacer y, entre más inteligente es la máquina, mayor es la probabilidad de que logre su objetivo.

Desafortunadamente, este modelo es un error porque, si programamos una máquina con el objetivo equivocado, y esta es más inteligente que nosotros, ya perdimos.

Imaginemos que logramos diseñar un sistema de control climático superinteligente y le damos la tarea de regresar los niveles de CO2 a los de una época preindustrial: ¿Qué tal si decide que la mejor solución, es reducir la población humana a cero?...

Algunos dirán que siempre tendremos la opción de apagar la máquina, pero el problema es que la máquina ya habrá anticipado todas las formas en las que el humano podría interferir con su objetivo, y habrá tomado todos los pasos necesarios para evitar que esto suceda.

La solución que proponen algunos de los teóricos e investigadores más importantes del ramo como el Dr. Stuart Russell, de la Universidad de Berkeley, está en cambiar la forma en la que pensamos en el desarrollo de la inteligencia artificial: Debemos construir máquinas que no tengan certeza absoluta acerca de cuáles son sus objetivos.

Esto implica que, no importa cuan inteligentes lleguen a ser las máquinas, siempre estarán subordinadas a los humanos. Pedirán nuestro permiso cuando sea adecuado, aceptarán ser corregidas y, lo más importante, permitirán que las desconectemos cuando así se requiera.

Otra posibilidad, menos explorada pero no tan distante, es que el hombre logre una inteligencia superior a la de las máquinas gracias al desarrollo de la biotecnología, creando así una nueva raza de homínido más evolucionada que el Homo sapiens. Sin embargo, esto traería consigo otro tipo de problemas: ¿Cómo nos verían estos nuevos superhumanos? ¿Nos convertiríamos en una subespecie socialmente marginada? ¿Algo peor?

La solución, sea cual sea, debe estar lista antes que las capacidades de los sistemas de inteligencia artificial para tomar decisiones en el mundo real, excedan las del ser humano como especie.

Si fallamos, nos arriesgamos a perder el control de este mundo que, hasta hoy, hemos conocido como nuestro.

ÚLTIMASCOLUMNAS
sábado 18 de diciembre de 2021

La sombra y la huella

Jorge Gaviño

sábado 04 de diciembre de 2021

Mal de alturas

Jorge Gaviño

sábado 20 de noviembre de 2021

Cuentas violentas

Jorge Gaviño

sábado 23 de octubre de 2021

Hijos del maíz

Jorge Gaviño

sábado 09 de octubre de 2021

La guerra postergada

Jorge Gaviño

sábado 25 de septiembre de 2021

El vivo ejemplo de la sinrazón

Jorge Gaviño

sábado 11 de septiembre de 2021

Recuperar el camino

Jorge Gaviño

sábado 28 de agosto de 2021

¿Golpe avisa?

Jorge Gaviño

Cargar Más