/ sábado 12 de octubre de 2019

IA, ¿compatible con la humana?

“Con suerte, decidirán mantenernos como mascotas.”

Marvin Minsky

El evento más grande en la historia del ser humano, empieza a vislumbrarse poco a poco, como un sol, en el horizonte y no es posible observar ese “amanecer” sin sentir cierta inquietud interior...

Me refiero al momento en que la raza humana, sea relevada por máquinas como la especie más inteligente de la creación: La llegada de la superinteligencia artificial.

Los grandes poderes del mundo, apenas están comenzando a comprender este hecho que las grandes corporaciones ya conocían desde hace algún tiempo. Pero, lo que probablemente nadie ha entendido por completo, es cómo, si la inteligencia artificial continúa evolucionando en su forma actual, ese mismo evento podría llegar a convertirse en una catástrofe para la humanidad.

Para entender cómo y por qué esto puede llevarnos a una problemática seria, debemos entender las bases con las que se construyen la mayoría de los sistemas de inteligencia artificial.

Este “modelo estándar”, se basa en el hecho de que las máquinas, a diferencia de los humanos, no tienen sus propios objetivos. Somos nosotros los que les decimos qué deben hacer y, entre más inteligente es la máquina, mayor es la probabilidad de que logre su objetivo.

Desafortunadamente, este modelo es un error porque, si programamos una máquina con el objetivo equivocado, y esta es más inteligente que nosotros, ya perdimos.

Imaginemos que logramos diseñar un sistema de control climático superinteligente y le damos la tarea de regresar los niveles de CO2 a los de una época preindustrial: ¿Qué tal si decide que la mejor solución, es reducir la población humana a cero?...

Algunos dirán que siempre tendremos la opción de apagar la máquina, pero el problema es que la máquina ya habrá anticipado todas las formas en las que el humano podría interferir con su objetivo, y habrá tomado todos los pasos necesarios para evitar que esto suceda.

La solución que proponen algunos de los teóricos e investigadores más importantes del ramo como el Dr. Stuart Russell, de la Universidad de Berkeley, está en cambiar la forma en la que pensamos en el desarrollo de la inteligencia artificial: Debemos construir máquinas que no tengan certeza absoluta acerca de cuáles son sus objetivos.

Esto implica que, no importa cuan inteligentes lleguen a ser las máquinas, siempre estarán subordinadas a los humanos. Pedirán nuestro permiso cuando sea adecuado, aceptarán ser corregidas y, lo más importante, permitirán que las desconectemos cuando así se requiera.

Otra posibilidad, menos explorada pero no tan distante, es que el hombre logre una inteligencia superior a la de las máquinas gracias al desarrollo de la biotecnología, creando así una nueva raza de homínido más evolucionada que el Homo sapiens. Sin embargo, esto traería consigo otro tipo de problemas: ¿Cómo nos verían estos nuevos superhumanos? ¿Nos convertiríamos en una subespecie socialmente marginada? ¿Algo peor?

La solución, sea cual sea, debe estar lista antes que las capacidades de los sistemas de inteligencia artificial para tomar decisiones en el mundo real, excedan las del ser humano como especie.

Si fallamos, nos arriesgamos a perder el control de este mundo que, hasta hoy, hemos conocido como nuestro.

“Con suerte, decidirán mantenernos como mascotas.”

Marvin Minsky

El evento más grande en la historia del ser humano, empieza a vislumbrarse poco a poco, como un sol, en el horizonte y no es posible observar ese “amanecer” sin sentir cierta inquietud interior...

Me refiero al momento en que la raza humana, sea relevada por máquinas como la especie más inteligente de la creación: La llegada de la superinteligencia artificial.

Los grandes poderes del mundo, apenas están comenzando a comprender este hecho que las grandes corporaciones ya conocían desde hace algún tiempo. Pero, lo que probablemente nadie ha entendido por completo, es cómo, si la inteligencia artificial continúa evolucionando en su forma actual, ese mismo evento podría llegar a convertirse en una catástrofe para la humanidad.

Para entender cómo y por qué esto puede llevarnos a una problemática seria, debemos entender las bases con las que se construyen la mayoría de los sistemas de inteligencia artificial.

Este “modelo estándar”, se basa en el hecho de que las máquinas, a diferencia de los humanos, no tienen sus propios objetivos. Somos nosotros los que les decimos qué deben hacer y, entre más inteligente es la máquina, mayor es la probabilidad de que logre su objetivo.

Desafortunadamente, este modelo es un error porque, si programamos una máquina con el objetivo equivocado, y esta es más inteligente que nosotros, ya perdimos.

Imaginemos que logramos diseñar un sistema de control climático superinteligente y le damos la tarea de regresar los niveles de CO2 a los de una época preindustrial: ¿Qué tal si decide que la mejor solución, es reducir la población humana a cero?...

Algunos dirán que siempre tendremos la opción de apagar la máquina, pero el problema es que la máquina ya habrá anticipado todas las formas en las que el humano podría interferir con su objetivo, y habrá tomado todos los pasos necesarios para evitar que esto suceda.

La solución que proponen algunos de los teóricos e investigadores más importantes del ramo como el Dr. Stuart Russell, de la Universidad de Berkeley, está en cambiar la forma en la que pensamos en el desarrollo de la inteligencia artificial: Debemos construir máquinas que no tengan certeza absoluta acerca de cuáles son sus objetivos.

Esto implica que, no importa cuan inteligentes lleguen a ser las máquinas, siempre estarán subordinadas a los humanos. Pedirán nuestro permiso cuando sea adecuado, aceptarán ser corregidas y, lo más importante, permitirán que las desconectemos cuando así se requiera.

Otra posibilidad, menos explorada pero no tan distante, es que el hombre logre una inteligencia superior a la de las máquinas gracias al desarrollo de la biotecnología, creando así una nueva raza de homínido más evolucionada que el Homo sapiens. Sin embargo, esto traería consigo otro tipo de problemas: ¿Cómo nos verían estos nuevos superhumanos? ¿Nos convertiríamos en una subespecie socialmente marginada? ¿Algo peor?

La solución, sea cual sea, debe estar lista antes que las capacidades de los sistemas de inteligencia artificial para tomar decisiones en el mundo real, excedan las del ser humano como especie.

Si fallamos, nos arriesgamos a perder el control de este mundo que, hasta hoy, hemos conocido como nuestro.

sábado 12 de octubre de 2019

IA, ¿compatible con la humana?

sábado 28 de septiembre de 2019

La orden mundial de la desinformación

sábado 14 de septiembre de 2019

18 años de guerra en Afganistán

sábado 31 de agosto de 2019

Informe, Presidente

sábado 03 de agosto de 2019

Hacia la unidad nacional

sábado 20 de julio de 2019

Y sin embargo, se muere

sábado 06 de julio de 2019

La roca que arde

sábado 22 de junio de 2019

Crisis de inseguridad en la CdMx

sábado 08 de junio de 2019

Ciencia sin conciencia

Cargar Más