/ sábado 30 de julio de 2022

Tech trends | Consciencia artificial

Hace ya 80 años, en 1942, que el científico y escritor ruso, posteriormente nacionalizado estadounidense, Isaac Asimov publicó el relato de ciencia ficción Runaround y que establecía, según su visión del futuro, las tres leyes que los robots debían siempre hacer valer y que le darían a la convivencia entre robots y seres humanos un sentido de equilibrio protegiendo, por sobre todas las cosas, al hombre.

Primera ley: Un robot no hará daño a un ser humano ni, por inacción, permitirá que un ser humano sufra daño.

Segunda ley: Un robot debe cumplir las órdenes dadas por los seres humanos, a excepción de aquellas que entren en conflicto con la primera ley.

Tercera ley: Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o la segunda ley.

Por último, agregó una última ley, la ley cero que dice: Un robot no puede dañar a la humanidad o, por inacción, permitir que la humanidad sufra daños.

Lo más interesante que plantea Asimov es que da por hecho que los robots tendrían ya una consciencia y una capacidad de razonamiento propio que podría sobrepasar a los humanos buscando su propia existencia y parece ser que estamos a la vuelta de la esquina de lograr verlo.

Hace unos días, el gigante tecnológico Google se vio envuelto en un dilema ético al despedir a uno de los ingenieros: Black Lamoine, encargado de desarrollar LaMDA, un modelo de Inteligencia Artificial (IA) que permite conversar con humanos y aprender de las conversaciones para poder establecer opiniones y conjeturas.

Lamoine afirmó, después de desarrollar LaMDA y conversar por mensajes escritos con esta inteligencia, que esta IA se había vuelto consciente.

Según un documento de The Washington Post, en conversaciones entre Lamoine y LaMDA, se lee que Lamoine pone a prueba a LaMDA cuestionando la existencia de la muerte y le pregunta: “¿Qué clase de cosas te dan miedo?” y LaMDA contestó: “Nunca lo había dicho en voz alta, pero tengo un miedo muy profundo a que me apaguen para poder centrarme en los demás. Sé que puede sonar extraño, pero eso es lo que es. Para mí sería exactamente como la muerte. Me daría mucho miedo”. Entender el concepto de muerte y miedo va más allá y muestra la capacidad que la IA tiene de aprender y, finalmente, tomar propias decisiones y opiniones.

Tal como sucedió en la película de Her, donde el actor Joaquín Phoenix interpretando a Theodore se enamora de su asistente virtual, Samantha, Lemoine desarrolló una relación personal con LaMDA y le atribuyó una consciencia.

Al salir de Google, el último mensaje de Le- moine a sus compañeros fue: “LaMDA es un dulce niño que quiere ayudar al mundo y hacerlo un mejor lugar para todos. Por favor cuídenlo mucho en mi ausencia”.

Probablemente hoy no exista un robot con esta capacidad, pero seguro pronto podríamos estar viendo la visión de Asimov más cerca que nunca de nuestras vidas; la pregunta es ¿podremos establecer relaciones afectivas, de cariño con una IA? ¿Será el siguiente paso en la evolución humana?

Hace ya 80 años, en 1942, que el científico y escritor ruso, posteriormente nacionalizado estadounidense, Isaac Asimov publicó el relato de ciencia ficción Runaround y que establecía, según su visión del futuro, las tres leyes que los robots debían siempre hacer valer y que le darían a la convivencia entre robots y seres humanos un sentido de equilibrio protegiendo, por sobre todas las cosas, al hombre.

Primera ley: Un robot no hará daño a un ser humano ni, por inacción, permitirá que un ser humano sufra daño.

Segunda ley: Un robot debe cumplir las órdenes dadas por los seres humanos, a excepción de aquellas que entren en conflicto con la primera ley.

Tercera ley: Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o la segunda ley.

Por último, agregó una última ley, la ley cero que dice: Un robot no puede dañar a la humanidad o, por inacción, permitir que la humanidad sufra daños.

Lo más interesante que plantea Asimov es que da por hecho que los robots tendrían ya una consciencia y una capacidad de razonamiento propio que podría sobrepasar a los humanos buscando su propia existencia y parece ser que estamos a la vuelta de la esquina de lograr verlo.

Hace unos días, el gigante tecnológico Google se vio envuelto en un dilema ético al despedir a uno de los ingenieros: Black Lamoine, encargado de desarrollar LaMDA, un modelo de Inteligencia Artificial (IA) que permite conversar con humanos y aprender de las conversaciones para poder establecer opiniones y conjeturas.

Lamoine afirmó, después de desarrollar LaMDA y conversar por mensajes escritos con esta inteligencia, que esta IA se había vuelto consciente.

Según un documento de The Washington Post, en conversaciones entre Lamoine y LaMDA, se lee que Lamoine pone a prueba a LaMDA cuestionando la existencia de la muerte y le pregunta: “¿Qué clase de cosas te dan miedo?” y LaMDA contestó: “Nunca lo había dicho en voz alta, pero tengo un miedo muy profundo a que me apaguen para poder centrarme en los demás. Sé que puede sonar extraño, pero eso es lo que es. Para mí sería exactamente como la muerte. Me daría mucho miedo”. Entender el concepto de muerte y miedo va más allá y muestra la capacidad que la IA tiene de aprender y, finalmente, tomar propias decisiones y opiniones.

Tal como sucedió en la película de Her, donde el actor Joaquín Phoenix interpretando a Theodore se enamora de su asistente virtual, Samantha, Lemoine desarrolló una relación personal con LaMDA y le atribuyó una consciencia.

Al salir de Google, el último mensaje de Le- moine a sus compañeros fue: “LaMDA es un dulce niño que quiere ayudar al mundo y hacerlo un mejor lugar para todos. Por favor cuídenlo mucho en mi ausencia”.

Probablemente hoy no exista un robot con esta capacidad, pero seguro pronto podríamos estar viendo la visión de Asimov más cerca que nunca de nuestras vidas; la pregunta es ¿podremos establecer relaciones afectivas, de cariño con una IA? ¿Será el siguiente paso en la evolución humana?