/ sábado 26 de octubre de 2019

¡Terminator es una realidad! Robots asesinos encienden las alarmas en la ONU

Terminator se hizo realidad, pero no existe una regulación mundial sobre el uso de estos artefactos, alertan

Los "robots asesinos", armas capaces de decidir y ejecutar ataques sin intervención humana, son ya una realidad al alcance de varios gobiernos en el mundo, pero la sociedad sigue dividida sobre cómo responder.

La amenaza, que hasta hace poco sonaba casi a película futurista, lleva años discutiéndose en Naciones Unidas sin resultados tangibles pese a que la urgencia no hace más que crecer.

"Estas no son tecnologías del mañana, son posibles hoy, aunque resultan muy poco seguras", explica la experta Liz O'Sullivan, miembro de la Campaña Para Detener los Robots Asesinos.

Esta coalición de 130 ONG, respaldadas hasta ahora por 29 Estados, promueve la negociación de un tratado internacional para prohibir este tipo de armamento.

Entre sus miembros figura la estadounidense Jody Williams, ganadora en 1997 del premio Nobel de la Paz por liderar una iniciativa parecida contra las minas terrestres que logró convencer a países de todo el mundo.

Para Williams, los "robots asesinos" son "inmorales" y tienen que ser prohibidos cuanto antes.

"Permitir que máquinas, en teoría a través de algoritmos, decidan qué es un objetivo y atacarlo es una de las enormes razones por las que consideramos que cruzan una decisión importante", explica la activista.

EU Y RUSIA NO QUIEREN REGULACIÓN

Los intentos para frenar el desarrollo de este tipo de armamento se han encontrado hasta ahora con la oposición de grandes potencias que están invirtiendo en la tecnología.

"El mayor obstáculo para negociar un tratado sobre 'robots asesinos' son Estados Unidos y Rusia", señala abiertamente la coordinadora de esta campaña, Mary Wareham, quien defiende que "la gran mayoría de países" son favorables a legislar, pero están siendo frenados por las "potencias militares".

Aunque son los ejemplos más claros, Estados Unidos y Rusia no son los únicos que apuestan por el desarrollo de "robots asesinos". China, Corea del Sur, Israel o Reino Unido también trabajan en este ámbito.

Los activistas, además, no descartan que otros como Turquía e Irán puedan estar haciéndolo.

Según fuentes diplomáticas, las potencias, en general, no se oponen de forma explícita a un tratado, pero han ido retrasando y buscando rebajar la ambición de las posibles medidas.

¿DEMASIADO TARDE?

"Nunca es demasiado tarde para regular", responde rápidamente Wareham, que subraya que lo que no quieren las ONG es esperar a que haya un número masivo de víctimas para que el público demande la prohibición de este armamento.

Por ello, poco a poco, están tratando de despertar el interés de la sociedad, recurriendo a herramientas como un dicharachero robot que pasean por el mundo para advertir sobre el peligro de sus parientes "asesinos". Los jóvenes resultan un público clave y comienzan a tener su voz, como mostró esta semana Mariana Sanz, una estudiante de la Universidad de los Andes, en Bogotá, que intervino en un acto en Naciones Unidas para pedir apoyo a los Estados miembros.

"Resulta muy importante en este momento porque ya hay muchos países en proceso de desarrollo de estas máquinas, de estas armas, y viene con muchos problemas no solo éticos, legales, morales", explica.

"Uno que me preocupa un montón es quién toma la responsabilidad en caso de las consecuencias, que son víctimas", apunta.

Activistas y expertos avisan, entre otras cosas, del riesgo de que con estas armas las guerras se conviertan en algo aún más habitual o de que un error de una computadora puedan desencadenar un gran conflicto que sea imposible detener.

DISCUSIONES EN LA ONU

Gobiernos de todo el mundo comenzaron a debatir oficialmente en 2014 sobre los "robots asesinos", unas discusiones que se celebran regularmente en Ginebra.

En las conversaciones se deben analizar entre otras cosas los límites legales y éticos, con una pregunta clave: ¿debe un robot poder decidir sin intervención humana si es preciso matar a alguien?

Naciones Unidas lo tiene claro: "la perspectiva de máquinas con el criterio y el poder para acabar con vidas humanas es algo moralmente repugnante", advirtió el jefe de la organización, António Guterres, a los líderes internacionales reunidos el pasado año en la Asamblea General del organismo.

Entre quienes defienden los avances en este ámbito hay quienes aseguran que estas tecnologías pueden reducir el número de errores y daños colaterales y, de hecho, proteger vidas.

Pero las máquinas tienen que aprender de alguien y ello amenaza con hacer que se repitan patrones que terminan por perjudicar siempre a los más vulnerables.

"Todos los modelos de inteligencia artificial están sesgados", explica O'Sullivan, que recuerda que esos modelos tienden a ir contra las personas discapacitadas, o grupos vulnerables.

¿CÓMO SE VE?

Un "robot asesino" no tiene por qué ser un humanoide de metal armado hasta los dientes como los que ha imaginado a menudo la ciencia ficción. De hecho, su apariencia puede ser la de un simple tanque, avión, barco o sistema de misiles.

La diferencia está en si opera de forma autónoma, tomando decisiones sin la participación directa de un humano.

Los especialistas ven probable que la tecnología se incorpore en un primer momento a drones.

Los "robots asesinos", armas capaces de decidir y ejecutar ataques sin intervención humana, son ya una realidad al alcance de varios gobiernos en el mundo, pero la sociedad sigue dividida sobre cómo responder.

La amenaza, que hasta hace poco sonaba casi a película futurista, lleva años discutiéndose en Naciones Unidas sin resultados tangibles pese a que la urgencia no hace más que crecer.

"Estas no son tecnologías del mañana, son posibles hoy, aunque resultan muy poco seguras", explica la experta Liz O'Sullivan, miembro de la Campaña Para Detener los Robots Asesinos.

Esta coalición de 130 ONG, respaldadas hasta ahora por 29 Estados, promueve la negociación de un tratado internacional para prohibir este tipo de armamento.

Entre sus miembros figura la estadounidense Jody Williams, ganadora en 1997 del premio Nobel de la Paz por liderar una iniciativa parecida contra las minas terrestres que logró convencer a países de todo el mundo.

Para Williams, los "robots asesinos" son "inmorales" y tienen que ser prohibidos cuanto antes.

"Permitir que máquinas, en teoría a través de algoritmos, decidan qué es un objetivo y atacarlo es una de las enormes razones por las que consideramos que cruzan una decisión importante", explica la activista.

EU Y RUSIA NO QUIEREN REGULACIÓN

Los intentos para frenar el desarrollo de este tipo de armamento se han encontrado hasta ahora con la oposición de grandes potencias que están invirtiendo en la tecnología.

"El mayor obstáculo para negociar un tratado sobre 'robots asesinos' son Estados Unidos y Rusia", señala abiertamente la coordinadora de esta campaña, Mary Wareham, quien defiende que "la gran mayoría de países" son favorables a legislar, pero están siendo frenados por las "potencias militares".

Aunque son los ejemplos más claros, Estados Unidos y Rusia no son los únicos que apuestan por el desarrollo de "robots asesinos". China, Corea del Sur, Israel o Reino Unido también trabajan en este ámbito.

Los activistas, además, no descartan que otros como Turquía e Irán puedan estar haciéndolo.

Según fuentes diplomáticas, las potencias, en general, no se oponen de forma explícita a un tratado, pero han ido retrasando y buscando rebajar la ambición de las posibles medidas.

¿DEMASIADO TARDE?

"Nunca es demasiado tarde para regular", responde rápidamente Wareham, que subraya que lo que no quieren las ONG es esperar a que haya un número masivo de víctimas para que el público demande la prohibición de este armamento.

Por ello, poco a poco, están tratando de despertar el interés de la sociedad, recurriendo a herramientas como un dicharachero robot que pasean por el mundo para advertir sobre el peligro de sus parientes "asesinos". Los jóvenes resultan un público clave y comienzan a tener su voz, como mostró esta semana Mariana Sanz, una estudiante de la Universidad de los Andes, en Bogotá, que intervino en un acto en Naciones Unidas para pedir apoyo a los Estados miembros.

"Resulta muy importante en este momento porque ya hay muchos países en proceso de desarrollo de estas máquinas, de estas armas, y viene con muchos problemas no solo éticos, legales, morales", explica.

"Uno que me preocupa un montón es quién toma la responsabilidad en caso de las consecuencias, que son víctimas", apunta.

Activistas y expertos avisan, entre otras cosas, del riesgo de que con estas armas las guerras se conviertan en algo aún más habitual o de que un error de una computadora puedan desencadenar un gran conflicto que sea imposible detener.

DISCUSIONES EN LA ONU

Gobiernos de todo el mundo comenzaron a debatir oficialmente en 2014 sobre los "robots asesinos", unas discusiones que se celebran regularmente en Ginebra.

En las conversaciones se deben analizar entre otras cosas los límites legales y éticos, con una pregunta clave: ¿debe un robot poder decidir sin intervención humana si es preciso matar a alguien?

Naciones Unidas lo tiene claro: "la perspectiva de máquinas con el criterio y el poder para acabar con vidas humanas es algo moralmente repugnante", advirtió el jefe de la organización, António Guterres, a los líderes internacionales reunidos el pasado año en la Asamblea General del organismo.

Entre quienes defienden los avances en este ámbito hay quienes aseguran que estas tecnologías pueden reducir el número de errores y daños colaterales y, de hecho, proteger vidas.

Pero las máquinas tienen que aprender de alguien y ello amenaza con hacer que se repitan patrones que terminan por perjudicar siempre a los más vulnerables.

"Todos los modelos de inteligencia artificial están sesgados", explica O'Sullivan, que recuerda que esos modelos tienden a ir contra las personas discapacitadas, o grupos vulnerables.

¿CÓMO SE VE?

Un "robot asesino" no tiene por qué ser un humanoide de metal armado hasta los dientes como los que ha imaginado a menudo la ciencia ficción. De hecho, su apariencia puede ser la de un simple tanque, avión, barco o sistema de misiles.

La diferencia está en si opera de forma autónoma, tomando decisiones sin la participación directa de un humano.

Los especialistas ven probable que la tecnología se incorpore en un primer momento a drones.

Finanzas

Compra de Deer Park se avaló frente a AMLO

El Consejo de Administración tuvo una sesión extraordinaria el mismo día que fue anunciada la transacción

CDMX

Incrementan solicitudes de información sobre Línea 12 del Metro

Este año se perfila como el que concentra más requerimientos de información sobre su construcción

Sociedad

Pandemia aumenta intentos de suicidio entre adolescentes

Una encuesta reporta que durante el confinamiento se incrementó el pensamiento suicida en la población

Sociedad

Natural | Basura electoral, una avalancha que persiste

Los candidatos olvidan la vida verde y se saltan las reglas, tanto de los espacios de colocación de su propaganda, como de los materiales con los que la fabrican

Celebridades

Los McCartney comparten sus recetas para salvar al planeta

En nuevo un libro, la familia compartirá más de 90 platillos realizados a base de plantas para “salvar el planeta y alimentar el alma”

Sociedad

Bajo observación | Nuevos casos se mantienen a la baja en el Valle de México

El número de defunciones totales por covid es de 230 mil 424 y en las últimas 24 horas las autoridades registraron 237 muertes

Finanzas

#Data | La industría aérea aún no recupera sus alas

Las regiones que van más avanzadas en su recuperación son Norteamérica y Asia-Pacífico, aunque ambas aún se encuentran muy alejadas del tráfico pre-covid

Política

Es ridículo que nos llamen oportunistas: líder del PVEM en San Lázaro

El líder del PVEM en San Lázaro asegura que no vulnerarán la autonomía del INE y Banco de México

Finanzas

Compra de Deer Park se avaló frente a AMLO

El Consejo de Administración tuvo una sesión extraordinaria el mismo día que fue anunciada la transacción