/ lunes 29 de noviembre de 2021

Robots asesinos, amenaza más allá de la ciencia ficción

Según expertos en inteligencia artificial, las armas totalmente autónomas, sin un control humano, podrían desarrollarse para su uso ya no en unas décadas, sino en pocos años

Estamos en el techo del edificio Bradbury, en una ciudad de Los Ángeles sumida en una eterna lluvia ácida, entre luces de neón, autos voladores y anuncios publicitarios.

Es el futurista mes de noviembre de 2019, cuando el replicante Roy Batty, la máquina de guerra más perfecta jamás construida por el ser humano, tiene pescado de la mano, a punto de caer al vacío, al detective Rick Deckard, quien hasta antes de ese momento era el encargado de “retirarlo”.

La Tyrell Corporation creó a este Nexus 6 a imagen y semejanza de los hombres, con una conciencia, pero con vida limitada y diseñado para la obediencia y sumisión.

Pero como casi siempre pasa en las películas de ciencia ficción y distopía, el robot y su grupo se rebelan contra sus creadores. En este caso, Batty sólo quiere más vida y ha regresado a la tierra para que su “padre”, el “dios de la biomecánica” Eldon Tyrell, se la conceda de alguna forma.

La naturaleza androide de los Nexus 6 no les privó de la experiencia sensorial ni de la ilusión de su propio yo: Batty es capaz de plantearse su existencia y de aceptar la incertidumbre de su destino. "Es hora de morir", se dice a sí mismo cuando, ya sin esperanzas, salva a su perseguidor Deckard de una muerte segura y lo deja vivir.

"He visto cosas que ustedes nunca imaginarían. Naves de combate en llamas en el hombro de Orión. He visto rayos-C resplandeciendo en la oscuridad cerca de la puerta de Tannhäuser. Todos esos momentos se perderán en el tiempo, igual que lágrimas en la lluvia”.

Con este memorable monólogo final, termina la vida de Roy Batty y también la cinta de Ridley Scott, Blade Runner, de 1982, basada en la novela de Philip K. Dick de 1968 ¿Sueñan los androides con ovejas eléctricas?

Sus palabras nos conmueven porque nos hablan de la fugacidad de la vida y de la tragedia del hombre.

“Más humano que los humanos” era el lema de Tyrell Corporation, y tanto para K. Dick como para Scott, los androides eran tan sólo la metáfora de un comportamiento.

Sin embargo, la realidad no es exactamente como la pintaron, aunque nos hemos acercado bastante: Emergencia climática, inteligencia artificial, manipulación genética, avances en cibernética, reconocimiento facial, un Estado y megacorporaciones omnipresentes… y ¿robots asesinos?

Foto: Ari Baser


NO TE PIERDAS EL PODCAST⬇️

Disponible en: Acast, Spotify, Apple Podcasts, Google Podcasts, Deezer y Amazon Music


LA REALIDAD SUPERA A LA FICCIÓN

En la realidad, diferentes tipos de máquinas han servido siempre como instrumentos de guerra, pero históricamente los humanos siempre han tenido el control total sobre su uso. Ahora, la evolución de la tecnología puede cambiar esa realidad y las implicaciones son inquietantes.

Según expertos en inteligencia artificial, las armas totalmente autónomas, que seleccionarían y atacarían objetivos sin un control humano, podrían desarrollarse para su uso ya no en unas décadas, sino en pocos años.

También conocidas como "robots asesinos", estas armas tendrían el poder de hacer determinaciones de vida o muerte, un poder previamente reservado para los humanos, lo que plantea preocupaciones morales, legales y de otra clase.

De acuerdo con un informe del Congreso de Estados Unidos fechado en noviembre de 2021, llamado “Manual de defensa: política de EU sobre autonomía letal”, los Sistemas de Armas Autónomas Letales (LAWS, por sus siglas en inglés) son “una especial clase de sistemas de armas que utilizan sensores y algoritmos informáticos para identificar de forma independiente un objetivo y emplear un sistema de armas para atacar y destruir ese objetivo sin control humano del sistema”.

Aunque ese sistema no está muy desarrollado aún, se cree que en un futuro cercano permitiría operaciones militares en donde “sistemas tradicionales no pueden operar”.

Desde 2014, bajo los auspicios de la Convención de las Naciones Unidas sobre Armas, varias naciones han participado en discusiones internacionales para intentar emitir políticas y leyes sobre los "robots asesinos", mientras que 30 países y 165 organizaciones no gubernamentales han pedido prohibir los LAWS debido a preocupaciones éticas y sobre los riesgos operativos, exigiendo mantener el control humano sobre el uso de cualquier tipo de arma.

Hasta el momento, ni los llamados ni las discusiones han prosperado.

En concreto, son siete países los que buscan el liderazgo y que más han invertido en la inteligencia artificial con fines militares: Estados Unidos, China, Rusia, Reino Unido, Francia, Israel y Corea del Sur.

A medida que la tecnología militar avanza hacia una autonomía cada vez mayor, crece la preocupación sobre cómo estos países pueden usar estas nuevas armas para revolucionar la guerra.

Foto: Ari Baser

De acuerdo con el manual del Congreso, Estados Unidos actualmente no cuenta con Sistemas de Armas Autónomas Letales, pero algunos altos líderes militares han declarado que el país “puede verse obligado” a desarrollar esta tecnología en un futuro si “sus competidores deciden hacerlo también”.

Sin embargo, medios internacionales afirman que el Pentágono trabaja desde hace años en proyectos como ATLAS (Advanced Targeting and Lethality Automated System), que busca proporcionar inteligencia artificial a sus tanques para identificar y atacar objetivos al menos el triple de rápido que con el actual proceso manual.

Según el informe del Congreso, el Departamento de Defensa estadounidense ya cuenta con categorías de sistemas de armas autónomas para fines militares, aunque se basan principalmente en el “papel del operador humano con respecto a la selección de objetivos y las decisiones de enfrentamiento, más que en la sofisticación tecnológica del sistema de armas”.

Estas normas definen a las LAWS como "sistemas de armas que, una vez activados, pueden seleccionar y atacar objetivos sin la intervención de un operador humano".

Este concepto de autonomía también se conoce como "humano fuera del circuito" o "autonomía total", y se diferencia de otros sistemas de defensa autónomos pero supervisados por humanos, en los que los operadores pueden monitorear y detener un ataque, o en los que estas armas semi autónomas "sólo atacan objetivos individuales o grupos de objetivos específicos que han sido seleccionados por un operador humano".

Estas armas incluyen ciertos tipos de misiles guiados, que atacan objetivos identificados por humanos utilizando funciones autónomas.

En este sentido, la carrera por el desarrollo de armamento parece que superó una nueva etapa con la reciente prueba china de un misil hipersónico, que demuestra su inesperado adelantamiento a Estados Unidos en este campo de competencia estratégica entre potencias.

Varios medios occidentales informaron recientemente que China probó en agosto un planeador hipersónico -capaz de alcanzar una velocidad superior a los 6 mil kilómetros por hora- que dio la vuelta a la Tierra en órbita antes de descender a su objetivo.

Esta prueba tomó a los militares estadounidenses por sorpresa, tanto que el jefe del Estado Mayor Conjunto, el general Mark Milley, la comparó con el lanzamiento en 1957 por la entonces Unión Soviética del primer satélite artificial, Sputnik, que supuso el inicio de la carrera espacial.

Foto: Ari Baser

Según nuevas revelaciones, el artefacto hipersónico chino disparó durante su carrera un proyectil que cayó al mar, sorprendiendo de nuevo a Estados Unidos.

La característica esencial de las armas hipersónicas no es tanto su velocidad como su capacidad para esquivar las defensas antimisiles, gracias a una trayectoria menos predecible que la de los misiles balísticos.

"Estas pruebas recientes constituyen un gran salto tecnológico para China, incluso si Estados Unidos sigue muy lejos por delante en términos de tecnología militar global", afirma Niklas Swanström, experto sobre China y director del Instituto para la Seguridad y el Desarrollo en Estocolmo.

Esto plantea dilemas militares y éticos sobre una escalada en la carrera armamentista y el desarrollo de los “robots asesinos”.

Entre las preguntas que se hace el Congreso en el informe de noviembre, está hasta qué punto los adversarios de Estados Unidos están desarrollando LAWS, si el país debería apoyar la regulación o la prohibición de las armas autónomas letales o, por el contrario, optar por el desarrollo de estas, y cómo se debería equilibrar la investigación y el desarrollo con las consideraciones éticas y normas legales.

Para las Naciones Unidas, esta tecnología existe y ya ha sido utilizada.

Un reporte del Consejo de Seguridad reveló el que sería el primer ataque autónomo de drones sobre personas. En marzo de este año, las tropas del general Jalifa Hafter, de uno de los bandos de la guerra civil en Libia, fueron "perseguidos y atacados por vehículos aéreos de combate no tripulados o sistemas de armas autónomos letales".

De acuerdo con la revista New Scientist, los drones “se programaron para atacar objetivos sin requerir la conectividad de datos entre el operador y la munición: en efecto, una verdadera capacidad de disparar, olvidar y encontrar”.

El dron utilizado, el Kargu-2, fue creado por la empresa turca STM. Turquía es aliada de las fuerzas del gobierno libio reconocido por la ONU, rival del general Hafter.

Según la página web de la compañía, su arma es eficaz “contra objetivos estáticos o en movimiento a través de sus capacidades de procesamiento de imágenes en tiempo y algoritmos de aprendizaje automático integrados en la plataforma”.

Foto: Ari Beser

Además, el dron puede ser usado de modo automático o manual y está diseñado para “operaciones de guerra asimétricas o antiterroristas”.

Es por ello que organizaciones como la holandesa Pax, dedicada a la defensa de la paz, advierte sobre los avances de la inteligencia artificial para uso militar por parte de las grandes potencias, y asegura que el desarrollo de los robots asesinos será “catastrófico” para la humanidad.

"Nos situamos frente a un futuro en el que armas de inteligencia artificial se apoderarán de puestos que hoy ejercemos los humanos, seleccionando y atacando objetivos por sí mismas", señaló.

El cine nos ha hecho temer a la inteligencia artificial, como en Blade Runner, aunque lo más cercano en la ficción a creadores de robots asesinos lo tenemos en películas como Terminator, con Skynet, empresa que dirige un ejército de robots que se independiza de los humanos y se vuelve contra ellos para exterminarlos.

Con el fin de evitar que la ficción se convierta en realidad, el instituto Future for life reunió en 2018 a gobiernos de más de 30 países -incluido México-, así como a cientos de académicos, científicos y empresas como Google y Tesla, para firmar una carta que advierte que la decisión de terminar con una vida humana “nunca debería ser delegada a una máquina”.

“Existe una oportunidad y una necesidad urgente de que los ciudadanos, los responsables políticos y los líderes distingan entre los usos aceptables e inaceptables de la IA”, indica el escrito.

Pero esta y otras iniciativas quedan en buenas intenciones cuando el mundo de la tecnología y el mundo de la guerra han estrechado su unión.

Este año, empresas como Google, Microsoft y Amazon han vuelto a ofrecerse para el desarrollo de sistemas para el Pentágono.

Anteriormente, varios trabajadores de Google protestaron cuando la compañía se postuló para usar sus modelos de inteligencia artificial con el fin de analizar grabaciones de drones del ejército.

Debido a la polémica, Google no renovó lo que se conoció como el Proyecto Maven y se comprometió a no ofrecer sus tecnologías para crear armas que pudiesen provocar daños.

Los empleados de estas compañías temen que su tecnología pueda utilizarse para la guerra con armas autónomas.

¿Estaremos en presencia de los futuros Skynet y Tyrell Corp?

Lee también otros contenidos de Normal ⬇️

Estamos en el techo del edificio Bradbury, en una ciudad de Los Ángeles sumida en una eterna lluvia ácida, entre luces de neón, autos voladores y anuncios publicitarios.

Es el futurista mes de noviembre de 2019, cuando el replicante Roy Batty, la máquina de guerra más perfecta jamás construida por el ser humano, tiene pescado de la mano, a punto de caer al vacío, al detective Rick Deckard, quien hasta antes de ese momento era el encargado de “retirarlo”.

La Tyrell Corporation creó a este Nexus 6 a imagen y semejanza de los hombres, con una conciencia, pero con vida limitada y diseñado para la obediencia y sumisión.

Pero como casi siempre pasa en las películas de ciencia ficción y distopía, el robot y su grupo se rebelan contra sus creadores. En este caso, Batty sólo quiere más vida y ha regresado a la tierra para que su “padre”, el “dios de la biomecánica” Eldon Tyrell, se la conceda de alguna forma.

La naturaleza androide de los Nexus 6 no les privó de la experiencia sensorial ni de la ilusión de su propio yo: Batty es capaz de plantearse su existencia y de aceptar la incertidumbre de su destino. "Es hora de morir", se dice a sí mismo cuando, ya sin esperanzas, salva a su perseguidor Deckard de una muerte segura y lo deja vivir.

"He visto cosas que ustedes nunca imaginarían. Naves de combate en llamas en el hombro de Orión. He visto rayos-C resplandeciendo en la oscuridad cerca de la puerta de Tannhäuser. Todos esos momentos se perderán en el tiempo, igual que lágrimas en la lluvia”.

Con este memorable monólogo final, termina la vida de Roy Batty y también la cinta de Ridley Scott, Blade Runner, de 1982, basada en la novela de Philip K. Dick de 1968 ¿Sueñan los androides con ovejas eléctricas?

Sus palabras nos conmueven porque nos hablan de la fugacidad de la vida y de la tragedia del hombre.

“Más humano que los humanos” era el lema de Tyrell Corporation, y tanto para K. Dick como para Scott, los androides eran tan sólo la metáfora de un comportamiento.

Sin embargo, la realidad no es exactamente como la pintaron, aunque nos hemos acercado bastante: Emergencia climática, inteligencia artificial, manipulación genética, avances en cibernética, reconocimiento facial, un Estado y megacorporaciones omnipresentes… y ¿robots asesinos?

Foto: Ari Baser


NO TE PIERDAS EL PODCAST⬇️

Disponible en: Acast, Spotify, Apple Podcasts, Google Podcasts, Deezer y Amazon Music


LA REALIDAD SUPERA A LA FICCIÓN

En la realidad, diferentes tipos de máquinas han servido siempre como instrumentos de guerra, pero históricamente los humanos siempre han tenido el control total sobre su uso. Ahora, la evolución de la tecnología puede cambiar esa realidad y las implicaciones son inquietantes.

Según expertos en inteligencia artificial, las armas totalmente autónomas, que seleccionarían y atacarían objetivos sin un control humano, podrían desarrollarse para su uso ya no en unas décadas, sino en pocos años.

También conocidas como "robots asesinos", estas armas tendrían el poder de hacer determinaciones de vida o muerte, un poder previamente reservado para los humanos, lo que plantea preocupaciones morales, legales y de otra clase.

De acuerdo con un informe del Congreso de Estados Unidos fechado en noviembre de 2021, llamado “Manual de defensa: política de EU sobre autonomía letal”, los Sistemas de Armas Autónomas Letales (LAWS, por sus siglas en inglés) son “una especial clase de sistemas de armas que utilizan sensores y algoritmos informáticos para identificar de forma independiente un objetivo y emplear un sistema de armas para atacar y destruir ese objetivo sin control humano del sistema”.

Aunque ese sistema no está muy desarrollado aún, se cree que en un futuro cercano permitiría operaciones militares en donde “sistemas tradicionales no pueden operar”.

Desde 2014, bajo los auspicios de la Convención de las Naciones Unidas sobre Armas, varias naciones han participado en discusiones internacionales para intentar emitir políticas y leyes sobre los "robots asesinos", mientras que 30 países y 165 organizaciones no gubernamentales han pedido prohibir los LAWS debido a preocupaciones éticas y sobre los riesgos operativos, exigiendo mantener el control humano sobre el uso de cualquier tipo de arma.

Hasta el momento, ni los llamados ni las discusiones han prosperado.

En concreto, son siete países los que buscan el liderazgo y que más han invertido en la inteligencia artificial con fines militares: Estados Unidos, China, Rusia, Reino Unido, Francia, Israel y Corea del Sur.

A medida que la tecnología militar avanza hacia una autonomía cada vez mayor, crece la preocupación sobre cómo estos países pueden usar estas nuevas armas para revolucionar la guerra.

Foto: Ari Baser

De acuerdo con el manual del Congreso, Estados Unidos actualmente no cuenta con Sistemas de Armas Autónomas Letales, pero algunos altos líderes militares han declarado que el país “puede verse obligado” a desarrollar esta tecnología en un futuro si “sus competidores deciden hacerlo también”.

Sin embargo, medios internacionales afirman que el Pentágono trabaja desde hace años en proyectos como ATLAS (Advanced Targeting and Lethality Automated System), que busca proporcionar inteligencia artificial a sus tanques para identificar y atacar objetivos al menos el triple de rápido que con el actual proceso manual.

Según el informe del Congreso, el Departamento de Defensa estadounidense ya cuenta con categorías de sistemas de armas autónomas para fines militares, aunque se basan principalmente en el “papel del operador humano con respecto a la selección de objetivos y las decisiones de enfrentamiento, más que en la sofisticación tecnológica del sistema de armas”.

Estas normas definen a las LAWS como "sistemas de armas que, una vez activados, pueden seleccionar y atacar objetivos sin la intervención de un operador humano".

Este concepto de autonomía también se conoce como "humano fuera del circuito" o "autonomía total", y se diferencia de otros sistemas de defensa autónomos pero supervisados por humanos, en los que los operadores pueden monitorear y detener un ataque, o en los que estas armas semi autónomas "sólo atacan objetivos individuales o grupos de objetivos específicos que han sido seleccionados por un operador humano".

Estas armas incluyen ciertos tipos de misiles guiados, que atacan objetivos identificados por humanos utilizando funciones autónomas.

En este sentido, la carrera por el desarrollo de armamento parece que superó una nueva etapa con la reciente prueba china de un misil hipersónico, que demuestra su inesperado adelantamiento a Estados Unidos en este campo de competencia estratégica entre potencias.

Varios medios occidentales informaron recientemente que China probó en agosto un planeador hipersónico -capaz de alcanzar una velocidad superior a los 6 mil kilómetros por hora- que dio la vuelta a la Tierra en órbita antes de descender a su objetivo.

Esta prueba tomó a los militares estadounidenses por sorpresa, tanto que el jefe del Estado Mayor Conjunto, el general Mark Milley, la comparó con el lanzamiento en 1957 por la entonces Unión Soviética del primer satélite artificial, Sputnik, que supuso el inicio de la carrera espacial.

Foto: Ari Baser

Según nuevas revelaciones, el artefacto hipersónico chino disparó durante su carrera un proyectil que cayó al mar, sorprendiendo de nuevo a Estados Unidos.

La característica esencial de las armas hipersónicas no es tanto su velocidad como su capacidad para esquivar las defensas antimisiles, gracias a una trayectoria menos predecible que la de los misiles balísticos.

"Estas pruebas recientes constituyen un gran salto tecnológico para China, incluso si Estados Unidos sigue muy lejos por delante en términos de tecnología militar global", afirma Niklas Swanström, experto sobre China y director del Instituto para la Seguridad y el Desarrollo en Estocolmo.

Esto plantea dilemas militares y éticos sobre una escalada en la carrera armamentista y el desarrollo de los “robots asesinos”.

Entre las preguntas que se hace el Congreso en el informe de noviembre, está hasta qué punto los adversarios de Estados Unidos están desarrollando LAWS, si el país debería apoyar la regulación o la prohibición de las armas autónomas letales o, por el contrario, optar por el desarrollo de estas, y cómo se debería equilibrar la investigación y el desarrollo con las consideraciones éticas y normas legales.

Para las Naciones Unidas, esta tecnología existe y ya ha sido utilizada.

Un reporte del Consejo de Seguridad reveló el que sería el primer ataque autónomo de drones sobre personas. En marzo de este año, las tropas del general Jalifa Hafter, de uno de los bandos de la guerra civil en Libia, fueron "perseguidos y atacados por vehículos aéreos de combate no tripulados o sistemas de armas autónomos letales".

De acuerdo con la revista New Scientist, los drones “se programaron para atacar objetivos sin requerir la conectividad de datos entre el operador y la munición: en efecto, una verdadera capacidad de disparar, olvidar y encontrar”.

El dron utilizado, el Kargu-2, fue creado por la empresa turca STM. Turquía es aliada de las fuerzas del gobierno libio reconocido por la ONU, rival del general Hafter.

Según la página web de la compañía, su arma es eficaz “contra objetivos estáticos o en movimiento a través de sus capacidades de procesamiento de imágenes en tiempo y algoritmos de aprendizaje automático integrados en la plataforma”.

Foto: Ari Beser

Además, el dron puede ser usado de modo automático o manual y está diseñado para “operaciones de guerra asimétricas o antiterroristas”.

Es por ello que organizaciones como la holandesa Pax, dedicada a la defensa de la paz, advierte sobre los avances de la inteligencia artificial para uso militar por parte de las grandes potencias, y asegura que el desarrollo de los robots asesinos será “catastrófico” para la humanidad.

"Nos situamos frente a un futuro en el que armas de inteligencia artificial se apoderarán de puestos que hoy ejercemos los humanos, seleccionando y atacando objetivos por sí mismas", señaló.

El cine nos ha hecho temer a la inteligencia artificial, como en Blade Runner, aunque lo más cercano en la ficción a creadores de robots asesinos lo tenemos en películas como Terminator, con Skynet, empresa que dirige un ejército de robots que se independiza de los humanos y se vuelve contra ellos para exterminarlos.

Con el fin de evitar que la ficción se convierta en realidad, el instituto Future for life reunió en 2018 a gobiernos de más de 30 países -incluido México-, así como a cientos de académicos, científicos y empresas como Google y Tesla, para firmar una carta que advierte que la decisión de terminar con una vida humana “nunca debería ser delegada a una máquina”.

“Existe una oportunidad y una necesidad urgente de que los ciudadanos, los responsables políticos y los líderes distingan entre los usos aceptables e inaceptables de la IA”, indica el escrito.

Pero esta y otras iniciativas quedan en buenas intenciones cuando el mundo de la tecnología y el mundo de la guerra han estrechado su unión.

Este año, empresas como Google, Microsoft y Amazon han vuelto a ofrecerse para el desarrollo de sistemas para el Pentágono.

Anteriormente, varios trabajadores de Google protestaron cuando la compañía se postuló para usar sus modelos de inteligencia artificial con el fin de analizar grabaciones de drones del ejército.

Debido a la polémica, Google no renovó lo que se conoció como el Proyecto Maven y se comprometió a no ofrecer sus tecnologías para crear armas que pudiesen provocar daños.

Los empleados de estas compañías temen que su tecnología pueda utilizarse para la guerra con armas autónomas.

¿Estaremos en presencia de los futuros Skynet y Tyrell Corp?

Lee también otros contenidos de Normal ⬇️

Sociedad

Policías de Veracruz son exhibidos en actos de tortura

En un caso registrado en junio de 2021, presuntos policías ministeriales quedaron grabados en video mientras torturaban a un civil al interior de una bodega, revelan denuncias e imágenes en poder de El Sol de México

Política

Gobierno federal deja solo al Cuauh en su tercer informe de gobierno

El gobernador del estado presentó su tercer informe ante la ausencia de altos representantes del gobierno federal

Sociedad

Sólo 134 personas acusadas por delitos libraron prisión preventiva usando brazalete electrónico

En cambio, hasta noviembre del año pasado 95 mil 424 personas esperaban su juicio o sentencia en prisión preventiva

Finanzas

Elon Musik lleva su red a Brasil

El regulador de telecomunicaciones del país avaló la operación del sistema de internet satelital Starlink

Finanzas

Despliegue de red 5G en México acelera en 2022

Los expertos anticipan que este será un año decisivo para el despliegue de esta tecnología en el país

Sociedad

Conacyt veta promover a científicos en el SNI

Los catedráticos afectados analizan presentar amparos en contra de la decisión del Consejo

Sociedad

Sólo 134 personas acusadas por delitos libraron prisión preventiva usando brazalete electrónico

En cambio, hasta noviembre del año pasado 95 mil 424 personas esperaban su juicio o sentencia en prisión preventiva

Gossip

Israel Jaitovich seguirá con su Festival de Cortometrajes de Humor

Israel Jaitovich dará continuidad al certamen y anuncia nueva imagen de Distrito Comedia

Mundo

Argentina logra refinanciar su deuda con FMI

Acuerdo involucrará una reducción “gradual” del déficit fiscal, que llegará a 1.9% del PIB en 2023