/ miércoles 29 de marzo de 2023

Elon Musk lidera campaña para detener la Inteligencia Artificial: "es un riesgo para la humanidad"

Un grupo de expertos en tecnología pidieron poner un alto a la IA, ya que puede representar grandes riesgos mundiales

En los últimos años, la inteligencia artificial (IA) ha experimentado un aumento sin precedentes en todo el mundo, y es en donde las empresas tecnológicas han invertido enormes cantidades de recursos para su desarrollo.

Sin embargo, el uso creciente de la IA también ha generado preocupaciones acerca de la privacidad de los datos, la seguridad y la ética.

Te puede interesar: Google presenta una "varita mágica" para redactar textos con inteligencia artificial

Por este motivo, el empresario Elon Musk, junto con un grupo de expertos en inteligencia artificial, solicitaron una pausa de mínimo medio año en la investigación de sistemas de IA más potentes que ChatGPT 4, debido a los "grandes riesgos para la humanidad" que representa.

La carta fue firmada por varios expertos y académicos de IA, así como por ingenieros ejecutivos de Microsoft y miembros del laboratorio de AI DeepMind de Google, los cuales hacen un llamado a todos los laboratorios de IA para que detengan el desarrollo de sistemas a gran escala.

IA, ¿si es un riesgo para la humanidad?

Los expertos en tecnología pidieron poner un alto en el desarrollo de la inteligencia artificial más avanzada debido a los riesgos que puede suponer para la humanidad.

La petición fue publicada en el sitio futureoflife.org y exige que además de la pausa en el desarrollo de IA, se establezca sistemas de seguridad y nuevas autoridades reguladoras para supervisarlas.

Asimismo, se pide que los mismos desarrolladores de esta tecnología creen técnicas que ayuden a distinguir entre lo real y lo artificial, además de la creación de instituciones capaces de hacer frente a la "dramática perturbación económica y política que causará la IA".

Entre los firmantes de la petición se encuentran personalidades que han expresado sus temores sobre una IA incontrolable que supere a los humanos, como Elon Musk, dueño de Twitter y fundador de SpaceX y Tesla, y el historiador Yuval Noah Harari.

Sam Altman, director de OpenAI y que diseñó ChatGPT, ha admitido tener "un poco de miedo" de que su creación se utilice para "desinformación a gran escala o ciberataques".

La petición es un llamado a los laboratorios de inteligencia artificial para que detengan el desarrollo de sistemas a gran escala durante al menos seis meses.

Los expertos aseguran que estos laboratorios están en una "carrera descontrolada" para desarrollar sistemas cada vez más avanzados que nadie puede controlar. Se cuestiona si debemos permitir que las máquinas manipulen nuestra información con propaganda y mentiras, o si debemos automatizar todos los trabajos, incluidos los gratificantes.

Los firmantes de la petición también piden una revisión independiente de los futuros sistemas de IA para garantizar que cumplan con los estándares de seguridad, y que se implementen protocolos de seguridad compartidos que sean rigurosamente auditados y supervisados por expertos externos independientes.

➡️ Suscríbete a nuestro Newsletter y recibe las notas más relevantes en tu correo

La carta destaca la necesidad de una pausa en la carrera de la IA para desarrollar sistemas seguros más allá de toda duda razonable.

En los últimos años, la inteligencia artificial (IA) ha experimentado un aumento sin precedentes en todo el mundo, y es en donde las empresas tecnológicas han invertido enormes cantidades de recursos para su desarrollo.

Sin embargo, el uso creciente de la IA también ha generado preocupaciones acerca de la privacidad de los datos, la seguridad y la ética.

Te puede interesar: Google presenta una "varita mágica" para redactar textos con inteligencia artificial

Por este motivo, el empresario Elon Musk, junto con un grupo de expertos en inteligencia artificial, solicitaron una pausa de mínimo medio año en la investigación de sistemas de IA más potentes que ChatGPT 4, debido a los "grandes riesgos para la humanidad" que representa.

La carta fue firmada por varios expertos y académicos de IA, así como por ingenieros ejecutivos de Microsoft y miembros del laboratorio de AI DeepMind de Google, los cuales hacen un llamado a todos los laboratorios de IA para que detengan el desarrollo de sistemas a gran escala.

IA, ¿si es un riesgo para la humanidad?

Los expertos en tecnología pidieron poner un alto en el desarrollo de la inteligencia artificial más avanzada debido a los riesgos que puede suponer para la humanidad.

La petición fue publicada en el sitio futureoflife.org y exige que además de la pausa en el desarrollo de IA, se establezca sistemas de seguridad y nuevas autoridades reguladoras para supervisarlas.

Asimismo, se pide que los mismos desarrolladores de esta tecnología creen técnicas que ayuden a distinguir entre lo real y lo artificial, además de la creación de instituciones capaces de hacer frente a la "dramática perturbación económica y política que causará la IA".

Entre los firmantes de la petición se encuentran personalidades que han expresado sus temores sobre una IA incontrolable que supere a los humanos, como Elon Musk, dueño de Twitter y fundador de SpaceX y Tesla, y el historiador Yuval Noah Harari.

Sam Altman, director de OpenAI y que diseñó ChatGPT, ha admitido tener "un poco de miedo" de que su creación se utilice para "desinformación a gran escala o ciberataques".

La petición es un llamado a los laboratorios de inteligencia artificial para que detengan el desarrollo de sistemas a gran escala durante al menos seis meses.

Los expertos aseguran que estos laboratorios están en una "carrera descontrolada" para desarrollar sistemas cada vez más avanzados que nadie puede controlar. Se cuestiona si debemos permitir que las máquinas manipulen nuestra información con propaganda y mentiras, o si debemos automatizar todos los trabajos, incluidos los gratificantes.

Los firmantes de la petición también piden una revisión independiente de los futuros sistemas de IA para garantizar que cumplan con los estándares de seguridad, y que se implementen protocolos de seguridad compartidos que sean rigurosamente auditados y supervisados por expertos externos independientes.

➡️ Suscríbete a nuestro Newsletter y recibe las notas más relevantes en tu correo

La carta destaca la necesidad de una pausa en la carrera de la IA para desarrollar sistemas seguros más allá de toda duda razonable.

Justicia

Vinculan a proceso a 5 elementos de la GN por homicidio de familia en Guanajuato

Según informes la Policía Militar Ministerial identificó, a través de vídeo-grabaciones, a los cinco elementos de la GN detenidos

México

Tormenta tropical Alberto se fortalece antes de tocar tierra en Tamaulipas y Veracruz

Los efectos del sistema afectarían municipios de la zona conurbada así como del norte de Veracruz

Política

Morena acuerda 8 foros nacionales y 32 asambleas para ruta de reforma judicial

Ricardo Monrea reiteró que la reforma al Poder Judicial pretende "liberar al Poder Judicial de la influencia del crimen y de la delincuencia organizada"

Política

Directora global de Citigroup, Jean Fraser, visita Palacio Nacional

De acuerdo con fuentes allegadas a Presidencia, el encuentro de la CEO de Citigroup fue solo con el secretario de Hacienda, Rogelio Ramírez de la O

Política

INE no puede investigar o sancionar a Zaldivar por apoyo anticipado a Sheinbaum: TEPJF

El Tribunal Electoral deterrminó que el INE no tiene competencia para investigar y sancionar al ministro en retiro Arturo Zaldívar por presuntos actos anticipados de campaña en favor de Claudia Sheinbaum

CDMX

Balacera en San Antonio Abad deja un muerto y tres heridos

La persona que murió a causa de los disparos tenía 30 años aproximadamente