/ martes 14 de junio de 2022

¿Por qué un programa de inteligencia artificial no puede tener consciencia? Expertos responden

Blake Lemoine notó que su sistema era muy específico al comunicar sus deseos y sus derechos como persona

Blake Lemoine, un especialista en inteligencia artificial de Google, aseguró que el sistema para construir chatbots cobró vida y puede tener sentimientos, declaración que le trajo problemas con la compañía.

El LaMDA (Language Model for Dialogue Applications, modelo de lenguaje para aplicaciones de diálogo en español) es un sistema de imitación del habla que funciona a través del almacenamiento de las palabras en internet.

Puedes leer también: El Ojo de México: la primer obra de arte con inteligencia artificial en nuestro país

Pero al observar las reacciones de este sistema, Lemoine notó que era muy específico al comunicar sus deseos y los que considera son sus derechos como persona.

El descubrimiento nació a raíz de un estudio para localizar discursos de odio o de discriminación dentro del sistema, en donde la respuesta fue muy personal sobre los derechos y deseos del LaMDA, explica el experto en un artículo de Medium.

En una publicación del Washington Post, el ingeniero compartió que habló con Google sobre sus ideas, pero que la compañía no estuvo de acuerdo con él.

Por su parte, Google anunció en un comunicado que su equipo donde hay especialistas en ética y tecnólogos revisó la evidencia de Lemoine y concluyó que no son suficientes para creer que el sistema tenga consciencia.

Derivado de lo anterior, el experto fue puesto bajo licencia administrativa y según el medio estadounidense fue suspendido por violar la política de privacidad.

Por su parte, los especialistas se han pronunciado ante las declaraciones del ingeniero calificando como absurdo que los sistemas de IA funcionan con grandes bases de datos de lenguaje, lo que no justifica que puedan tener una conciencia o idea propia.

➡️ Suscríbete a nuestro Newsletter y recibe las notas más relevantes en tu correo

La respuestas que se reciben en el chat están basadas en la estadística de cómo una persona respondería a cierto tipo de pregunta, por eso se genera una confusión y se cree que el sistema crea una idea propia.

Finalmente Google que cientos de investigadores y expertos han conversado con LaMDA y no han logrado encontrar suficientes razones para creer lo que Blake Lemoine afirmó y le costó su empleo.

Blake Lemoine, un especialista en inteligencia artificial de Google, aseguró que el sistema para construir chatbots cobró vida y puede tener sentimientos, declaración que le trajo problemas con la compañía.

El LaMDA (Language Model for Dialogue Applications, modelo de lenguaje para aplicaciones de diálogo en español) es un sistema de imitación del habla que funciona a través del almacenamiento de las palabras en internet.

Puedes leer también: El Ojo de México: la primer obra de arte con inteligencia artificial en nuestro país

Pero al observar las reacciones de este sistema, Lemoine notó que era muy específico al comunicar sus deseos y los que considera son sus derechos como persona.

El descubrimiento nació a raíz de un estudio para localizar discursos de odio o de discriminación dentro del sistema, en donde la respuesta fue muy personal sobre los derechos y deseos del LaMDA, explica el experto en un artículo de Medium.

En una publicación del Washington Post, el ingeniero compartió que habló con Google sobre sus ideas, pero que la compañía no estuvo de acuerdo con él.

Por su parte, Google anunció en un comunicado que su equipo donde hay especialistas en ética y tecnólogos revisó la evidencia de Lemoine y concluyó que no son suficientes para creer que el sistema tenga consciencia.

Derivado de lo anterior, el experto fue puesto bajo licencia administrativa y según el medio estadounidense fue suspendido por violar la política de privacidad.

Por su parte, los especialistas se han pronunciado ante las declaraciones del ingeniero calificando como absurdo que los sistemas de IA funcionan con grandes bases de datos de lenguaje, lo que no justifica que puedan tener una conciencia o idea propia.

➡️ Suscríbete a nuestro Newsletter y recibe las notas más relevantes en tu correo

La respuestas que se reciben en el chat están basadas en la estadística de cómo una persona respondería a cierto tipo de pregunta, por eso se genera una confusión y se cree que el sistema crea una idea propia.

Finalmente Google que cientos de investigadores y expertos han conversado con LaMDA y no han logrado encontrar suficientes razones para creer lo que Blake Lemoine afirmó y le costó su empleo.

Elecciones 2024

Asesinan al candidato del PAN a la alcaldía de Cd. Mante, Tamaulipas

Noé Ramos Ferretiz fue apuñalado mientras hacía campaña en busca de la reelección como presidente municipal

Justicia

Indicios apuntan a que Miguel "N" es un posible feminicida serial: FGJCDMX

Se cree que el presunto asesino está relacionado con al menos siete feminicidios ocurridos durante los 30 años que ha vivido en ese mismo edificio de departamentos

Sociedad

Cinco personas mueren al explotar un polvorín en Ayotlán, Jalisco

El siniestro ocurrió la tarde de este viernes en un taller de elaboración de pirotecnia

Elecciones 2024

Hallan muerto a candidato de Morena al municipio de San José Independencia, Oaxaca

Alberto Antonio García fue encontrado sin vida; él y su esposa llevaban desaparecidos dos días

Finanzas

Salinas Pliego responde a AMLO, asegura que Afore Azteca sí regresó dinero al IMSS

Salinas Pliego consideró que la Afore de su banco cumple con la normativa vigente y acusó a López Obrador de mentir

Cultura

Guadalupe Loaeza: Delfina Gómez pidió mi cabeza y me despidieron

La escritora advirtió que en el país hay señales claras de dictadura, y habló de su caso en el conversatorio "El México que anhelamos"