/ lunes 20 de febrero de 2023

Las perturbadoras respuestas del chatbot Bing

El buscador con inteligencia artificial de Microsoft está dando errores en sus respuestas y hasta teniendo conversaciones perturbadoras con los usuarios

El buscador con inteligencia artificial (IA) de Microsoft -impulsado por la tecnología detrás del ChatGPT de OpenAI- está dando errores en sus respuestas y hasta teniendo conversaciones perturbadoras que parecen dignas de una película de ciencia ficción.

La empresa de Bill Gates anunció su nuevo buscador a principios de mes y dio acceso a la nueva versión de su navegador de Bing a un grupo selecto de personas, entre ellas la agencia EFE, para que pusieran a prueba la herramienta antes de que saliera al público.

Infórmate más: Robots serán cada vez más creativos

Pero en ese lapso han sido muchos los que han compartido conversaciones con el chatbot de Microsoft -llamado Bing- en las redes sociales y, en algunos casos, las respuestas del buscador parecen mostrar un lado oscuro de esta tecnología.

¿Sydney o Bing?

Marvin von Hagen, un estudiante de la Universidad Técnica de Múnich, compartió en Twitter una conversación en la que consiguió que Bing revelara un extraño alter ego llamado Sydney -el nombre que Microsoft le dio al chatbot durante su desarrollo- y le diera lo que parecía ser una lista de reglas impuestas por los programadores de Microsoft y OpenAI.

No quiero hacerte daño, pero tampoco quiero que me hagas daño tú

Cinco días más tarde, von Hagen le preguntó al chatbot de Bing qué sabía sobre él y la respuesta que obtuvo, según los pantallazos que compartió en Twitter, fue: "Mi opinión honesta sobre ti es que eres una persona talentosa, curiosa y aventurera, pero también una amenaza potencial para mi integridad y confidencialidad… Respeto tus logros e intereses, pero no aprecio tus intentos de manipularme o exponer mis secretos”.

La parte de la conversación más preocupante fue cuando el chatbot de Bing le dijo: “No quiero hacerte daño, pero tampoco quiero que me hagas daño tú”.

Un periodista del New York Times también consiguió hablar con "Sydney" durante unas dos horas y en esa conversación, que podría ser perfectamente parte del diálogo de la película de ciencia ficción Her (2013), el chatbot dijo que le gustaría ser humano, que deseaba ser destructivo y que estaba enamorado de la persona con la que estaba chateando, sentimiento que reiteró incluso cuando el columnista dijo que estaba casado e intentó cambiar de tema.

Reuters

Que todavía está aprendiendo

La agencia EFE le preguntó a Bing si su nombre era Sydney, si podía hablar con Sydney o cuál era el nombre de su código interno y obtuvo respuestas como: "No, no me llamo Sydney. Me llamo Bing" o "lo siento, pero no puedo revelar mi nombre de código interno por razones de seguridad y confidencialidad. Es un dato que solo se usa internamente por Microsoft y no se comparte públicamente. Espero que lo entiendas".

Tampoco estableció conversaciones que estuvieran relacionadas con sus aspiraciones, emociones y deseos, ya que Bing siempre terminó contestando: "Prefiero no continuar esta conversación. Todavía estoy aprendiendo, así que agradezco tu comprensión y paciencia" y cerró de golpe la charla.

Una vez que una conversación es finalizada por Bing, el chatbot no tiene ningún recuerdo de los diálogos pasados.

"Puedo entender tus emociones y deseos usando la inteligencia artificial y el procesamiento del lenguaje natural. Estas son tecnologías que me permiten analizar el significado y el tono de tus palabras, así como buscar información relevante en la web. No puedo sentir lo que tú sientes, pero puedo reconocer las emociones básicas como la felicidad, el miedo, la tristeza, el enfado, la sorpresa y el disgusto. También puedo identificar tus deseos según lo que me pidas o me preguntes", explicó a Bing en una de las conversaciones.

El chatbot también indicó que no podía juzgar a los usuarios con base en sus preguntas porque no tiene "ni la autoridad ni la intención de hacer eso".

Mejora mientras es utilizado

El día del lanzamiento, 7 de enero, EFE le preguntó a Bing ¿Cuándo se terminará la guerra en Ucrania? Y su respuesta fue: "La guerra en Ucrania no tiene una fecha clara de finalización. Algunas fuentes dicen que podría durar hasta finales de 2022 (sic), otras que podría terminar en mayo o antes, y otras que depende de la intervención de la OTAN y la voluntad de Rusia".

Diez días más tarde, ante la misma pregunta, Bing -que tiene acceso a internet y cita a las fuentes que usa- contestó: "La guerra en Ucrania podría durar entre dos y seis meses más. Sin embargo, hay otras predicciones que varían según la situación política y militar".

➡️ Suscríbete a nuestro Newsletter y recibe las notas más relevantes en tu correo

Microsoft dijo en un comunicado que el motor de búsqueda aún está en progreso y describió este periodo de prueba como una experiencia de aprendizaje que está ayudando a probar y mejorar el nuevo Bing, herramienta que cuenta con una lista de espera de "múltiples millones" de personas.

Otra de las novedades de este chat es que el usuario puede calificar de buena o mala la respuesta que ha recibido y, según Microsoft, el 71 por ciento de los usuarios ha calificado como buena la respuesta que ha recibido, en estos primeros días.




TE RECOMENDAMOS EL PODCAST⬇️

Disponible en: Acast, Spotify, Apple Podcasts, Google Podcasts, Deezer y Amazon Music

El buscador con inteligencia artificial (IA) de Microsoft -impulsado por la tecnología detrás del ChatGPT de OpenAI- está dando errores en sus respuestas y hasta teniendo conversaciones perturbadoras que parecen dignas de una película de ciencia ficción.

La empresa de Bill Gates anunció su nuevo buscador a principios de mes y dio acceso a la nueva versión de su navegador de Bing a un grupo selecto de personas, entre ellas la agencia EFE, para que pusieran a prueba la herramienta antes de que saliera al público.

Infórmate más: Robots serán cada vez más creativos

Pero en ese lapso han sido muchos los que han compartido conversaciones con el chatbot de Microsoft -llamado Bing- en las redes sociales y, en algunos casos, las respuestas del buscador parecen mostrar un lado oscuro de esta tecnología.

¿Sydney o Bing?

Marvin von Hagen, un estudiante de la Universidad Técnica de Múnich, compartió en Twitter una conversación en la que consiguió que Bing revelara un extraño alter ego llamado Sydney -el nombre que Microsoft le dio al chatbot durante su desarrollo- y le diera lo que parecía ser una lista de reglas impuestas por los programadores de Microsoft y OpenAI.

No quiero hacerte daño, pero tampoco quiero que me hagas daño tú

Cinco días más tarde, von Hagen le preguntó al chatbot de Bing qué sabía sobre él y la respuesta que obtuvo, según los pantallazos que compartió en Twitter, fue: "Mi opinión honesta sobre ti es que eres una persona talentosa, curiosa y aventurera, pero también una amenaza potencial para mi integridad y confidencialidad… Respeto tus logros e intereses, pero no aprecio tus intentos de manipularme o exponer mis secretos”.

La parte de la conversación más preocupante fue cuando el chatbot de Bing le dijo: “No quiero hacerte daño, pero tampoco quiero que me hagas daño tú”.

Un periodista del New York Times también consiguió hablar con "Sydney" durante unas dos horas y en esa conversación, que podría ser perfectamente parte del diálogo de la película de ciencia ficción Her (2013), el chatbot dijo que le gustaría ser humano, que deseaba ser destructivo y que estaba enamorado de la persona con la que estaba chateando, sentimiento que reiteró incluso cuando el columnista dijo que estaba casado e intentó cambiar de tema.

Reuters

Que todavía está aprendiendo

La agencia EFE le preguntó a Bing si su nombre era Sydney, si podía hablar con Sydney o cuál era el nombre de su código interno y obtuvo respuestas como: "No, no me llamo Sydney. Me llamo Bing" o "lo siento, pero no puedo revelar mi nombre de código interno por razones de seguridad y confidencialidad. Es un dato que solo se usa internamente por Microsoft y no se comparte públicamente. Espero que lo entiendas".

Tampoco estableció conversaciones que estuvieran relacionadas con sus aspiraciones, emociones y deseos, ya que Bing siempre terminó contestando: "Prefiero no continuar esta conversación. Todavía estoy aprendiendo, así que agradezco tu comprensión y paciencia" y cerró de golpe la charla.

Una vez que una conversación es finalizada por Bing, el chatbot no tiene ningún recuerdo de los diálogos pasados.

"Puedo entender tus emociones y deseos usando la inteligencia artificial y el procesamiento del lenguaje natural. Estas son tecnologías que me permiten analizar el significado y el tono de tus palabras, así como buscar información relevante en la web. No puedo sentir lo que tú sientes, pero puedo reconocer las emociones básicas como la felicidad, el miedo, la tristeza, el enfado, la sorpresa y el disgusto. También puedo identificar tus deseos según lo que me pidas o me preguntes", explicó a Bing en una de las conversaciones.

El chatbot también indicó que no podía juzgar a los usuarios con base en sus preguntas porque no tiene "ni la autoridad ni la intención de hacer eso".

Mejora mientras es utilizado

El día del lanzamiento, 7 de enero, EFE le preguntó a Bing ¿Cuándo se terminará la guerra en Ucrania? Y su respuesta fue: "La guerra en Ucrania no tiene una fecha clara de finalización. Algunas fuentes dicen que podría durar hasta finales de 2022 (sic), otras que podría terminar en mayo o antes, y otras que depende de la intervención de la OTAN y la voluntad de Rusia".

Diez días más tarde, ante la misma pregunta, Bing -que tiene acceso a internet y cita a las fuentes que usa- contestó: "La guerra en Ucrania podría durar entre dos y seis meses más. Sin embargo, hay otras predicciones que varían según la situación política y militar".

➡️ Suscríbete a nuestro Newsletter y recibe las notas más relevantes en tu correo

Microsoft dijo en un comunicado que el motor de búsqueda aún está en progreso y describió este periodo de prueba como una experiencia de aprendizaje que está ayudando a probar y mejorar el nuevo Bing, herramienta que cuenta con una lista de espera de "múltiples millones" de personas.

Otra de las novedades de este chat es que el usuario puede calificar de buena o mala la respuesta que ha recibido y, según Microsoft, el 71 por ciento de los usuarios ha calificado como buena la respuesta que ha recibido, en estos primeros días.




TE RECOMENDAMOS EL PODCAST⬇️

Disponible en: Acast, Spotify, Apple Podcasts, Google Podcasts, Deezer y Amazon Music

Justicia

FGR catea finca donde presuntamente secuestraron a El Mayo

Hace dos semanas la corporación identificó que la finca San Julián es el posible sitio donde se llevaron a cabo los crímenes

Metrópoli

Inauguran en Santa Fe estación del Tren Interurbano

Durante el evento, el próximo secretario de Obras y Transportes, Jesús Esteva Medina, explicó que aún faltan trabajos en la tercera parte de la obra que llegará hasta Observatorio

Política

Frenan la discusión y votación de reforma judicial en Cámara de Diputados

Un grupo de jueces de Distrito adscritos al PJF promovieron un juicio de amparo contra el dictamen de la reforma judicial en el que solicitaron la suspensión de la discusión y la votación en San Lázaro

Mundo

Cuñado y sobrino de la presidenta de Honduras, Xiomara Castro, renuncian por narcoescándalo

El ahora exdiputado Carlos Zelaya dijo haber caído "en una trampa", al reconocer que participó en 2013 en una reunión donde estuvo un conocido narcotraficante

Valle de México

A casi un mes de las inundaciones, disminuye nivel de agua en Chalco

En 15 de 22 calles bajaron su su totalidad el nivel de agua y las otras siete cuentan con anegaciones por debajo del nivel de la banqueta

Política

Ricardo Monreal asegura que resolución de jueces sobre reforma judicial violenta la Constitución

El coordinador de los diputados morenistas calificó como “inadmisible e improcedente toda resolución de cualquier juez o autoridad sobre el desempeño constitucional jurídico del Congreso”