/ lunes 29 de julio de 2024

¿Puede (y debe) la Inteligencia Artificial ayudar a tratar la salud mental?

La inteligencia artificial tiene potencial para mejorar la detección y el tratamiento de problemas de salud mental en etapas tempranas, aunque su uso también plantea importantes dilemas éticos que deben abordarse

En 1972, un psiquiatra de Stanford llamado Kenneth Colby creó Parry, un programa que intentaba simular el lenguaje de una persona con esquizofrenia para capacitar a los estudiantes antes de que atendieran a pacientes reales y familiarizarlos con el lenguaje y la forma de pensar de estos pacientes.

Su éxito al simular dicho padecimiento fue tal, que incluso fue capaz de "aprobar" la prueba de Turing, un test diseñado por el matemático Alan Turing para evaluar si una máquina puede exhibir un comportamiento inteligente indistinguible del de un ser humano.

Te puede interesar: La IA y su capacidad transgresora y omnipresente

Pero ahora, los investigadores de la Universidad de Oxford están explorando cómo la IA podría usarse para predecir problemas de salud mental en un futuro cercano.

"Hablar con jóvenes puede ayudarnos a entender sus perspectivas y avanzar para brindar un servicio informativo, útil y productivo", cuenta Ella Arensman, profesora de Neurociencia y Sociedad.

Jessica Lorimer, asistente de investigación del Departamento de Psiquiatría, explica que un método que están usando se llama fenotipado digital, y utiliza la IA para recolectar y analizar datos de dispositivos móviles, como la actividad física o la ubicación, con el objetivo de predecir problemas de salud mental.

Debemos asegurarnos de que estas tecnologías respeten la dignidad y la autonomía de los pacientes, ya que sólo así podremos aprovechar al máximo los beneficios de la IA
- Dr. Sagar Parikh. Psiquiatra


El Dr. Matthew Nour, autor principal y conferenciante clínico del National Institute for Health and Care Research (NIHR), dice que el diagnóstico y la evaluación en psiquiatría se basan casi por completo en hablar con los pacientes y sus allegados. “Las pruebas automatizadas, como los análisis de sangre y los escáneres cerebrales, desempeñan un papel mínimo”, detalla.

"Hasta hace muy poco, el análisis automático del lenguaje ha estado fuera del alcance de médicos y científicos. Sin embargo, con la llegada de modelos lingüísticos como Chat GPT, nuestro equipo planea utilizar esta tecnología en una muestra más amplia de pacientes y en entornos del habla más diversos, para comprobar si pudiera resultar útil en la clínica", agrega Nour.

Ese enfoque también plantea preguntas sobre el consentimiento y el derecho a la privacidad, especialmente en el caso de los menores de edad. "Si se determina que un joven está en riesgo, ¿quién debería tener derecho a saber esa información: sus padres, sus maestros, la escuela, su médico?", cuestiona Jessica Lorimer.

Un estudio de Oxford titulado "What Lies Ahead" está investigando las actitudes éticas de los adolescentes de 16-17 años hacia las pruebas predictivas de salud mental. Gabriella Pavarini, investigadora postdoctoral, explica que el posible impacto psicológico futuro de recibir un diagnóstico predictivo representaba una gran preocupación para este grupo.

Empresas como Facebook ya están utilizando IA para detectar publicaciones que puedan indicar riesgo de suicidio y enviarlas a moderadores humanos para su revisión.

Empresas como Facebook ya están utilizando IA para detectar publicaciones que puedan indicar riesgo de suicidio y enviarlas a moderadores humanos para su revisión


En el primer año de este programa en Estados Unidos, se realizaron 3 mil 500 verificaciones de bienestar. Sin embargo, esto plantea varios dilemas éticos, ya que mucha de la información sobre cómo funcionan los algoritmos de Facebook está protegida, por lo que no se conocen los detalles, ni se sabe cuántas de las verificaciones de bienestar fueron exitosas en prevenir intentos de suicidio, ni cuál fue su impacto.

Según The New Yorker, si bien el uso de IA por parte de Facebook para prevenir el suicidio es un avance, también plantea interrogantes éticos, sobre todo porque el mero hecho de recibir un diagnóstico a menudo no conlleva un riesgo tan inmediato, lo que plantea la pregunta de si los usuarios estarían dispuestos a sacrificar su privacidad para detectar problemas de salud mental en etapas tempranas.

➡️ Suscríbete a nuestro Newsletter y recibe noticias relevantes sobre más ideas disruptivas

"El uso de IA en salud mental plantea desafíos únicos que requieren una colaboración estrecha entre expertos en IA y profesionales de la salud mental”, advierte el Dr. Sagar Parikh, director asociado del Instituto de Investigación Psiquiátrica de la Universidad de Michigan.

"Debemos asegurarnos de que estas tecnologías respeten la dignidad y la autonomía de los pacientes, ya que sólo así podremos aprovechar al máximo los beneficios de la IA en la detección temprana y el tratamiento de problemas de salud mental”, subraya el doctor Parikh.

En 1972, un psiquiatra de Stanford llamado Kenneth Colby creó Parry, un programa que intentaba simular el lenguaje de una persona con esquizofrenia para capacitar a los estudiantes antes de que atendieran a pacientes reales y familiarizarlos con el lenguaje y la forma de pensar de estos pacientes.

Su éxito al simular dicho padecimiento fue tal, que incluso fue capaz de "aprobar" la prueba de Turing, un test diseñado por el matemático Alan Turing para evaluar si una máquina puede exhibir un comportamiento inteligente indistinguible del de un ser humano.

Te puede interesar: La IA y su capacidad transgresora y omnipresente

Pero ahora, los investigadores de la Universidad de Oxford están explorando cómo la IA podría usarse para predecir problemas de salud mental en un futuro cercano.

"Hablar con jóvenes puede ayudarnos a entender sus perspectivas y avanzar para brindar un servicio informativo, útil y productivo", cuenta Ella Arensman, profesora de Neurociencia y Sociedad.

Jessica Lorimer, asistente de investigación del Departamento de Psiquiatría, explica que un método que están usando se llama fenotipado digital, y utiliza la IA para recolectar y analizar datos de dispositivos móviles, como la actividad física o la ubicación, con el objetivo de predecir problemas de salud mental.

Debemos asegurarnos de que estas tecnologías respeten la dignidad y la autonomía de los pacientes, ya que sólo así podremos aprovechar al máximo los beneficios de la IA
- Dr. Sagar Parikh. Psiquiatra


El Dr. Matthew Nour, autor principal y conferenciante clínico del National Institute for Health and Care Research (NIHR), dice que el diagnóstico y la evaluación en psiquiatría se basan casi por completo en hablar con los pacientes y sus allegados. “Las pruebas automatizadas, como los análisis de sangre y los escáneres cerebrales, desempeñan un papel mínimo”, detalla.

"Hasta hace muy poco, el análisis automático del lenguaje ha estado fuera del alcance de médicos y científicos. Sin embargo, con la llegada de modelos lingüísticos como Chat GPT, nuestro equipo planea utilizar esta tecnología en una muestra más amplia de pacientes y en entornos del habla más diversos, para comprobar si pudiera resultar útil en la clínica", agrega Nour.

Ese enfoque también plantea preguntas sobre el consentimiento y el derecho a la privacidad, especialmente en el caso de los menores de edad. "Si se determina que un joven está en riesgo, ¿quién debería tener derecho a saber esa información: sus padres, sus maestros, la escuela, su médico?", cuestiona Jessica Lorimer.

Un estudio de Oxford titulado "What Lies Ahead" está investigando las actitudes éticas de los adolescentes de 16-17 años hacia las pruebas predictivas de salud mental. Gabriella Pavarini, investigadora postdoctoral, explica que el posible impacto psicológico futuro de recibir un diagnóstico predictivo representaba una gran preocupación para este grupo.

Empresas como Facebook ya están utilizando IA para detectar publicaciones que puedan indicar riesgo de suicidio y enviarlas a moderadores humanos para su revisión.

Empresas como Facebook ya están utilizando IA para detectar publicaciones que puedan indicar riesgo de suicidio y enviarlas a moderadores humanos para su revisión


En el primer año de este programa en Estados Unidos, se realizaron 3 mil 500 verificaciones de bienestar. Sin embargo, esto plantea varios dilemas éticos, ya que mucha de la información sobre cómo funcionan los algoritmos de Facebook está protegida, por lo que no se conocen los detalles, ni se sabe cuántas de las verificaciones de bienestar fueron exitosas en prevenir intentos de suicidio, ni cuál fue su impacto.

Según The New Yorker, si bien el uso de IA por parte de Facebook para prevenir el suicidio es un avance, también plantea interrogantes éticos, sobre todo porque el mero hecho de recibir un diagnóstico a menudo no conlleva un riesgo tan inmediato, lo que plantea la pregunta de si los usuarios estarían dispuestos a sacrificar su privacidad para detectar problemas de salud mental en etapas tempranas.

➡️ Suscríbete a nuestro Newsletter y recibe noticias relevantes sobre más ideas disruptivas

"El uso de IA en salud mental plantea desafíos únicos que requieren una colaboración estrecha entre expertos en IA y profesionales de la salud mental”, advierte el Dr. Sagar Parikh, director asociado del Instituto de Investigación Psiquiátrica de la Universidad de Michigan.

"Debemos asegurarnos de que estas tecnologías respeten la dignidad y la autonomía de los pacientes, ya que sólo así podremos aprovechar al máximo los beneficios de la IA en la detección temprana y el tratamiento de problemas de salud mental”, subraya el doctor Parikh.

Finanzas

BBVA recorta a 1.2% perspectiva del PIB de México para 2024

Carlos Serrano, economista en jefe de BBVA México, destacó que la debilidad de la economía se observó casi desde inicios de año como consecuencia de una caída en la inversión

Sociedad

Depresión tropical 11-E deja deslaves y falta de energía eléctrica en el sur de Veracruz

Tras las afectaciones por la depresión tropical 11-E, corporaciones de los tres niveles de gobierno han auxiliado a la población de varias zonas de Veracruz

Política

Día clave para la reforma judicial: SCJN discute si pueden echar atrás los cambios al PJF

El ministro Juan Luis González Alcántara Carrancá propone que el Alto Tribunal sí tiene facultades para discutir la legalidad de la reforma judicial

Política

Estas son las 11 reformas de Claudia Sheinbaum para garantizar la igualdad de la mujer

Dichas reformas fueron planteadas por la presidenta Claudia Sheinbaum desde el 1 de octubre en su toma de protesta en el Zócalo

Política

Juan Ramón De la Fuente, canciller de México, escoge a su equipo en la SRE

Juan Ramón De la Fuente anunció, además, que se creará una coordinación de consulados que estará encabezada por el cónsul de México en Nueva York, Jorge Islas

Sociedad

Encuentran a dos menores desaparecidos en Guadalajara; planeaban viajar a CDMX

Los dos menores de 12 y 14 años tenían reporte de extravío en el número 911 del día 2 de octubre