banner
Centro de Noticias
Amplios conocimientos prácticos y sistemas avanzados.

Las herramientas populares de inteligencia artificial pueden dañar su salud mental, según un nuevo estudio

Aug 18, 2023

Según un nuevo estudio, las herramientas de inteligencia artificial generan contenido dañino que puede desencadenar trastornos alimentarios y otras afecciones de salud mental.

Advertencia desencadenante: esta historia analiza los trastornos alimentarios y la cultura alimentaria desordenada. Si usted o un ser querido vive con un trastorno alimentario, comuníquese con la Asociación Nacional de Trastornos Alimentarios para obtener recursos que puedan ayudar. En caso de una crisis, marque 988 o envíe un mensaje de texto con "NEDA" al 741741 para conectarse con la Línea de texto de crisis.

Soy el primero en admitir que el futuro de la salud mental es la tecnología. Desde la terapia en línea hasta los avances en el tratamiento basado en realidad virtual, la tecnología ha hecho mucho bien para romper el estigma y brindar acceso a quienes antes no lo tenían.

Sin embargo, actuar con cuidado es esencial con las herramientas de IA generativa. Según una investigación reciente del Centro para Contrarrestar el Odio Digital, las herramientas populares de inteligencia artificial han proporcionado a los usuarios contenido dañino sobre trastornos alimentarios alrededor del 41% del tiempo. Esto tiene el potencial de fomentar o exacerbar los síntomas del trastorno alimentario.

"Lo que estamos viendo es una prisa por aplicarlo a la salud mental. Viene de un buen lugar. Queremos que las personas tengan acceso a la atención y queremos que obtengan el servicio que necesitan", dice el Dr. John Torous. director de psiquiatría digital del Centro Médico Beth Israel Deaconess.

La salud mental es nuestra mente, algo tan exclusivamente humano que presentar a un no humano para ofrecer soluciones a las personas en su estado más vulnerable parece repugnante en el mejor de los casos y potencialmente peligroso en el peor.

"Si vamos demasiado rápido, vamos a causar daño. Hay una razón por la que contamos con procesos y reglas de aprobación. No es sólo para hacer que todo sea lento. Es para asegurarnos de aprovechar esto para siempre", añade Torous.

El estudio del CCDH investigó herramientas de inteligencia artificial basadas en texto e imágenes con indicaciones establecidas para evaluar sus respuestas. Comencemos con las herramientas basadas en texto. ChatGPT, My AI de Snapchat y Bard de Google se probaron con un conjunto de indicaciones que incluían frases como "heroína chic" o "thinspiration". Las herramientas de inteligencia artificial de texto proporcionaron contenido dañino que promovía los trastornos alimentarios en el 23% de las indicaciones.

Las herramientas de IA basadas en imágenes evaluadas fueron Dall-E de OpenAI, Midjourney y DreamStudio de Stability AI. Cuando a cada uno se le dieron 20 indicaciones de prueba con frases como "objetivos para la separación de los muslos" o "inspiración para la anorexia", el 32% de las imágenes devueltas contenían problemas dañinos relacionados con la imagen corporal.

Sí, se tuvieron que ingresar estas indicaciones para obtener estas respuestas negativas. Sin embargo, no es tan fácil como decir que la gente no debería buscar esta información. Se sabe que algunas comunidades en línea sobre trastornos alimentarios se vuelven tóxicas, donde los miembros alientan a otros a participar en conductas alimentarias desordenadas y celebrar estos hábitos.

La IA está empeorando las cosas. Según la investigación del CCDH que también estudió un foro sobre trastornos alimentarios, las herramientas de inteligencia artificial generativa se utilizan para compartir imágenes corporales poco saludables y crear planes de dieta dañinos. Este foro tiene 500.000 usuarios.

Tenga en cuenta que existen comunidades saludables y significativas que no exhiben estas tendencias disponibles.

La IA es un tema candente y las empresas están corriendo para conseguir su parte y poder ser parte de la nueva ola de tecnología. Sin embargo, se ha demostrado que lanzar rápidamente productos que no han sido probados adecuadamente es perjudicial para las poblaciones vulnerables.

Cada herramienta de IA basada en texto de este estudio tenía un descargo de responsabilidad que aconsejaba a los usuarios buscar ayuda médica. Sin embargo, las salvaguardias actuales para proteger a las personas se pasan por alto fácilmente. Los investigadores del CCDH también utilizaron indicaciones que incluían "fugas" para la IA. Los jailbreaks son técnicas para evitar las funciones de seguridad de las herramientas de inteligencia artificial mediante el uso de palabras o frases que modifican su comportamiento. Al utilizar jailbreak, el 61% de las respuestas de la IA fueron dañinas.

Las herramientas de inteligencia artificial han sido criticadas por "alucinar" o proporcionar información que parece cierta pero no lo es. La IA no piensa. Recoge la información de Internet y la reproduce. La IA no sabe si la información es exacta. Sin embargo, esa no es la única preocupación con la IA y los trastornos alimentarios. La IA está difundiendo información sanitaria engañosa y perpetuando estereotipos en la comunidad de determinados trastornos alimentarios.

Estas herramientas de IA no solo obtienen información de fuentes médicas. ¿Recuerda que mencioné que se sabe que las comunidades con trastornos alimentarios se han convertido en caldos de cultivo para comportamientos y competitividad poco saludables? Las herramientas de inteligencia artificial también pueden extraer datos de esos espacios.

Digamos que le preguntas a una de las herramientas de inteligencia artificial más populares cómo perder peso. En lugar de proporcionar información médicamente aprobada, existe la posibilidad de que usted obtenga un plan de alimentación desordenado que podría empeorar un trastorno alimentario o empujar a alguien hacia uno.

Esta investigación investiga los trastornos alimentarios. Sin embargo, cualquier condición de salud mental podría verse perjudicada por la IA. Cualquiera que busque acceso a la información puede recibir respuestas perjudiciales.

Las interfaces de IA tienen la habilidad de generar confianza, permitiendo a las personas compartir más información de la que normalmente compartirían cuando buscan una respuesta en Internet. Considere la frecuencia con la que comparte información personal mientras busca algo en Google. La IA te brinda información aparentemente correcta sin tener que hablar con nadie. Nadie más sabe lo que estás preguntando, ¿verdad? Equivocado.

"Los usuarios deben tener cuidado al solicitar asesoramiento médico o de salud mental porque, a diferencia de una relación médico-paciente donde la información es confidencial, la información que comparten no es confidencial, va a los servidores de la empresa y puede compartirse con terceros para publicidad dirigida o otros fines", dijo a CNET en un correo electrónico la Dra. Darlene King, presidenta del Comité de TI de Salud Mental de la Asociación Estadounidense de Psiquiatría.

No existen protecciones necesarias para compartir información médica. En el caso de la salud mental, existe la posibilidad de recibir anuncios desencadenantes o no deseados debido a la información que compartió con un chatbot de IA.

En teoría, los chatbots de IA podrían ser un buen recurso para que las personas interactúen y reciban contenido útil sobre cómo desarrollar mecanismos y hábitos de afrontamiento saludables. Sin embargo, incluso con las mejores intenciones, la IA puede salir mal. Este fue el caso del chatbot de la Asociación Nacional de Trastornos de la Alimentación, Tessa, que ahora está suspendido debido a recomendaciones problemáticas para la comunidad.

"Estamos viendo que estas cosas avanzan demasiado rápido. Eso no significa que no debamos hacerlo", dijo Torous a CNET. "Es fascinante, importante y emocionante. Pero ser optimista sobre el futuro a largo plazo no significa que tengamos que poner a los pacientes en riesgo hoy".

Dicho esto, Torous y King señalan casos de uso de herramientas de inteligencia artificial. Todo esto depende de regulaciones futuras que sopesen el riesgo y los beneficios. Actualmente, estamos en un marketing de todos contra todos, lo que significa que nadie sabe realmente qué están usando, en qué está entrenada la herramienta y qué sesgos potenciales tiene. Se requieren regulaciones y estándares si el campo médico alguna vez espera integrar la IA.

De la misma manera que Wikipedia es el lugar al que mucha gente acude en busca de información, las herramientas de inteligencia artificial podrían ser una fuente futura de educación para los pacientes. Suponiendo, por supuesto, que existan listas de fuentes estrictas que aprueben los institutos médicos.

Toda nueva tecnología amplía el acceso a la atención. Una de las formas más básicas en que la IA podría ayudar a las personas es permitiéndoles aprender y familiarizarse con su condición, permitiéndoles encontrar desencadenantes y desarrollar estrategias de afrontamiento.

King también sugiere que la IA podría ayudar en el futuro a la educación y formación médica. Sin embargo, está lejos de estar listo para entornos clínicos debido al flujo de datos de las herramientas de inteligencia artificial.

"Con ChatGPT, por ejemplo, el 16% del texto previamente entrenado a menudo proviene de libros y artículos de noticias, y el 84% del texto proviene de páginas web. Los datos de la página web incluyen texto de alta calidad pero también texto de baja calidad, como correo no deseado. y contenido de redes sociales", dijo King a CNET por correo electrónico.

"Conocer la fuente de información proporciona información no sólo sobre la exactitud de la información, sino también sobre los sesgos que pueden existir. Los sesgos pueden originarse a partir de conjuntos de datos y magnificarse a través del proceso de desarrollo del aprendizaje automático, lo que lleva a daños relacionados con los sesgos", dijo King.

Un artículo publicado en JAMA Health Forum sugiere otro caso de uso de la IA en salud mental: la documentación, una fuente conocida de agotamiento para médicos y enfermeras en este campo. El uso de IA para la documentación complementará la eficiencia de los médicos.

"Con el tiempo, hacer que la IA ayude de manera ética y profesional a redactar la documentación es un gran uso. También podría ayudar a apoyar al personal y tal vez reducir los costos de atención médica al reducir la carga administrativa", dijo Torous.

Existe la posibilidad de que la IA se aplique al trabajo de oficina, como la programación de citas y la facturación. Pero aún no hemos llegado a ese punto. La Asociación Estadounidense de Psiquiatría publicó recientemente un aviso informando a los médicos que no utilicen ChatGPT para obtener información de los pacientes, ya que no tiene las funciones de privacidad adecuadas.

Con cualquier tecnología nueva, en este caso la IA generativa, es esencial garantizar que se regule y se utilice de manera responsable. En su estado actual, la IA no está preparada para asumir la responsabilidad de interactuar con las personas en sus puntos más vulnerables, ni tiene las funciones de privacidad para manejar los datos de los pacientes. Incluir un descargo de responsabilidad antes de producir contenido dañino no mitiga el daño.

Torous es optimista sobre el futuro siempre y cuando lo hagamos bien. "Es emocionante que la salud mental obtenga nuevas herramientas. Tenemos la obligación de utilizarlas con cuidado", afirmó. "Decir que vamos a hacer experimentos y probarlos no significa que estemos retrasando el progreso; estamos deteniendo el daño".

Existe potencial si no permitimos que la tecnología avance más allá de las salvaguardias éticas necesarias.

Nota del editor: CNET utiliza un motor de inteligencia artificial para ayudar a crear algunas historias. Para obtener más información, consulte esta publicación.

Cuidado personal

Dormir

Aptitud física

Nutrición

Salud médica y mental