fbpx

[ad_1]

Pexels/Lisa Verano

Crédito: Pexels/Liza Verano

Podría Inteligencia artificial Chatbots: ¿terapeutas del futuro? ChatGPT, un chatbot generador de texto conversacional creado con el poderoso modelo de procesamiento de lenguaje GPT-3 de tercera generación de OpenAI, ha vuelto a plantear esta pregunta de hace una década.

GPT-3, uno de varios modelos de lenguaje, se introdujo en 2020, con sus predecesores años antes. Se generalizó más atención cuando OpenAI lanzó una vista previa pública de ChatGPT como parte de su fase de investigación. GPT-3 es un transformador preentrenado generador de tercera generación, un neural un modelo de red de aprendizaje automático entrenado en grandes cantidades de texto hablado de Internet y refinado mediante la capacitación de revisores humanos.

GPT-3 se ha utilizado de diversas formas en diferentes industrias: para escribir una obra de teatro en el Reino Unido, para crear un juego de aventuras basado en texto, para crear programas para personas que no codifican o para crear correos electrónicos de phishing como parte de la investigación. casos de uso malicioso. En 2021, el desarrollador del juego creó un robot de chat quien siguió a su difunto prometido hasta que OpenAI cerró el proyecto.

Hay chatbots de IA prometedor para ciertos tipos terapia que son más estructurados, específicos y basados ​​en habilidades (p. ej. cognitivo conductual terapia, terapia conductual dialéctica o salud entrenamiento).

Los estudios han demostrado que enhat bots pueden enseñar habilidades a las personas y enseñarles a detenerse de fumar, comer más sano y hacer más ejercicio. Un chatbot SlimMe AI con empatía artificial ayudó a las personas a perder peso. Durante la pandemia de COVID, la Organización Mundial de la Salud desarrolló humanos virtuales y chatbots para ayudar a las personas a dejar de de fumar. muchos las empresas han creado chatbots para soporte, incluido Woebot, que se creó en 2017 basado en la terapia cognitiva conductual. Otros chatbots entregan instrucciones meditación o controlar el estado de ánimo.

Sin embargo, ciertos tipos de terapia, como la terapia psicodinámica, relacional o humanista, pueden ser más difíciles de administrar a través de chatbots porque no está claro qué tan efectivas pueden ser estas terapias sin un elemento humano.

Beneficios potenciales de los chatbots para terapeutas

  • Escalabilidad, disponibilidad, disponibilidad. La terapia de chatbot virtual, si se realiza de manera efectiva, puede ayudar a brindar servicios de salud mental a más personas en su tiempo libre y en sus propios hogares.
  • Las personas pueden ser menos tímidas y más comprensivas con un chatbot. Algunos estudios han demostrado que las personas pueden sentirse más cómodas al revelar información personal o vergonzosa a los chatbots.
  • Atención estandarizada, unificada y monitoreada. Los chatbots pueden ofrecer un conjunto de respuestas estandarizado y más predecible, y estas interacciones se pueden ver y analizar más adelante.
  • Múltiples modalidades. Los chatbots se pueden entrenar para ofrecer muchos estilos de terapia más allá de lo que puede ofrecer un terapeuta individual. Un algoritmo puede ayudar a determinar qué tipo de terapia será mejor para cada caso.
  • Personalización de la terapia. ChatGPT genera texto hablado en respuesta a indicaciones de texto y puede recordar indicaciones anteriores, lo que le permite convertirse en un terapeuta personalizado.
  • Acceso a amplios recursos psicoeducativos. Los chatbots pueden usar y conectar a los clientes con una amplia gama de recursos digitales, incluidos sitios web, libros o herramientas en línea.
  • Aumentar o cooperación con terapeutas humanos. Los chatbots pueden mejorar la terapia en tiempo real al ofrecer comentarios o sugerencias, como mejoras. empatía.

Posibles limitaciones y desafíos de los terapeutas de chatbots

Los terapeutas de chatbots se enfrentan a obstáculos inherentes a las interacciones humano-IA.

  • Autenticidad y empatía ¿Cómo se siente la gente acerca de los chatbots? ¿Se convertirán en un obstáculo para la recuperación? ¿Extrañará la gente la conexión humana en la terapia? Incluso si los chatbots pueden ofrecer empático lenguaje y las palabras correctas, esto por sí solo puede no ser suficiente. La investigación ha demostrado que las personas prefieren las interacciones interpersonales en ciertas situaciones emocionales, como expresar frustración o enojo. Y año 2021 investigar descubrió que las personas se sentían más cómodas hablando con un humano que con un chatbot dependiendo de cómo se sintieran: cuando las personas estaban enojadas, estaban menos satisfechas con el chatbot.

    Es posible que las personas no se sientan comprendidas o escuchadas cuando saben que no es la persona real al final de la conversación. El «ingrediente activo» de la terapia puede basarse en la conexión entre las personas: una persona es testigo de las dificultades o el sufrimiento de otra persona. El reemplazo de IA probablemente no funcionará en todas las situaciones.

  • El tiempo y los matices de la interacción. Muchos estilos de terapia requieren características distintas a la empatía, incluido un equilibrio oportuno de desafío y apoyo. Los chatbots se limitan solo a respuestas de texto y no pueden expresarse a través del contacto visual y lenguaje corporal. Esto es posible con terapeutas de «humanos virtuales» o «avatares humanos» basados ​​en inteligencia artificial, pero no se sabe si los humanos virtuales pueden proporcionar el mismo nivel de comodidad y confianza.
  • Dificultades con la rendición de cuentas y la retención. Quizás es más probable que las personas se presenten y rindan cuentas a los terapeutas humanos que a los chatbots. La participación de los usuarios es un gran desafío para las aplicaciones de salud mental. Evaluaciones muestran que solo el 4% de los usuarios que descargan una aplicación de salud mental continúan usándola después de 15 días, y solo el 3% después de 30 días. ¿Las personas visitarán regularmente a su chatbot de terapeuta?
  • Situaciones complejas de alto riesgo, por ejemplo suicidio evaluacion y crisis administración se beneficiaría del juicio y la supervisión humana. En casos de alto riesgo, aumentar la IA bajo supervisión humana es más seguro que reemplazar la IA. Hay preguntas éticas y legales abiertas sobre la responsabilidad por una IA defectuosa: ¿Quién será responsable si un chatbot terapeuta no evalúa o maneja adecuadamente una crisis urgente, o proporciona instrucciones incorrectas? ¿Se entrenará la inteligencia artificial para señalar y alertar a los profesionales sobre situaciones con riesgo potencial inminente de daño a sí mismo oa otros?
  • Mayor necesidad de seguridad, privacidad, transparencia y consentimiento informado de los datos de los usuarios. Los datos de salud mental requieren un alto nivel de protección y confidencialidad. Muchos programas para la salud mental. no informe lo que sucede con los datos del usuario, particularmente cuando los datos se utilizan para investigación. La transparencia, la seguridad y el consentimiento informado claro serán características clave de cualquier plataforma de chatbot.
  • El potencial está escondido parcialidad. Es importante estar atento a los sesgos subyacentes en los datos de entrenamiento de estos chatbots y encontrar formas de mitigarlos.

A medida que las interacciones humano-IA se vuelven parte de la vida cotidiana, se necesita más investigación para determinar si los chatbots de terapeutas pueden proporcionar una terapia más allá del entrenamiento conductual. Los estudios que comparan humanos con chatbots en diferentes estilos de terapia arrojarán luz sobre los posibles beneficios y limitaciones de los chatbots de terapeutas.

Marlynn Wei, MD, PLLC © 2023. Todos los derechos reservados.

Para encontrar un terapeuta cerca de usted, visite Manual de terapia Psicología Psy.CO.

Ver más:

Cinco tipos de empatía en el metaverso y el espacio virtual

¿Puede la colaboración humano-IA aumentar la empatía?

¿Funciona la «empatía digital» en la terapia virtual?

[ad_2]

Source link