[ad_1]

Fuente: Giuseppe Ramos, usado con permiso
ChatGPT cautivó al mundo en noviembre pasado cuando se lanzó. Un chatbot puede generar respuestas aparentemente precisas e incluso elocuentes a preguntas complejas que normalmente requerirían una comprensión profunda de la ingeniería, el derecho o la medicina. Aprendizaje usando grandes modelos de lenguaje y procesamiento de lenguaje natural, generativo Inteligencia artificial Los sistemas (IA) como ChatGPT no solo responden con respuestas a estas preguntas, sino que parece que sus respuestas son la creación de un sujeto (es decir, un agente inteligente) en lugar del resultado de una máquina.
Como era de esperar, esta tecnología ha inspirado simultáneamente esperanza y horror, ya que es muy prometedora, pero también representa una desviación tan radical del statu quo que aún tenemos que determinar su impacto potencial en cosas como el empleo, desinformaciónarte y aislamiento social. Estos problemas no son solo forraje para los filósofos de sillón, sino problemas políticos serios que tendrán consecuencias sociales irreversibles si no se abordan antes de que la adopción se generalice.
Esto también es cierto en el campo de la psiquiatría. La IA generativa puede facilitar el trabajo clínico, pero también tiene el poder de causar un daño enorme a nuestros pacientes.
Donde la IA puede ayudar
Lo primero que debe ser enfatizado es que la IA es una herramienta. Como todas las herramientas, está diseñada para facilitar las cosas a las personas y permitirnos lograr más en menos tiempo. Dadas las tendencias actuales, esto podría traer muchos beneficios a los sistemas de atención médica en los EE. UU.
Más tiempo, menos consumirse
Para comprender mejor cómo los médicos pasan su tiempo, un estudio de 2016 publicado en Annals of Internal Medicine, 57 médicos fueron seguidos durante 430 horas. Veintiún participantes completaron diarios de días no laborables. Los autores encontraron que los médicos pasan el 27 por ciento de su tiempo de trabajo interactuando directamente con los pacientes en entornos clínicos y el 49,2 por ciento de su día en el trabajo de escritorio y los registros médicos electrónicos. [EHR]. Mientras estaban en la sala de examen, solo el 52,9 por ciento de su tiempo se dedicó al examen directo. Mientras tanto, los 21 participantes que completaron el diario fuera de clase informaron que dedicaron 1 o 2 horas adicionales de trabajo principalmente a las tareas de EHR.
El estudio documenta lo que cualquier persona que trabaje en el cuidado de la salud sabe desde hace años: se nos pide que hagamos una enorme cantidad de trabajo administrativo, y eso reduce el tiempo que pasamos con los pacientes y nuestras vidas fuera de la clínica. Reducir la cantidad de tiempo dedicado a tareas administrativas y en su mayoría rutinarias con herramientas de IA aumentará la cantidad de tiempo dedicado a interactuar directamente con los pacientes, además de brindar a los médicos más tiempo para socializar y relajarse. Considerando alta tasa de quemado incluso entre los médicos antes de la pandemia del COVID-19este último punto puede ayudar a los sistemas de salud en dificultades a retener a los trabajadores de la salud calificados.
paciente gestión
Además del aumento de las tasas de agotamiento, la cantidad de nuevos médicos que ingresan a la profesión se ha estancado. año 2022 informe Definitive Healthcare estima que 333 942 proveedores de atención médica (incluidos 117 000 médicos y más de 53 000 enfermeras) habrán dejado el campo en 2021, y su reemplazo no se está produciendo lo suficientemente rápido como para satisfacer las necesidades adicionales de las personas mayores y los sobrevivientes. . Incluso antes de la pandemia, la Asociación de Colegios Médicos Estadounidenses que lleva el nombre de es evaluado que habrá una escasez de 21 400 a 55 200 médicos de atención primaria y de 33 700 a 86 700 especialistas de atención no primaria para 2033. Los psiquiatras enfrentan desafíos adicionales porque alrededor 60 por ciento de ellos tienen 55 años o más, lo que significa que es probable que más de la mitad de los profesionales se jubilen en los próximos años. Según 2050, la escasez de psiquiatras puede superar los 30.000. papel en Psiquiátrico Servicios.
La necesidad de herramientas que aumenten la productividad de los médicos es imperativa si queremos asegurarnos de que aquellos que necesitan ayuda la obtengan, y ChatGPT ofrece algunas soluciones al permitir que los médicos accedan rápidamente a la información para mejorar el diagnóstico y conocer nuevos tratamientos. También puede ayudar a clasificar a los pacientes en los departamentos de emergencia.
Donde la IA no puede ayudar
Aunque la inteligencia artificial puede ser una herramienta muy eficaz en la clínica y más allá, existen tres limitaciones claras para el uso de la tecnología en el cuidado de la salud.
alucinaciones diagnósticas
La primera es muy simple: se sabe que ChatGPT reporta «alucinaciones» como respuestas precisas y correctas a las preguntas. escribiendo en Espectroreportero craig s. smith describe estas alucinaciones como «errores en el texto producido que son semántica o sintácticamente plausibles pero que en realidad son incorrectos o sin sentido».
Si bien la IA generativa puede ser una herramienta útil para que los profesionales de la salud distingan la realidad de la ficción, no puede complementar completamente el juicio médico informado.
Inclinación de la escala diagnóstica
Del mismo modo, los pacientes sin formación médica pueden utilizar ChatGPT para el autodiagnóstico. Aquí existe un doble peligro: ChatGPT puede convencer a un paciente de que tiene una enfermedad con un conjunto específico de síntomas. Luego puede proporcionar a los pacientes lo que es esencialmente una lista de libros de texto de los síntomas de dicha enfermedad. Cuando informan estos síntomas, y solo estos síntomas, a su médico, el médico puede diagnosticarlos erróneamente o seguir una línea de investigación que puede retrasar el diagnóstico correcto.
El Empatía Brecha
Finalmente, ChatGPT tiene el poder de transformar la medicina, pero no tiene modales nocturnos. No tiene capacidad para la empatía. Divorciado desde la emoción y el dolor, desde la inefable y óntica experiencia del ser humano, sólo un sucedáneo de alianza terapéutica puede crear esto. Para aquellos que necesitan una palabra de aliento reconfortante o un recordatorio para reducir la carga de inmediato. pánico Los chatbots de IA basados en ChatGPT pueden ser herramientas útiles, aunque aún pueden tener limitaciones debido a la falta de empatía. Sin embargo, para aquellos que necesitan ayuda para procesar trauma o que está en crisis, simplemente no está a la altura y puede encajar más daño que bien.
Este artículo fue escrito y editado por un ser humano sin la ayuda de herramientas generativas de IA.
[ad_2]
Source link