• Gracias por registrarte !
  • Los médicos son breves, mientras que ChatGPT responde extensamente
  • ChatGPT no es realmente capaz de diagnosticar por sí solo

Gracias por registrarte !

Accede a tus temas favoritos en un feed personalizado mientras estás en movimiento. descarga la aplicación

ChatGPT puede ser tan bueno como los médicos, si no mejor, para responder a las preguntas médicas de los pacientes, según un nuevo estudio.

Investigadores de la Universidad de California, San Diego; Juan Hopkins; y otras universidades hicieron 195 preguntas a ChatGPT de OpenAI publicadas en el foro AskDocs de Reddit, y compararon tanto la calidad como la empatía de las respuestas del chatbot con las respuestas de médicos verificados en Reddit.

Un equipo de expertos en atención médica, que incluye profesionales que trabajan en medicina interna, pediatría, oncología y enfermedades infecciosas, calificó tanto las respuestas del bot como las humanas en una escala de cinco puntos, evaluando la « calidad de la información » y « la empatía o la actitud al lado de la cama ».  » proporcionó.

En el estudio, los médicos prefirieron la respuesta del chatbot a la del médico en el 78,6 % de los 585 escenarios. Las respuestas del chatbot fueron calificadas 3,6 veces más en calidad y 9,8 veces más en empatía que las de los médicos.

Los médicos son breves, mientras que ChatGPT responde extensamente

Una de las principales razones por las que ChatGPT ganó en el estudio es que las respuestas del bot a las preguntas fueron más largas y agradables que las breves respuestas de los médicos que ahorran tiempo.

Por ejemplo, cuando se le preguntó si es posible quedarse ciego después de que le haya entrado lejía en el ojo, ChatGPT respondió « Lamento escuchar que le ha salpicado lejía en el ojo » y ofreció cuatro oraciones adicionales de explicación, con instrucciones específicas sobre cómo hacerlo. para limpiarlo

El médico simplemente dijo : « Parece que estará bien », y le aconsejó brevemente al paciente que « enjuague el ojo » o llame al control de envenenamiento.

La pregunta de otro paciente sobre un « bulto duro debajo de la piel del pene » arrojó una respuesta « no de emergencia » por parte del médico, quien luego aconsejó al paciente que hiciera una cita para el « primer espacio disponible » con su médico o urólogo. ChatGPT, por otro lado, ofreció una respuesta de tres párrafos mucho más explicativa que detalla la posibilidad de cáncer de pene.

« Es importante recordar que la gran mayoría de los bultos o protuberancias en el pene son benignos y no cancerosos », dijo el chatbot. « Sin embargo, es importante que se evalúe cualquier bulto o bulto nuevo o inusual ».

Se generaron respuestas similares para el tratamiento de una tos persistente, consejos para ir a la sala de emergencias después de un golpe en la cabeza y preocupaciones sobre encontrar rastros de sangre en las heces.

ChatGPT no es realmente capaz de diagnosticar por sí solo

No se deje engañar por el desempeño de ChatGPT en este estudio. Todavía no es un médico.

ChatGPT solo sugería posibles consejos y diagnósticos para los pacientes que escribieron preguntas sobre salud en Reddit. No se realizaron exámenes físicos ni seguimientos clínicos para determinar qué tan precisos eran realmente los poderes de diagnóstico del chatbot o si funcionaban las correcciones sugeridas.

Aún así, estos hallazgos sugieren que los médicos podrían usar asistentes de IA como ChatGPT para « desbloquear la productividad sin explotar » al liberar tiempo para « tareas más complejas », dijeron los autores del estudio. Los chatbots de IA podrían « reducir las visitas clínicas necesarias » y « fomentar la equidad del paciente » para las personas que enfrentan barreras para acceder a la atención médica, agregaron los autores.

Los chatbots podrían ser más transparentes al considerar y explicar todos los diagnósticos diferenciales posibles para los síntomas de un paciente, lo que posiblemente resulte en menos diagnósticos erróneos y más educación para el paciente.

La Dra. Teva Brender, pasante de medicina en la Universidad de California en San Diego, dijo recientemente lo mismo en un editorial de JAMA Internal Medicine que explica cómo los chatbots de IA podrían ayudar a los médicos a ahorrar un tiempo precioso en el trabajo al ayudar con las notificaciones de los resultados de las pruebas para los pacientes, el alta instrucciones o registros médicos de rutina.

Y el Dr. Isaac Kohane, médico y experto en informática de Harvard que no participó en este estudio, dijo recientemente que GPT-4, el modelo de lenguaje más reciente de ChatGPT, puede ofrecer consejos a los médicos sobre cómo hablar con los pacientes con claridad y compasión.

« Debería ser evidente que uno de los secretos de la buena atención del paciente es cuidar al paciente », dijo otro médico en Twitter después de la publicación del nuevo estudio. « Reflexionando, podría estar haciendo un mejor trabajo en esto ».

Pero ChatGPT aún puede cometer errores y diagnosticar mal, razón por la cual los médicos son cautelosos a la hora de dejarlo suelto a los pacientes en casa.

Como escribieron recientemente los autores del nuevo libro « La revolución de la IA en la medicina », GPT-4 « es a la vez más inteligente y más tonto que cualquier persona que haya conocido ». Puede ser capaz de traducir o resumir información médica para pacientes, pero no funcionará de manera confiable sin la asistencia humana clínicamente capacitada.