Gracias por registrarte !

Accede a tus temas favoritos en un feed personalizado mientras estás en movimiento. descarga la aplicación

A medida que se amplían los casos de uso de ChatGPT, una empresa está utilizando la inteligencia artificial para experimentar con la atención de la salud mental digital, arrojando luz sobre las áreas grises éticas en torno al uso de la tecnología.

Rob Morris, cofundador de Koko, un servicio de salud mental gratuito y sin fines de lucro que se asocia con comunidades en línea para encontrar y tratar a personas en riesgo, escribió en un hilo de Twitter el viernes que su compañía usaba chatbots GPT-3 para ayudar a desarrollar respuestas a 4.000 usuarios.

Morris dijo en el hilo que la compañía probó un « enfoque de copiloto con humanos que supervisan la IA según sea necesario » en mensajes enviados a través del soporte de pares de Koko, una plataforma que describió en un video adjunto como « un lugar donde puede obtener ayuda de nuestro trabajar en red o ayudar a alguien más ».

« Hacemos que sea muy fácil ayudar a otras personas y con GPT-3 estamos haciendo que sea aún más fácil ser más eficiente y efectivo como proveedor de ayuda », dijo Morris en el video.

ChatGPT es una variante de GPT-3, que crea texto similar al humano basado en avisos, ambos creados por OpenAI.

Inicialmente, a los usuarios de Koko no se les informó que las respuestas fueron desarrolladas por un bot, y « una vez que las personas supieron que los mensajes fueron co-creados por una máquina, no funcionó », escribió Morris el viernes.

« La empatía simulada se siente extraña, vacía. Las máquinas no han vivido la experiencia humana, así que cuando dicen ‘eso suena difícil’ o ‘entiendo’, suena falso », escribió Morris en el hilo. « Una respuesta de chatbot que se genera en 3 segundos, sin importar cuán elegante sea, se siente barata de alguna manera ».

Sin embargo, el sábado, Morris tuiteó « alguna aclaración importante ».

« No estábamos emparejando personas para chatear con GPT-3, sin su conocimiento. (En retrospectiva, podría haber redactado mi primer tweet para reflejar mejor esto) », decía el tweet.

« Esta función fue opcional. Todos sabían sobre la función cuando estuvo activa durante unos días ».

Morris dijo el viernes que Koko « sacó esto de nuestra plataforma bastante rápido ». Señaló que los mensajes basados ​​en IA fueron « calificados significativamente más altos que los escritos por humanos », y que los tiempos de respuesta se redujeron en un 50 % gracias a la tecnología.

Preocupaciones éticas y legales

El experimento provocó protestas en Twitter, con algunos profesionales de la salud pública y la tecnología denunciando que la compañía violó la ley de consentimiento informado, una política federal que exige que los sujetos humanos brinden su consentimiento antes de participar en investigaciones.

« Esto es profundamente poco ético », tuiteó el sábado el estratega de medios y autor Eric Seufert.

« Vaya, no admitiría esto públicamente », tuiteó el viernes Christian Hesketh, quien se describe a sí mismo en Twitter como científico clínico. « Los participantes deberían haber dado su consentimiento informado y esto debería haber pasado por un IRB. »

Morris dijo que la compañía « no estaba emparejando personas para chatear con GPT-3 » y dijo que la opción de usar la tecnología se eliminó después de darse cuenta de que « parecía una experiencia no auténtica ».

« Más bien, estábamos ofreciendo a nuestros compañeros de apoyo la oportunidad de usar GPT-3 para ayudarlos a redactar mejores respuestas », dijo. « Estaban recibiendo sugerencias para ayudarlos a escribir más respuestas de apoyo más rápidamente ».

« Cada individuo tiene que dar su consentimiento para usar el servicio », dijo Morris. « Si se tratara de un estudio universitario (que no lo es, solo se exploró una característica del producto), entraría en una categoría de investigación ‘exenta' ».

Continuó : « Esto no impuso más riesgos para los usuarios, no hubo engaño, y no recopilamos ninguna información de identificación personal o información de salud personal (ni correo electrónico, número de teléfono, IP, nombre de usuario, etc.) ».

ChatGPT y el área gris de la salud mental

Aún así, el experimento está generando dudas sobre la ética y las áreas grises que rodean el uso de chatbots de IA en la atención médica en general, después de haber provocado malestar en la academia.

« Ningún grupo psiquiátrico o psicológico ha verificado su eficacia o establecido riesgos potenciales ».

Agregó que las personas con enfermedades mentales « requieren una sensibilidad especial en cualquier experimento », incluida la « revisión detallada por parte de un comité de ética de investigación o una junta de revisión institucional antes, durante y después de la intervención ».

Caplan dijo que el uso de la tecnología GPT-3 de tal manera podría afectar su futuro en la industria de la salud en general.

« ChatGPT puede tener un futuro al igual que muchos programas de inteligencia artificial, como la cirugía robótica », dijo. « Pero lo que sucedió aquí solo puede retrasar y complicar ese futuro ».

« Espero que eso no se pierda aquí », dijo.