Internacionales

Médicos utilizan las herramientas de inteligencia artificial para registrar citas y redactar mensajes

Si recibe mensajes demasiado amigables de sus médicos no se sorprenda, podrían estar recibiendo ayuda de la inteligencia artificial.

Los médicos están recibiendo ayuda de la inteligencia artificial para comunicarse mejor con sus pacientes , algunos la usan para responder mensajes y otros para tomar notas durante exámenes. Hace 15 meses Open AI lanzó Chat GPT y miles de médicos ya están utilizando modelos similares basados en un lenguaje que ayuda en ciertos criterios. Una empresa asegura manejar una herramienta que funciona en 14 idiomas.

Para algunos entusiastas la IA ayuda a ahorrar tiempo a los médicos y prevenir agotamiento. También mejora la relación médico-paciente, planteando confianza, transparencia, privacidad y conexión. Pero también podrían estar afectando a los pacientes.

La IA en los últimos años han ayudado a los pacientes a leer mamografías, diagnosticar enfermedades oculares y detectar problemas cardíacos. Y ahora está ayudando a responder a instrucciones complejas mediante predicción de lenguaje gracias a capacidad generativa. También podría, mediante una aplicación de teléfono inteligente con tecnología artificial, grabar, documentar y organizar todo instantáneamente en una nota para posteriormente ser leída. La herramienta puede significar más dinero para el empleador del médico al tener presentes detalles que legítimamente podrían facturase al seguro. 

Antes de usar la herramienta el médico deberá pedir el consentimiento de su paciente. Es posible encontrar una nueva redacción en los formularios que firma en el consultorio médico. Los médicos también estarían redactando un mensaje con ayuda de la IA sin que usted se entere.

Antes de ser enviados los mensajes generados por la IA deben ser aprobados por los médicos o enfermeras. En un sistema salud médico de Colorado los mensajes contienen un mensaje que informan haber sido generados automáticamente, pero los médico tienen la opción de eliminar esa línea. Algunos modelos, en su mayoría de lenguajes grandes, pueden malinterpretar los mensajes y fabricar respuestas inexactas, a ese efecto se lo llama alucinación. Las nuevas herramientas cuentan con barreras de seguridad internas que evitan que las imprecisiones lleguen a los pacientes o a los registros médicos.

A través de varios modelos de lenguaje grandes la herramienta ejecuta la conversación médico-paciente y elimina las ideas extrañas, una forma de eliminar las alucinaci0nes.