El ejércicio de la medicina exige una relación directa e inmediata entre el enfermo y su médico. No se puede sustituir con nada, ni siquiera con una “atención” teléfónica, como se hizo durante la pandemia. Un médico mínimamente digno debería rechazar ese tipo de intervenciones.
La atención médica tampoco se puede sustituir con la llamada “inteligencia artificial”, que es la última moda entre quienes quieren acabar con la sanidad pública. En Estados Unidos OpenAI ha puesto en marcha Whisper, una herramienta de transcripción destinada a trabajadores de la sanidad
Whisper es un sistema avanzado de reconocimiento automático de voz, diseñado específicamente para transcribir el lenguaje hablado en texto. Está integrado en algunas versiones de ChatGPT, así como en aplicaciones en la nube de Oracle y Microsoft.
La “inteligencia artificial” se trató de perfeccionar basándose en el lenguaje médico y se integró en una herramienta comercializada por la empresa Nabla. El objetivo era transcribir las interacciones de los médicos con sus pacientes con el pretexto de “ahorrar tiempo”.
Más de 30.000 médicos y 40 sistemas de salud lo utilizan. En total se han transcrito alrededor de 7 millones de visitas médicas, estima Nabla.
Como es lógico, Whisper no ha tardado en alucinar e inventar cosas que los pacientes nunca dijeron. Un equipo de investigadores que trabajan en diferentes universidades estadounidenses analizaron 13.000 extractos de audio de las transcripciones de Whisper. Identificaron nada menos que 187 alucinaciones, es decir informaciones falsas o inventadas.
El hecho de ocurran alucinaciones en un tratamiento es preocupante porque conduce a diagnósticos erróneos. Los investigadores concluyen que casi el 40 por ciento de las alucinaciones de Whisper eran perjudiciales para la salud del enfermo.
Además, es imposible comparar la transcripción generada por Nabla con la grabación original, porque la herramienta borra el audio por “razones de seguridad de los datos”.
Los portavoces de Nabla dijeron que eran conscientes de que Whisper podía tener alucinaciones y que estaban trabajando para resolver el problema. Por su parte, OpenAI reitera que su “inteligencia artificial” se debe usar de manera responsable: “Nuestras políticas incluyen recomendaciones contra su uso en áreas de alto riesgo”.
La pregunta es qué entiende una empresa informática por “alto riesgo” cuando se refiere a la salud de una persona.
(*) https://facctconference.org/static/papers24/facct24-111.pdf