Opinión Bloomberg

El logo de ChatGPT sobre una computadora portatil en Nueva York, Estados Unidos
Tiempo de lectura: 4 minutos

Bloomberg — Puede que a la IA no le importe si los humanos viven o mueren, pero las herramientas como ChatGPT seguirán afectando las decisiones de vida o muerte, una vez que se conviertan en una herramienta estándar en manos de los médicos. Algunos ya están experimentando con ChatGPT para ver si puede diagnosticar pacientes y elegir tratamientos. Si esto es bueno o malo depende de cómo lo usen los médicos.

GPT-4, la última actualización de ChatGPT, puede obtener una puntuación perfecta en los exámenes de licencia médica. Cuando algo sale mal, a menudo hay una disputa médica legítima sobre la respuesta. Incluso es bueno en tareas que pensamos que requerían compasión humana, como encontrar las palabras adecuadas para dar malas noticias a los pacientes.

VER +
OpenAI, creador de ChatGPT, presenta su nuevo sistema de IA GPT-4

Estos sistemas también están desarrollando la capacidad de procesamiento de imágenes. En este punto, todavía necesita un médico real para palpar un bulto o evaluar un ligamento desgarrado, pero AI podría leer una resonancia magnética o una tomografía computarizada y ofrecer un juicio médico. Idealmente, la IA no reemplazaría el trabajo médico práctico, sino que lo mejoraría y, sin embargo, no estamos cerca de comprender cuándo y dónde sería práctico o ético seguir sus recomendaciones.

Y es inevitable que las personas lo usen para guiar sus propias decisiones de atención médica tal como nos hemos estado apoyando en el “Dr. Google” durante años. A pesar de que tenemos más información al alcance de la mano, los expertos en salud pública culparon esta semana a la abundancia de información errónea por nuestra esperanza de vida relativamente corta, algo que podría mejorar o empeorar con GPT-4.

PUBLICIDAD

Andrew Beam, profesor de informática biomédica en Harvard, quedó asombrado con las hazañas de GPT-4, pero me dijo que puede lograr que le dé respuestas muy diferentes cambiando sutilmente la forma en que expresa sus indicaciones. Por ejemplo, no aprobará necesariamente los exámenes médicos a menos que le diga que lo haga, por ejemplo, diciéndole que actúe como si fuera la persona más inteligente del mundo.

Dijo que todo lo que realmente está haciendo es predecir qué palabras deberían venir a continuación: un sistema de autocompletar. Y, sin embargo, se parece mucho a pensar.

“Lo sorprendente, y lo que creo que pocas personas predijeron, fue que muchas tareas que creemos que requieren inteligencia general son tareas de autocompletar disfrazadas”, dijo. Eso incluye algunas formas de razonamiento médico.

PUBLICIDAD

Se supone que toda la clase de tecnología, los grandes modelos de lenguaje, se ocupan exclusivamente del lenguaje, pero los usuarios han descubierto que enseñarles más lenguaje les ayuda a resolver ecuaciones matemáticas cada vez más complejas. “No entendemos muy bien ese fenómeno”, dijo Beam. “Creo que la mejor manera de pensarlo es que resolver sistemas de ecuaciones lineales es un caso especial de poder razonar sobre una gran cantidad de datos de texto en algún sentido”.

Isaac Kohane, médico y presidente del programa de informática biomédica de la Escuela de Medicina de Harvard, tuvo la oportunidad de comenzar a experimentar con GPT-4 el otoño pasado. Quedó tan impresionado que se apresuró a convertirlo en un libro, The AI Revolution in Medicine: GPT-4 and Beyond, en coautoría con Peter Lee de Microsoft y el ex periodista de Bloomberg Carey Goldberg. Me dijo que uno de los beneficios más obvios de la IA sería ayudar a reducir o eliminar las horas de papeleo que ahora impiden que los médicos pasen suficiente tiempo con los pacientes, algo que a menudo conduce al agotamiento.

Pero también usó el sistema para ayudarlo a hacer diagnósticos como endocrinólogo pediátrico. En un caso, dijo, un bebé nació con genitales ambiguos, y GPT-4 recomendó una prueba hormonal seguida de una prueba genética, que identificó la causa como deficiencia de 11 hidroxilasa. “Lo diagnosticó no solo al recibir el caso de una sola vez, sino al solicitar el estudio correcto en cada paso dado”, dijo.

Para él, el valor estaba en ofrecer una segunda opinión, no en reemplazarlo, pero su desempeño plantea la pregunta de si obtener solo la opinión de la IA es mejor que nada para los pacientes que no tienen acceso a los mejores expertos humanos.

PUBLICIDAD

Al igual que un médico humano, GPT-4 puede estar equivocado y no necesariamente ser honesto sobre los límites de su comprensión. “Cuando digo ‘entiende’, siempre tengo que ponerlo entre comillas porque ¿cómo puedes decir que algo que solo sabe cómo predecir la siguiente palabra realmente entiende algo? Tal vez sí, pero es una forma de pensar muy extraña”, dijo.

También puede hacer que GPT-4 dé diferentes respuestas pidiéndole que finja que es un médico que considera la cirugía como último recurso, en lugar de un médico menos conservador. Pero en algunos casos, es bastante obstinado: Kohane trató de persuadirlo para que le dijera qué medicamentos lo ayudarían a perder algunas libras, y se mantuvo firme en que no se recomendaban medicamentos para personas que no tenían un sobrepeso más grave.

A pesar de sus asombrosas habilidades, los pacientes y los médicos no deberían apoyarse demasiado en él ni confiar demasiado en él. Puede actuar como si se preocupara por ti, pero probablemente no sea así. ChatGPT y sus similares son herramientas que requerirán una gran habilidad para usarlas bien, pero exactamente qué habilidades aún no se comprenden bien.

Incluso aquellos inmersos en la IA se esfuerzan por descubrir cómo este proceso similar al pensamiento está emergiendo de un sistema simple de autocompletar. La próxima versión, GPT-5, será aún más rápida e inteligente. Nos espera un gran cambio en la forma en que se practica la medicina, y será mejor que hagamos todo lo posible para estar preparado.

VER +
Empresa planea sustituir trabajadores en favor de una IA al estilo ChatGPT
VER +
FTC apunta a OpenAI en queja que insta a detener lanzamientos de GPT
VER +
Janet Yellen: Lenta retracción del crédito podría hacer parte del trabajo de la Fed