Google lleva meses probando inteligencia artificial médica en hospitales

Google lleva meses probando inteligencia artificial médica en hospitales

Comparta este Artículo en:

Google ha estado probando silenciosamente un chatbot médico de IA en hospitales durante meses.

Desde abril, científicos han estado probando el bot denominado Med-PaLM 2 en el hospital de investigación Mayo Clinic, entre otros hospitales, según The Wall Street Journal.

El bot es una iteración específica para medicamentos de PaLM 2 de Google, un poderoso modelo de lenguaje grande que se presentó por primera vez en el discurso de apertura de I/O de la compañía en mayo. (PaLM 2 también impulsa al competidor ChatGPT de Google, Bard).

Med-PaLM 2 está capacitado específicamente en exámenes de licencias médicas y está diseñado para brindar a los usuarios asesoramiento médico.

También está destinado a organizar datos de atención médica y resumir documentos.

La noticia llega solo unos meses después de que Microsoft anunciara su propia versión de un chatbot similar orientado a la medicina llamado BioGPT.

Aunque, si BioGPT es algo por lo que pasar, tener profesionales de la salud que usen un producto como este no está exento de riesgos.

Cuando se probó el modelo de Microsoft en marzo, se descubrió que el chatbot, al igual que otros, tenía un serio problema con la fabricación de información, la obtención de citas científicas falsas, las afirmaciones extravagantes sobre fantasmas en los hospitales e incluso la repetición de información errónea sobre vacunas.

Con ese fin, los médicos que trabajan con Med-PaLM 2 descubrieron que los resultados del bot “incluyeron más contenido inexacto o irrelevante en sus respuestas que las de sus pares“.

Un artículo aún no revisado por pares de los ingenieros de Google DeepMind compartido en mayo también encontró que, si bien la máquina realmente funcionó a la par o mejor que los médicos humanos en varias métricas, incluida la recuperación de conocimientos y la comprensión de lectura, los errores en las respuestas de la IA eran rampantes.

En otras palabras, Google aún tiene que demostrar que su modelo es confiable en una de las principales cosas para las que está diseñado: ofrecer consejos médicos precisos a escala.

Y eso, por supuesto, es tremendamente importante.

Un error en un ensayo escolar escrito por Bard podría hacer que un estudiante obtenga una mala calificación.

Por otro lado, los consejos médicos escritos con confianza, pero llenos de errores, podrían tener graves consecuencias para la salud.

En cuanto a quién podría hacer uso de dicho chatbot, Google podría estar apuntando su herramienta al mundo en desarrollo.

Un correo electrónico interno de Google a los empleados de abril revisado por el WSJ explicó que Med-PaLM 2 podría “ser de gran valor en países que tienen un acceso más limitado a los médicos“.

Aún así, incluso los altos mandos de Google Research admiten que la tecnología no está exactamente donde debería estar, al menos no por el bien de su propia familia.

“No siento que este tipo de tecnología esté todavía en un lugar en el que la querría en el viaje de atención médica de mi familia“, dijo al WSJ Greg Corrado, director senior de investigación en Google que trabajó en el producto.

A pesar de estas evidentes deficiencias, Corrado todavía cree en el potencial de la tecnología y le dijo al periódico que Med-PaLM 2 “toma lugares en el cuidado de la salud donde la IA puede ser beneficiosa y los expande diez veces”.

Fuente: The Wall Street Journal

Leave a Reply

Your email address will not be published. Required fields are marked *