Robots aprenden a realizar cirugías por sí solos viendo videos

Robots aprenden a realizar cirugías por sí solos viendo videos

Comparta este Artículo en:

Una nueva investigación demuestra cómo se podrían utilizar técnicas de entrenamiento de IA similares a las utilizadas para ChatGPT para entrenar a robots quirúrgicos para que operen por sí solos.

Investigadores de la Universidad John Hopkins y la Universidad de Stanford crearon un modelo de entrenamiento utilizando grabaciones de video de brazos robóticos controlados por humanos realizando tareas quirúrgicas.

Al aprender a imitar acciones en un video, los investigadores creen que pueden reducir la necesidad de programar cada movimiento individual necesario para un procedimiento. 

Los robots aprendieron a manipular agujas, hacer nudos y suturar heridas por sí solos.

Además, los robots entrenados fueron más allá de la mera imitación, corrigiendo sus propios errores sin que se les dijera, por ejemplo, recoger una aguja que se había caído.

Los científicos ya han comenzado la siguiente etapa del trabajo: combinar todas las diferentes habilidades en cirugías completas realizadas en cadáveres de animales.

En 2020 se realizaron aproximadamente 876.000 cirugías asistidas por robots.

Los instrumentos robóticos pueden llegar a lugares y realizar tareas en el cuerpo donde la mano de un cirujano nunca entraría, y no sufren temblores.

Los instrumentos finos y precisos pueden evitar daños a los nervios. Pero la robótica suele ser guiada manualmente por un cirujano con un controlador. El cirujano siempre está a cargo.

La preocupación de los escépticos de los robots más autónomos es que los modelos de IA como ChatGPT no son “inteligentes”, sino que simplemente imitan lo que ya han visto antes y no comprenden los conceptos subyacentes con los que están tratando.

La infinita variedad de patologías en una variedad incalculable de huéspedes humanos plantea un desafío, entonces: ¿qué pasa si el modelo de IA no ha visto un escenario específico antes?

Algo puede salir mal durante una cirugía en una fracción de segundo, ¿y qué pasa si la IA no ha sido entrenada para responder?

Como mínimo, los robots autónomos utilizados en cirugías tendrían que ser aprobados por la Administración de Alimentos y Medicamentos norteamericana.

En otros casos en los que los médicos utilizan la IA para resumir las visitas de sus pacientes y hacer recomendaciones, no se requiere la aprobación de la FDA porque técnicamente se supone que el médico debe revisar y avalar cualquier información que produzca.

Esto es preocupante porque ya hay evidencia de que los robots de IA harán malas recomendaciones o alucinarán e incluirán información en las transcripciones de las reuniones que nunca se pronunció.

¿Con qué frecuencia un médico cansado y sobrecargado de trabajo aprobará automáticamente lo que produzca una IA sin examinarlo de cerca?

Esto recuerda a los informes recientes sobre cómo los soldados en Israel confían en la IA para identificar objetivos de ataque sin examinar la información muy de cerca.

“Los soldados que estaban mal entrenados en el uso de la tecnología atacaron objetivos humanos sin corroborar en absoluto las predicciones [de la IA]”, se lee en un artículo del Washington Post.

“En ciertos momentos, la única corroboración requerida era que el objetivo fuera un hombre”.

Las cosas pueden salir mal cuando los humanos se vuelven complacientes y no están lo suficientemente informados.

La atención médica es otro campo con mucho en juego, ciertamente más que el mercado de consumo.

Si Gmail resume un correo electrónico incorrectamente, no es el fin del mundo.

Los sistemas de inteligencia artificial que diagnostican incorrectamente un problema de salud, o cometen un error durante una cirugía, son un problema mucho más grave. ¿Quién es responsable en ese caso?

El Post entrevistó al director de cirugía robótica de la Universidad de Miami, y esto es lo que tenía que decir:

Hay mucho en juego”, dijo, “porque se trata de una cuestión de vida o muerte”.

La anatomía de cada paciente es diferente, al igual que la forma en que una enfermedad se comporta en los pacientes.

“Observo [las imágenes de] tomografías computarizadas y resonancias magnéticas y luego realizo la cirugía”, controlando brazos robóticos, dijo Parekh.

“Si quieres que el robot realice la cirugía por sí mismo, tendrá que entender todas las imágenes, cómo leer las tomografías computarizadas y las resonancias magnéticas”.

Además, los robots tendrán que aprender a realizar cirugías laparoscópicas, que utilizan incisiones muy pequeñas.

La idea de que la IA será infalible es difícil de tomar en serio cuando ninguna tecnología es perfecta.

Sin duda, esta tecnología autónoma es interesante desde una perspectiva de investigación, pero las consecuencias de una cirugía chapucera realizada por un robot autónomo serían monumentales.

¿A quién se castiga cuando algo sale mal, a quién se le revoca la licencia médica?

Los humanos tampoco son infalibles, pero al menos los pacientes tienen la tranquilidad de saber que han pasado por años de entrenamiento y pueden ser considerados responsables si algo sale mal.

Los modelos de IA son simulacros burdos de humanos, a veces se comportan de manera impredecible y no tienen brújula moral.

Si los médicos están cansados ​​y sobrecargados de trabajo (una de las razones por las que los investigadores sugirieron que esta tecnología podría ser valiosa), tal vez se deban abordar los problemas sistémicos que causan la escasez.

Se ha informado ampliamente que Estados Unidos está experimentando una escasez extrema de médicos debido a la creciente inaccesibilidad de este campo.

El país está en camino de experimentar una escasez de entre 10.000 y 20.000 cirujanos para 2036, según la Asociación Estadounidense de Facultades de Medicina.

Fuente: Gizmodo

 

Leave a Reply

Your email address will not be published. Required fields are marked *