Investigadores del MIT han ideado un método novedoso para recopilar más información de las imágenes utilizadas para entrenar modelos de aprendizaje automático, incluidos aquellos que pueden analizar exploraciones médicas para ayudar a diagnosticar y tratar enfermedades cerebrales.
Una nueva área activa en medicina implica la capacitación de modelos de aprendizaje profundo para detectar patrones estructurales en escáneres cerebrales asociados con enfermedades y trastornos neurológicos, como la enfermedad de Alzheimer y la esclerosis múltiple.
Pero recopilar datos de entrenamiento es laborioso: todas las estructuras anatómicas en cada exploración deben estar delineadas por separado o etiquetadas a mano por expertos neurológicos.
Y, en algunos casos, como en el caso de enfermedades cerebrales raras en los niños, en primer lugar solo pueden estar disponibles algunas exploraciones.
En un artículo presentado en la reciente Conferencia sobre Visión por Computador y Reconocimiento de Patrones, investigadores del MIT describen un sistema que utiliza un solo escaneo etiquetado, junto con escaneos no etiquetados, para sintetizar automáticamente un conjunto de datos masivo de distintos ejemplos de entrenamiento.
El conjunto de datos se puede utilizar para entrenar mejor los modelos de aprendizaje automático para encontrar estructuras anatómicas en nuevos escaneos: cuanto más datos de entrenamiento, mejores serán esas predicciones.
El punto crucial del trabajo es la generación automática de datos para el proceso de “segmentación de imagen”, que divide una imagen en regiones de pixeles que son más significativas y fáciles de analizar.
Para hacerlo, el sistema utiliza una red neuronal convolucional (CNN), un modelo de aprendizaje automático que se ha convertido en una fuente inagotable de tareas de procesamiento de imágenes.
La red analiza una gran cantidad de exploraciones sin etiquetas de diferentes pacientes y diferentes equipos para “aprender” las variaciones anatómicas, de brillo y de contraste.
Luego, aplica una combinación aleatoria de esas variaciones aprendidas a un solo escaneo etiquetado para sintetizar nuevos escaneados que son realistas y están etiquetados con precisión.
Estas exploraciones recién sintetizadas se incorporan a una CNN diferente que aprende a segmentar nuevas imágenes.
“Esperamos que esto haga que la segmentación de la imagen sea más accesible en situaciones realistas en las que no tiene muchos datos de entrenamiento”, dice la primera autora Amy Zhao, estudiante graduada del Departamento de Ingeniería Eléctrica y Ciencias de la Computación (EECS) y Laboratorio de Informática e Inteligencia Artificial (CSAIL).
“En nuestro enfoque, puede aprender a imitar las variaciones en escaneos sin etiqueta para sintetizar de manera inteligente un gran conjunto de datos para capacitar a su red”.
Hay interés en usar el sistema, por ejemplo, para ayudar a entrenar modelos de análisis predictivo en el Hospital General de Massachusetts, dice Zhao, donde solo pueden existir una o dos exploraciones etiquetadas de afecciones cerebrales particularmente infrecuentes en pacientes infantiles.
Aunque ahora se aplica a imágenes médicas, el sistema realmente comenzó como un medio para sintetizar datos de entrenamiento para una aplicación de teléfono inteligente que podría identificar y recuperar información sobre las tarjetas del popular juego de cartas coleccionables “Magic: The Gathering”.
Lanzada a principios de la década de 1990, “Magic” tiene más de 20,000 cartas únicas, con más lanzadas cada pocos meses, que los jugadores pueden usar para construir mazos personalizados.
Zhao, un ávido jugador “Magic”, quería desarrollar una aplicación que funciona con CNN que tomara una foto de cualquier tarjeta con una cámara de teléfono inteligente y extrajera automáticamente información como el precio y la calificación de las bases de datos de tarjetas en línea.
“Cuando estaba escogiendo cartas de una tienda de juegos, me cansé de ingresar todos sus nombres en mi teléfono y buscar clasificaciones y combinaciones”, dice Zhao.
“¿No sería increíble si pudiera escanearlos con mi teléfono y obtener esa información?”
Pero se dio cuenta de que es una tarea muy difícil de entrenamiento de visión por computadora.
“Necesitarías muchas fotos de las 20,000 tarjetas, bajo todas las diferentes condiciones de iluminación y ángulos. Nadie va a recopilar ese conjunto de datos”, dice Zhao.
En cambio, Zhao entrenó a una CNN en un conjunto de datos más pequeño de alrededor de 200 tarjetas, con 10 fotos distintas de cada tarjeta, para aprender a deformar una tarjeta en varias posiciones.
Pat cialis generika is next to Brandon’s side every step of the way. Due to these properties shukra dhatu cialis australia check out this increases. Skipping medications for engaging in sexual relations is both common and serious conditions is on cheap viagra 25mg the rise. This is a great option for individuals who do not like swallowing tablets with prescription levitra water.Calculó diferentes luces, ángulos y reflexiones, para cuando las tarjetas se colocan en fundas de plástico, para sintetizar versiones distorsionadas realistas de cualquier tarjeta en el conjunto de datos.
Fue un proyecto apasionante, dice Zhao:
“Pero nos dimos cuenta de que este enfoque era muy adecuado para las imágenes médicas, porque este tipo de deformación encaja muy bien con las resonancias magnéticas”.
Las imágenes de resonancia magnética (IRM) están compuestas de pixeles tridimensionales, llamados vóxeles.
Al segmentar las resonancias magnéticas, los expertos separan y etiquetan las regiones de voxel según la estructura anatómica que las contiene.
La diversidad de exploraciones, causada por las variaciones en los cerebros individuales y el equipo utilizado, plantea un desafío al uso del aprendizaje automático para automatizar este proceso.
Algunos métodos existentes pueden sintetizar ejemplos de entrenamiento a partir de exploraciones etiquetadas usando “aumento de datos”, que deforma los voxels etiquetados en diferentes posiciones.
Pero estos métodos requieren que los expertos escriban a mano varias pautas de aumento, y algunos análisis sintetizados no se parecen en nada a un cerebro humano realista, lo que puede ser perjudicial para el proceso de aprendizaje.
En cambio, el sistema de los investigadores aprende automáticamente cómo sintetizar exploraciones realistas.
Los investigadores entrenaron su sistema en 100 exploraciones sin etiqueta de pacientes reales para calcular transformaciones espaciales: correspondencias anatómicas de exploración a exploración.
Esto generó tantos “campos de flujo”, los cuales modelan cómo los voxels se mueven de un escaneo a otro.
Simultáneamente, calcula las transformaciones de intensidad, que capturan las variaciones de apariencia causadas por el contraste de la imagen, el ruido y otros factores.
Al generar una nueva exploración, el sistema aplica un campo de flujo aleatorio a la exploración etiquetada original, que se desplaza alrededor de los voxels hasta que coincida estructuralmente con una exploración real, sin etiquetas.
Luego, se superpone a una transformación de intensidad aleatoria.
Finalmente, el sistema asigna las etiquetas a las nuevas estructuras, siguiendo cómo se movieron los voxels en el campo de flujo.
Al final, las exploraciones sintetizadas se parecen mucho a las exploraciones reales, sin etiquetar, pero con etiquetas precisas.
Para probar su precisión automatizada de segmentación, los investigadores utilizaron las puntuaciones Dice, que miden qué tan bien se ajusta una forma 3D a otra, en una escala de 0 a 1.
Compararon su sistema con los métodos tradicionales de segmentación (manual y automatizado) en 30 estructuras cerebrales diferentes en 100 exploraciones de prueba prolongadas.
Las estructuras grandes fueron comparativamente exactas entre todos los métodos.
Pero el sistema de los investigadores superó a todos los otros enfoques en estructuras más pequeñas, como el hipocampo, que ocupa solo alrededor del 0,6 por ciento de un cerebro, por volumen.
“Eso demuestra que nuestro método mejora con respecto a otros métodos, especialmente a medida que te adentras en las estructuras más pequeñas, lo que puede ser muy importante para comprender la enfermedad”, dice Zhao.
“Y lo hicimos mientras solo necesitábamos un solo escaneo etiquetado a mano”.
Fuente: Noticias de la Ciencia
RT-G es un robot avanzado diseñado para escenarios de confrontación. (more…)
Los modelos de aprendizaje automático pueden fallar cuando intentan hacer predicciones para individuos que estaban…
La IA ha llegado a un mercado que estaba maduro para la disrupción: los libros…
Modelar cómo se deforman los automóviles en un choque, cómo responden las naves espaciales a…
Investigadores chinos han afirmado que su unidad generó una producción de electricidad estable durante 160…
Recientemente, Sanctuary AI presentó su mano robótica que ahora es capaz de manipular objetos. (more…)