El aprendizaje automático puede reducir los tiempos de desarrollo y ahorrar millones en investigación y desarrollo.
Los sistemas inmunes de todo el mundo han estado trabajando horas extras este invierno a medida que se desata una devastadora temporada de gripe.
Según los CDC, más de 180,000 estadounidenses han sido hospitalizados y 10,000 más han muerto en los últimos meses, mientras que el coronavirus (ahora oficialmente designado COVID-19) se ha extendido por todo el mundo a un ritmo alarmante.
El temor a un creciente brote de gripe en todo el mundo incluso ha provocado la cancelación preventiva del MWC 2020, apenas una semana antes de que se abriera en Barcelona.
Pero en el futuro cercano, el desarrollo de medicamentos ayudados por IA podría ayudar a producir vacunas y tratamientos lo suficientemente rápido como para detener la propagación de virus mortales antes de que muten en pandemias globales.
Los métodos convencionales para el desarrollo de fármacos y vacunas son tremendamente ineficientes.
Los investigadores pueden pasar casi una década investigando laboriosamente la molécula candidata tras molécula candidata mediante técnicas intensivas de prueba y error.
Según un estudio de 2019 realizado por el Centro Tufts para el Estudio del Desarrollo de Medicamentos, el desarrollo de un solo tratamiento de drogas cuesta en promedio US$ 2.6 mil millones, más del doble de lo que costó en 2003, con solo alrededor del 12 por ciento entrando en desarrollo clínico y obteniendo la aprobación de la FDA .
“Siempre tienes la FDA“, dijo a Engadget la Dra. Eva-Maria Strauch, profesora asistente de ciencias farmacéuticas y biomédicas de la Universidad de Georgia. “La FDA realmente tarda de cinco a 10 años en aprobar un medicamento“.
Sin embargo, con la ayuda de los sistemas de aprendizaje automático, los investigadores biomédicos pueden esencialmente cambiar la metodología de ensayo y error.
En lugar de probar sistemáticamente cada tratamiento potencial manualmente, los investigadores pueden usar una IA para clasificar a través de bases de datos masivas de compuestos candidatos y recomendar los que tienen más probabilidades de ser efectivos.
“Muchas de las preguntas que realmente enfrentan los equipos de desarrollo de medicamentos ya no son el tipo de preguntas que las personas piensan que pueden manejar simplemente clasificando los datos en sus cabezas“, dijo S. Joshua Swamidass, biólogo computacional de la Universidad de Washington, a The Scientist en 2019.
“Debe haber algún tipo de forma sistemática de mirar grandes cantidades de datos … para responder preguntas y obtener una idea de cómo hacer las cosas“.
Por ejemplo, la terbinafina es un medicamento antimicótico oral que se comercializó en 1996 como Lamifil, un tratamiento para la candidiasis.
Sin embargo, en tres años, varias personas informaron efectos adversos al tomar el medicamento y en 2008, tres personas murieron por toxicidad hepática y otras 70 enfermaron.
Los médicos descubrieron que un metabolito de la terbinafina (TBF-A) era la causa del daño hepático, pero en ese momento no podían entender cómo se producía en el cuerpo.
Esta vía metabólica siguió siendo un misterio para la comunidad médica durante una década hasta 2018, cuando Na Le Dang, estudiante graduada de la Universidad de Washington, entrenó a una IA en vías metabólicas y le pidió a la máquina que descubriera las posibles formas en que el hígado podría descomponer la terbinafina en TBF-A .
Resulta que crear el metabolito tóxico es un proceso de dos pasos, uno que es mucho más difícil de identificar experimentalmente pero lo suficientemente simple de detectar para las poderosas capacidades de reconocimiento de patrones de una IA.
De hecho, más de 450 medicamentos han sido retirados del mercado en los últimos 50 años, muchos de ellos por causar toxicidad hepática como lo hizo Lamifil.
La FDA lanzó el sitio web Tox21.gov, una base de datos en línea de moléculas y su toxicidad relativa contra varias proteínas humanas importantes.
Al entrenar a una IA en este conjunto de datos, los investigadores esperan determinar más rápidamente si un posible tratamiento causará efectos secundarios graves o no.
“Hemos tenido un desafío en el pasado esencialmente, ‘¿Puedes predecir la toxicidad de estos compuestos de antemano?‘”, dijo a Engadget Sam Michael CIO del Centro Nacional para el Avance de las Ciencias Translacionales que ayudó a crear la base de datos.
“Esto es exactamente lo contrario de lo que hacemos para la detección de moléculas pequeñas para productos farmacéuticos.
No queremos encontrar un éxito, queremos decir ‘Oye, hay una probabilidad de que este [compuesto sea tóxico]‘”.
Cuando las IA no están ocupadas desentrañando misterios médicos de hace una década, están ayudando a diseñar una mejor vacuna contra la gripe.
Now, however, it looks like cialis generika all the trouble has been left in the past, and the two parties are starting over again. Young men working under high pressure, stress, sedentary lifestyle and lack of physical activity are the most likely culprits and it’s here that you should start making some changes. usa viagra no prescription Dosage routine This dosage ought to be taken when you are buying Kamagra: * Make sure you brand levitra online consult the doctor. You should know about the reactions of the drug and they can trouble prescription viagra without you a considerable measure.En 2019, investigadores de la Universidad de Flinders en Australia usaron una IA para “sobrealimentar” una vacuna contra la gripe común para que el cuerpo produzca concentraciones más altas de anticuerpos cuando se expone a ella.
Bueno, técnicamente, los investigadores no “usaron” una IA, sino que la encendieron y se apartaron de su camino, ya que diseñó una vacuna completamente sola.
El equipo, dirigido por el profesor de medicina de la Universidad de Flinders, Nikolai Petrovsky, construyó por primera vez la IA Sam ( Search Algorithm for Ligands ) (Algoritmo de búsqueda de ligandos).
Sam está entrenada para diferenciar entre moléculas que son efectivas contra la gripe de aquellas que no lo son.
Luego, el equipo entrenó a un segundo programa para generar billones de posibles estructuras de compuestos químicos y alimentó a Sam nuevamente, que decidió decidir si serían eficaces o no.
Luego, el equipo tomó a los principales candidatos y los sintetizó físicamente.
Pruebas posteriores en animales confirmaron que la vacuna aumentada fue más efectiva que su predecesora no mejorada.
Los ensayos iniciales en humanos comenzaron en los EE. UU. a principios de año y se espera que duren unos 12 meses.
Si el proceso de aprobación se lleva a cabo sin problemas, la vacuna turboalimentada podría estar disponible públicamente en un par de años.
No está mal para una vacuna que solo tardó dos años (en lugar de los 5 a 10 normales) en desarrollarse.
Si bien los sistemas de aprendizaje automático pueden filtrar enormes conjuntos de datos mucho más rápido que los investigadores biológicos y realizar estimaciones informadas precisas con conexiones mucho más tenues, los humanos permanecerán en el ciclo de desarrollo de fármacos en el futuro previsible.
Por un lado, ¿quién más va a generar, cotejar, indexar, organizar y etiquetar todos los datos de entrenamiento necesarios para enseñar a las IA lo que se supone que están buscando?
Incluso a medida que los sistemas de aprendizaje automático se vuelven más competentes, siguen siendo vulnerables a producir resultados subóptimos al usar datos defectuosos o sesgados, como cualquier otra IA.
“Muchos conjuntos de datos utilizados en medicina se derivan principalmente de poblaciones blancas, norteamericanas y europeas“, escribió en noviembre el Dr. Charles Fisher, fundador y CEO de Unlearn.AI.
“Si un investigador aplica el aprendizaje automático a uno de estos conjuntos de datos y descubre un biomarcador para predecir la respuesta a una terapia, no hay garantía de que el biomarcador funcione bien, si es que lo hace, en una población más diversa“.
Para contrarrestar los efectos del sesgo de datos, Fisher aboga por “conjuntos de datos más grandes, software más sofisticado y computadoras más potentes“.
Otro componente esencial serán los datos limpios, como explicó a Engadget, CEO de Kebotix, Dra. Jill Becker.
Kebotix es una startup de 2018 que emplea inteligencia artificial junto con robótica para diseñar y desarrollar materiales y productos químicos exóticos.
“Tenemos tres fuentes de datos“, explicó.
“Tenemos la capacidad de generar nuestros propios datos … piense en cálculos semi empíricos.
También tenemos nuestro propio laboratorio sintético para generar datos y luego … usar datos externos“.
Estos datos externos pueden provenir de revistas abiertas o de suscripción, así como de patentes y socios de investigación de la compañía.
Pero independientemente de la fuente, “pasamos mucho tiempo limpiándola“, señaló Becker.
“Asegurarse de que los datos tengan los metadatos asociados adecuados para estos modelos es absolutamente crítico”, intervino Michael.
“Y no solo sucede, hay que poner un esfuerzo real en ello. Es difícil porque es costoso y consume mucho tiempo“.
Fuente: Engadget