Lo llaman inteligencia artificial, no porque la inteligencia sea de alguna manera falsa. Es inteligencia real, pero sigue siendo hecha por humanos.
Eso significa que la IA, una herramienta de poder que puede añadir velocidad, eficiencia, perspicacia y precisión al trabajo de un investigador, tiene muchas limitaciones.
Solo es tan buena como los métodos y datos que se le hayan dado.
Por sí misma, no sabe si falta información, cuánto peso tiene que dar a los diferentes tipos de información o si los datos de los que se nutre son incorrectos o están corrompidos.
No puede tratar con precisión la incertidumbre o los eventos aleatorios, a menos que aprenda cómo hacerlo.
Confiando exclusivamente en los datos, como suelen hacer los modelos de aprendizaje automático, no aprovecha el conocimiento que los expertos han acumulado a lo largo de los años y los modelos físicos que sustentan los fenómenos físicos y químicos.
Ha sido difícil enseñar a una computadora a organizar e integrar información de fuentes muy diferentes.
Ahora, investigadores de la Universidad de Delaware y de la Universidad de Massachusetts-Amherst han publicado detalles de un nuevo enfoque para la inteligencia artificial que incorpora a sus cálculos la incertidumbre, el error, las leyes físicas, el conocimiento experto y los datos que faltan y que, en última instancia, conduce a modelos mucho más fiables.
El nuevo método proporciona garantías que típicamente faltan en los modelos de inteligencia artificial, mostrando cuán valioso – o no – puede ser el modelo para lograr el resultado deseado.
Joshua Lansford, estudiante de doctorado en el Departamento de Ingeniería Química y Biomolecular de la UD, y el Prof. Dion Vlachos, director del Centro de Catálisis para la Innovación Energética de la UD, son coautores del artículo publicado en la revista Science Advances.
También contribuyeron Jinchao Feng y Markos Katsoulakis del Departamento de Matemáticas y Estadística de la Universidad de Massachusetts-Amherst.
El nuevo marco matemático podría producir una mayor eficiencia, precisión e innovación para los modelos informáticos utilizados en muchos campos de investigación.
Tales modelos proporcionan poderosas formas de analizar datos, estudiar materiales e interacciones complejas y ajustar variables de forma virtual en lugar de en el laboratorio.
“Tradicionalmente, en los modelos físicos, construimos un modelo primero usando solo nuestra intuición física y el conocimiento experto sobre el sistema“, dijo Lansford.
“Después de eso, medimos la incertidumbre en las predicciones debido al error en las variables subyacentes, a menudo confiando en métodos de fuerza bruta, donde tomamos muestras, luego ejecutamos el modelo y vemos lo que sucede“.
IVF is the first recourse for women over 34, regardless of any blockages, because tubal surgery and natural conception may take up too much time, which becomes vitally important the cialis without prescription older a woman gets. Thankfully I just required a period of 5-6 days for curing my ED. canada viagra no prescription The specific drug or combination generic viagra buy used is chosen to treat a specific cause of impotence. Infertility treatment clinics in Delhi offer all the testing facilities along with levitra generic canada IVF.Los modelos eficaces y precisos ahorran tiempo y recursos y orientan a los investigadores hacia métodos más eficientes, nuevos materiales, mayor precisión y enfoques innovadores que de otro modo no podrían considerar.
El artículo describe cómo funciona el nuevo marco matemático en una reacción química conocida como la reacción de reducción de oxígeno, pero es aplicable a muchos tipos de modelización, dijo Lansford.
“Los productos químicos y materiales que necesitamos para hacer las cosas más rápidas o incluso hacerlas posibles, como las células de combustible, son altamente complejos“, dijo.
“Necesitamos precisión. Y si quieres hacer un catalizador más activo, necesitas tener límites en tu error de predicción.
Decidiendo inteligentemente dónde poner tus esfuerzos, puedes delimitar el área a explorar.
La incertidumbre se tiene en cuenta en el diseño de nuestro modelo“, dijo Lansford.
“Ahora ya no es un modelo determinista. Es uno probabilístico“.
Con estos nuevos desarrollos matemáticos en su lugar, el propio modelo identifica qué datos se necesitan para reducir el error del modelo, dijo.
Entonces se puede utilizar un nivel más alto de teoría para producir datos más precisos o se pueden generar más datos, lo que lleva a límites de error aún más pequeños en las predicciones y reduce el área a explorar.
“Esos cálculos requieren mucho tiempo para generarse, así que a menudo estamos tratando con pequeños conjuntos de datos. Ahí es donde entra la necesidad de repartir el error“.
Esto no es una garantía de que el uso de una sustancia específica o un método entregarán precisamente el producto deseado.
Pero está mucho más cerca de una garantía de lo que se podía conseguir antes.
Este nuevo método de diseño de modelos podría mejorar enormemente el trabajo en energías renovables, tecnología de baterías, mitigación del cambio climático, descubrimiento de fármacos, astronomía, economía, física, química y biología, por nombrar solo algunos ejemplos.
La inteligencia artificial no significa que la experiencia humana ya no sea necesaria. Todo lo contrario.
El conocimiento experto que surge del laboratorio y los rigores de la investigación científica son esenciales, material fundamental para cualquier modelo computacional.
Fuente: Noticias de la Ciencia
Samsung ha presentado Gauss, su propio modelo de inteligencia artificial generativa. Puede procesar lenguaje natural,…
Un equipo de físicos del Instituto de Tecnología de Massachusetts (MIT) ha descubierto una propiedad…
Una carcasa experimental de marcapasos sin cables puede recargar parcialmente la batería del dispositivo generando…
No había mucho en juego, ya que era solo una demostración en vivo, pero la…
La prótesis decodifica señales del centro del habla del cerebro para predecir qué sonido alguien…
El invento ya se probó en un paciente francés, de 63 años, al que le…