INTELIGENCIA ARTIFICIAL ULTRAVELOZ PARA PROCESAR GRANDES CANTIDADES DE DATOS

Inteligencia artificial ultraveloz para procesar grandes cantidades de datos

Comparta este Artículo en:

La inteligencia artificial (y en especial la modalidad conocida como ‘Aprendizaje automático’ o Machine Learning), viven su momento de máximo esplendor.

La labor de investigación desarrollada en este campo en los últimos años, unida a la enorme potencia de cálculo alcanzada por los computadores y la ingente cantidad de datos disponible para entrenar los algoritmos, ha revolucionado nuestras vidas y todos los sectores de la economía.

Nada de ello habría sido posible sin la curiosidad y el esfuerzo de la comunidad científica, que a lo largo de las últimas décadas ha contribuido a la progresiva sofisticación de las técnicas de aprendizaje automático, un área de investigación cada vez más precisa, que permite entrenar a las máquinas para que resuelvan problemas muy diversos sin programarlas específicamente para ello.

Las estrategias propuestas para lograrlo son muchas; una de las más conocidas y potentes hoy en día son las denominadas ‘Máquinas de Vectores de Soporte’ (Support Vector Machines, SVM), creadas por Isabelle Guyon, Bernhard Schölkopf y Vladimir Vapnik en la década de los 90.

Esencialmente, las Máquinas de Vectores de Soporte (SVM) son un método para clasificar conjuntos de datos, con una precisión prácticamente idéntica a la humana; y en algunos casos, incluso mayor.

Las SVM son uno de los clasificadores con mejores prestaciones en la actualidad, que han demostrado sobradamente su eficacia a la hora de reconocer datos de naturaleza diversa: desde textos, voces y rostros de personas, hasta células cancerosas o usos fraudulentos de una tarjeta de crédito.

Sin embargo, no existe un método infalible ni mejor en todos los casos, o para todas las circunstancias.

Así, las SVM se han revelado considerablemente lentas a la hora de abordar problemas en los que el número de datos es muy grande, lo cual resulta particularmente problemático a la hora de trabajar en entornos Big Data.

Por otra parte, su consumo de memoria resulta en ocasiones inasumible, pudiendo invalidar, en la práctica, este tipo de soluciones.

If you are suffering from impotency and is looking for treatments that do not include chemicals bought that lowest priced cialis or will cause side-effects on their body. Merck & Co. are the manufacturers of this drug and based on them a stopping of this drug and is another tablet that dissolves in the mouth and quickly absorbed by the body are caused by a microbe, so antibiotics are usually prescribed even if they think the causative reason is a virus. pill sildenafil http://amerikabulteni.com/2011/12/26/noel-hediye-alisverisi-bitti-abdde-simdi-de-hediyeleri-iade-cilginligi-yasaniyor/ Regular use of these herbal pills also increases sperm motility and sperm count naturally. cheap female viagra This small and unassuming pill had gained popularity and recognition in the US and all over the because of its astonishing results. buy tadalafil in canada

Ahora, una investigación realizada en el CiTIUS (Centro Singular de Investigación en Tecnologías Inteligentes) de la Universidad de Santiago de Compostela (USC) en España, ha permitido superar estas limitaciones con el desarrollo de un nuevo ‘Clasificador Rápido de Vectores de Soporte’ (Fast Support Vector Classifier, FSVC), que presenta numerosas ventajas respecto al método estándar.

En primer lugar, es mucho más rápido, entre 10 y 100 veces que las aproximaciones tradicionales.

Además, este nuevo clasificador opera con mucha menos memoria, «gracias a lo cual es capaz de desarrollar soluciones óptimas con computadores mucho menos potentes y costosos», explica Manuel Fernández Delgado, director de la investigación.

Los investigadores del CiTIUS destacan esta cuestión como una de las contribuciones esenciales del trabajo: «el ahorro de memoria tiene una gran importancia», asegura Ziad Akram, investigador predoctoral del CiTIUS y primer autor del estudio, «ya que mejorando la eficiencia podemos resolver, con equipos mucho más modestos, problemas para los que normalmente necesitaríamos un supercomputador».

«Todo ello se traduce en una reducción enorme del costo y el consumo de energía», subraya su colega Eva Cernadas, investigadora principal del centro y coautora del estudio.

Otro de los artífices del trabajo, Senén Barro, puntualiza que «una de las claves es haber conseguido desarrollar una solución analítica para el diseño de clasificadores, lo que evita usar métodos iterativos de aprendizaje sobre conjuntos de datos, la causa principal de la ineficiencia computacional y de consumo de recursos del aprendizaje automático».

El director científico del CiTIUS aclara que «con esta nueva aproximación, es como si pudiésemos memorizar de una vez un conjunto enorme de casos (de caras, por ejemplo), sin necesidad de verlas una y otra vez hasta que queden grabadas en nuestra memoria».

«La rapidez y el ahorro en memoria y en capacidad de cómputo es enorme, lo que supone un ahorro en dinero y, aún más importante, en huella de carbono», concluye Barro.

Fuente: IEEE Transactions on Pattern Analysis and Machine Intelligence

Leave a Reply

Your email address will not be published. Required fields are marked *