Categorías: Tecnología

Crean chip buscando solucionar el problema más sucio de la inteligencia artificial

Comparta este Artículo en:

El dispositivo, creado por un equipo de investigadores de IBM, puede ser hasta catorce veces más eficiente a nivel energético.

La inteligencia artificial (IA) no es barata. Para que puedas charlar con soluciones como las máquinas parlantes ChatGPT o Bard es necesaria una cantidad enorme de energía.

Una consulta en el robot conversacional de OpenAI consume tres veces más que una búsqueda en Google.

Una conversación de unas 20 preguntas, o algo más, obliga a la empresa al uso de medio litro de agua para refrigerar sus bases de datos.

Evidentemente, esto provoca que el costo del mantenimiento, y las emisiones de carbono provocadas por las máquinas, sean muy elevadas.

IBM está intentando buscar solución a este problema.

La tecnológica apuesta por el uso de un nuevo tipo de chip analógico de IA que, según la empresa, ya ha demostrado ser catorce veces más eficiente a nivel energético que los chips digitales convencionales.

La empresa señala que su chip está compuesto por 14 nanómetros que contienen 35 millones de celdas de memoria de cambio de fase en 34 mosaicos.

En los chips de los computadores convencionales actuales, los datos se transfieren entre la memoria y la unidad central de procesamiento (la GPU) cada vez que se realiza un cálculo, lo que provoca que una inversión de energía ingente, muy superior a la que sería necesaria para realizar la operación solicitada por el usuarios, se pierda.

El chip análogo de IBM ofrece una solución parcial a este problema ubicando varias unidades de procesamiento pegadas a la memoria.

Para probar su chip, el equipo de investigadores de la tecnológica, encabezado por el investigador Stefano Ambroggio, probó su capacidad para el procesamiento del lenguaje recurriendo a dos programas de reconocimiento del habla por computador para, después, pasarla a texto; una red pequeña (Google Speech Commands) y otra grande (Librispeech).

El rendimiento del chip análogo con el primer programa fue, prácticamente, equivalente al que ofrece la tecnología actual.

Sin embargo, durante los test con Librispeech (que contiene grabaciones de lecturas en voz alta de libros, con un vocabulario mucho más extenso que el de la solución de Google) el ingenio del equipo de Ambroggio fue hasta 14 veces más eficiente a nivel energético.

De acuerdo con los investigadores, esta prueba demuestra que los chips análogos pueden ofrecer un rendimiento similar a la tecnología existente en el campo de la IA sin necesidad de que el consumo generado sea tan elevado.

Sin embargo, Hechen Wang, investigador de Intel, señala en otro artículo al respecto de la investigación de IBM que todavía queda mucho para que esta tecnología termine de cristalizar.

Entre otras cosas, habría que realizar cambios en los algoritmos para que los chips fuesen funcionales y adaptar las distintas aplicaciones y plataformas para ello.

Es decir, habría que ponerlo todo patas arriba y rehacerlo para que la alternativa propuesta por IBM pueda operar. Y eso no es fácil. Ni mucho menos.

Podría tardarse décadas en conseguirlo, según explica Wang.

«La buena noticia es que Ambrogio y sus colegas, junto con otros investigadores en esta área, están dirigiendo el barco, y hemos zarpado hacia la realización de la meta», apunta el investigador.

Efectivamente, el elevado gasto al que obliga el desarrollo de inteligencia artificial sigue siendo un problema de difícil solución.

A día de hoy, se calcula que las bases de datos de las grandes tecnológicas consumen entre el 1 y el 2% de la electricidad total.

Y, además, todo indica que va a ir a peor en el futuro. De acuerdo con datos recogidos en un estudio de McKinsey, para 2030, se espera que los centros de datos ubicados en Estados Unidos alcancen los 35 gigavatios anuales de consumo eléctrico frente a los 17 gigavatios del año pasado.

Más allá de posibles soluciones al problema, como el chip análogo de IBM, los expertos apuntan que es importante invertir en la búsqueda de nuevos sistemas que ayuden a refrigerar los servidores.

Actualmente, de acuerdo con un reciente estudio de la Universidad de Purdue, apuntaba que el entrenamiento de un modelo de lenguaje, como ChatGPT, precisa de un consumo de 4,9 millones de litros de agua.

Fuente: Nature

Editor PDM

Entradas recientes

Nuevos MacBook Pro con chip M3 más potencia y nuevo color

Apple ha presentado la nueva generación de sus portátiles para profesionales que llevan en su…

17 hours hace

El nuevo iMac de 24 pulgadas con chip M3 es dos veces más potente que su predecesor

El nuevo Apple iMac (2023) se renueva a lo grande con el chip M3: el…

17 hours hace

Nueva cámara superconductora capaz de resolver fotones individuales

Investigadores han construido una cámara superconductora de 400.000 pixeles, que es tan sensible que puede…

17 hours hace

Guantes hápticos que permiten sentir objetos en realidad virtual

Los guantes hápticos Fluid Reality se pueden usar para tocar cosas en realidad virtual. (more…)

17 hours hace

Robot diseñado para recopilar datos sobre arrecifes y criaturas marinas

El robot CUREE impulsado por NVIDIA Jetson, desarrollado por investigadores del Laboratorio Autónomo de Percepción…

17 hours hace

Desarrollan tecnología táctil acústica que ayuda a las personas con problemas de visión a ver mediante el sonido

Investigadores de la Universidad Tecnológica de Sydney (Australia) han desarrollado una tecnología táctil acústica que…

2 days hace
Click to listen highlighted text!