Crean chip puede solucionar el problema más sucio de la inteligencia artificial

Crean chip buscando solucionar el problema más sucio de la inteligencia artificial

Comparta este Artículo en:

El dispositivo, creado por un equipo de investigadores de IBM, puede ser hasta catorce veces más eficiente a nivel energético.

La inteligencia artificial (IA) no es barata. Para que puedas charlar con soluciones como las máquinas parlantes ChatGPT o Bard es necesaria una cantidad enorme de energía.

Una consulta en el robot conversacional de OpenAI consume tres veces más que una búsqueda en Google.

Una conversación de unas 20 preguntas, o algo más, obliga a la empresa al uso de medio litro de agua para refrigerar sus bases de datos.

Evidentemente, esto provoca que el costo del mantenimiento, y las emisiones de carbono provocadas por las máquinas, sean muy elevadas.

IBM está intentando buscar solución a este problema.

La tecnológica apuesta por el uso de un nuevo tipo de chip analógico de IA que, según la empresa, ya ha demostrado ser catorce veces más eficiente a nivel energético que los chips digitales convencionales.

La empresa señala que su chip está compuesto por 14 nanómetros que contienen 35 millones de celdas de memoria de cambio de fase en 34 mosaicos.

En los chips de los computadores convencionales actuales, los datos se transfieren entre la memoria y la unidad central de procesamiento (la GPU) cada vez que se realiza un cálculo, lo que provoca que una inversión de energía ingente, muy superior a la que sería necesaria para realizar la operación solicitada por el usuarios, se pierda.

El chip análogo de IBM ofrece una solución parcial a este problema ubicando varias unidades de procesamiento pegadas a la memoria.

Para probar su chip, el equipo de investigadores de la tecnológica, encabezado por el investigador Stefano Ambroggio, probó su capacidad para el procesamiento del lenguaje recurriendo a dos programas de reconocimiento del habla por computador para, después, pasarla a texto; una red pequeña (Google Speech Commands) y otra grande (Librispeech).

El rendimiento del chip análogo con el primer programa fue, prácticamente, equivalente al que ofrece la tecnología actual.

Sin embargo, durante los test con Librispeech (que contiene grabaciones de lecturas en voz alta de libros, con un vocabulario mucho más extenso que el de la solución de Google) el ingenio del equipo de Ambroggio fue hasta 14 veces más eficiente a nivel energético.

De acuerdo con los investigadores, esta prueba demuestra que los chips análogos pueden ofrecer un rendimiento similar a la tecnología existente en el campo de la IA sin necesidad de que el consumo generado sea tan elevado.

Sin embargo, Hechen Wang, investigador de Intel, señala en otro artículo al respecto de la investigación de IBM que todavía queda mucho para que esta tecnología termine de cristalizar.

Entre otras cosas, habría que realizar cambios en los algoritmos para que los chips fuesen funcionales y adaptar las distintas aplicaciones y plataformas para ello.

Es decir, habría que ponerlo todo patas arriba y rehacerlo para que la alternativa propuesta por IBM pueda operar. Y eso no es fácil. Ni mucho menos.

Podría tardarse décadas en conseguirlo, según explica Wang.

«La buena noticia es que Ambrogio y sus colegas, junto con otros investigadores en esta área, están dirigiendo el barco, y hemos zarpado hacia la realización de la meta», apunta el investigador.

Efectivamente, el elevado gasto al que obliga el desarrollo de inteligencia artificial sigue siendo un problema de difícil solución.

A día de hoy, se calcula que las bases de datos de las grandes tecnológicas consumen entre el 1 y el 2% de la electricidad total.

Y, además, todo indica que va a ir a peor en el futuro. De acuerdo con datos recogidos en un estudio de McKinsey, para 2030, se espera que los centros de datos ubicados en Estados Unidos alcancen los 35 gigavatios anuales de consumo eléctrico frente a los 17 gigavatios del año pasado.

Más allá de posibles soluciones al problema, como el chip análogo de IBM, los expertos apuntan que es importante invertir en la búsqueda de nuevos sistemas que ayuden a refrigerar los servidores.

Actualmente, de acuerdo con un reciente estudio de la Universidad de Purdue, apuntaba que el entrenamiento de un modelo de lenguaje, como ChatGPT, precisa de un consumo de 4,9 millones de litros de agua.

Fuente: Nature

Leave a Reply

Your email address will not be published. Required fields are marked *