Categorías: Tecnología

La “ley de Huang” reemplazo de la “ley de Moore”?

Comparta este Artículo en:

La “ley de Moore” está en entredicho desde hace tiempo. El desarrollo de la tecnología litográfica se ha ralentizado a medida que los fabricantes de semiconductores se acercan cada vez más a los límites físicos que impone el silicio.

Y este es, precisamente, el pilar sobre el que se sostiene la “ley” que postuló Gordon Moore, el cofundador de Intel, en 1965.

Este respetado ingeniero y físico estadounidense renegó públicamente en varias ocasiones de que a la observación que hizo aquel año se le haya atribuido el estatus de ley.

Y es que en realidad lo que hizo fue una predicción fruto de la observación empírica, y no una ley amparada en un estudio científico minucioso.

Aun así, durante muchas décadas su observación se ha erigido como la regla de oro utilizada por la industria de la microelectrónica para prever el ritmo con el que va a desarrollarse a medio y corto plazo.

Lo que Moore percibió hace algo más de cinco décadas y media fue que el número de transistores de los circuitos integrados se duplicaría cada año, y, a la par, su costo relativo se reduciría drásticamente.

Diez años más tarde enmendó su observación al incrementar el plazo de tiempo necesario para que se lleve a cabo ese desarrollo de la tecnología de integración, colocándolo en 24 meses, y no en un año.

Y desde entonces su pronóstico se ha cumplido con una precisión más que razonable.

La “ley de Huang” hace referencia a Jensen Huang, el director general de NVIDIA, pero no ha sido bautizada por él.

La responsable del nombre de este postulado es Tekla S. Perry, editora sénior en IEEE Spectrum, y lo formuló en el artículo que publicó el 2 de abril de 2018 con el propósito de describir el rapidísimo desarrollo que ya entonces estaban experimentando los procesadores gráficos.

Eso sí, es justo recordar que el auténtico responsable de la popularización de la “ley de Huang” es Christopher Mims, un columnista del diario The Wall Street Journal.

Sea como sea la razón por la que a Tekla S. Perry se le ocurrió bautizar así esta “ley” después de asistir a una conferencia pronunciada por Jensen Huang fue que la “ley de Moore” ya no parecía describir correctamente el vertiginoso desarrollo que estaban experimentando las GPU, especialmente en el ámbito de la inteligencia artificial.

De esto va, en realidad, la predicción que lleva el nombre del fundador de NVIDIA.

La gráfica que publicamos debajo de estas líneas refleja con mucha claridad de qué estamos hablando. E impresiona.

El titular de la gráfica contiene la idea más importante: durante la década que se extiende entre 2012 y 2022 el rendimiento de los chips de NVIDIA para aplicaciones de inteligencia artificial se ha multiplicado por 1.000.

Nada menos que por 1.000. Es cierto; la “ley de Moore” no refleja bien este desarrollo tan veloz.

No obstante, es importante que tengamos en cuenta que el impacto del desarrollo de los procesos litográficos no explica esta evolución tan vertiginosa.

Bill Dally, uno de los máximos responsables de NVIDIA en el ámbito científico, pronunció hace apenas dos semanas una interesantísima conferencia en la que explicó el crucial rol que tiene la innovación en el ámbito de la microarquitectura para sostener el desarrollo de las GPU para inteligencia artificial.

Ya no basta en absoluto aferrarse a la mejora de la litografía y la calidad de los transistores; o refinas la arquitectura de tus chips o te atascas.

Dally es prudente, y por tanto no garantiza que de aquí a 2032 la capacidad de las GPU vaya a volver a multiplicarse por 1.000.

Al fin y al cabo si somos rigurosos no debemos olvidar que ni la “ley de Huang” ni la “ley de Moore” son en realidad leyes.

Solo son pronósticos razonablemente fiables que no perdurarán eternamente.

Fuente: Spectrum

Editor PDM

Entradas recientes

Herramienta de detección de sesgos de IA para combatir la discriminación en los modelos

Los modelos de IA generativa como ChatGPT se entrenan con grandes cantidades de datos obtenidos…

9 hours hace

NVIDIA presenta su supercomputador compacto de IA generativa

El kit para desarrolladores NVIDIA Jetson Orin Nano Super está diseñado tanto para aficionados como…

9 hours hace

Google presenta una IA que genera videos 4K de hasta 2 minutos

Google ha presentado Veo 2, una IA que supera a Sora al generar videos realistas…

9 hours hace

Whisk, la nueva IA de Google para crear imágenes a partir de otras imágenes

La nueva IA de Google es capaz de generar diseños de cualquier tipo sin necesidad…

9 hours hace

El buscador con IA SearchGPT ahora es gratuito y busca competir con el de Google

Han pasado casi cinco meses desde el lanzamiento de SearchGPT. La prometedora función de búsqueda…

9 hours hace

Desarrollan dispositivo que fusiona funciones de detección y computación

En los últimos años, los ingenieros han intentado crear sistemas de hardware que soporten mejor…

1 day hace
Click to listen highlighted text!