Categorías: Tecnología

La “ley de Huang” reemplazo de la “ley de Moore”?

Comparta este Artículo en:

La “ley de Moore” está en entredicho desde hace tiempo. El desarrollo de la tecnología litográfica se ha ralentizado a medida que los fabricantes de semiconductores se acercan cada vez más a los límites físicos que impone el silicio.

Y este es, precisamente, el pilar sobre el que se sostiene la “ley” que postuló Gordon Moore, el cofundador de Intel, en 1965.

Este respetado ingeniero y físico estadounidense renegó públicamente en varias ocasiones de que a la observación que hizo aquel año se le haya atribuido el estatus de ley.

Y es que en realidad lo que hizo fue una predicción fruto de la observación empírica, y no una ley amparada en un estudio científico minucioso.

Aun así, durante muchas décadas su observación se ha erigido como la regla de oro utilizada por la industria de la microelectrónica para prever el ritmo con el que va a desarrollarse a medio y corto plazo.

Lo que Moore percibió hace algo más de cinco décadas y media fue que el número de transistores de los circuitos integrados se duplicaría cada año, y, a la par, su costo relativo se reduciría drásticamente.

Diez años más tarde enmendó su observación al incrementar el plazo de tiempo necesario para que se lleve a cabo ese desarrollo de la tecnología de integración, colocándolo en 24 meses, y no en un año.

Y desde entonces su pronóstico se ha cumplido con una precisión más que razonable.

La “ley de Huang” hace referencia a Jensen Huang, el director general de NVIDIA, pero no ha sido bautizada por él.

La responsable del nombre de este postulado es Tekla S. Perry, editora sénior en IEEE Spectrum, y lo formuló en el artículo que publicó el 2 de abril de 2018 con el propósito de describir el rapidísimo desarrollo que ya entonces estaban experimentando los procesadores gráficos.

Eso sí, es justo recordar que el auténtico responsable de la popularización de la “ley de Huang” es Christopher Mims, un columnista del diario The Wall Street Journal.

Sea como sea la razón por la que a Tekla S. Perry se le ocurrió bautizar así esta “ley” después de asistir a una conferencia pronunciada por Jensen Huang fue que la “ley de Moore” ya no parecía describir correctamente el vertiginoso desarrollo que estaban experimentando las GPU, especialmente en el ámbito de la inteligencia artificial.

De esto va, en realidad, la predicción que lleva el nombre del fundador de NVIDIA.

La gráfica que publicamos debajo de estas líneas refleja con mucha claridad de qué estamos hablando. E impresiona.

El titular de la gráfica contiene la idea más importante: durante la década que se extiende entre 2012 y 2022 el rendimiento de los chips de NVIDIA para aplicaciones de inteligencia artificial se ha multiplicado por 1.000.

Nada menos que por 1.000. Es cierto; la “ley de Moore” no refleja bien este desarrollo tan veloz.

No obstante, es importante que tengamos en cuenta que el impacto del desarrollo de los procesos litográficos no explica esta evolución tan vertiginosa.

Bill Dally, uno de los máximos responsables de NVIDIA en el ámbito científico, pronunció hace apenas dos semanas una interesantísima conferencia en la que explicó el crucial rol que tiene la innovación en el ámbito de la microarquitectura para sostener el desarrollo de las GPU para inteligencia artificial.

Ya no basta en absoluto aferrarse a la mejora de la litografía y la calidad de los transistores; o refinas la arquitectura de tus chips o te atascas.

Dally es prudente, y por tanto no garantiza que de aquí a 2032 la capacidad de las GPU vaya a volver a multiplicarse por 1.000.

Al fin y al cabo si somos rigurosos no debemos olvidar que ni la “ley de Huang” ni la “ley de Moore” son en realidad leyes.

Solo son pronósticos razonablemente fiables que no perdurarán eternamente.

Fuente: Spectrum

Editor PDM

Entradas recientes

Nuevos MacBook Pro con chip M3 más potencia y nuevo color

Apple ha presentado la nueva generación de sus portátiles para profesionales que llevan en su…

3 hours hace

El nuevo iMac de 24 pulgadas con chip M3 es dos veces más potente que su predecesor

El nuevo Apple iMac (2023) se renueva a lo grande con el chip M3: el…

3 hours hace

Nueva cámara superconductora capaz de resolver fotones individuales

Investigadores han construido una cámara superconductora de 400.000 pixeles, que es tan sensible que puede…

3 hours hace

Guantes hápticos que permiten sentir objetos en realidad virtual

Los guantes hápticos Fluid Reality se pueden usar para tocar cosas en realidad virtual. (more…)

3 hours hace

Robot diseñado para recopilar datos sobre arrecifes y criaturas marinas

El robot CUREE impulsado por NVIDIA Jetson, desarrollado por investigadores del Laboratorio Autónomo de Percepción…

3 hours hace

Desarrollan tecnología táctil acústica que ayuda a las personas con problemas de visión a ver mediante el sonido

Investigadores de la Universidad Tecnológica de Sydney (Australia) han desarrollado una tecnología táctil acústica que…

1 day hace
Click to listen highlighted text!