AWS Inferentia, el chip de inteligencia artificial de Amazon

AWS Inferentia, el chip de inteligencia artificial de Amazon

Comparta este Artículo en:

Amazon ha aprovechado la conferencia AWS Re:Invent que se clausura en Las Vegas para anunciar el lanzamiento de los chips Inferentia, sus propia alternativa para proyectos de aprendizaje automático, con los que pretenden proporcionar a los investigadores “alto rendimiento a bajo costo” a partir de finales de 2019.

Los Inferentia saltarán al mercado siendo compatibles con frameworks populares como INT8, FP16, TensorFlow, Caffe2 y ONNX.

Y, siendo un producto Amazon, también soportará datos procedentes de productos populares de AWS como EC2, SageMaker o el nuevo Elastic Inference Engine, anunciado esta misma semana.

La compañía fundada por Jeff Bezos es un gigante que a veces pareciera no resignarse a dejar ningún mercado en manos de otras compañías.

En 2021, el mercado de los chips de inteligencia artificial estará valorado en 11.800 millones de dólares, según los analistas de Morningstar.

Sin embargo, al contrario que Intel o Nvidia, actuales líderes en este campo, Amazon no venderá sus chips físicos, sino el tiempo de uso de los mismos a través de servicios cloud (siguiendo un modelo muy similar al de AWS).

It was a difficult task for men who to cialis samples overcome ED when there were no medicines for the cure of erectile dysfunction. The standard levitra lowest price downtownsault.org incorporates 3 classes of products depending upon end use. After successful application, the generic levitra usa downtownsault.org will reach to you in short across the globe. After free viagra without prescription all, who would you rather buy from? A trusted friend is always the safest way to go. Esta diferencia de modelo no significa que no vaya a repercutir negativamente sobre las dos empresas líderes: siendo Amazon uno de los mayores clientes de ambas, una apuesta clara por el uso de sus propios chips Inferentia podría traducirse en grandes pérdidas para aquéllas.

La estrategia de Amazon no difiere demasiado de la ya sostenida por Google con el lanzamiento el pasado verano de su chip Google TPU (siglas de ‘Unidad de Procesamiento Tensor’).

Holger Mueller, analista de Constellation Research, afirmó en declaraciones a TechCrunch que, si bien la infraestructura de los Inferentia aún va 2-3 años por detrás de los TPU, este movimiento de Amazon es muy relevante:

“La velocidad y el costo de ejecutar operaciones de aprendizaje automático constituyen un diferenciador competitivo para las empresas [pues determinará si] las empresas (y las naciones cuando piensen en la guerra) son un éxito o un fracaso.

Esa velocidad sólo se puede lograr con hardware personalizado, e Inferentia es el primer paso de AWS para ingresar a este juego”.

Fuente: Xataca

Leave a Reply

Your email address will not be published. Required fields are marked *