Categorías: Tecnología

AWS Inferentia, el chip de inteligencia artificial de Amazon

Comparta este Artículo en:

Amazon ha aprovechado la conferencia AWS Re:Invent que se clausura en Las Vegas para anunciar el lanzamiento de los chips Inferentia, sus propia alternativa para proyectos de aprendizaje automático, con los que pretenden proporcionar a los investigadores “alto rendimiento a bajo costo” a partir de finales de 2019.

Los Inferentia saltarán al mercado siendo compatibles con frameworks populares como INT8, FP16, TensorFlow, Caffe2 y ONNX.

Y, siendo un producto Amazon, también soportará datos procedentes de productos populares de AWS como EC2, SageMaker o el nuevo Elastic Inference Engine, anunciado esta misma semana.

La compañía fundada por Jeff Bezos es un gigante que a veces pareciera no resignarse a dejar ningún mercado en manos de otras compañías.

En 2021, el mercado de los chips de inteligencia artificial estará valorado en 11.800 millones de dólares, según los analistas de Morningstar.

Sin embargo, al contrario que Intel o Nvidia, actuales líderes en este campo, Amazon no venderá sus chips físicos, sino el tiempo de uso de los mismos a través de servicios cloud (siguiendo un modelo muy similar al de AWS).

It was a difficult task for men who to cialis samples overcome ED when there were no medicines for the cure of erectile dysfunction. The standard levitra lowest price downtownsault.org incorporates 3 classes of products depending upon end use. After successful application, the generic levitra usa downtownsault.org will reach to you in short across the globe. After free viagra without prescription all, who would you rather buy from? A trusted friend is always the safest way to go. Esta diferencia de modelo no significa que no vaya a repercutir negativamente sobre las dos empresas líderes: siendo Amazon uno de los mayores clientes de ambas, una apuesta clara por el uso de sus propios chips Inferentia podría traducirse en grandes pérdidas para aquéllas.

La estrategia de Amazon no difiere demasiado de la ya sostenida por Google con el lanzamiento el pasado verano de su chip Google TPU (siglas de ‘Unidad de Procesamiento Tensor’).

Holger Mueller, analista de Constellation Research, afirmó en declaraciones a TechCrunch que, si bien la infraestructura de los Inferentia aún va 2-3 años por detrás de los TPU, este movimiento de Amazon es muy relevante:

“La velocidad y el costo de ejecutar operaciones de aprendizaje automático constituyen un diferenciador competitivo para las empresas [pues determinará si] las empresas (y las naciones cuando piensen en la guerra) son un éxito o un fracaso.

Esa velocidad sólo se puede lograr con hardware personalizado, e Inferentia es el primer paso de AWS para ingresar a este juego”.

Fuente: Xataca

Editor PDM

Entradas recientes

Nuevos MacBook Pro con chip M3 más potencia y nuevo color

Apple ha presentado la nueva generación de sus portátiles para profesionales que llevan en su…

14 hours hace

El nuevo iMac de 24 pulgadas con chip M3 es dos veces más potente que su predecesor

El nuevo Apple iMac (2023) se renueva a lo grande con el chip M3: el…

14 hours hace

Nueva cámara superconductora capaz de resolver fotones individuales

Investigadores han construido una cámara superconductora de 400.000 pixeles, que es tan sensible que puede…

14 hours hace

Guantes hápticos que permiten sentir objetos en realidad virtual

Los guantes hápticos Fluid Reality se pueden usar para tocar cosas en realidad virtual. (more…)

14 hours hace

Robot diseñado para recopilar datos sobre arrecifes y criaturas marinas

El robot CUREE impulsado por NVIDIA Jetson, desarrollado por investigadores del Laboratorio Autónomo de Percepción…

14 hours hace

Desarrollan tecnología táctil acústica que ayuda a las personas con problemas de visión a ver mediante el sonido

Investigadores de la Universidad Tecnológica de Sydney (Australia) han desarrollado una tecnología táctil acústica que…

2 days hace
Click to listen highlighted text!