Solicitamos su permiso para obtener datos estadísticos de su navegación en esta web, en cumplimiento del Real Decreto-ley 13/2012. Si continúa navegando consideramos que acepta el uso de cookies.

Aceptar Más información
WINTXCODERS Terminal
[[email protected] ~]:$ Bienvenido a la comunidad
Recuerda que puedes participar en nuestra comunidad registrándote

Autor Tema:  Intel Spring Crest: así quieren competir contra NVIDIA en IA  (Leído 19 veces)

0 Usuarios y 1 Visitante están viendo este tema.

Noticias Informáticas

Intel Spring Crest: así quieren competir contra NVIDIA en IA


El mundo de la inteligencia artificial es el futuro sin duda, todo girará en pocos años a través de las redes neuronales e
Para poder ver los links necesitas estar registrado - [• Registrarse •] [• Iniciar Sesión •]
lo sabe. Por ello ha diseñado un nuevo chip llamado Spring Crest, alias NNP-L1000, con el que quiere hacerle competencia directa a NVIDIA y sus Tesla V100, donde ambos compartirán una serie de características bastante interesantes y que nos sorprenden.

Intel Spring Crest: el primero acelerador de inteligencia artificial de la compañía

Para poder ver los links necesitas estar registrado - [• Registrarse •] [• Iniciar Sesión •]

[/url]
Aunque tarde, nunca se debe menospreciar a Intel. No es la primera vez ni será la última que llega tarde a un sector y termina por dominar la tecnología y competir de tú a tú con los rivales. En CPUs lo hemos visto varias veces, la más recordada contra los Athlon 64, el año que viene los veremos contra AMD y NVIDIA con sus GPUs dedicadas y ahora pretende introducirse en el mismo mercado que estos con un chip enorme que proviene de una empresa anteriormente adquirida por Intel (Nervana).
Dicho chip es un NNP (Neural Network Processor), donde su variante L100 es un ASIC al más puro estilo NVIDIA que pretende entrenar redes neuronales en diferentes ámbitos y aplicaciones.

Para poder ver los links necesitas estar registrado - [• Registrarse •] [• Iniciar Sesión •]

[/url]
Lo más llamativo del diseño es sin duda la similitud de este L1000 con versiones como Instinct o Tesla de sus competidores, donde Intel dispondrá de 4 pilas de HBM2 de 8 GB, sin caché y con una SRAM muy localizada. Cada chip incluirá cuatro grupos o POD, donde cada uno de ellos incluirá seis grupos de cómputo, donde al mismo tiempo cada POD está vinculado con una pila HBM2.
El diseño, según Intel, está pensado para aumentar la cantidad de veces que pueden usar cada dato que se lee de la DRAM, aumentando la utilización del chip de una manera más óptima. Esto viene derivado del uso de las columnas y filas que tienen que leer constantemente estos NNP como matrices, las cuales pueden llegar a ser gigantescas.

Para poder ver los links necesitas estar registrado - [• Registrarse •] [• Iniciar Sesión •]

[/url]
Cada uno de los grupos de cálculo también incorpora una gran cantidad de SRAM. Esto se hace para ayudar al software, ya que la memoria del chip se asigna estáticamente con dicho software, que controla lo que hay en la memoria HBM2, así como los clústeres de cómputo.
Lo que se pretende es predeterminar el mejor lugar para los datos con el fin de maximizar la reutilización de los mismos, manteniéndolos donde se va a utilizar más. En teoría, esto también debería ayudar con su utilización global manteniendo a los grupos de servidores ocupados.
Más rápido que el NVIDIA V100 (DGX-1)

Para poder ver los links necesitas estar registrado - [• Registrarse •] [• Iniciar Sesión •]

[/url]
Aunque los números y pruebas fueron escuetos, las pruebas a las que fueron sometidos tanto el NNP-L1000 como el V100 se realizaron con el primero en preproducción y una velocidad de 900 MHz, siendo más lenta de lo que llegará finalmente al mercado.

           
               
                   
               
           
           
               
                    Para qué lanzar Volta, cuando NVIDIA puede equipar 28.000 gráficas en el PC más potente del mundo
               
           
       
Lo que se muestra es el porcentaje de utilización que pueden llegar a copar cada chip, donde Intel asegura que una mayor utilización equivale a un entrenamiento más rápido y por ende mayor rendimiento final.
Este NNP-L estará disponible en formato PCIe, pero al mismo tiempo también en formato OAM como módulo acelerador. Esto significa que es totalmente modular y puede ser insertado en distintos sistemas, placas base y chasis, al contrario que sus competidores.

Para poder ver los links necesitas estar registrado - [• Registrarse •] [• Iniciar Sesión •]

[/url]
Cada módulo mide 102 mm x 165 mm y admiten hasta 48 voltios y 700 vatios o 300 vatios y 12 voltios. El chip en sí mismo es impresionantemente grande, ya que tiene al menos una superficie de 741 mm2, siendo posiblemente el troquel más grande de Intel hasta la fecha. Como curiosidad, dicho troquel no está fabricado por Intel, sino por TSMC, bajo un proceso de 16 nm FinFET, lo cual es ampliamente llamativo y desconocemos el por qué.
Lo que sí desveló Intel fue su otra plataforma Spring Hill, también conocida como NNP-I, la cual llegará en formato M.2 con un chip para aplicar redes neuronales ya entrenadas, el cual si incluirá los 10 nm del gigante azul.
The post
Para poder ver los links necesitas estar registrado - [• Registrarse •] [• Iniciar Sesión •]
appeared first on
Para poder ver los links necesitas estar registrado - [• Registrarse •] [• Iniciar Sesión •]
.

 

Powered by Advanced Topic Prefix Pro