Si bien los modernos y cada vez más complicados problemas de Big Data se pueden resolver utilizando recursos suficientes en la nube, en los modelos de Deep Learning podría haber limitaciones en la velocidad de comunicación entre las máquinas. Por eso, en este caso, es preferible utilizar con hardware especializado tipo GPU con cientos de núcleos de procesadores trabajando en paralelo.
Así, con los diseños más recientes podemos encontrar CPUs de hasta 64 núcleos en los Ryzen Threadripper de AMD, o GPUs con miles de núcleos más pequeños y con tareas altamente paralelizables.
Por ejemplo, la gráfica más potente de Nvidia actualmente, la Titan RTX, cuenta con 4.608 núcleos CUDA en su interior y su GPU como tal, el chip, tiene una superficie de 750 mm²… lo que es una “birria’ comparándolo con un nuevo procesador que se ha presentado en la Conferencia HotChips 2019.
El procesador de Cerebras es nada menos que 78 veces más que el procesador con más núcleos hasta la fecha.
En total, cuenta con 1,2 billones de transistores: 1.200.000 millones. Tiene una superficie de 46.225 mm², esto es, unas dimensiones comparables a las de un folio por lo que se necesita una oblea de silicio completa para su fabricación.
Cuenta con 18 GB de memoria SRAM en el propio chip siendo su tasa de transferencia de 100 Pb/s, o lo que es lo mismo: 100 millones de gigabits por segundo.
Esta proeza ha sido fruto del trabajo de un equipo 173 ingenieros, tras recibir 112 millones de dólares en inversión
666
Por su parte, Huawei (para chinchar a Trump, sin duda) acaba de presentar el chip más potente para aplicaciones de AI en smartphones así como una plataforma open source para seguir trabajando en AI.