Assistenza Informatica & Sistemistica - Xion Informatica Milano
Assistenza Informatica & Sistemistica - Xion Informatica Milano
Lunedì, 21 Dicembre 2015 14:15

Ecco l'hardware di Facebook per l'intelligenza artificiale

Vota questo articolo
(1 Vota)

 facebook big sur 01

 Si chiama Big Sur il nuovo sistema hardware di Facebook che, grazie a otto GPU, punta a istruire reti neurali per compiti di machine learning e lo sviluppo d'intelligenze artificiali. La buona notizia è che sarà reso del tutto open source.

Negli ultimi anni i ricercatori di tutto il mondo e le aziende tecnologiche hanno compiuto passi da gigante nell'ambito dell'intelligenza artificiale e più precisamente in una delle sue aree, il machine learning (apprendimento automatico), dove dati e algoritmi per il riconoscimento di modelli complessi permettono ai computer di prendere decisioni e svolgere compiti.

Il boom di quest'ultimo periodo è legato a due trend: l'ampia disponibilità di dati di ricerca pubblici e l'arrivo sulla scena delle GPU, capaci di macinare quantità enormi di informazioni in minor tempo rispetto ai tradizionali microprocessori.

Tra i tanti che stanno lavorando in questo ambito troviamo Facebook: inevitabile per chi possiede miliardi di informazioni nuove ogni giorno che possono essere analizzate e combinate per creare nuove esperienze, rispondere a problemi e molto altro ancora.

"Abbiamo sviluppato software che possono leggere storie, rispondere a domande, giocare e imparare cose tramite l'osservazione di alcuni esempi. Abbiamo tuttavia realizzato che per prendere davvero di petto questi problemi avremmo dovuto progettare i nostri sistemi", spiegano gli ingegneri Kevin Lee e Serkan Piantino. "Oggi sveliamo il nostro nuovo sistema basato su GPU per istruire reti neurali, il suo nome in codice è Big Sur".

Big Sur è l'hardware "open rack compatibile" più recente di Facebook, pensato per lavorare nello sviluppo di intelligenze artificiali su larga scala. A bordo che sono benotto schede acceleratrici Tesla M40 di Nvidia. Ogni scheda offre una GPU GM200 con 3072 CUDA core affiancati da 12 GB di memoria GDDR5, per una potenza di picco a singola precisione di 7 TFLOPs, un bandwidth di 288 GB/s e TDP di 250 watt.

"Big Sur è il doppio più veloce della nostra precedente generazione, il che significa che possiamo istruire due volte più rapidamente ed esplorare reti il doppio più grandi. Distribuire la formazione tra otto GPU ci permette di scalare la dimensione e la velocità delle nostre reti di un altro fattore pari a due", scrivono i due ingegneri dell'azienda.

Lee e Piantino aggiungono che Big Sur è molto più versatile ed efficiente perché pur usando un raffreddamento speciale e altre soluzioni uniche, sono riusciti a ottimizzare il nuovo sistema per una maggiore efficienza energetica e il funzionamento a temperature inferiori, tanto che è raffreddato ad aria.

"Abbiamo rimosso i componenti che non venivano usati molto, mentre i componenti che si rompevano di frequente - come gli hard disk e le DIMM - possono ora essere rimossi e rimpiazzati in pochi secondi. […] Persino la motherboard può essere rimossa in pochi minuti, mentre la piattaforma hardware originale richiedeva oltre un'ora. Big Sur è quasi interamente smontabile senza l'uso di cacciavite, a eccezione del dissipatore della CPU".

La buona notizia per l'intero settore della ricerca è che Big Sur sarà reso "open source" e sarà sottoposto all'Open Compute Project (OCP). Facebook, in questo modo, spera che altri possano realizzare sistemi simili e persino migliori al fine di compiere passi avanti nel settore dell'intelligenza artificiale in tempi più rapidi.

Copyright

Letto 2884 volte
Copyright © Xion Informatica S.n.c. - P. IVA 06455280963
Powered by Rubedo Marketing & Web Solution
Security by Ermeteus