16 migliori offerte: attrezzatura per attività all'aperto, altoparlanti Bluetooth e fitness tracker
Jul 19, 20231 preoccupazione del roster che i Bucks non hanno affrontato (non è un playmaker di riserva)
Jun 09, 202325 accessori per auto, regali e gadget che le mamme adorano
Sep 21, 202333 Articoli tecnologici e gadget indispensabili
Jul 31, 202345 problemi comuni aggravanti di cui non ti rendevi conto hanno soluzioni facili ed economiche
Jul 29, 2023In che modo l'ottimizzazione dell'intelligenza artificiale influisce sulla progettazione del data center
di Colin Ryan
2 giorni fa
Tate Cantrell. Immagine: Pawel Swider
Tate Cantrell di Verne Global discute le implicazioni che l'intelligenza artificiale ha sulla progettazione dei data center, dai complessi requisiti di raffreddamento ai protocolli di sicurezza a livello NATO.
Recentemente, Meta ha condiviso i dettagli dei suoi piani per i progressi dell'intelligenza artificiale, che includevano un design del data center ottimizzato per l'intelligenza artificiale, affermando che il nuovo design supporterà "hardware AI raffreddato a liquido e una rete AI ad alte prestazioni che collega migliaia di chip AI per il data center". cluster di formazione sull’intelligenza artificiale su larga scala”.
L'azienda ha inoltre affermato che la realizzazione del nuovo progetto sarà più rapida ed economica. Ma in che modo l’ottimizzazione dell’intelligenza artificiale influisce effettivamente sulla complessità della progettazione del data center?
Per scoprirlo, abbiamo parlato con Tate Cantrell, chief technology officer di Verne Global, che ci ha fornito un'idea dei molti modi in cui la progettazione dei data center cambia per soddisfare un'adeguata operabilità dell'intelligenza artificiale.
"La progettazione di un data center è un compito complesso che consiste nel bilanciare la domanda di energia, i requisiti di raffreddamento, l'elevata sicurezza, i livelli estremi di affidabilità e l'accesso ad alta velocità alle reti", ha affermato Cantrell.
“I modelli di intelligenza artificiale richiedono un’intensità e una densità di calcolo molto più elevate, aggiungendo una nuova dimensione di complessità alle sfide della progettazione tradizionale dei data center”.
Secondo Cantrell, alcuni dei parametri fondamentali influenzati dall’hosting di modelli di intelligenza artificiale sono la fonte di energia e l’affidabilità; la necessità di rack di server ad alta densità; e scalabilità.
“Un data center tradizionale che non è progettato per queste condizioni estreme non sarà in grado di fornire prestazioni affidabili. In definitiva, il settore dei data center necessita di una progettazione modificata dei data center se vuole tenere il passo con le richieste della tecnologia AI”.
Ma perché i modelli di intelligenza artificiale necessitano di elaborazione ad alta densità? Cantrell afferma che ciò è dovuto al fatto che l'informatica basata sull'intelligenza artificiale richiede "connessioni di rete a latenza estremamente bassa tra i server all'interno del data center".
“Qualche anno fa la densità media dei rack era di 5 kW per rack. Ma l’ultima generazione di supercomputer IA richiede molto di più dall’infrastruttura del data center.
“Solo quattro di questi sistemi in un rack potrebbero consumare più di 40 kW occupando solo il 60% dello spazio di un tipico rack informatico. Pertanto, se i data center vogliono gestire in modo efficace l’hardware AI, dovranno essere capaci di questo tipo di elaborazione ad alta densità”.
Secondo Cantrell, la maggior parte dei data center convenzionali non sono attrezzati per gestire l’“enorme” calcolo necessario per addestrare le reti neurali IA, in particolare in termini di raffreddamento.
Mentre i data center tradizionali si affidano a rack di server ampiamente distanziati per facilitare il raffreddamento, le applicazioni di machine learning richiedono rack posizionati vicini, in quanto ottimizzano la latenza e la capacità di larghezza di banda tra i server, riducendo al minimo il costo complessivo di implementazione.
"Per aumentare la complessità, i sistemi raffreddati ad aria posizionati troppo vicini tra loro possono provocare carenze di raffreddamento poiché i requisiti estremi di flusso d'aria dei server ad alta capacità possono scontrarsi gli uni con gli altri e creare contropressione sulle ventole di raffreddamento all'interno dell'apparecchiatura", Cantrell aggiunto.
“I data center devono quindi bilanciare le pressioni finanziarie derivanti dalla riduzione dell’ingombro della sala dati con la necessità di fornire spazio sufficiente per un adeguato raffreddamento.
“Questo sarà uno dei motivi per cui vediamo accelerare la crescente adozione del raffreddamento a liquido”.
Come se i complessi requisiti di raffreddamento non fossero sufficienti, Cantrell afferma che i data center dovranno anche essere "strutturalmente in grado di gestire apparecchiature pesanti" per consentire lo spostamento di pesanti armadi informatici IA, che potrebbero pesare più di 1,5 tonnellate una volta completamente configurati.
"Anche l'intelligenza artificiale ha un ruolo da svolgere quando si tratta di sicurezza dei data center"
Cantrell afferma che l’infrastruttura dei data center deve essere in grado di soddisfare le richieste di “connettività, agilità e scalabilità” per poter ospitare e analizzare i set di dati sempre più grandi su cui vengono addestrati i modelli di intelligenza artificiale.