Microsoft entra nel gioco dei chip con i propri processori Arm per l'intelligenza artificiale e i carichi di lavoro informatici
Cosa hai bisogno di sapere
- Microsoft ha presentato due processori progettati su misura per le sue server farm di Azure, ottimizzati per l'intelligenza artificiale e i carichi di lavoro di elaborazione.
- C'è un nuovo chip Arm chiamato "Cobalt 100 CPU" e un processore AI dedicato soprannominato "Maia AI Accelerator".
- I chip verranno lanciati all'inizio del prossimo anno e alimenteranno innanzitutto i servizi Copilot di Microsoft.
LEGGI DI PIÙ DA IGNITE 2023
- Copilot è disponibile in tutto Microsoft 365
- Bing Chat è stato rinominato Copilot
- Microsoft Loop è ora disponibile a livello generale
- Microsoft Mesh e spazi immersivi
- Microsoft Planner unisce To Do e Project
- Microsoft lancia Copilot Studio
- Copilota di sicurezza Microsoft
- L'app Web Copilot è attiva
Microsoft ha annunciato che sta costruendo due processori personalizzati "fatti in casa" per gestire l'intelligenza artificiale e i carichi di lavoro di elaborazione nel cloud. Presentato a Microsoft Accendi il 2023, i nuovi chip di elaborazione sono basati sull'architettura Arm e inizieranno a essere implementati nelle server farm di Microsoft Azure all'inizio del 2024.
Il processore Arm è chiamato "CPU Microsoft Azure Cobalt 100" ed è progettato per eseguire carichi di lavoro di calcolo per scopi generici su Microsoft Cloud. Come altri chip Arm, il processore Cobalt 100 offre maggiore efficienza e prestazioni nei flussi di lavoro basati su cloud. Essere più efficienti è importante, con Microsoft che si concentra sulle prestazioni per watt per garantire che questi chip funzionino con meno potenza.
C'è anche il chip AI dedicato, chiamato "Microsoft Azure Maia AI Accelerator", ottimizzato per le attività di intelligenza artificiale e l'elaborazione dell'intelligenza artificiale generativa. La società afferma che alimenterà i più grandi carichi di lavoro IA interni su Azure e che OpenAI ha aiutato Microsoft a creare questo chip AI dedicato in grado di gestire i suoi modelli linguistici di grandi dimensioni.
Il tecnico Microsoft, Brian Harry, ha affermato che "[l']integrazione verticale – l'allineamento del design del chip con un’infrastruttura AI più ampia progettata pensando ai carichi di lavoro di Microsoft – può produrre enormi guadagni in termini di prestazioni e efficienza."

Microsoft afferma che progettare i propri chip per il cloud consente all'azienda di controllare meglio tutti gli aspetti del cloud Microsoft e dei numerosi servizi di intelligenza artificiale che sta costruendo su di esso. "I chip verranno inseriti su schede server personalizzate, posizionate all'interno di rack su misura che si adatteranno facilmente ai data center Microsoft esistenti. L'hardware lavorerà di pari passo con il software, co-progettato insieme per sbloccare nuove funzionalità e opportunità."
In un post sul blog di Jake Seigal di Microsoft, la società ha dichiarato:
"La capacità di costruire il proprio silicio personalizzato consente a Microsoft di puntare su determinate qualità e garantire che i chip funzionino in modo ottimale sui carichi di lavoro più importanti. Il processo di test prevede la determinazione delle prestazioni di ogni singolo chip in diverse condizioni di frequenza, temperatura e potenza per il picco prestazioni e, soprattutto, testare ciascun chip nelle stesse condizioni e configurazioni che sperimenterebbe in una Microsoft reale Banca dati."
È chiaro che Microsoft considera la costruzione del proprio silicio un'impresa importante per Azure, essendo in grado di controllare tutti gli aspetti del Microsoft Cloud, dal silicio al servizio. Inoltre, può anche lavorare sulla riduzione delle emissioni di carbonio progettando chip più efficienti utilizzando l’architettura Arm.
Inoltre, Microsoft afferma che sta già lavorando su una seconda generazione di CPU Cobalt e Maia AI Accelerator che saranno probabilmente ancora più potenti ed efficienti dal punto di vista energetico.
Azure si espande con più chip
Oltre al silicio di proprietà di Microsoft, la società ha anche annunciato che sta espandendo le partnership industriali per fornire più opzioni infrastrutturali ai clienti. Microsoft afferma che aggiungerà le GPU NVIDIA H200 Tensor Core alla sua flotta il prossimo anno e lancerà un'anteprima delle nuove macchine virtuali NC H100 v5 realizzate per le GPU NVIDIA H100 Tensor Core.
Inoltre, Microsoft sta aggiungendo ad Azure VM accelerate AMD MI300X, progettate per accelerare l'elaborazione dei carichi di lavoro AI per l'addestramento di modelli AI di fascia alta. Questi includeranno la GPU AMD Instinct MI300X.
L'azienda afferma che è importante offrire un'ampia gamma di opzioni nel Microsoft Cloud, sia che si tratti del silicio Microsoft o dell'hardware di terze parti.
Microsoft entra nel gioco delle fiches

Anche se tecnicamente questi non sono i primi chip informatici di Microsoft (sia i PC HoloLens che quelli Surface hanno spediti in precedenza con silicio personalizzato), questi sono i primi chip di Microsoft destinati a un'informatica più generale utilizzo. Naturalmente, i chip sono esclusivi di Microsoft Cloud, il che significa che non li vedrai in nessun hardware dell'utente finale.
Detto questo, non è improbabile che Microsoft possa espandere i suoi sforzi in materia di silicio personalizzato su più hardware in futuro. Anche se non si tratterà di questi chip specifici, è chiaro che Microsoft è desiderosa di continuare a investire nel silicio se è in grado di costruire un chip in grado di competere con Intel e Qualcomm, perché non inserirlo in un PC Surface nel futuro?
Qualcomm ha appena migliorato la sua posizione nello spazio PC con il lancio di Snapdragon X Elite, un chip quello rivaleggia con gli ultimi processori M3 e M3 Pro di Apple. Si dice che Intel si stia preparando a scheggiarlo Chip mobili di quattordicesima generazione anche, che si dice siano molto più efficienti rispetto all'attuale generazione. La concorrenza si sta riscaldando nello spazio consumer, ma per ora Microsoft rimane saldamente nel segmento enterprise e cloud.