Microsoft presenta Maia 200: il nuovo chip AI che punta sulle prestazioni

Maia 200

Microsoft introduce Maia 200, un processore dedicato all’intelligenza artificiale progettato per aumentare la capacità dei data center e sostenere modelli sempre più estesi. L’azienda presenta questo chip come un elemento strategico per l’evoluzione dei propri servizi cloud, in un contesto in cui le grandi piattaforme stanno investendo in soluzioni proprietarie per ridurre la dipendenza dalle GPU tradizionali.

Architettura e caratteristiche tecniche

Maia 200 si basa su un processo produttivo a 3 nanometri, lo stesso standard scelto per molte architetture di fascia alta. La struttura integra più di 100 miliardi di transistor, un valore che punta a migliorare l’efficienza energetica e la gestione dei carichi legati ai modelli generativi.

L’acceleratore è progettato per operare con formati numerici a bassa precisione come FP4 e FP8, modalità ormai centrali per le reti neurali di ultima generazione. In questi ambiti il chip raggiunge livelli di throughput che collocano l’architettura tra le più competitive della categoria. Le ottimizzazioni mirano soprattutto ai compiti di inferenza avanzata, scenario in cui l’equilibrio tra prestazioni, costi e consumi rappresenta un fattore determinante per i grandi provider cloud.

Secondo i responsabili tecnici della divisione AI di Microsoft, Maia 200 è stato progettato per sostenere i modelli attuali e permettere margini di crescita per quelli che caratterizzeranno i prossimi anni. La piattaforma punta infatti a supportare reti di dimensioni sempre maggiori, con particolare attenzione alle architetture multimodali utilizzate nei servizi aziendali e consumer.

Posizionamento nel mercato dei chip AI

L’arrivo di Maia 200 si inserisce in una fase in cui i principali operatori cloud stanno sviluppando soluzioni interne per ridurre i vincoli dell’offerta esterna. Negli ultimi anni la domanda di acceleratori è cresciuta rapidamente e la disponibilità limitata di GPU ha evidenziato la necessità di progetti proprietari.

Microsoft prosegue così la strategia inaugurata con Maia 100, ampliando il ventaglio di hardware disponibile per Azure. Il nuovo chip è presentato come alternativa alle proposte concorrenti, in particolare alle soluzioni sviluppate da Amazon e Google nei rispettivi ecosistemi cloud.

La competizione riguarda soprattutto la capacità di offrire servizi con tempi di elaborazione ridotti, maggiore scalabilità e costi più controllabili per aziende, sviluppatori e centri di ricerca. Il controllo diretto della filiera hardware permette ai provider di ottimizzare i flussi di lavoro, costruire rack dedicati e introdurre modalità di gestione più precise per carichi differenti.

Implementazione in Azure e disponibilità

Maia 200 è già integrato nell’infrastruttura Azure e può essere utilizzato con il modello di pagamento a consumo previsto dalle altre risorse di calcolo. Questa scelta permette alle imprese di sperimentare nuovi flussi AI senza modificare l’organizzazione delle proprie piattaforme.

Microsoft ha inoltre attivato un programma che include un’anteprima dello SDK dedicato, pensato per consentire a sviluppatori, laboratori e progetti open-source di ottimizzare le applicazioni per il nuovo chip. L’obiettivo è definire un ecosistema che sfrutti in modo completo le capacità dell’acceleratore, con un’attenzione particolare alle applicazioni professionali e ai servizi avanzati come Copilot e Foundry.

Il primo gruppo che sta valutando l’adozione del nuovo hardware è il team Superintelligence dell’azienda, impegnato nello sviluppo di sistemi sempre più complessi. L’uso interno dovrebbe offrire indicazioni utili per migliorare l’ottimizzazione delle versioni future e l’integrazione nei data center globali.

CONDIVIDI L'ARTICOLO