Microsoft presenta Maia 200, un chip pensato per rendere più efficiente l’inferenza dei modelli AI. Ma Satya Nadella chiarisce: anche con silicio proprietario, l’azienda continuerà a comprare GPU e acceleratori da Nvidia e AMD. Il messaggio tra le righe è interessante: non è una guerra “o noi o loro”, è una strategia multi-fornitore per reggere la fame di calcolo dell’AI.
Maia 200 è stato presentato come un “workhorse” per scalare l’inferenza: in altre parole, non è il chip per addestrare i modelli da zero, ma quello pensato per farli girare in modo sostenibile quando diventano un servizio reale (chatbot, Copilot, API, strumenti enterprise). Microsoft parla di oltre 100 miliardi di transistor e di prestazioni mirate a carichi a bassa precisione, proprio perché è lì che oggi si gioca il costo di servire modelli a milioni di utenti.
Perché conta: l’inferenza è la “bolletta” quotidiana dell’AI. Se la riduci, l’AI diventa più scalabile e meno costosa da offrire (anche lato cloud).
Dopo l’annuncio, la domanda inevitabile è: “Quindi Microsoft smette di comprare GPU Nvidia?” La risposta è un no piuttosto netto. Nadella spiega che anche se Microsoft può integrare hardware e software, non significa che userà solo quello: Nvidia e AMD continuano a innovare e, in una corsa lunga, devi restare “avanti per sempre”, non solo oggi.
HDBlog riporta lo stesso concetto in chiave più “mercato”: Maia 200 sarà centrale per la strategia AI, ma non sarà l’unica opzione sul tavolo.
La lettura più utile è questa: nei prossimi mesi vedremo un’AI sempre più “ibrida” anche a livello hardware. Per le aziende, questo può voler dire:
Per gli utenti finali, il risultato atteso è meno “magico” ma molto concreto: servizi AI più stabili, potenzialmente più rapidi e — nel tempo — più economici.
Tu che ne pensi: è una strategia pragmatica (multi-chip) o l’inizio di una spaccatura inevitabile tra cloud e Nvidia?