Intel abilita l’Enterprise AI con Gaudi 3, la strategia AI Open Systems e nuovi annunci di clienti 1

Intel abilita l’Enterprise AI con Gaudi 3, la strategia AI Open Systems e nuovi annunci di clienti

A Vision 2024, Intel punta forte sulla propria visione di enterprise AI più sicuro con nuovi clienti partner e collaborazioni a tutto tondo.

In breve

  • Intel ha presentato la propria visione di enterprise AI, con sistemi aperti e scalabili in tutti i segmenti dell’intelligenza artificiale.
  • Presentato l’acceleratore AI Intel® Gaudi® 3, che offre un’inferenza migliore del 50%1 in media e un’efficienza energetica migliore del 40%2 in media rispetto a Nvidia H100, a una frazione del costo.
  • Intel ha annunciato la disponibilità di Gaudi 3 per gli OEM, tra cui Dell Technologies, HPE, Lenovo e Supermicro, ampliando l’offerta del mercato dei data center AI per le imprese.
  • Annunciati nuovi clienti e partner per l’acceleratore Intel Gaudi, tra cui Bharti Airtel, Bosch, CtrlS, IBM, IFF, Landing AI, Ola, NAVER, NielsenIQ, Roboflow e Seekr.
  • Prevista una piattaforma aperta per l’enteprise AI sviluppata insieme a SAP, IBM, RedHat e Hugging Face, per accelerare l’implementazione di sistemi GenAI sicuri, abilitati dalla retrieval-augmented generation (RAG).
  • Attraverso l’Ultra Ethernet Consortium (UEC), Intel è leader nel networking Ethernet aperto per l’infrastruttura AI. L’azienda ha introdotto una serie di soluzioni Ethernet ottimizzate per l’intelligenza artificiale, tra cui AI NIC (scheda di interfaccia di rete) e chiplet di connettività AI.

PHOENIX, 9 aprile 2024 – In occasione della conferenza Intel Vision 2024 aperta a clienti e partner, l’azienda ha presentato l’acceleratore Gaudi 3 che porta prestazioni, standard aperti e possibilità di scelta all’intelligenza artificiale generativa (GenAI) per l’impresa, annunciando una suite di nuovi sistemi aperti e scalabili, prodotti di nuova generazione e collaborazioni strategiche per accelerare l’adozione della tecnologia. Lo scorso anno, solo il 10% delle imprese ha portato in produzione progetti di GenAI di successo e le nuove offerte di Intel consentono di affrontare le sfide legate all’implementazione di iniziative di AI da parte delle imprese.

Grazie al silicio, l’innovazione avanza a un ritmo senza precedenti e ogni azienda sta rapidamente adottando intelligenza artificiale”, ha affermato il CEO di Intel Pat Gelsinger. “Intel sta portando l’intelligenza artificiale in ogni parte dell’azienda, dal PC al data center fino all’edge. Le nostre ultime piattaforme Gaudi, Xeon e Core Ultra offrono un insieme coerente di soluzioni flessibili su misura per soddisfare le mutevoli esigenze dei nostri clienti e partner e sfruttare le immense opportunità che si presentano per il futuro”.

Le aziende stanno lavorando per portare GenAI dalla fase pilota alla produzione. Per fare questo necessitano di soluzioni prontamente disponibili, basate su processori ad alte prestazioni, efficienti in termini di costi e consumi energetici, come l’acceleratore Intel Gaudi 3 AI, in grado di rispondere anche ai più stringenti requisiti di complessità, frammentazione, sicurezza dei dati e conformità.

Presentato Intel Gaudi 3 per la formazione e l’inferenza dell’AI

L’acceleratore AI Intel Gaudi 3 alimenterà i sistemi AI con un potenziale di decine di migliaia di acceleratori collegati tramite Ethernet. Intel Gaudi 3 promette una potenza di calcolo AI quattro volte superiore per BF16 e un’ampiezza di banda della memoria superiore di una volta e mezza rispetto al suo predecessore. L’acceleratore rappresenterà un passo avanti significativo nella formazione e nell’inferenza dell’AI per le aziende globali che desiderano implementare GenAI su larga scala.

Rispetto a Nvidia H100, si prevede che Intel Gaudi 3 fornisca un time-to-train mediamente più veloce del 50%3 sui modelli Llama2 con parametri 7B e 13B e sul modello con parametri GPT-3 175B. Inoltre, si prevede che il throughput di inferenza dell’acceleratore Intel Gaudi 3 supererà l’H100 del 50% in termini di prestazioni medie1 e del 40% termini di efficienza energetica media2 dell’inferenza tra i parametri Llama 7B e 70B e i modelli di parametri Falcon 180B.

Intel Gaudi 3 fornisce un software aperto community based e reti Ethernet standard. Inoltre, consente alle aziende di scalare in modo flessibile da un singolo nodo a cluster, super-cluster e mega-cluster con migliaia di nodi, sostenendo inferenza, messa a punto e formazione su larga scala.

Intel Gaudi 3 sarà disponibile per gli OEM, tra cui Dell Technologies, HPE, Lenovo e Supermicro, nel secondo trimestre del 2024.

Ulteriori informazioni sono disponibili qui: Intel Tackles the GenAI Gap with Gaudi 3

Creare valore per i clienti con le soluzioni AI di Intel

Intel ha delineato la propria strategia per sistemi di intelligenza artificiale aperti e scalabili, inclusi hardware, software, framework e strumenti. L’approccio di Intel consente a un ecosistema ampio e aperto di attori del settore AI di offrire soluzioni che soddisfano le esigenze GenAI specifiche dell’azienda. Questo include produttori di apparecchiature, fornitori di database, integratori di sistemi, fornitori di software e servizi e altro ancora. Consente inoltre alle aziende di utilizzare i partner e le soluzioni dell’ecosistema che già conoscono e di cui si fidano.

Intel ha condiviso una completa roadmap con i clienti aziendali e i partner di tutti i settori con l’obiettivo di implementare le soluzioni di accelerazione Intel Gaudi per innovative applicazioni di intelligenza artificiale generativa:

  • NAVER: sviluppo di un potente LLM per l’implementazione di servizi avanzati di intelligenza artificiale a livello globale, dal cloud al dispositivo. NAVER ha confermato la capacità fondamentale di Intel Gaudi nell’esecuzione di operazioni di elaborazione per modelli di trasformazione su larga scala con prestazioni eccezionali per Watt.
  • Bosch: esplorazione di ulteriori opportunità per la manifattura intelligente, inclusi modelli fondamentali, grazie alla generazione di data set sintetici di anomalie di produzione per fornire training set robusti e uniformemente distribuiti, ad es. ispezione ottica automatizzata.
  • IBM: utilizzo di processori Intel® Xeon® di quinta generazione per l’archivio dati watsonx.data e collaborazione con Intel per convalidare la piattaforma watsonx per gli acceleratori Intel Gaudi.
  • Ola/Krutrim: pre-istruzione e messa a punto del primo modello fondamentale indiano con capacità generative in 10 lingue, con un rapporto prezzo/prestazioni leader del settore (1,5-2 volte migliore) rispetto alle soluzioni disponibili in commercio. Krutrim sta ora pre-istruendo un modello fondamentale più ampio su un cluster Intel® Gaudi®.
  • NielsenIQ, an Advent International portfolio company: potenziamento delle proprie capacità di Gen AI attraverso LLM specifici sul più grande database mondiale di mappatura dei comportamenti di acquisto dei consumatori, migliorando le offerte di servizi ai clienti aderendo a rigorosi standard di privacy.
  • Seekr: leader nell’intelligenza artificiale affidabile, esegue carichi di lavoro di produzione su Intel Gaudi 2, GPU per data center Intel Max Series e processori Intel Xeon in Intel® Tiber™ Developer Cloud per lo sviluppo LLM e il supporto per la distribuzione in produzione.
  • IFF: leader globale nel settore degli alimenti, delle bevande, dei profumi e delle bioscienze, adotterà la tecnologia GenAI e i digital twin per stabilire un flusso di lavoro di biologia digitale integrato per la progettazione avanzata di enzimi e l’ottimizzazione del processo di fermentazione.
  • CtrlS Group: Collaborazione per costruire un supercomputer AI per clienti con sede in India e scalabilità dei servizi cloud CtrlS per l’India con ulteriori cluster Gaudi.
  • Bharti Airtel: utilizzando le tecnologie avanzate di Intel, Airtel prevede di utilizzare i propri dati associati a servizi di telecomunicazioni per accrescere le proprie capacità nell’AI e migliorare notevolmente l’esperienza dei clienti. Questi servizi saranno in linea con l’impegno di Airtel di rimanere all’avanguardia dell’innovazione tecnologica e creare nuove fonti di reddito in un contesto digitale in rapida evoluzione.
  • Landing AI: modello perfezionato di visione delle grandi dimensioni da utilizzare nella segmentazione delle cellule e nel rilevamento del cancro.
  • Roboflow: esecuzione di carichi di lavoro di produzione di modelli YOLOv5, YOLOv8, CLIP, SAM e ViT per la piattaforma di visione artificiale end-to-end.
  • Infosys: il leader globale nei serivizi digitali di nuova generazione e nella consulenza ha annunciato una collaborazione strategica per portare le tecnologie di Intel – inclusi i processori Xeon di quarta e quinta generazione, gli acceleratori AI Gaudi 2 e gli AI PC – su Infosys Topaz, una serie di servizi, soluzioni e piattaforme a prevalenza AI che accelera il valore delle aziende attraverso tecnologie di AI generativa.

Intel ha inoltre annunciato collaborazioni con Google Cloud, Thales e Cohesity per sfruttare le capacità informatiche riservate di Intel nelle proprie istanze cloud. Questo include Intel® Trust Domain Extensions (Intel® TDX), Intel® Software Guard Extensions (Intel® SGX) e il servizio di attestazione di Intel. I clienti possono eseguire i propri modelli e algoritmi di intelligenza artificiale in un ambiente di esecuzione affidabile (TEE) e sfruttare i servizi fiduciari di Intel per verificare l’affidabilità degli stessi.

L’ecosistema si unisce per sviluppare una piattaforma aperta di Enterprise AI

In collaborazione con Anyscale, DataStax, Huggung Face, KX Systems, MariaDB, MinIO, Qdrant, Red Hat, Redis, SAP, SAS, VMware, Yellowbrick e Zilliz, Intel ha annunciato l’intenzione di creare una piattaforma aperta per l’Enterprise AI. L’iniziativa mira a sviluppare sistemi GenAI aperti e multi-vendor che offrano facilità di implementazione, e le migliori prestazioni e valore, abilitati dalla generazione retrieval-augmented (RAG). Questa consente di abilitare le grandi fonti di dati proprietarie delle aziende che funzionano su soluzioni standard e sicure basate su Intel Xeon con funzionalità LLM aperte, accelerando l’utilizzo della GenAI nelle imprese.

Come passo iniziale, Intel rilascerà implementazioni di riferimento per le pipeline GenAI su soluzioni sicure basate su Intel Xeon e Gaudi, pubblicherà un quadro concettuale tecnico e continuerà ad aggiungere capacità infrastrutturale in Intel® Tiber™ Developer Cloud per lo sviluppo dell’ecosistema e la convalida di RAG e pipeline future. Intel incoraggia un’ulteriore partecipazione dell’ecosistema per unire le forze in questo sforzo aperto per facilitare l’adozione da parte delle imprese, estendere la copertura delle soluzioni e accelerare i risultati aziendali.

La roadmap estesa dell’AI e l’approccio a ecosistema aperto di Intel

Oltre all’acceleratore Intel Gaudi 3, Intel ha fornito aggiornamenti sui suoi prodotti e servizi di nuova generazione in tutti i segmenti dell’Enterprise AI.

Nuovi processori Intel® Xeon® 6: i processori Intel Xeon offrono una soluzione efficiente in termini di prestazioni per eseguire le attuali soluzioni GenAI, tra cui RAG, che producono risultati specifici del business utilizzando dati proprietari. Intel ha presentato il nuovo brand per i suoi processori di nuova generazione per data center, cloud ed edge: Intel Xeon 6. I processori Intel Xeon 6 con i nuovi Efficient-core (E-core) offriranno un’efficienza eccezionale e verranno lanciati questo trimestre, mentre Intel Xeon 6 con Performance-core (P-core) offrirà prestazioni AI migliorate e verrà lanciato subito dopo i processori E-core.

  • Processori Intel Xeon 6 con E-core (nome in codice precedente Sierra Forest):
    • miglioramento delle prestazioni per watt di 2,4 volte4 e densità rack migliore di 2,7 volte5 rispetto ai processori Intel® Xeon® di seconda generazione
    • gli utenti possono sostituire i sistemi più vecchi con un rapporto di quasi 3 a 1, riducendo drasticamente il consumo energetico e contribuendo a raggiungere gli obiettivi di sostenibilità6.
  • Processori Intel Xeon 6 con P-core (nome in codice precedente Granite Rapids):
    • incorporano il supporto software per il formato dati MXFP4, che riduce la latenza del token successivo fino a 6,5 volte rispetto allo Xeon di quarta generazione che utilizza FP16, con la possibilità di eseguire 70 miliardi di modelli Llama-2 con parametri7.

Client, edge e connettività: Intel ha aggiornato la propria roadmap per edge e connettività con:

  • Processori Intel® Core™ Ultra che offrono nuove funzionalità per la produttività, la sicurezza e la creazione di contenuti, fornendo alle aziende una grande motivazione per aggiornare i propri parchi PC. Intel prevede di spedire 40 milioni di PC AI nel 2024, con oltre 230 design, dai PC ultrasottili ai dispositivi di gioco portatili.
  • La famiglia di processori client Intel® Core™ Ultra di nuova generazione (nome in codice Lunar Lake), lanciata nel 2024, avrà più di 100 operazioni TOPS di piattaforma al secondo (TOPS) e più di 45 TOPS di unità di elaborazione neurale (NPU) per i prossimi AI PC di nuova generazione.
  • Intel ha annunciato il nuovo silicio edge per le famiglie di processori Intel Core Ultra, Intel® Core™ e Intel® Atom, e unità di elaborazione grafica (GPU) Intel® Arc™, destinati a mercati chiave tra cui vendita al dettaglio, produzione industriale e assistenza sanitaria. Tutte le nuove aggiunte al portafoglio di IA edge di Intel saranno disponibili questo trimestre e saranno supportate dalla piattaforma Intel® Tiber™ Edge quest’anno.
  • Attraverso l’Ultra Ethernet Consortium (UEC), Intel è leader nel networking Ethernet aperto per i tessuti IA, introducendo una serie di soluzioni Ethernet ottimizzate per l’intelligenza artificiale. Progettate per trasformare tessuti AI di grandi dimensioni e scalabili, queste innovazioni consentono l’addestramento e l’inferenza per modelli sempre più vasti, con dimensioni che si espandono di un ordine di grandezza in ogni generazione. La gamma include Intel AI NIC (scheda di interfaccia di rete), chiplet di connettività AI per l’integrazione in XPU, sistemi basati su Gaudi e una gamma di progetti di interconnessione AI di riferimento soft e hard per Intel Foundry.

Il portfolio Intel® Tiber™ di soluzioni aziendali

Intel ha presentato il portfolio di soluzioni aziendali Intel® Tiber™ per semplificare l’implementazione di software e servizi aziendali, anche per GenAI.

Un’esperienza d’uso unificata rende più semplice per utenti aziendali e sviluppatori trovare soluzioni adatte alle loro esigenze, accelerare l’innovazione e sbloccare valore senza compromettere la sicurezza, la conformità o le prestazioni. I clienti possono iniziare a esplorare il portafoglio Intel® Tiber™ a partire da oggi, con un’implementazione completa pianificata per il terzo trimestre del 2024. Ulteriori informazioni qui intel.com/tiber.

Gli annunci di Intel a Vision 2024 sottolineano l’impegno dell’azienda nel rendere l’intelligenza artificiale accessibile, aperta e sicura per le aziende di tutto il mondo. Con queste nuove soluzioni e collaborazioni, Intel è pronta ad aprire la strada alla rivoluzione dell’intelligenza artificiale, sbloccando un valore senza precedenti per le aziende di tutto il mondo.

Maggiore contesto: Intel Vision 2024 (Press Kit) | Intel Vision 2024 Keynote (Livestream) | Intel Tackles the GenAI Gap with Gaudi 3 (News)

Informazioni su Intel

Intel (Nasdaq: INTC) è un’azienda leader di settore che crea tecnologia in grado di cambiare il mondo, rendendo possibile il progresso globale e arricchendo la vita delle persone. Lavora costantemente, ispirata dalla Legge di Moore, per portare avanzamenti nella progettazione e nella produzione di semiconduttori che aiutano i clienti ad affrontare le loro più grandi sfide. Intel sprigiona la potenza dei dati per trasformare in meglio le imprese e la società, integrando intelligenza nel cloud, nella rete, nell’edge e in ogni tipologia di dispositivo informatico. Per sapere di più sulle innovazioni di Intel, è possibile visitare i siti web newsroom.intel.com e intel.it.

© Intel Corporation. Intel, the Intel logo and other Intel marks are trademarks of Intel Corporation or its subsidiaries. Other names and brands may be claimed as the property of others.

Dichiarazioni previsionali

Il presente comunicato contiene dichiarazioni previsionali, anche rispetto a:

  • i nostri piani e strategie aziendali e i benefici attesi da essi derivanti;
  • la nostra strategia AI e gli acceleratori AI;
  • il nostro approccio alle piattaforme aperte e il supporto dell’ecosistema rispetto all’intelligenza artificiale; e altre caratterizzazioni di eventi o circostanze futuri.

Tali dichiarazioni comportano molti rischi e incertezze che potrebbero far sì che i nostri risultati effettivi differiscano materialmente da quelli espressi o impliciti, compresi quelli associati a:

  • l’elevato livello di concorrenza e il rapido cambiamento tecnologico nel nostro settore;
  • gli investimenti significativi a lungo termine e intrinsecamente rischiosi che stiamo effettuando in strutture di ricerca e sviluppo e di produzione che potrebbero non realizzare un rendimento favorevole;
  • le complessità e le incertezze nello sviluppo e nell’implementazione di nuovi prodotti a semiconduttori e tecnologie di processo produttivo;
  • la nostra capacità di programmare e scalare i nostri investimenti di capitale in modo appropriato e di garantire con successo accordi finanziari alternativi favorevoli e sovvenzioni pubbliche;
  • implementare nuove strategie di business e investire in nuove imprese e tecnologie;
  • cambiamenti nella domanda dei nostri prodotti;
  • condizioni macroeconomiche, tensioni e conflitti geopolitici, comprese le tensioni geopolitiche e commerciali tra Stati Uniti e Cina, gli impatti della guerra della Russia contro l’Ucraina, le tensioni e i conflitti che colpiscono Israele e le crescenti tensioni tra la Cina continentale e Taiwan;
  • il mercato in evoluzione dei prodotti con funzionalità di intelligenza artificiale;
  • la nostra complessa catena di fornitura globale, anche a causa di interruzioni, ritardi, tensioni e conflitti commerciali o carenze;
  • difetti del prodotto, errata e altri problemi relativi al prodotto, in particolare quando sviluppiamo prodotti di prossima generazione e implementiamo tecnologie di processo di produzione di prossima generazione;
  • potenziali vulnerabilità della sicurezza nei nostri prodotti;
  • aumento e evoluzione delle minacce alla sicurezza informatica e dei rischi per la privacy;
  • Rischi legati alla proprietà intellettuale, compresi i relativi contenziosi e procedimenti normativi;
  • la necessità di attrarre, trattenere e motivare i talenti chiave;
  • operazioni e investimenti strategici;
  • rischi legati alle vendite, inclusa la concentrazione della clientela e l’utilizzo di distributori e altri soggetti terzi;
  • il nostro ritorno di capitale significativamente ridotto negli ultimi anni;
  • i nostri obblighi di debito e la nostra capacità di accedere a fonti di capitale;
  • leggi e regolamenti complessi e in evoluzione in molte giurisdizioni;
  • fluttuazioni dei tassi di cambio;
  • cambiamenti nella nostra aliquota fiscale effettiva;
  • eventi catastrofici;
  • normative ambientali, sanitarie, di sicurezza e di prodotto;
  • le nostre iniziative e i nuovi requisiti legali in materia di responsabilità aziendale; e altri rischi e incertezze descritti in questo comunicato, nella nostra più recente relazione annuale sul modulo 10-K e in altri nostri documenti depositati presso la Securities and Exchange Commission (SEC) degli Stati Uniti.

Tutte le informazioni contenute in questo comunicato riflettono le aspettative del management alla data del presente comunicato, a meno che non venga specificata una data precedente. Non ci impegniamo, e decliniamo espressamente qualsiasi obbligo, ad aggiornare tali dichiarazioni, sia come risultato di nuove informazioni, nuovi sviluppi o altro, tranne nella misura in cui la divulgazione possa essere richiesta dalla legge.

1 Confronto NV H100 basato su https://nvidia.github.io/TensorRT-LLM/performance.html#h100-gpus-fp8, 28 marzo 2024. I numeri riportati si intendono per GPU. Rispetto alle proiezioni Intel® Gaudi® 3 per proiezioni LLAMA2-7B, LLAMA2-70B e Falcon 180B. I risultati possono variare.

2 Confronto NV H100 basato su https://nvidia.github.io/TensorRT-LLM/performance.html#h100-gpus-fp8, 28 marzo 2024. I numeri riportati si intendono per GPU. Rispetto alle proiezioni Intel® Gaudi® 3 per LLAMA2-7B, LAMA2-70B e Falcon 180B. Efficienza energetica sia per Nvidia che per Gaudi 3 basata su stime interne. I risultati possono variare.

3 Confronto NV H100 basato su: https://developer.nvidia.com/deep-learning-performance-training-inference/training, 28 marzo 2024. Scheda “Large Language Model” rispetto alle proiezioni Intel® Gaudi® 3 per LLAMA2-7B , LLAMA2-13B e GPT3-175B a partire dal 28/3/2024. I risultati possono variare.

4 Basato su proiezioni architettoniche al 14 febbraio 2023 rispetto alle piattaforme della generazione precedente. I risultati potrebbero variare.

5 Basato su proiezioni architettoniche al 14 febbraio 2023 rispetto alle piattaforme della generazione precedente. I risultati potrebbero variare.

6 Basato su proiezioni architettoniche al 14 febbraio 2023 rispetto alle piattaforme della generazione precedente. I risultati potrebbero variare.

7 Consultare la sezione Vision 2024 di intel.com/performanceindex per carichi di lavoro e configurazioni. I risultati possono variare.

Translate »