Guerra AI dell’intelligenza artificiale generativa, “esplode la domanda di chip AI”

I prodotti di servizi di intelligenza artificiale generativa come ChatGPT e Midjourney stanno attirando l'attenzione del mercato. In questo contesto, la Korea Artificial Intelligence Industry Association (KAIIA) ha tenuto il “Gen-AI Summit 2023′ presso COEX a Samseong-dong, Seoul. L’evento di due giorni mira a promuovere e far avanzare lo sviluppo dell’intelligenza artificiale generativa (AI), che sta espandendo l’intero mercato.

Il primo giorno, a partire dal discorso di apertura di Jin Junhe, capo del dipartimento aziendale di fusione dell'intelligenza artificiale, hanno partecipato grandi aziende tecnologiche come Microsoft, Google e AWS che sviluppano e servono attivamente ChatGPT, nonché industrie fabless che sviluppano semiconduttori per l'intelligenza artificiale e ha tenuto presentazioni rilevanti, tra cui "Cambiamenti della PNL apportati da ChatGPT" del CEO di Persona AI Yoo Seung-jae e "Costruire un chip di inferenza AI ad alte prestazioni, efficiente dal punto di vista energetico e scalabile per ChatGPT" del CEO di Furiosa AI Baek Jun-ho.

Jin Junhe ha affermato che nel 2023, l’anno della guerra dell’intelligenza artificiale, il plug ChatGPT entrerà nel mercato come nuova regola del gioco per l’enorme competizione sui modelli linguistici tra Google e MS. In questo caso, prevede opportunità nei semiconduttori e negli acceleratori IA che supportano i modelli IA.

Furiosa AI è un'azienda rappresentativa di fabless che produce semiconduttori AI in Corea. Baek, CEO di Furiosa AI, che sta lavorando duramente per sviluppare semiconduttori AI di uso generale per raggiungere Nvidia, che detiene la maggior parte del mercato mondiale nell'intelligenza artificiale su vasta scala, è convinto che "la domanda di chip nel campo dell'intelligenza artificiale esploderà in futuro". "

Man mano che i servizi di intelligenza artificiale diventano più complessi, devono inevitabilmente affrontare un aumento dei costi infrastrutturali. Gli attuali prodotti GPU A100 e H100 di Nvidia offrono le prestazioni elevate e la potenza di calcolo necessarie per il calcolo dell'intelligenza artificiale, ma a causa dell'aumento dei costi totali, come l'elevato consumo energetico e i costi di implementazione, anche le aziende di grandissime dimensioni sono caute nel passare a prodotti di prossima generazione. Il rapporto costi-benefici ha espresso preoccupazione.

A questo proposito, Baek ha previsto la direzione dello sviluppo tecnologico, affermando che oltre all’adozione da parte di sempre più aziende di soluzioni di intelligenza artificiale, la domanda del mercato sarà quella di massimizzare l’efficienza e le prestazioni all’interno di un sistema specifico, come il “risparmio energetico”.

Inoltre, ha sottolineato che il punto di diffusione dello sviluppo dei semiconduttori per l'intelligenza artificiale in Cina è l'“usabilità” e ha affermato che la chiave sarà il supporto dell'ambiente di sviluppo e la “programmabilità”.

Nvidia ha creato CUDA per mostrare il suo ecosistema di supporto e garantire che la comunità di sviluppo supporti strutture rappresentative per il deep learning come TensorFlow e Pytoch sta diventando un'importante strategia di sopravvivenza per la produzione.


Orario di pubblicazione: 29 maggio 2023