Guerra di intelligenza artificiale generativa AI, “esplode la domanda di chip AI”

I prodotti di servizi di intelligenza artificiale generativa come ChatGPT e Midjourney stanno attirando l'attenzione del mercato.In questo contesto, la Korea Artificial Intelligence Industry Association (KAIIA) ha tenuto il "Gen-AI Summit 2023" al COEX di Samseong-dong, Seoul.L'evento di due giorni mira a promuovere e far progredire lo sviluppo dell'intelligenza artificiale generativa (AI), che sta espandendo l'intero mercato.

Il primo giorno, a partire dal discorso di apertura di Jin Junhe, capo del dipartimento aziendale di fusione dell'intelligenza artificiale, hanno partecipato grandi aziende tecnologiche come Microsoft, Google e AWS che sviluppano e servono attivamente ChatGPT, nonché fabless industrie che sviluppano semiconduttori di intelligenza artificiale e ha fatto presentazioni pertinenti, tra cui "Cambiamenti della PNL portati da ChatGPT" del CEO di Persona AI Yoo Seung-jae e "Costruzione di un chip di inferenza AI ad alte prestazioni, efficiente dal punto di vista energetico e scalabile per ChatGPT" del CEO di Furiosa AI Baek Jun-ho .

Jin Junhe ha affermato che nel 2023, l'anno della guerra dell'intelligenza artificiale, il plug ChatGPT entrerà nel mercato come nuova regola di gioco per l'enorme competizione di modelli linguistici tra Google e MS.In questo caso, prevede opportunità nei semiconduttori e negli acceleratori di intelligenza artificiale che supportano i modelli di intelligenza artificiale.

Furiosa AI è un'azienda fabless rappresentativa che produce semiconduttori AI in Corea.Il CEO di Furiosa AI Baek, che sta lavorando duramente per sviluppare semiconduttori AI generici per mettersi al passo con Nvidia, che detiene la maggior parte del mercato mondiale nell'IA iperscalare, è convinto che "la domanda di chip nel campo dell'IA esploderà in futuro "

Man mano che i servizi di intelligenza artificiale diventano più complessi, devono inevitabilmente affrontare un aumento dei costi di infrastruttura.Gli attuali prodotti GPU A100 e H100 di Nvidia hanno le elevate prestazioni e la potenza di calcolo necessarie per il calcolo dell'intelligenza artificiale, ma a causa dell'aumento dei costi totali, come l'elevato consumo energetico e i costi di implementazione, anche le imprese su larga scala sono caute nel passare a prodotti di nuova generazione.Il rapporto costi-benefici ha espresso preoccupazione.

A questo proposito, Baek ha previsto la direzione dello sviluppo tecnologico, affermando che oltre a sempre più aziende che adottano soluzioni di intelligenza artificiale, la domanda del mercato sarà quella di massimizzare l'efficienza e le prestazioni all'interno di un sistema specifico, come il "risparmio energetico".

Inoltre, ha sottolineato che il punto di diffusione dello sviluppo dei semiconduttori di intelligenza artificiale in Cina è "l'usabilità" e ha affermato che come risolvere il supporto dell'ambiente di sviluppo e la "programmabilità" saranno la chiave.

Nvidia ha creato CUDA per mostrare il suo ecosistema di supporto e garantire che la comunità di sviluppo supporti framework rappresentativi per il deep learning come TensorFlow e Pytoch sta diventando un'importante strategia di sopravvivenza per la produzione.


Tempo di pubblicazione: maggio-29-2023