Prodotti di servizi di intelligenza artificiale generativa come ChatGPT e Midjourney stanno attirando l'attenzione del mercato. In questo contesto, la Korea Artificial Intelligence Industry Association (KAIIA) ha organizzato il "Gen-AI Summit 2023" al COEX di Samseong-dong, Seul. L'evento di due giorni mira a promuovere e far progredire lo sviluppo dell'intelligenza artificiale generativa (IA), che sta espandendo l'intero mercato.
Il primo giorno, a partire dal discorso principale di Jin Junhe, responsabile del dipartimento aziendale di fusione dell'intelligenza artificiale, grandi aziende tecnologiche come Microsoft, Google e AWS che sviluppano e servono attivamente ChatGPT, nonché industrie fabless che sviluppano semiconduttori per l'intelligenza artificiale hanno partecipato e tenuto presentazioni pertinenti, tra cui "Cambiamenti NLP apportati da ChatGPT" del CEO di Persona AI Yoo Seung-jae e "Creazione di un chip di inferenza AI ad alte prestazioni, efficiente dal punto di vista energetico e scalabile per ChatGPT" del CEO di Furiosa AI Baek Jun-ho.
Jin Junhe ha affermato che nel 2023, l'anno della guerra dell'intelligenza artificiale, il plug-in ChatGPT entrerà sul mercato come nuova regola del gioco nell'enorme competizione sui modelli linguistici tra Google e Microsoft. In questo caso, prevede opportunità nei semiconduttori e negli acceleratori di intelligenza artificiale che supportano i modelli di intelligenza artificiale.
Furiosa AI è un'azienda fabless che produce semiconduttori per l'intelligenza artificiale in Corea. Baek, CEO di Furiosa AI, sta lavorando duramente per sviluppare semiconduttori per l'intelligenza artificiale generici per raggiungere Nvidia, che detiene la maggior parte del mercato mondiale dell'intelligenza artificiale iperscalabile, ed è convinto che "la domanda di chip nel campo dell'intelligenza artificiale esploderà in futuro".
Con la crescente complessità dei servizi di intelligenza artificiale, i costi infrastrutturali aumentano inevitabilmente. Gli attuali prodotti GPU A100 e H100 di Nvidia offrono le elevate prestazioni e la potenza di calcolo necessarie per l'intelligenza artificiale, ma a causa dell'aumento dei costi totali, come l'elevato consumo energetico e i costi di implementazione, anche le aziende di grandissime dimensioni sono restie a passare a prodotti di nuova generazione. Il rapporto costi-benefici ha espresso preoccupazione.
A questo proposito, Baek ha previsto la direzione dello sviluppo tecnologico, affermando che oltre al fatto che sempre più aziende adotteranno soluzioni di intelligenza artificiale, la domanda del mercato sarà quella di massimizzare l'efficienza e le prestazioni all'interno di un sistema specifico, come il "risparmio energetico".
Ha inoltre sottolineato che il punto di forza dello sviluppo di semiconduttori per l'intelligenza artificiale in Cina è la "fruibilità", e ha affermato che la chiave sarà trovare soluzioni per il supporto dell'ambiente di sviluppo e la "programmabilità".
Nvidia ha creato CUDA per mettere in mostra il suo ecosistema di supporto e garantire che la comunità di sviluppo supporti framework rappresentativi per il deep learning come TensorFlow e Pytoch sta diventando un'importante strategia di sopravvivenza per la produzione.
Data di pubblicazione: 29 maggio 2023





