Di OpenAI si parla con costanza ormai da mesi per quanto proposto in termini di intelligenza artificiale generativa, ovvero ChatGPT e DALL-E. Le ultime indiscrezioni circa la società no-profit guidata da Sam Altman riguardano però “altro”, e più precisamente la possibilità di realizzare internamente i chip AI per trovare una soluzione ai costi elevati e alla scarsa disponibilità delle GPU di calcolo di Nvidia.
I chip per l’AI scarseggiano e i costi sono eccessivi: cosa può fare OpenAI
La notizia arriva da Reuters, secondo cui OpenAI starebbe anche valutando potenziali obiettivi di acquisizione. La società non avrebbe ancora preso una decisione ma le discussioni in merito andrebbero avanti già da un anno. Le soluzioni al momento sarebbero le seguenti quattro:
- Realizzare in-house i chip AI
- Acquisire un’azienda che già produce processori per l’AI
- Diversificare i propri fornitori
- Stringere una collaborazione più stretta con un fornitore, come Nvidia
L’idea di Sam Altman & co. è una conseguenza delle difficoltà di approvvigionamento ma soprattutto delle cifre da capogiro che OpenAI versa ogni giorno per consentire il movimento degli ingranaggi dei suoi prodotti. Per rendere l’idea, secondo Dylan Patel (analista di SemiAnalysis) ChatGPT costerebbe intorno ai 700.000 dollari al giorno, quindi oltre 250 milioni di dollari all’anno.
Se OpenAI si sta muovendo in questa direzione, significa che i processori da impiegare per l’intelligenza artificiale sono un bene difficile da reperire. Al momento, il settore è dominato da Nvidia, con una quota di mercato che supera addirittura l’80%. E proprio le unità di elaborazione grafica di Nvidia (oltre 10.000) sono alla base del supercomputer di Microsoft che dal 2020 viene utilizzato per il funzionamento di ChatGPT. A proposito dell’azienda di Redmond, starebbe lavorando ad un chip AI custom che proprio OpenAI starebbe testando in questo momento.
Si attende ora solo una decisione di OpenAI, la definizione di una strategia per affrontare il doppio problema sopradescritto.