Seppur il nuovo modello di linguaggio di OpenAI, GPT-4 si dimostri capace di svolgere un’ampia gamma di compiti interessanti e creativi, esso presenta un problema che potrebbe ostacolare il suo utilizzo diffuso: ha bisogno di una enorme potenza di calcolo.
Costruire un modello grande e complesso come GPT-4, infatti, ha messo a dura prova la potenza di calcolo di OpenAI, spingendo l’azienda a collaborare con la divisione di supercalcolo di Microsoft Azure per creare gli strumenti necessari.
“Una delle cose che abbiamo imparato dalla ricerca è che più il modello è grande, più dati si hanno e più si può addestrare a lungo, migliore sarà l’accuratezza del modello”
Ha spiegato Nidhi Chappell, responsabile del prodotto per Azure e AI presso Microsoft.
“Quindi, c’è stata sicuramente una forte spinta a far addestrare modelli più grandi per un periodo di tempo più lungo, il che significa che non solo è necessario disporre della più grande infrastruttura, ma anche essere in grado di gestirla in modo affidabile per un lungo periodo di tempo.”
Per utilizzare un modello GPT occorre una notevole quantità di potenza di calcolo e ciò rende impossibile farlo funzionare su un hardware di consumo, giacché richiede componenti speciali dal costo di migliaia di dollari.
Tuttavia un gruppo di ricercatori dell’università di Stanford è riuscito a creare un modello di AI con prestazioni paragonabili a quelle del modello di OpenAI GPT-3.5, che può essere seguito su hardware commerciale.
L’AI si chiama “Alpaca 7B”, ed è una versione ottimizzata del modello LLaMA 7B di Meta. Nonostante abbia capacità simili a GPT-3.5, Alpaca 7B è sorprendentemente piccolo, facile ed economico da riprodurre.
I ricercatori stimano che Alpaca, possa essere eseguito su hardware che costa meno di 600 dollari, il che lo rende estremamente più economico dell’hardware di calcolo richiesto da GPT di OpenAI.
Il team di Alpaca, ha riconosciuto che il modello presenta alcuni problemi che sono già stati riscontrati con altri modelli, come ad esempio risposte stereotipate o non veritiere.
Per mitigare queste preoccupazioni, i ricercatori incoraggiano le persone a segnalare problemi durante l’utilizzo della versione demo. un filtro sviluppato da OpenAI e un watermark per identificare le risposte prodotte da Alpaca 7B.