4 d ·Dịch

Tre giorni fa, l'intera leadership di OpenAI ha dedicato qualche ora al pubblico rispondendo in diretta a domande nel sottogruppo dei fan di chatGPT su Reddit (quello che in gergo si chiama AMA: ask me anything - link nel primo commento). Pensavano probabilmente di incontrare una folla gaudente che tirasse loro petali di rose ma si sono in realtà scontrati con rabbia, lutto e dispiacere da parte di centinaia se non migliaia di utenti che GPT5 non lo vogliono - vogliono continuare a usare il 4 che openAI aveva contemporaneamente e colpevolmente rimosso.

Le critiche erano tutte simili tra loro: non me ne frega niente che sia più intelligente, mi sembra di parlare con un robot. GPT4 era comprensivo, loquace, divertente, magari ogni tanto faceva qualche errore ma mi capiva, e mi rispondeva a tono. Questo sapientone trasforma tutto nei massimi sistemi, filosofizza pure la lista della spesa, si crede chissà chi e ci mette tre ore a rispondere. Ha pure cambiato voce. Mi avete portato via il mio amico.

Chiaramente OpenAI non si aspettava una reazione di questo tipo tanto che oggi Altman ha annunciato su twitter che il modello 4o verrà resuscitato e gli utenti saranno in grado di usarlo ancora per un po'.

Quello che è successo è interessante per diversi motivi che riguardano il prodotto e il suo frutto ma prima di tutto ci ricorda che questi modelli hanno una personalità. Da dove deriva questa personalità e perché può variare così tanto? Come ha fatto ad esempio Grok a passare da piacevole ribelle a neonazi? Dopo l'addestramento sul corpus - che decide quello che il modello conosce - esiste una accordatura sul comportamento (detta fine tuning o reinforcement learning on human feedback RLHF) - che decide come il modello si deve relazionare con l'utente e che di fatto trasforma un nerd che sa un sacco di cose ma non riesce ad esprimerle in un amante eloquente, o un bravo divulgatore.

Come per un pianoforte, l'accordatura serve a dare un significato, una grazia, una personalità al modello trasformando una sequenza cacofonica in una sinfonia. Senza fine tuning, il modello si comporta davvero come un algoritmo statistico che mette solo in fila parole vicine nel loro spazio semantico ma non è in grado di tenere una conversazione, di capire, di estrapolare, di astrarre, tutte proprietà che richiedono appunto l'intervento di addestratori umani. Alla domanda "perché il cielo è blu?", un modello non addestrato risponderebbe con una filippica in cui dopo poche righe si ritroverebbe a parlare del concetto di blu nella civiltà Maja o del periodo Blu di Picasso. Insomma uno di quei nerd che quando vi invita in camera sua a vedere la collezione di farfalle, poi le farfalle ve le fa vedere per davvero e vi tiene due ore a parlarvi della differenza tra Melanargia galathea e Gonepteryx rhamni.

ChatGPT5 è ovviamente fine tuned in lungo e in largo perché al momento è sul fine tuning che si spiegano (senza capirle) tante differenze tra i modelli che competono tra di loro, ma è fine tuned per comportarsi come quello che Sam Altman quasi ossessivamente definisce "uno scienziato col PhD". (Nota a margine: non mi è del tutto chiaro da dove derivi questa ossessione di Altman e Musk col PhD, tirata fuori in continuazione e spesso a sproposito. La mia impressione è che openAI stia cercando di trovare un modo per rendere il prodotto sempre più costoso attaccandoci proprietà che nella sua visione probabilmente limitata possano giustificare una spesa di 100 o 200mila dollari l'anno. Ricordiamo che per quanto ben capitalizzata sia OpenAI, al momento per ogni $1 guadagnato ne spende $2.25 quindi aumentare gli introiti sta diventando una questione di sopravvivenza).

(Continua nel primo commento)

#chatgpt #ai #ia #technology #friends

image