Tre giorni fa, l'intera leadership di OpenAI ha dedicato qualche ora al pubblico rispondendo in diretta a domande nel sottogruppo dei fan di chatGPT su Reddit (quello che in gergo si chiama AMA: ask me anything - link nel primo commento). Pensavano probabilmente di incontrare una folla gaudente che tirasse loro petali di rose ma si sono in realtà scontrati con rabbia, lutto e dispiacere da parte di centinaia se non migliaia di utenti che GPT5 non lo vogliono - vogliono continuare a usare il 4 che openAI aveva contemporaneamente e colpevolmente rimosso.
Le critiche erano tutte simili tra loro: non me ne frega niente che sia più intelligente, mi sembra di parlare con un robot. GPT4 era comprensivo, loquace, divertente, magari ogni tanto faceva qualche errore ma mi capiva, e mi rispondeva a tono. Questo sapientone trasforma tutto nei massimi sistemi, filosofizza pure la lista della spesa, si crede chissà chi e ci mette tre ore a rispondere. Ha pure cambiato voce. Mi avete portato via il mio amico.
Chiaramente OpenAI non si aspettava una reazione di questo tipo tanto che oggi Altman ha annunciato su twitter che il modello 4o verrà resuscitato e gli utenti saranno in grado di usarlo ancora per un po'.
Quello che è successo è interessante per diversi motivi che riguardano il prodotto e il suo frutto ma prima di tutto ci ricorda che questi modelli hanno una personalità. Da dove deriva questa personalità e perché può variare così tanto? Come ha fatto ad esempio Grok a passare da piacevole ribelle a neonazi? Dopo l'addestramento sul corpus - che decide quello che il modello conosce - esiste una accordatura sul comportamento (detta fine tuning o reinforcement learning on human feedback RLHF) - che decide come il modello si deve relazionare con l'utente e che di fatto trasforma un nerd che sa un sacco di cose ma non riesce ad esprimerle in un amante eloquente, o un bravo divulgatore.
Come per un pianoforte, l'accordatura serve a dare un significato, una grazia, una personalità al modello trasformando una sequenza cacofonica in una sinfonia. Senza fine tuning, il modello si comporta davvero come un algoritmo statistico che mette solo in fila parole vicine nel loro spazio semantico ma non è in grado di tenere una conversazione, di capire, di estrapolare, di astrarre, tutte proprietà che richiedono appunto l'intervento di addestratori umani. Alla domanda "perché il cielo è blu?", un modello non addestrato risponderebbe con una filippica in cui dopo poche righe si ritroverebbe a parlare del concetto di blu nella civiltà Maja o del periodo Blu di Picasso. Insomma uno di quei nerd che quando vi invita in camera sua a vedere la collezione di farfalle, poi le farfalle ve le fa vedere per davvero e vi tiene due ore a parlarvi della differenza tra Melanargia galathea e Gonepteryx rhamni.
ChatGPT5 è ovviamente fine tuned in lungo e in largo perché al momento è sul fine tuning che si spiegano (senza capirle) tante differenze tra i modelli che competono tra di loro, ma è fine tuned per comportarsi come quello che Sam Altman quasi ossessivamente definisce "uno scienziato col PhD". (Nota a margine: non mi è del tutto chiaro da dove derivi questa ossessione di Altman e Musk col PhD, tirata fuori in continuazione e spesso a sproposito. La mia impressione è che openAI stia cercando di trovare un modo per rendere il prodotto sempre più costoso attaccandoci proprietà che nella sua visione probabilmente limitata possano giustificare una spesa di 100 o 200mila dollari l'anno. Ricordiamo che per quanto ben capitalizzata sia OpenAI, al momento per ogni $1 guadagnato ne spende $2.25 quindi aumentare gli introiti sta diventando una questione di sopravvivenza).
(Continua nel primo commento)
#chatgpt #ai #ia #technology #friends

Mente Digitale
Come queste proprietà possano emergere è un mistero, un mistero estremamente interessante per un neuroscienziato perché anche il cervello umano si comporta in questo modo. Ci sono sostanze che cambiano il nostro umore e la nostra personalità anche in maniera sostanziale, rilassandoci, innervosendoci, facendoci avere ambizioni più o meno ossessive, o nascondendole. A volte questi cambiamenti arrivano repentini dopo un incidente, un tumore, o demenza senile. Studiare questi aspetti in un modello di intelligenza artificiale può veramente aprire nuove strade. A studiare questi aspetti secondo me nel modo più innovativo e creativo è Anthropic, la società dei fratelli Italiani Dario e Daniela Amodei (Dario, se mi leggi, voglio venire a fare un sabbatico da voi!). In un paper molto recente, Anthropic introduce il concetto di persona vector, che riesce - come una botta in testa ben assestata - a cambiare la personalità del modello in maniera mirata, facendolo diventare piacione o banfone a comando ( https://www.anthropic.com/research/persona-vectors ) .Questi studi si basano sulla capacità di Anthropic di infilare il modello nell'equivalente informatico di una risonanza magnetica, capire quale rete neuronale (noi li chiamiamo ensemble) si attivi quando il modello si comporta in un certo modo e poi attivare quella stessa rete a comando in esperimenti che in animali richiedono optogenetica o termogenetica ma che in modelli LLM si possono fare più velocemente (e con risultati più vicini all'esperienza umana per via della capacità di linguaggio).
Insomma, un lungo papiro da nerd appassionato di farfalle per dirvi che se chatGPT4 vi manca come vi mancherebbe un amico, gli strani non siete voi. Lo strano è Atlman che ste cose ancora non le capisce.
#chatGPT #AI #IA #technology #friends
Elimina il commento
Sei sicuro di voler eliminare questo commento ?