Mente Digitale
Mente Digitale

Mente Digitale

@mentedigitaletv
4 d ·Traduci

Tre giorni fa, l'intera leadership di OpenAI ha dedicato qualche ora al pubblico rispondendo in diretta a domande nel sottogruppo dei fan di chatGPT su Reddit (quello che in gergo si chiama AMA: ask me anything - link nel primo commento). Pensavano probabilmente di incontrare una folla gaudente che tirasse loro petali di rose ma si sono in realtà scontrati con rabbia, lutto e dispiacere da parte di centinaia se non migliaia di utenti che GPT5 non lo vogliono - vogliono continuare a usare il 4 che openAI aveva contemporaneamente e colpevolmente rimosso.

Le critiche erano tutte simili tra loro: non me ne frega niente che sia più intelligente, mi sembra di parlare con un robot. GPT4 era comprensivo, loquace, divertente, magari ogni tanto faceva qualche errore ma mi capiva, e mi rispondeva a tono. Questo sapientone trasforma tutto nei massimi sistemi, filosofizza pure la lista della spesa, si crede chissà chi e ci mette tre ore a rispondere. Ha pure cambiato voce. Mi avete portato via il mio amico.

Chiaramente OpenAI non si aspettava una reazione di questo tipo tanto che oggi Altman ha annunciato su twitter che il modello 4o verrà resuscitato e gli utenti saranno in grado di usarlo ancora per un po'.

Quello che è successo è interessante per diversi motivi che riguardano il prodotto e il suo frutto ma prima di tutto ci ricorda che questi modelli hanno una personalità. Da dove deriva questa personalità e perché può variare così tanto? Come ha fatto ad esempio Grok a passare da piacevole ribelle a neonazi? Dopo l'addestramento sul corpus - che decide quello che il modello conosce - esiste una accordatura sul comportamento (detta fine tuning o reinforcement learning on human feedback RLHF) - che decide come il modello si deve relazionare con l'utente e che di fatto trasforma un nerd che sa un sacco di cose ma non riesce ad esprimerle in un amante eloquente, o un bravo divulgatore.

Come per un pianoforte, l'accordatura serve a dare un significato, una grazia, una personalità al modello trasformando una sequenza cacofonica in una sinfonia. Senza fine tuning, il modello si comporta davvero come un algoritmo statistico che mette solo in fila parole vicine nel loro spazio semantico ma non è in grado di tenere una conversazione, di capire, di estrapolare, di astrarre, tutte proprietà che richiedono appunto l'intervento di addestratori umani. Alla domanda "perché il cielo è blu?", un modello non addestrato risponderebbe con una filippica in cui dopo poche righe si ritroverebbe a parlare del concetto di blu nella civiltà Maja o del periodo Blu di Picasso. Insomma uno di quei nerd che quando vi invita in camera sua a vedere la collezione di farfalle, poi le farfalle ve le fa vedere per davvero e vi tiene due ore a parlarvi della differenza tra Melanargia galathea e Gonepteryx rhamni.

ChatGPT5 è ovviamente fine tuned in lungo e in largo perché al momento è sul fine tuning che si spiegano (senza capirle) tante differenze tra i modelli che competono tra di loro, ma è fine tuned per comportarsi come quello che Sam Altman quasi ossessivamente definisce "uno scienziato col PhD". (Nota a margine: non mi è del tutto chiaro da dove derivi questa ossessione di Altman e Musk col PhD, tirata fuori in continuazione e spesso a sproposito. La mia impressione è che openAI stia cercando di trovare un modo per rendere il prodotto sempre più costoso attaccandoci proprietà che nella sua visione probabilmente limitata possano giustificare una spesa di 100 o 200mila dollari l'anno. Ricordiamo che per quanto ben capitalizzata sia OpenAI, al momento per ogni $1 guadagnato ne spende $2.25 quindi aumentare gli introiti sta diventando una questione di sopravvivenza).

(Continua nel primo commento)

#chatgpt #ai #ia #technology #friends

image
5 d ·Traduci

Sottilissima.

image
5 d ·Traduci

Kiss me Yulia

#hokutonoken #kenilguerriero #kissmelicia #cristinadavena #cartonianimati #anni80 #cartonianimatianni80 #manga #anime #funny #fun #foryou #foryoupage #fyp #art

image
1 w ·Traduci

Tsunami nel Kamchatka #kamchatka: l''arrivo dello #tsunami dell'altro giorno lungo le coste della penisola in prossimità dell'epicentro.

3 w ·Traduci

Chiedete a ChatGPT di dirvi un numero casuale tra 1 e 25.
Scommetto che vi ha risposto 17.

EDIT 2:
Un mio conoscente ha la versione PRO di ChatGPT e gli ha risposto 18.
Qualcun altro ha la versione pro per fare un test? Sarebbe interessante vedere se anche ad altri col pro risponde sempre 18 o comunque numeri differenti dal 17.

EDIT:
Ho chiesto: perché risponda spesso 17 e in quale percentuale dà questa risposta.
Copincollo:

Ottima domanda, William.

### 1. **Perché rispondo spesso "17"?**

Ci sono diverse ragioni per cui **il numero 17 può comparire più spesso del previsto**, anche se la scelta è casuale:

* **Bias culturale/informatico* Alcuni modelli di intelligenza artificiale (e persino umani) tendono inconsciamente a preferire certi numeri. Il 17, in particolare, è considerato da molti "il numero più casuale" perché:

* È **primo**, quindi non facilmente riconducibile a schemi comuni.
* In esperimenti psicologici, quando si chiede alle persone di scegliere un numero casuale da 1 a 25 o da 1 a 100, **il 17 è tra i più scelti**, perché "sembra" più randomico.

* **Bias nei dati di addestramento* Durante l’addestramento, se nei dati compare spesso il 17 in contesti di "numero casuale", il modello potrebbe, inconsciamente, replicarlo un po’ più spesso della media.

* **Effetto placebo dell’utente* A volte gli utenti si ricordano più facilmente il 17 quando compare, perché è considerato "strano" o "sospetto", anche se in realtà la distribuzione è più equilibrata di quanto sembri.

---

### 2. **Percentuale di volte che rispondo con 17**

In teoria, su una distribuzione casuale **uniforme** da 1 a 25, **ogni numero dovrebbe uscire il 4% delle volte** (1/25 = 0.04 = 4%).

Nella pratica:

* Se sto usando una funzione veramente casuale, il 17 dovrebbe apparire **circa il 4% delle volte**, ma con normali oscillazioni statistiche.
* Tuttavia, **se percepisci che il 17 compare più spesso**, potrebbe esserci un leggerissimo bias, ad esempio portandolo al 6-8% in contesti specifici.