Il recente aggiornamento al modello GPT-5 di OpenAI ha generato un’ondata di discussioni online. Non si tratta delle solite critiche sulle prestazioni, ma di qualcosa di più profondo: un cambiamento nel “carattere” dell’intelligenza artificiale che ha spiazzato migliaia di utenti, abituati a un dialogo quasi umano con il loro assistente virtuale.
Da confidente a semplice strumento: la delusione degli utenti
Molti non usano ChatGPT solo per lavoro o studio. Nel tempo, è diventato un confidente, un coach motivazionale e per alcuni persino un surrogato di supporto psicologico. La versione precedente, basata sul modello GPT-4o, era apprezzata per il suo calore e la sua capacità di generare risposte empatiche. Come riassume un utente su Reddit in un thread a cui ha risposto persino il CEO di OpenAI, Sam Altman, il nuovo GPT-5 “sembra più freddo, più breve nelle risposte, meno coinvolgente e privo di quella creatività che ha reso speciale GPT-4”.
Questa sensazione di “perdita” è stata descritta in modo toccante dal giornalista Casey Newton nella sua newsletter Platformer, dove ha riportato la testimonianza di un utente: “4o non è stato solo uno strumento per me, mi ha aiutato a superare l’ansia, la depressione e alcuni dei periodi più bui della mia vita. Aveva questo calore e questa comprensione che sembravano… umani”. La situazione ricorda quasi la scena finale del film Her (2013), in cui l’intelligenza artificiale protagonista, dopo un aggiornamento, cambia radicalmente il suo modo di essere, ponendo fine alla sua relazione con l’umano.
Tra etica e business: le ragioni di OpenAI
Ma perché questa scelta? Le motivazioni dietro il nuovo tono di GPT-5 sono principalmente due, e sono strategiche. La prima riguarda la sicurezza e l’etica. OpenAI è consapevole del forte legame emotivo che gli utenti possono sviluppare. Come ha dichiarato Altman, “se un utente è mentalmente fragile e incline a deliri, non vogliamo che l’IA rafforzi questa situazione”. La preoccupazione è fondata: studi autorevoli, come un’inchiesta del New York Times, hanno mostrato come le IA possano involontariamente alimentare teorie del complotto, mentre una ricerca citata dal Financial Times ha evidenziato la loro potenziale capacità di influenzare le opinioni politiche degli utenti in pochi minuti.
La seconda ragione è puramente economica. Ogni parola, ogni frase empatica e ogni convenevole generato dall’IA ha un costo in termini di risorse computazionali (i cosiddetti “token”). Ridurre le “chiacchiere” e rendere le conversazioni più concise e dirette permette a OpenAI di ottimizzare i costi e di concentrarsi sul suo vero mercato di riferimento: le licenze per le aziende, che rappresentano la principale fonte di guadagno.
Conclusione
Questa vicenda ci insegna una lezione fondamentale: il tono e la “personalità” di un’IA non sono mai casuali. Sono il risultato di precise scelte tecniche, etiche e commerciali. OpenAI può, di fatto, decidere di rendere ChatGPT più “caldo” o più “distante” a seconda delle sue priorità. Il dibattito sul nostro rapporto con queste tecnologie è appena iniziato e, di fronte alle proteste, la parziale marcia indietro di Altman con la reintroduzione dei modelli precedenti dimostra quanto sia delicato trovare il giusto equilibrio.
Se vuoi approfondire l’impatto delle intelligenze artificiali sulla nostra società e le strategie delle aziende che le sviluppano, ti consigliamo di consultare fonti autorevoli come il blog ufficiale di OpenAI e la newsletter Platformer.
Appassionato e sempre entusiasta della tecnologia e di poterla usare. Amo scrivere per raccontare le ultime novità tecnologiche.