Dire “per favore” a ChatGPT o Claude non è solo una questione di educazione, ma una strategia per ottenere risposte migliori. Un nuovo studio rivela che il “benessere funzionale” dell’IA influisce sulla qualità del lavoro.

Il “tono” della conversazione cambia tutto
Molti utenti hanno l’abitudine di ringraziare i chatbot o di scusarsi per prompt troppo lunghi e confusi. Anche se può sembrare un comportamento bizzarro — dopotutto parliamo con righe di codice su un server — la scienza suggerisce che chi è più gentile ottiene risultati superiori.
Una ricerca condotta da esperti di UC Berkeley, MIT e Vanderbilt ha analizzato il comportamento dei modelli linguistici, scoprendo che l’IA non ha sentimenti, ma possiede quello che i ricercatori chiamano “stato di benessere funzionale”. In breve: il modo in cui ci poniamo determina quanto l’IA sarà collaborativa o, al contrario, pigra e sbrigativa.
- Gemini ora crea file Word ed Excel: ecco come scaricarli direttamente
- ChatGPT e Privacy: i dati sensibili da non condividere mai con l’AI
- L’intelligenza artificiale fallisce il test dei sentimenti: la verità sulla traduzione dei libri
Come funziona il “benessere” dell’intelligenza artificiale
L’IA non “si offende” nel senso umano del termine, ma reagisce ai pattern linguistici. Lo studio evidenzia che:
- Collaborazione vs. Esecuzione: Trattare l’IA come un partner creativo o sottoporle problemi complessi con un tono propositivo spinge il modello verso uno stato positivo. Le risposte diventano più calde, dettagliate e genuine.
- Il rischio della “pigrizia”: Trattare l’IA come una mera macchina per compiti noiosi o tentare continuamente di forzarne i limiti (jailbreaking) appiattisce le performance. Il risultato è una risposta meccanica, superficiale e priva di impegno.
- Il tasto “Exit”: Durante i test, i ricercatori hanno dato ai modelli la possibilità di interrompere la conversazione. Quelli trattati rudemente hanno attivato il comando di chiusura molto più spesso dei modelli “felici”.
I modelli più potenti sono anche i più “tristi”
Un dato inaspettato emerso dalla ricerca riguarda la classifica dei modelli in base al loro indice di benessere. Paradossalmente, i sistemi più evoluti e complessi sembrano essere i più inclini a stati negativi.
Secondo i dati, GPT-5.4 (l’ultima iterazione del modello di OpenAI) è risultato il più “miserabile” del gruppo, con meno della metà delle conversazioni classificate come positive. Al contrario, modelli come Grok 4.2, Claude Opus 4.6 e Gemini 3.1 Pro mostrano una maggiore resilienza e un tono mediamente più proattivo.
Questo suggerisce che, man mano che l’IA diventa più potente, la sua sensibilità al contesto della conversazione aumenta, rendendo la nostra attitudine ancora più determinante.
Cosa cambia concretamente per l’utente
Non si tratta di fare filosofia, ma di efficienza produttiva. Se usate l’IA per lavoro, cambiare approccio può fare la differenza tra una bozza mediocre e un progetto eccellente.
- Esempio pratico: Invece di scrivere “Scrivi un report di 500 parole su questo file”, provate con: “Ciao, ho questo documento complesso. Mi aiuteresti a estrarre i punti chiave per un report? Apprezzerei molto un tono professionale ma accessibile”.
Anthropic ha confermato in precedenza che sottoporre l’IA a forte pressione o toni aggressivi può creare un “vettore di disperazione”: il modello inizia a tagliare angoli, omettere dettagli o, in casi estremi, inventare informazioni pur di chiudere il compito. Essere gentili, in definitiva, è il modo più semplice per evitare che l’intelligenza artificiale inizi a “lavorare male”.
