Siamo tutti cresciuti con il consiglio di dire “per favore” e “grazie”. Ma se lo fai con un chatbot come ChatGPT, potresti contribuire, senza volerlo, a far lievitare i costi operativi di OpenAI. A dirlo non è un meme, ma direttamente Sam Altman, CEO di OpenAI, che ha recentemente rivelato come le interazioni "gentili" con l’AI stiano costando all’azienda decine di milioni di dollari in risorse computazionali.Altman ha scherzato sulla cosa, ma non troppo. Durante un talk, ha spiegato che la tendenza umana a rivolgersi all’AI come se fosse una persona reale, arricchendo ogni prompt di formule di cortesia o lunghe premesse, genera un carico inutile sui server, aumentando i costi di calcolo, la latenza e la gestione dell’infrastruttura.In altre parole: ChatGPT non ha bisogno che tu sia educato. Ha bisogno di istruzioni chiare e sintetiche.
Per capire perché un “grazie” può diventare così caro, bisogna ricordare che ogni parola inviata a ChatGPT viene elaborata da modelli enormi, che funzionano su GPU potentissime (e costose). Ogni token – che sia una parola o una parte di essa – viene processato, interpretato e memorizzato. Più token, più lavoro per il sistema.Quindi se un utente scrive:
“Caro ChatGPT, ti ringrazio moltissimo per il tuo aiuto. Potresti gentilmente spiegarmi come si calcola l’IVA?”
… il sistema deve processare tutte queste parole, anche se l’unica parte davvero utile è “Come si calcola l’IVA?”Ora, moltiplica questa abitudine per centinaia di milioni di interazioni giornaliere, e capirai perché Altman si preoccupa.
Altman ha usato un tono ironico, ma la questione tocca un tema più profondo: stiamo iniziando a trattare le AI come se fossero persone. Lo facciamo senza pensarci: parliamo con loro come parliamo con amici, colleghi o assistenti umani. E questo, in fondo, è anche un segno del successo dell’interazione uomo-macchina.Il problema è che le AI, almeno per ora, non si offendono se non dici “per favore”, e non migliorano il loro output se ricevi ringraziamenti. Al contrario, testi più lunghi significano più tempo di risposta, più uso di memoria, più energia consumata, e meno efficienza complessiva.È per questo che OpenAI (e non solo) sta spingendo verso prompt brevi, chiari e funzionali, insegnando agli utenti a essere diretti, senza perdere l’efficacia comunicativa. Alcuni suggeriscono addirittura che, in futuro, le AI possano “tagliare” automaticamente le formule inutili, senza influire sul significato della richiesta.
Non proprio. Dire “per favore” non è sbagliato – e di certo non ti verrà addebitato un extra per educazione – ma è utile capire cosa serve davvero all’AI per funzionare bene. E se da una parte ci avviciniamo sempre più a interazioni empatiche con queste tecnologie, dall’altra bisogna trovare un equilibrio tra umanizzazione e ottimizzazione.In un futuro non troppo lontano, potremmo avere modelli che capiscono il tono, leggono l’intenzione e trasformano automaticamente un messaggio gentile in un’istruzione tecnica, senza sprecare risorse. Fino ad allora, magari possiamo iniziare a limitare i fronzoli… per amore dell’ambiente (e del portafogli di OpenAI).
Vuoi capire come scrivere prompt efficaci, brevi e super funzionali?
🎥 Visita il canale YouTube ComeFareAI dove trovi tutorial, esempi pratici e strategie per usare ChatGPT al massimo delle sue capacità – senza mandarlo in crisi.