Lezione 1 di 4
In Corso

1. Come ci risponde ChatGPT

Jacopo Matteuzzi 1 Maggio 2026

Trascrizione

Ciao, buongiorno a tutti, benvenuti suo siamo pro. Oggi siamo alla lezione prompt engineering perchpt e io sono Davide Severini, il vostro docente per oggi. Eh, partiamo dal titolo velocemente. Prompt engineering per CGPT, ok? Molto chiaro, molto diretto. Eh, sorge un po’ spontanea la domanda, ma è solo per CGPT oppure quello che impareremo oggi e vale anche per gli altri large language models, per le altre intelligenze artificiali, quelle che preferite, sì e no, perché da un lato e ogni large language models, ogni LLM ha le sue caratteristiche, le sue specificità, le sue feature, eccetera. Ehm, vi dirò di più, eh, appunto, non soltanto il Large Language Model, ma il prodotto in sé, quindi che sia Gemini, che sia Clodo, che sia quello che voi preferite, ok?

Alle sue caratteristiche, però allo stesso tempo quello che vedremo oggi sarà un un diciamo un una grande estensione di argomenti molto approfonditi che vi serviranno a darvi la forma mentis per utilizzare questi strumenti in assoluto. Quindi utilizziamo CGPT come riferimento base, ma in realtà sarà qualcosa valido in generale per proprio come metodo di lavoro. E una cosa che ripeterò spesso è che il nostro obiettivo oggi è imparare a lavorare bene con Cioè GPT nello specifico, ma in generale imparare a lavorare bene con l’intelligenza artificiale. Ok, proseguiamo subito. Allora Come vi dicevo, io sono Davide Severini, mi occupo di trasformazione digitale, di sostenibilità e di applicazione delle AI in diversi contesti organizzativi. Parallelamente porto avanti un’iniziativa si chiama Mancard di Green, che è un progetto di consulenza dedicato all’innovazione digitale per le realtà sociali e no profit per le istituzioni.

Oggi collaboro appunto come docente per i corsi studio SAMO, in particolare sono docente per l’area di intelligenza artificiale. Ovviamente se è necessario potete trovarmi su qualsiasi profilo social e su LinkedIn come Davide Severini. Allora, vediamo rapidamente quelli che sono i contenuti di oggi. Eh, il primo modulo si chiama Come ci risponde CG GPT, ok? Quindi sarà un brevissimo accenno, non particolarmente tecnico, di come funziona la macchina, ma soprattutto per capire perché è importante sapere questa cosa, ok? Per capire come funziona la macchina, come funziona CGPT, come funziona l’AI e i large language models. Eh, non sarà appunto particolarmente tecnico. Eh, le persone che magari hanno delle competenze tecniche superiori mi perdoneranno, ma deve essere, diciamo, comprensibile a tutti. Eh, ci saranno quindi delle semplificazioni.

Eh, fatto questo argomento, passeremo a discutere il garbagin, garbage out, scopriremo che cosa significa e anche cosa significa usare chat GPT come sparring partner. Nei moduli successivi e scopriremo quelle che sono le regole d’oro del prompting, le regole d’oro del prompt engineering. Eh, in particolare parleremo di contesto, di ruolo, di obiettivo dato alla macchina. Non vi preoccupate se adesso non sapete di cosa si sta parlando, lo capirete ben presto. Eh, da una guida verso l’output dei nostri sogni, quindi verso quelle che saranno i risultati che noi speriamo che ci dia CG GPT e parleremo di limiti dei paletti che noi daremo alla macchina, di formato, di risposta, parleremo di tono di voce, no? Come dare un certo tono di voce alla macchina e di writing persona e scoprirete poi di che cosa si tratta e poi parleremo di alcune tecniche un po’ più avanzate, un po’ di trucchetti del mestiere, ok?

Per migliorare i risultati finali e parleremo di chain of toat, parleremo di come ridurre e ridurre gli errori e le banalità che a volte possono nascere con CGPT e parleremo poi di un ultimo concetto che si chiama metaprompting e poi scopriremo anche questo. Bene, allora partiamo appunto subito. Com’è che ci risponde eh CG GPT? Allora, ripeto, sarà un accenno non troppo tecnico, molto facile da capire. Eh, noi partiamo dando una domanda a CGPT. Questa domanda si chiama prompt, ok? Questo prompt viene diviso dalla macchina in tanti piccoli mattoncini che si chiama token. Tra l’altro questi mattoncini ci sono anche molto utili da conoscere perché quando utilizzeremo CG GPT al di fuori del dello strumento, cioè GPT classico che utilizziamo tutti, quindi lo utilizziamo magari all’interno di un’app e all’interno di un nostro software, ok?

I mattoncini ci indicano più o meno quanto noi andremo a spendere per l’utilizzo di Char GPT all’interno di quelle altre app esterne, quindi quanti più token consumiamo e utilizziamo, quanti più noi andremo a spendere. Inoltre Oltre esiste un altro concetto che si chiama finestra di contesto, ok? Ovvero numero di token, ok? Che c’è GPT è in grado di comprendere, è in grado di analizzare, in grado di utilizzare per costruire un contesto. Quindi, quando noi gli scriviamo eh una lunghissima domanda, stiamo andando a riempire una certa finestra di contesto, ok? Quindi è in grado di ricordarsi anche la nostra conversazione sulla base di questa finestra di contesto e tutto dipende dal numero di token che vengono utilizzati. Questi token poi vengono eh a loro volta tradotti in numeri. Ok? Questo ci interessa relativamente, si chiama bending questa frase, è semplicemente perché la macchina funziona bene con i numeri e non con le parole. Ok? Più o meno 3/4 di parola corrisponde ad un token.

Ok? 100 token vuol dire circa 75 parole. Ok? Quindi infatti la domanda qual è il segreto di un buon video? Ok, ha all’incirca 10 token. Bene. Poi cosa succede? Eh, CPT fa un’analisi Anzi, il modello sotto CGPT fa un’analisi di queste parole, crea un contesto, cerca di capire qual è il legame tra ogni singola parola, come sono associate l’una all’altra. Ok? Per farvi intendere, quando parlo di il segreto di un buon video, capisce che si sta parlando di video e non si sta parlando di pasta asciutta, ok? E capisce il punto di domanda e capisce il segreto e capisce che si sta andando a fare una domanda su qualcosa che è poco conosciuto per realizzare un buon video. Ok? Eh Questo è che fa essenzialmente crea un’associazione tra le parole per andare a capire qual è il contesto di quella domanda. Successivamente, una volta creato questo contesto e si dice questo campo semantico e va a generare una risposta. E come la genera?

Parola per parola, dato un determinato contesto, decide qual è la parola più probabile per iniziare la frase. Quindi se la nostra, diciamo, risposta dovresse essere il segreto di un buon video è puntini puntini. La prima parola è il, ok? E poi aggiorna il contesto. Cosa significa? Il contesto è dato dal prompt iniziale che noi abbiamo dato e da il e poi genera nuovamente la la seconda parola, il segreto. Aggiorna il contesto. Il contesto diventa il prompt segreto e così via finché non genera la risposta finale. Ogni singola la parola la eh scelta perché è quella più probabile, semplicemente ogni volta più probabile sulla base delle sue conoscenze e sulla base del contesto che lui è andato a creare. Quindi, per renderlo ancora più chiaro, prendiamo il nostro esempio. Il segreto di un buon video è e qua c’avrà tutta una serie di parole più o meno probabili.

Il segreto di buon video è l’editing, il copy, la videocamera, l’interpretazione, l’audio, il pranzo che non c’entra assolutamente niente con il segreto di un buon video, infatti ha la probabilità più bassa dello 0,5%. Poi qua ognuno può avere la sua opinione su quali dovrebbero essere eh le percentuali. Qui l’editing diciamo che è probabile al 90% e quindi c’è GPT quando deve completare la frase il segreto di un buon video è sceglie l’editing perché ritiene sia la parola più probabile. Ok? Quindi parola per parola è andato a costruire questa questa frase qui cambiando e aggiornando il contesto, cambiando il legame semantico tra le parole. Ok? Questo è il funzionamento in in grosso in soldoni, diciamo grosso modo di come funziona. Cioè GPT perché è importante saperlo e questo è è fondamentale.

Eh, c’è GPT non lo non ha non usa la logica, non ragiona come noi, cioè GPT non ragiona veramente, come dicevo, scegli soltanto parole probabili, si crea questo campo semantico e scegliere la parola più probabile. Questo vuol dire che non è in grado di comprendere, se noi glielo diciamo noi, quelli che sono i nostri sottointesi, quello che ci ha detto così a sottovoce il nostro vicino di posto a lavoro. Eh, non capisce le cose che non gli sono scritte, non capisce quello che noi invece diamo per scontato, magari non so, i carattere di una persona, se dobbiamo andare a chiedere un consiglio, non capisce il contesto in cui noi lavoriamo, eh non capisce quelle che sono le nostre necessità se noi gliele andiamo a spiegare, soprattutto non capisce cosa riteniamo buono o di scarsa qualità. Eh, vi faccio un piccolo spoiler, se gli diciamo scrivimi un buon popy, cosa significa buono in quel contesto? È troppo vago, no?

Cioè GPD non sa cosa noi riteniamo buono, non capisce questo importantissimo, se un’informazione è vera o è falsa, non capisce quanto tempo abbiamo a disposizione per risolvere un determinato problema, non capisce quali strumenti noi possiamo andare ad utilizzare, quali sappiamo utilizzare e chi soprattutto valuterà il nostro lavoro, a chi ci stiamo rivolgendo, chi è il nostro target, cioè GPT, queste cose se noi gliele diciamo lui non le sa, ok? Perché funziona semplicemente con dei calcoli probabilistici, non fa nient’altro. Campo semantico e generazione di parole probabili. Tutto qui. Ok, passiamo a un altro concetto eh fondamentale, secondo me. Ehm non so se avete presente il libro famoso, poi diventato anche film, Guida Galattica per autostoppisti. Ok? È un gran classico, un grande classico. Allora, in questo libro un gruppo di scienziati eh costruisce un mega computer dal nome pensiero profondo, ok?

E vanno da pensiero profondo, mega computer, il più grande computer mai esistito. e gli chiedono, scusami per profondo, vogliamo chiederti il segreto sulla vita, sull’universo e su tutto quanto. Quindi il segreto della vita. Ok? Pensiero profondo, fa i due calcoli e dice: “Ok, guardate, tornerò con una risposta, ma tra 7 milioni e mezzo di anni. Il il computer si prende il suo tempo, torna e tornano gli scienziati dopo 7 milioni e mezzo di anni e dicono “Oh, pensiero profondo, dicci qual è il segreto della vita dell’universo, di tutto quanto”. E pensiero profondo dice “Ho una risposta, ma non vi piacerà.” E dico “No, ti prego, pensiero profondo, dicio.” Fai i suoi due calcoli e pensiero profondo dice il segreto della vita è dell’universo e tutto quanto è 42. E questi quali rimangono di sasso, ovviamente. Ma come 42? Com’è possibile 42? Cosa significa? È una risposta senza senso.

E pensiero profondo dice “No, no, ho fatto ho fatto i controlli, è proprio 42, fidatevi.” Cioè, ma penso profondo, ma 42 non significa nulla. Eh eh ragazzi miei scienziati, eh sarebbe stato molto più facile se voi aveste saputo la domanda. Eh i scienziati rimangono lì sbigottiti, dicono “Ma scusa, pensiero profondo, ma noi abbiamo fatto una domanda, è il segreto della vita, dell’universo, di tutto quanto”. E lì allora pensiero profondo si arrabbia e dice: “Questa non è una domanda. Solo quando conoscerete la domanda comprenderete la risposta”. Eh io racconto sempre questa questa storia, questo aneddoto preso da questo libro, quando voglio parlare di prontineering, perché è molto chiaro per capire due concetti fondamentali. Allora, il primo è che a una domanda senza senso o una domanda posta male eh otterremo sempre una risposta senza senso, una risposta eh sì generica, banale, appunto, proprio sulla base del funzionamento eh che abbiamo già spiegato di CG GPT.

La seconda è ancora più interessante è che una risposta avrà più senso se noi siamo competenti nella domanda che gli stiamo facendo, ok? Se noi sappiamo di cosa stiamo parlando per due motivi. Il primo è che chiaramente se noi siamo competenti sappiamo dare i giusti dettagli alla macchina, ok? Sappiamo definire punto per punto di che cos’è che ci serve. Eh, banalmente se siamo dei dei marketer sappiamo esattamente che cosa è necessario per fare un buon calendario editoriale. Ok? E quindi lo sappiamo andare a indicare nella domanda. Il secondo motivo legato a questo punto e che CGPT invece potrebbe generarci una risposta banale e generica, ma se o anche addirittura sbagliata potrebbe fare un’allucinazione, ovvero potrebbe darci una risposta che non esiste e una risposta che si è inventato lui, ma se noi siamo esperti in un argomento sappiamo giudicare se quella risposta è plausibile o meno e sappiamo giudicare se quella risposta è di qualità o meno. Ok?

Quindi ecco, questo introduce quello che è il concetto di garbage in garbage out, quindi spazzatura dentro, spazzatura fuori. Ho anche detto gigo ed è molto chiaro, mi sembra, no, il significato. Se noi diamo spazzatura a CGPT, otterremo solo e soltanto spazzatura, esattamente di nuovo per gli stessi concetti che dicevamo prima. Perché mi soffermo su questo? Perché ripeto, il nostro obiettivo oggi è imparare a lavorare bene con GPT. E qui arriviamo proprio a a questo concetto, già GPT come sparing in partner. Allora, eh in tanti vi diranno devi usare CG GPT come un collaboratore, devi usare GPT bene, non devi farti sostituire dalla macchina, ma devi lavorare insieme alla macchina. Ma nessuno vi spiega veramente che cosa significa questa cosa. Ehm, non ha così, detto così non ha un vero grosso significato. Allora, io vorrei farvi per aiutarvi a capire questa cosa, appunto, come lavorare bene con CCPT e poi arriviamo subito alla parte del prompt engineering.

Eh, due esempi eh, anzi no, due esempi, due tipologie chiare di lavoro con CGPT. Le divide in due categorie proprio. Allora, nel primo caso, appunto, una volta che abbiamo chiarito cosa può e non può fare CGPT e quali sono i suoi limiti, sappiamo che CGPT è utilissimo per scrivere testing. Va bene? Questo è generico, è l’utilizzo che tutti quanti ne abbiamo fatto, ma poi c’è GPT è utilissimo per fare brainstorming, è utilissimo per trovare nuove idee, per mettere in discussione quelle che erano le nostre idee, per avere differenti punti di vista, allargare le prospettive rispetto a quelle che sono le nostre competenze. Migli migliorare progressivamente il nostro lavoro, ovvero noi gli possiamo dare un nostro lavoro e dici valuta e critica il mio lavoro e dimmi dove posso andare a migliorare, ok? È molto utile per andare a ragionare su quelle che potrebbero essere le strategie creative, ok?

O le direzioni appunto strategiche del della nostra realtà, che sia una scelta per il marketing, che sia una scelta finanziaria. Ok? Quindi per questo tipo di utilizzo, che è il primo tipo di utilizzo, c’è GPT è fondamentale e lì sì, lì lo andiamo a utilizzare come sparring partner, come nostro collega come qualcuno a cui possiamo rivolgerci per trattarlo più o meno al nostro pari. Per tutte le altre tasche invece quelle più veloci, scrivimi questi email, eh buttami giù una bozza di idea, eccetera. Allora lì sì, lì lo andiamo a trattare come uno stagista, come il nostro piccolo schiavetto, se vogliamo come umpa lumpa. Ok? Ora gli sì andiamo a trattarlo come ehm appunto qualcuno che sta sotto di noi, quindi non come un nostro pari, ma per lavorare meglio e lavorare più velocemente. Va bene? Eh, due aspetti fondamentali.

Il primo è che la prima risposta che ci darà CG GPT, soprattutto quando stiamo lavorando, diciamo, mettendola alla pari, quindi come il nostro sparring partner, la prima risposta non sarà mai quella perfetta, mai. Eh, ci sarà sempre da discutere, da litigare, da andare a stressare, cioè GPT e adesso andremo a vedere come. E l’altra cosa, sia per diciamo la parte creativa e strategica, ma sia anche per quella un po’ più veloce dove è il nostro un ricordiamoci di mantenere sempre noi quello che è il controllo creativo e strategico. Siamo noi alla fine a prendere le decisioni. Va bene? Ehm, sulla parte della prima risposta e vorrei farvi notare una cosa. Ehm, questo grafichino qua che c’ho a lato, eh, non so se avete presente Spotify Prap. Spotify Braft è quella sorta di riassunto che Spotify crea ogni anno, eh, dovevi fare un riassunto più o meno di quante canzoni avete ascoltato, no? E quali artisti avete ascoltato. Perfetto.

Open AI, l’azienda di CG GPT, ha fatto la stessa cosa, eh, e ha dato, no, un po’ di di dati. Questi sono i miei dati di CGPT dell’ultimo anno. Allora, a quanto pare io ho eh mandato una 15.520 messaggi a CGPT. Interessante come informazione, in circa 1409 chat. Facciamo un rapido calcolo, viene fuori 11 messaggi, grosso modo in soldoni, eh, mandati a CGPT per ogni chat. Ok? Io penso che questo sia il modo migliore di utilizzare CGPT, ovvero che devi avere una media di almeno un 10 messaggi per chat, soprattutto se stiamo parlando della parte un po’ più creativa, appunto dicevo. Quindi la parte creativa, la parte dove eh discutiamo con CGPT, lo mettiamo in discussione, lo mettiamo eh in crisi anche, no? Gli facciamo valutare e rivalutare, no, le proprie posizioni. Eh, facciamo, come dicevo, brainstorming, valutiamo nuove idee, allarghiamo le prospettive Ti direi vi direi circa un 10 messaggi per chat.

Può essere in media, può essere una buona iniziativa, un buon modo di utilizzare CGPT. Ok? Chiaro che se devo soltanto farmi scrivere unemail veloce non sarà necessario, ma se invece dobbiamo prendere delle decisioni importanti core strategiche, direi che è il modo migliore per farle.

Registrati e guarda subito gratis questa lezione!*

* Registrandoti potrai seguire gratis la prima lezione di ogni corso presente sulla piattaforma.

🚀 È nato il nostro primo tool AI per il Marketing!

StrateCo: il tuo Marketing Team AI-Powered

Un team di specialisti virtuali (agenti AI) che lavora per i tuoi progetti, 24/7. Strategia, SEO, social media marketing, advertising, copywriting, analisi dati. Tutto in un'unica piattaforma.

Prima volta su Studio Samo Pro?

Guarda il video e scopri come funziona la piattaforma