1.1 – Intelligenza artificiale & OpenAI: panoramica
Trascrizione
Ciao a tutti e benvenuti in questo nuovo corso della piattaforma Studio SAMU Pro. Oggi parleremo di ChatGPT, lo strumento di intelligenza artificiale che in questi momenti è sulla bocca di tutti e andiamo ad affrontare un corso base per capire un attimo le tecnicità che ci sono dietro questo incredibile strumento, come sfruttarlo al massimo e come strutturare le nostre richieste affinché ChatGPT ci dia delle risposte più specifiche possibile. Questo corso è presentato dal Regio Otario, che sono io, e mi vado a presentare brevemente. Io sono un consulente di digital marketing specializzato in SEO e intelligenza artificiale di Bologna e la mia carriera mi ha visto passare dal settore della logistica a quello del poker sportivo professionale. In passato ho fatto l’impiegato in questo genere di trasporti e ho avuto anche una carriera di pokerista sportivo, sia online che negli eventi, nei casino. Dal 2020 invece gestisco i canali web di diversi clienti nel settore food industrial e di formazioni nella città di Bologna. A questo punto uno si chiederà, sì, va bene, però il tuo background dice tutt’altro. Come hai fatto a diventare un digital marketer dal 2020 in poi? E la risposta è molto semplice, ho imparato qui, proprio su questa piattaforma, e nel 2020 mi sono approcciato a Studio Samo, ho seguito un loro corso live e dopodiché mi sono iscritto alla loro piattaforma. Grazie ai corsi che ho trovato sulla piattaforma sono riuscito a sviluppare delle skill abbastanza trasversali, anche nel digital marketing, che mi ha permesso di aprire partita IVA e iniziare automaticamente il mio lavoro ed acquisire nuovi clienti. Cosa andremo a vedere in questo corso? Beh, in questo corso, che comunque è un corso base su come utilizzare la sua GPT, andremo innanzitutto a vedere una panoramica sul funzionamento dell’intelligenza artificiale, quindi andiamo a capire bene che cos’è, e anche se non abbiamo un background di programmatori, possiamo andare a capire un attimo, cercare almeno, di comprendere il funzionamento di questo strumento. Dopodiché andremo a vedere proprio nel pratico come si usa il chat GPT, le sue varie interfacce, perché sì, non ne ha solo una, in realtà ha diverse interfacce che si possono utilizzare, con casi d’uso ed esempi pratici che potrai implementare subito nel tuo workflow. Infine andremo a vedere come strutturare un prompt, quindi una richiesta allo strumento, per massimizzare la qualità dell’output, quindi per avere proprio i risultati che noi desideriamo che chat GPT ci dia. Partiamo dal primo modulo, denominato intelligenza artificiale e open AI panoramica. In questo modulo parleremo un attimo, anche se non abbiamo background di programmatori, parleremo di che cos’è un’intelligenza artificiale, e faremo qualche approfondimento sull’azienda che negli ultimi tempi l’ha resa disponibile per il pubblico di massa. Partiamo da una definizione, cerchiamo di capire alla fine che cos’è l’intelligenza artificiale, e qui possiamo andare a vedere che l’intelligenza artificiale è una branca dell’informatica che si occupa di creare sistemi in grado di svolgere compiti che richiedono l’intelligenza umana. Quindi questi programmi riescono a svolgere delle task che solitamente ha bisogno di un essere umano per andare a compimento. E quali sono le caratteristiche principali che deve avere un’intelligenza artificiale per dare questo effetto di simulazione dell’intelligenza umana? Innanzitutto deve avere la capacità di scoprire, quindi di reperire nuove informazioni, deve avere la capacità di inferenza, ovvero quella di assimilare informazioni provenienti da altri fonti, e deve chiaramente avere la capacità di ragionamento, quindi di ragionare e risolvere problemi. E cosa può fare un’intelligenza artificiale? Vediamo un attimo di che cos’è capace. Innanzitutto è capace di elaborare il linguaggio naturale degli esseri umani, quindi con l’acronimo NLP, Natural Language Processing, è in grado di comprendere e rispondere al linguaggio umano. Può analizzare e interpretare immagini, quindi è capace di visione, il text-to-speech, che converte testo scritto in testo parlato e viceversa, basta pensare agli assistenti virtuali come possono essere Siri. Motion, e quindi parla di robotica, che controlla i movimenti fisici dei robot e dei macchinari che lavorano nello spazio fisico. Ed infine è capace di fare machine learning, quindi è capace di apprendere dai dati, migliorando le prestazioni nel tempo senza la programmazione esplicita, quindi in base a un set di dati che gli diamo, il machine learning può arrivare a un determinato risultato senza essere guidato verso di esso, ma arrivarci da solo in base ai dati. Ma noi, utilizzando CGPT, utilizziamo un altro tipo di intelligenza artificiale, che è l’intelligenza artificiale generativa e predittiva, che si colloca principalmente all’interno dell’elaborazione del linguaggio naturale e della vision, e quindi è capace di creare nuovi contenuti come testi o immagini a partire da un input di dati testuali. Ed è anche predittiva, perché è in grado di prevedere la parola successiva in base al contesto. Come possiamo vedere nell’esempio, gli ho chiesto di completare la frase non piangere sul latte, e giustamente mi ha risposto non piangere sul latte versato. Quindi è stato in grado di capire, in base al contesto, quindi un detto italiano, qual è la parola successiva per completare la frase. Ma ora entriamo nel dettaglio e andiamo a scoprire come funziona la I-generativa e quindi andiamo a vedere cosa sono i modelli di base e gli LLM. Per modelli di base, chiamati anche foundation model, intendiamo dei modelli di intelligenza artificiale che sono stati preaddestrati su vastissimi set di dati. Questi modelli servono come punto di partenza per una serie di applicazioni specifiche, i quali possono essere poi ulteriormente affinati tramite le azioni di tuning e di prompting che vedremo più avanti. I modelli chiaramente arrivano anche con vantaggi e svantaggi. Questi foundation model ovviamente hanno il vantaggio di avere una performance incredibile come qualità di testi e velocità di output. L’altro vantaggio enorme è che utilizzato in una determinata maniera aumenta di tantissimo la produttività in qualsiasi campo nel quale viene utilizzato. Tuttavia comporta anche degli svantaggi. Il primo è sicuramente l’alto costo. Per funzionare un modello simile richiede un enorme potenza di computazione oltre a un’infrastruttura hardware con un costo non irrilevante. L’altro svantaggio è la fiducia. Il problema di questi modelli che essendo stati preaddestrati con vastissimi set di dati a volte ci mannano incontro a quelle che noi chiamiamo ormai allucinazioni quindi informazioni non al 100% verichiere che lui però dà per vere, dà per scontate al quale bisogna stare molto attenti. Ma ChagPT è un LLM. Andiamo a vedere anche brevemente che cos’è. È un Large Language Model che è un tipo di modello di base quindi è un tipo di foundation model specializzato nel trattamento del linguaggio. ChagPT con che tipo di dati è stato addestrato? Con tutto il testo presente su internet. Esattamente. Per addestrare ChagPT il suo set di dati di partenza è tutto il testo presente su internet. Le milioni e milioni e milioni di pagine pubbliche e quindi visionabili sul web sono state precaricate all’interno di ChagPT e quelle sono il set base dei suoi dati. Prima abbiamo menzionato che i modelli di base si possono anche affinare per guidare l’output del testo generato verso un risultato più vicino a quello che noi desideriamo. E come si può fare? Si può fare attraverso il tuning e il prompting. Andiamo a vedere cosa sono. Allora, il tuning viene eseguito fornendo al modello di base un nuovo set di dati. Quindi oltre al set di dati col quale viene precaricato nel caso di ChagPT tutte le pagine presenti su internet ti permette di caricare un altro set di dati che va ad implementarsi a quello precedente con l’obiettivo di guidare il modello di base verso queste nuove istruzioni. Quindi io posso integrare dentro il modello di base un altro set di dati che magari sono dati miei e quindi poi il modello di base si baserà anche sui nuovi dati inseriti. Un altro modo per riuscire ad affinare i testi generati è fare prompting. Andiamo a vedere prima che cos’è un prompt però. Un prompt non è altro che un input specifico fornito al modello per guidarne l’output è quello che scriviamo nella barra. Nel contesto degli LLM un prompt infatti qui ci dice che può essere una frase o una domanda che il modello deve completare o rispondere. Nel prompt però non vengono prese in considerazione solamente le domande o la richiesta della task da completare ma si possono inserire anche dettagli e nuovi dati all’interno del prompt cercando di guidare il modello seguendo proprio i dati inseriti all’interno del prompt. Quindi diciamo che si può fare una specie di tuning light mentre proprio facciamo la richiesta. Ma adesso andiamo a scoprire invece chi si cela dietro a questo prodotto chi è l’azienda che ha creato ChatGPT e facciamo una breve panoramica giusto per renderci conto l’ente del prodotto che stiamo utilizzando. Allora, chi è OpenAI? È un’azienda che si occupa di ricerca e sviluppo nell’intelligenza artificiale e fin qui l’azienda condivide pubblicamente le sue ricerche e collabora con altre aziende per sviluppare ulteriormente l’intelligenza artificiale. Molto importante, questa azienda non ha predettato i suoi modelli quindi i suoi modelli sono disponibili sul web per chiunque e chiunque può utilizzare le sorgenti dei modelli per sviluppare ulteriormente i modelli oppure costruirci sopra dei prodotti. È una società che è stata fondata nel 2014 da un gruppo di collaboratori tra cui Elon Musk, il CEO di Tesla e SpaceX nuovo possessore di Twitter e con il colosso Microsoft tra i principali investitori quindi in poche parole gente che bene o male di tecnologia e innovazioni qualcosa sa. E qual è l’idea dietro a questa azienda? La semplicità d’uso quindi l’azienda mira a sviluppare tecnologie di intelligenza artificiale che siano molto semplici da usare l’accessibilità quindi vorrebbe fare in modo che i suoi prodotti fossero accessibili a tutti quindi non solo a programmatori gente esperta, smanettoni ma che chiunque possa in modo molto semplice arrivare alla possibilità di utilizzare questi strumenti e fornire un ambiente imparziale quindi OpenAI fornisce un ambiente imparziale in cui le persone possono testare i loro dati inserire i propri dati guidare il modello verso i loro propri bisogni ma partendo sempre da un ambiente imparziale Quali sono i due prodotti principali di OpenAI? OpenAI chiaramente ha sviluppato più modelli di linguaggio ma quelli diciamo un po’ più conosciuti e che andremo a vedere oggi sono principalmente ChatGPT che è il pulpo di questo corso e poi daremo una veloce occhiata anche a Dally2 che è un’estensione del modello di GPT3 ed è capace di generare immagini da descrizioni testuali quindi questo modello a differenza di un output di testo fornisce un output di immagini quindi proprio come su ChatGPT noi andiamo a inserire nel nostro prompt il tipo di immagine che vogliamo creare e Dally2 ci genera un’immagine proprio in PNG e poi ovviamente ChatGPT che per riassumere è un modello di linguaggio di intelligenza artificiale avanzato che genera testo in risposta a un input molto semplicemente e quindi ora che abbiamo più o meno un’infarinata su come funziona ChatGPT e chi è che l’ha costruito possiamo subito andare a vedere come si usa ChatGPT le basi