Alla fine del 2024, fra gli annunci del calendario dell’avvento della OpenA (12 novità su ChatGPT comunicate nei giorni feriali fino a Natale, come per esempio il reinforcement fine-tuning) i e il rilascio di Gemini 2.0 (con l’integrazione in NotebookLM), più tutte le altre innovazioni e migliorie che riguardano vari strumenti di intelligenza artificiale generativa ci troviamo di fronte a un paradosso: abbiamo bisogno di tempo.
Abbiamo bisogno di fermarci per capire bene come usare questi strumenti, sapendo che intanto lo sviluppo continuerà.
Primo: il cambiamento culturale
Da più di un anno mi occupo di percorsi di formazione e adozione di queste tecnologie. Mi sono reso conto che, per cominciare, occorre lavorare per portare un cambiamento culturale difficile da sintetizzare.
Potremmo provare così
le AI generative sono macchine che possono commettere errori (e per chi lavora con la creatività spesso gli errori sono più interessanti di tutto il resto)
le AI non nascono per uno scopo preciso e prestabilito: sei tu che devi decidere per cosa usarle e con quali obiettivi
gli obiettivi generici riguardano
la liberazione del tempo umano
l’aumento della creatività
la delega di attività spesso lasciate indietro perché noiose o troppo impattanti o non prioritarie (che poi vanno controllate)
la delega di creazione di semi-lavorati, bozze, prodotti o servizi intermedi da sottoporre a ri-lavorazione umana
Eviterei, invece, di parlare genericamente di aumento della produttività. Perché come è facile immaginare si arriva subito a più stress o più tagli o una combinazione delle due. Come dicevo in questo video, lo so che ci sarà chi vorrà usare questi strumenti per fare ancora peggio. Ho già sentito dirigenti dire “I contenuti li scrivo io con ChatGPT. Nel caso succedesse anche a te, lo so che è difficile e hai tutta la mia empatia: se riesci, prova a dirgli di informarsi meglio. Regalagli il corso AI@Work per Natale, per esempio.
Battute e auto-promozione a parte, dopo centinaia di ore spese accanto a professioniste e professionisti di ogni settore, aziende diverse, funzioni aziendali fra le più disparate, l’approccio che suggerisco è complesso ma penso sia l’unico possibile per
evitare di sprecare soldi
evitare di frustrarsi e frustrare le persone
evitare di perdere tempo
evitare di convincersi che queste macchine possano fare cose che in realtà non possono fare o non ha senso facciano.
Ne ho parlato su MagIA, il magazine dell’Università di Torino, provando a raccontare come mettere la personalizzazione, il metodo e l’umanità al centro.
Ma poi c’è un elemento aggiuntivo da considerare. Ed è il passaggio dall’idea di supervisione umana (human-in-the-loop) all’idea di supervisione umana esperta (expert-in-the-loop).
L’expert-in-the-loop: la supervisione umana esperta
In questo momento, una delle cose più sensate che potrebbero (dovrebbero) fare le aziende di ogni dimensione è pagare una persona per sperimentare, testare tutte le novità e immaginare come usarle per funzioni aziendali varie.
Quella persona, l'expert-in-the-loop, dovrebbe poi anche essere colui o colei che, a fronte di conoscenza aziendale e conoscenza delle AI generative, può accompagnarsi alle altre persone che non hanno il tempo di sperimentare allo stesso modo.
L’expert-in-the-loop non è semplicemente un tecnico o un utilizzatore esperto, ma un vero e proprio ponte tra le capacità delle AI generative e i bisogni specifici delle aziende o dei progetti. È una figura che coniuga competenze tecniche con una profonda comprensione delle dinamiche aziendali, capace di identificare casi d’uso, sperimentare e tradurre i risultati in valore concreto per il team. Questo ruolo richiede non solo conoscenze pratiche sui modelli di linguaggio, ma anche soft skill come empatia, comunicazione e la capacità di facilitare il cambiamento culturale.
Se so come funziona un large language model – e l’unico modo per saperlo è averlo usato tanto, anche per scopi personali – posso immaginarmi come usarlo e come creare assistenti per gli altri, sapendo di cosa hanno bisogno. Se non so come funziona, farò fatica, non troverò casi d’uso corretti e alla fine avrò perso un sacco di tempo.
Se so capire di cosa hanno bisogno le persone, immaginerò, progetterò e realizzerò usi pratici utili delle AI generative. Altrimenti no.
Vediamo un esempio pratico.
L’esempio del FOIA Italia Bot
Una sera a cena a Glocal, Riccardo Saporiti dice: “Vorrei fare un Chatbot per aiutare colleghe e colleghi a fare i FOIA”. Per chi non lo sapesse, l’Italia ha un freedom of information act, un pacchetto di norme che regola il diritto a chiedere dati e documenti alle pubbliche amministrazioni. È poco noto, poco usato (anche perché la burocrazia spaventa) e richiede un minimo di conoscenza e di tempo.
Mi è sembrato un caso d’uso perfetto. C’è un bisogno reale, c’è la possibilità di dare una risposta a questo bisogno e c’è anche l’effetto collaterale di abilitare giornaliste e giornalisti all’uso di assistenti AI.
Così, raccolta la proposta di Riccardo, ho silenziosamente lavorato a raffinare (per chi ha competenze più tecniche: non è un vero fine-tuning di AI, non ancora) un ChatGPT personalizzato per fare le richieste di accesso all’atto. Ho costruito un dataset composto dalle norme e dalle circolari, ho estratto gli elementi principali e li ho messi in un file .json, poi mi sono fatto dare da Riccardo esempi di richieste accesso agli atti ben riuscite, ne ho usate alcune mie e ho messo in piedi un assistente.
In questo momento l’assistente è in alpha. Significa che è in fase di test.
Lo puoi vedere qui, se hai ChatGPT, e lo puoi anche usare. Se decidi di usarlo ricordati che:
può commettere errori
ci servono i tuoi feedback! C’è un modulo da compilare per darceli. Creeremo poi una pagina di ringraziamento per tutte le persone che ci hanno aiutati (tutto questo lavoro è gratuito e volontario, ovviamente)
Quando avremo raccolto un buon numero di feedback, passeremo il chatbot da una fase alpha a una beta, cercando di farci lavorare quante più persone possibile.
Infine, quando sarà funzionante, rilasceremo in formato aperto, accessibile e riusabile con qualsiasi large language model tutto il dataset anonimizzato, inclusi i feedback anonimizzati.
Prepareremo anche un vademecum che ricorderà la cosa fondamentale: sei tu, umana o umano, che poi avrai la responsabilità di controllare il lavoro fatto dal chatbot prima di inviare la richiesta alla pubblica amministrazione. Sei l’human-in-the-loop, il supervisore umano.
Perché lo stiamo facendo? Personalmente, perché
credo nell’idea di costruire comunità fra le giornaliste e i giornalisti
credo nella cooperazione
credo nella necessità di mostrare gli usi delle AI per vincere le resistenze anti AI
credo nell’apprendimento facendo le cose e nella condivisione di quel che si impara
credo che sia un buon caso d’uso da proporre
credo anche che condividere sia un volano per la sostenibilità economica: faccio così da anni e non ho mai avuto motivo di pentirmi di aver condiviso
AI@WORK
Mentre continuo a produrre contenuto di supporto a chi ama far da sé in forma accessibile, come questa newsletter, ho costruito anche due percorsi di formazione, sotto il cappello che ho chiamato Ai@Work.
Uno è pensato per persone freelance o che vogliono costruirsi la propria formazione individuale e non hanno molto budget.
ÈAI@Work dentro la Slow News Academy. Il prezzo è bloccato per i prossimi 2 giorni (probabilmente estenderò il blocco fino alla fine delle feste natalizie), poi dovrò alzarlo perché intendo farcirlo di tutto quel che ho imparato.
Il secondo, invece, che si può portare in azienda, è un AI@Work modulare (può andare da una giornata insieme a decine, centinaia di ore di lavoro). Qui trovi la presentazione.
Atipiche
Grazie a Diego Odello che ci ha creduto e ci ha sostenutə con un investimento personale, con la direzione di Anna Castiglioni, Slow News ha un nuovo progetto sperimentale: è una newsletter dedicata all’ADHD. Si chiama Atipiche. Si legge qui. È gratis, ma la puoi sostenere come vuoi e puoi tu.