Sai quale sarebbe il record mondiale se qualcuno attraversasse la Manica a piedi? O l’ultima volta che la Torre Eiffel ha fatto un salto in Sicilia?
Domande assurde, vero? Eppure, quando alcuni utenti le hanno poste ai chatbot, i modelli hanno prodotto risposte apparentemente credibili. Queste risposte sono “allucinazioni” dell’intelligenza artificiale, un problema enorme nei testi generati da modelli linguistici. Una nuova funzionalità dello strumento AI di Microsoft mira proprio a contenere questo problema, facendo fact-checking sui testi prodotti dall’AI.
Documenti Più Affidabili con lo Strumento Corrections
Ovviamente, nessuno ha mai attraversato la Manica a piedi, né ha mai trasportato la Torre Eiffel in Sicilia. Ma quando le aziende usano strumenti di linguaggio naturale e intelligenza artificiale generativa per funzioni importanti, non c’è spazio per errori fattuali.
Lo strumento AI di Microsoft è un modo innovativo ed efficace per affrontare questi sbagli. Corrections rivede le risposte dei chatbot per identificare informazioni dubbie, poi le confronta con fonti affidabili note per confermarle o correggerle.
Integrare il fact-checking in strumenti ampiamente usati è un passo importante per affrontare i limiti intrinseci dei modelli di AI. I chatbot, infatti, non “conoscono” davvero nulla, ma si basano sull’addestramento ricevuto per generare risposte usando schemi linguistici e previsioni sulla parola successiva. Il risultato può andare da perfettamente preciso a totalmente insensato.
Lo strumento AI di Microsoft applica correzioni in tempo reale tramite machine learning, riducendo la probabilità di testi fuorvianti, imprecisi o poco onesti. Se rileva dettagli sospetti, li confronta automaticamente con i documenti di riferimento forniti dall’utente e rivede il testo. Il risultato, almeno in teoria, è un documento più affidabile.
Serve Comunque un Controllo Umano per Verificare l’Accuratezza
Anche se strumenti come Corrections rappresentano un passo nella direzione giusta, non sono infallibili. Perfino Microsoft, nell’annunciare la novità, ammette che lo scopo dello strumento è allineare meglio il testo generato con i documenti di riferimento, ma non ne garantisce l’accuratezza. Se il materiale usato per l’addestramento contiene errori, Corrections non sarà in grado di rilevarli o correggerli.
Per questo motivo, gli esperti avvertono che lo strumento AI di Microsoft — come altri simili — può dare agli utenti un falso senso di sicurezza. Affidarsi a contenuti generati dal computer che contengono errori può avere conseguenze gravi, quindi è fondamentale che le persone continuino a revisionare i testi per verificarne la veridicità.
Riservatezza e Privacy nei Testi Generati dall’AI
Quando si creano documenti in contesti aziendali, la privacy e la riservatezza sono fondamentali, soprattutto quando si forniscono documenti di supporto per il fact-checking. A questo proposito, Microsoft ha introdotto anche Evaluations, un nuovo strumento che valuta in anticipo i rischi e applica controlli riservati, garantendo che le informazioni sensibili restino sicure e private mentre i chatbot lavorano.
Gli strumenti di AI di Microsoft fanno parte dell’impegno dell’azienda per aumentare la fiducia nel machine learning e incentivarne l’adozione. Errori nei fatti, disinformazione e deep fake hanno creato molta diffidenza verso questa tecnologia. Migliorare l’accuratezza e l’affidabilità è una priorità, anche perché in gioco ci sono miliardi di dollari.
Corrections è integrato nell’AI Safety API di Azure. Funziona con tutti i modelli di machine learning attualmente in uso, inclusi l’ultima versione di ChatGPT e Llama di Meta. Gli utenti possono effettuare controlli di coerenza su fino a 5.000 testi al mese senza costi aggiuntivi.