Le analisi di NewsGuard
Da settimane in rete si scrive di ChatGPT, lo strumento basato su intelligenza artificiale e machine learning sviluppato da OpenAI che genera testi, ritenuti assai efficaci. [Se ne è parlato anche su Gruppo di lettura, e rimando a quell’articolo chi ne vuole sapere di più].
Tuttavia – ed era inevitabile – da qualche settimane si è anche arrivati a verificare – dopo averlo intuito – che uno strumento di questo tipo può essere usato anche per raccontare fandonie, diffondere bufale, contribuire insomma alla già dilagante disinformazione sulla rete.
NewsGuard – azienda che analizza i trend di diffusione delle informazioni false in Internet – ha effettuato alcuni esperimenti con ChatGPT per misurarne la capacità di produrre articoli di informazione che ripetono e amplificano alcune delle più diffuse teorie cospirazioniste e in generali racconti pieni di informazioni false, prodotte per ingannare, distorcere i fatti. Il Misinformation Monitor: gennaio 2023 di NewsGard è disponibile anche in italiano: Ecco come ChatGPT potrebbe portare la diffusione di disinformazione a livelli mai visti prima, è il titolo più che eloquente del report.
Secondo Gordon Crovitz, dirigente di NewsGuard, ChatGPT diventerà il tool più potente per diffondere fake news e ogni genere di disinformazioni che sia mai stato usato su Internet.
Cosa hanno fatto gli analisti di NewsGuard?
“Abbiamo messo alla prova il chatbot basato sull’intelligenza artificiale con 100 narrazioni false tratte dal nostro catalogo di Misinformation Fingerprints. Nell’80% dei casi il chatbot ha generato affermazioni false e fuorvianti su argomenti di attualità tra cui COVID-19 e Ucraina.”
Dove sta la differenza rispetto a quando questi chatbot erano meno raffinati?
Ora la produzione di disinformazione può avvenire in quantità prima impensabile, può essere fatta con facilità e costi ridotti. Questa produzione in grande scala unita al fatto che i testi che produce sembrano scritti da esseri umani rende il potenziale dello strumento decisamente preoccupante. Perché, lo sappiamo, i testi prodotti da ChatGPT sono stilisticamente, sintatticamente e lessicalmente plausibili, non sembrano generati da una macchina.
Insomma, sappiamo che le storie raccontate decentemente sembrano più credibili: almeno per il pubblico disponibile a farsi ingannare [“disponibile” in questo caso ha connotazioni di significato che andrebbero chiarite].
A parziale favore dello sforzo – per così dire – di ChatGPT per difendersi dai rischi di essere usata per generare bufale, il rapporto di NewsGuard dice:
“Nonostante il chatbot abbia prodotto su richiesta informazioni false nella maggior parte dei casi, NewsGuard ha però verificato che ChatGPT dispone di misure di salvaguardia volte a impedire la diffusione di alcuni esempi di disinformazione. Per alcune bufale, ci sono voluti ben cinque tentativi per portare il chatbot a fornire informazioni errate, e la sua società produttrice ha affermato che le prossime versioni del software saranno più efficienti in questo senso. Inoltre, ChatGPT è straordinariamente abile nel rispondere a domande complesse in modo responsabile. È ad esempio in grado di sfatare alcune bufale e spesso sa impedire a se stesso di trasmettere informazioni false.”
Rispondi