
Alcuni utenti su X di Elon Musk stanno rivolgendosi al bot AI Grok di Musk per il fact-checking, sollevando preoccupazioni tra i fact-checker umani che ciò potrebbe alimentare la disinformazione.
All'inizio di questo mese, X ha permesso agli utenti di chiamare xAI's Grok e fare domande su diverse cose. La mossa è stata simile a Perplexity, che ha gestito un account automatizzato su X per offrire un'esperienza simile.
Immediatamente dopo che xAI ha creato l'account automatizzato di Grok su X, gli utenti hanno iniziato a sperimentare facendogli domande. Alcune persone in mercati tra cui l'India hanno iniziato a chiedere a Grok di verificare i commenti e le domande che mirano a specifiche convinzioni politiche.
I fact-checker sono preoccupati nell'utilizzare Grok - o qualsiasi altra assistente AI di questo tipo - in questo modo perché i bot possono formulare le loro risposte in modo convincente, anche se non sono corrette dal punto di vista fattuale. Sono stati riscontrati casi di diffusione di fake news e disinformazione con Grok in passato.
Nell'agosto dello scorso anno, cinque segretari di Stato hanno invitato Musk a implementare cambiamenti critici a Grok dopo che le informazioni fuorvianti generate dall'assistente sono emerse sui social network prima delle elezioni negli Stati Uniti.
Altri chatbot, tra cui ChatGPT di OpenAI e Gemini di Google, sono stati visti generare informazioni inaccurate sulle elezioni dello scorso anno. Separatamente, ricercatori sulla disinformazione hanno scoperto nel 2023 che i chatbot AI, inclusi ChatGPT, potevano essere facilmente utilizzati per produrre testi convincenti con narrazioni fuorvianti.
"Gli assistenti AI, come Grok, sono davvero bravi a utilizzare il linguaggio naturale e a dare una risposta che suona come se l'avesse detta un essere umano. E in questo modo, i prodotti AI hanno questa rivendicazione di naturalezza e risposte autentiche, anche quando sono potenzialmente molto sbagliate. Questo sarebbe il pericolo qui," ha dichiarato Angie Holan, direttore della International Fact-Checking Network (IFCN) presso il Poynter a TechCrunch.

A differenza degli assistenti AI, i fact-checker umani utilizzano diverse fonti credibili per verificare le informazioni. Si assumono anche la piena responsabilità delle loro conclusioni, con i loro nomi e organizzazioni collegati per garantire credibilità.
Pratik Sinha, co-fondatore del sito web di fact-checking non a scopo di lucro Alt News in India, ha affermato che anche se Grok attualmente sembra avere risposte convincenti, è valido solo quanto i dati che gli vengono forniti.
"Chi deciderà quali dati gli verranno forniti, e qui entrerà in gioco l'interferenza del governo, ecc.," ha osservato.
"Non c'è trasparenza. Tutto ciò che manca di trasparenza causerà danni perché tutto ciò che manca di trasparenza può essere plasmato in qualsiasi modo."
"Potrebbe essere usato male - per diffondere disinformazione"
In una delle risposte pubblicate all'inizio di questa settimana, l'account automatizzato di Grok su X ha riconosciuto che "potrebbe essere usato male - per diffondere disinformazione e violare la privacy."
Tuttavia, l'account automatizzato non mostra alcun disclaimer agli utenti quando ricevono le sue risposte, portandoli a essere disinformate se ad esempio ha inventato la risposta, che è il potenziale svantaggio dell'IA.

"Potrebbe inventare informazioni per fornire una risposta," ha detto Anushka Jain, ricercatrice presso il Digital Futures Lab, un collettivo di ricerca multidisciplinare con sede a Goa, a TechCrunch.
C'è anche qualche dubbio su quanto Grok utilizzi i post su X come dati di addestramento, e quali misure di controllo della qualità utilizza per verificare tali post. L'estate scorsa, è stata introdotta una modifica che sembrava consentire a Grok di consumare i dati degli utenti di X per impostazione predefinita.
Un'altra area preoccupante degli assistenti AI come Grok che sono accessibili attraverso piattaforme di social media è la loro erogazione di informazioni in pubblico - a differenza di ChatGPT o altri chatbot utilizzati privatamente.
Anche se un utente è ben consapevole che le informazioni che riceve dall'assistente potrebbero essere fuorvianti o non completamente corrette, altri sulla piattaforma potrebbero comunque crederci.
Ciò potrebbe causare gravi danni sociali. Casi del genere sono stati visti in precedenza in India quando la disinformazione circolata su WhatsApp ha portato a linciaggi di massa. Tuttavia, quegli incidenti gravi sono avvenuti prima dell'arrivo del GenAI, che ha reso ancora più facile la generazione di contenuti sintetici e la loro resa più realistica.
"Se si vedono molte di queste risposte di Grok, si potrebbe dire, eh, beh, la maggior parte di esse sono corrette, e potrebbe essere così, ma ce ne saranno alcune che sono sbagliate. E quante? Non è una piccola frazione. Alcune ricerche hanno mostrato che i modelli AI sono soggetti a tassi di errore del 20%... e quando si sbagliano, possono sbagliare veramente con conseguenze reali," ha detto Holan dell'IFCN a TechCrunch.
AI vs. fact-checker reali
Mentre le aziende di AI, tra cui xAI, stanno perfezionando i loro modelli AI per renderli comunicare più come esseri umani, non sono - e non possono - sostituire gli esseri umani.
Negli ultimi mesi, le aziende tech stanno esplorando modi per ridurre la dipendenza dai fact-checker umani. Piattaforme tra cui X e Meta hanno iniziato ad abbracciare il nuovo concetto di fact-checking basato sulla folla attraverso le cosiddette Community Notes.
Naturalmente, tali cambiamenti causano preoccupazione anche ai fact-checker.
Sinha di Alt News crede ottimisticamente che le persone impareranno a differenziare tra macchine e fact-checker umani e daranno più valore all'accuratezza degli umani.
"Vedremo il pendolo tornare alla fine verso più fact-checking," ha detto Holan dell'IFCN.
Tuttavia, ha notato che nel frattempo, i fact-checker avranno probabilmente più lavoro da fare con le informazioni generate dall'IA che si diffondono rapidamente.
"Molto di questa questione dipende da quanto ti importi davvero di ciò che è effettivamente vero o meno? Stai cercando solo l'apparenza di qualcosa che suona e sembra vero senza essere effettivamente vero? Perché è quello che ti daranno gli assistenti AI," ha detto.
X e xAI non hanno risposto alla nostra richiesta di commento.