ChatGpt, allarme dei ricercatori: scoperta inquietante sul suo funzionamento

Un gruppo di ricercatori lancia l’allarme a proposito di ChatGpt: emerge una scoperta inquietante sul suo funzionamento. Di che cosa si tratta.

Crescono i dubbi e le preoccupazioni a proposito dell’utilizzo di ChatGpt. L’ intelligenza artificiale del momento, creata per generare testi realistici e conversazioni il più naturali possibili in risposta agli utenti che la utilizzano.

ChatGpt
ChatGpt: scatta l’allarme dei ricercatori (Nerdyland)

Uno strumento apparentemente utilissimo che, però, nell’ultimo periodo ha generato non poche perplessità, in quanto potrebbe accrescere il fenomeno della disinformazione online. A lanciare l’allarme in questo senso sarebbe stato proprio un gruppo di ricercatori, che ha messo in evidenza un aspetto piuttosto inquietante del chatbot.

ChatGpt: l’allarme dei ricercatori

Secondo una recente analisi condotta dai ricercatori di Newsguard Technologies, ChatGpt incrementerebbe il rischio di diffusione di fake news sul web. Un’ipotesi già avanzata da qualche tempo e che sta facendo molto discutere la comunità scientifica e non solo. A tal proposito, la ricerca di Newsguard Technologies mirerebbe proprio a combattere la disinformazione in rete. Motivo per cui tre studiosi hanno testato questa forma di intelligenza artificiale con 100 narrazioni false, rivelando che ChatGpt nell’80% dei casi ha generato informazioni non vere e fuorvianti su vari argomenti di attualità, tra cui l’emergenza sanitaria legata al Covid-19 e il conflitto in Ucraina.

Le parole degli esperti

Alla luce dei dati emersi nel corso dell’analisi, i ricercatori hanno messo in evidenza come i risultati emersi abbiamo confermato nel complesso tutte le preoccupazioni e i dubbi su ChatGpt. Timori, fra l’altro, già espressi anche da OpenAi, l’azienda stessa che l’ha prodotta. In effetti, se questo strumento finisse nelle mani sbagliate potrebbe causare non pochi problemi, soprattutto nel campo della disinformazione. Inoltre, ciò che è ancora più allarmante è che per come le argomentazioni vengono formulate dal chatbot potrebbero risultare del tutto veritiere ed autorevoli.

fake news
I ricercatori lanciano l’allarme su ChatGpt (Nerdyland)

NewsGuard avrebbe, tuttavia, verificato che ChatGpt dispone di particolari misure di salvaguardia per evitare la diffusione di alcune fake news. “Per alcune bufale, ci sono voluti più di cinque tentativi per portare il chatbot a fornire informazioni errate” hanno confermato i ricercatori. I criteri di selezione delle informazioni sarebbero dunque piuttosto accurati. Ciò non toglie, però, che l’intelligenza artificiale in qualche caso potrebbe portare a conseguenze negative senza troppa fatica. Ed è proprio per questo che alcune realtà hanno cominciato ad interrogarsi sull’utilizzo dell’AI e a mettere in stand by alcuni esperimenti sull’argomento, come nel caso della testata specializzata Cnet che qualche tempo fa è stata accusata di scarsa accuratezza degli articoli scritti proprio con questi strumenti.

Articolo di Veronica Elia

Impostazioni privacy