Poche ore dopo che James Whitbrook è entrato al lavoro a Gizmodo mercoledì, ha ricevuto una nota dal suo caporedattore: entro 12 ore, la società avrebbe lanciato articoli scritti dall’intelligenza artificiale. Circa 10 minuti dopo, una storia di “Gizmodo Bot” pubblicata sul sito sull’ordine cronologico dei film e dei programmi televisivi di Star Wars.
Come una storia di Star Wars scritta dall’intelligenza artificiale ha creato il caos a Gizmodo – The Washington Post
Whitbrook – un vicedirettore di Gizmodo che scrive e cura articoli sulla fantascienza – ha letto rapidamente la storia, che ha detto di non aver chiesto o visto prima che fosse pubblicata. Ha catalogato 18 “preoccupazioni, correzioni e commenti” sulla storia in un’e-mail al caporedattore di Gizmodo, Dan Ackerman, notando che il bot ha messo la serie TV di Star Wars “Star Wars: The Clone Wars” nell’ordine sbagliato, omettendo qualsiasi menzione di programmi televisivi come “Star Wars: Andor” e il film del 2008 intitolato anch’esso “Star Wars: The Clone Wars”, titoli di film con formattazione imprecisa e il titolo della storia, presentavano descrizioni ripetitive e non contenevano alcuna “disclaimer esplicita” che fosse stata scritta da AI ad eccezione della firma “Gizmodo Bot”.
L’articolo ha rapidamente suscitato proteste tra i membri dello staff che si sono lamentati nel sistema di messaggistica Slack interno dell’azienda che la storia piena di errori stava “danneggiando attivamente la nostra reputazione e credibilità”, ha mostrato “zero rispetto” per i giornalisti e dovrebbe essere cancellata immediatamente, secondo i messaggi ottenuti dal Washington Post. La storia è stata scritta utilizzando una combinazione di Google Bard e ChatGPT, secondo un membro dello staff di G/O Media che ha familiarità con la questione. (G/O Media possiede diversi siti di media digitali tra cui Gizmodo, Deadspin, The Root, Jezebel e The Onion.)
“Non ho mai avuto a che fare con questo livello base di incompetenza con nessuno dei colleghi con cui ho mai lavorato”, ha detto Whitbrook in un’intervista. “Se queste IA [chatbots] non può nemmeno fare qualcosa di così semplice come mettere in ordine un film di Star Wars uno dopo l’altro, non credo che tu possa fidarti [report] qualsiasi tipo di informazione accurata.”
L’ironia che il tumulto stesse accadendo a Gizmodo, una pubblicazione dedicata alla copertura della tecnologia, era innegabile. Il 29 giugno, Merrill Brown, direttore editoriale di G/O Media, aveva citato la missione editoriale dell’organizzazione come motivo per abbracciare l’IA. Poiché G/O Media possiede diversi siti che coprono la tecnologia, ha scritto, ha la responsabilità di “fare tutto il possibile per sviluppare iniziative di intelligenza artificiale relativamente presto nell’evoluzione della tecnologia”.
“Queste funzionalità non sostituiscono il lavoro attualmente svolto da scrittori ed editori”, ha affermato Brown annunciando allo staff che la società avrebbe lanciato una prova per testare “il nostro pensiero editoriale e tecnologico sull’uso dell’intelligenza artificiale”. “Ci saranno errori e saranno corretti il più rapidamente possibile”, ha promesso.
Il test pieno di errori di Gizmodo parla di un dibattito più ampio sul ruolo dell’IA nelle notizie. Diversi giornalisti ed editori hanno affermato di non fidarsi dei chatbot per creare articoli ben segnalati e accuratamente verificati. Temono che i leader aziendali vogliano spingere la tecnologia nelle redazioni con sufficiente cautela. Quando i processi vanno male, rovinano il morale dei dipendenti e la reputazione del punto vendita, sostengono.
Gli esperti di intelligenza artificiale hanno affermato che molti modelli linguistici di grandi dimensioni presentano ancora carenze tecnologiche che li rendono una fonte inaffidabile per il giornalismo, a meno che gli esseri umani non siano profondamente coinvolti nel processo. Se non controllate, hanno affermato, le notizie generate artificialmente potrebbero diffondere disinformazione, seminare discordia politica e avere un impatto significativo sulle organizzazioni dei media.
“Il pericolo è per l’affidabilità dell’organizzazione giornalistica”, ha affermato Nick Diakopoulos, professore associato di studi sulla comunicazione e informatica presso la Northwestern University. “Se pubblicherai contenuti imprecisi, allora penso che probabilmente ti colpirà la credibilità nel tempo.”
Mark Neschis, un portavoce di G/O Media, ha affermato che la società sarebbe “abbandonata” se non sperimentasse l’intelligenza artificiale. “Pensiamo che il processo AI abbia avuto successo”, ha affermato in una nota. “In nessun modo prevediamo di ridurre l’organico editoriale a causa delle attività di intelligenza artificiale”. Ha aggiunto: “Non stiamo cercando di nasconderci dietro nulla, vogliamo solo fare le cose per bene. Per fare questo, dobbiamo accettare tentativi ed errori”.
In un messaggio Slack recensito da The Post, Brown ha detto giovedì ai dipendenti scontenti che la società è “ansiosa di raccogliere e agire in base al feedback”. “Ci saranno storie, idee, progetti di dati ed elenchi migliori che si faranno avanti mentre lottiamo con i modi migliori per utilizzare la tecnologia”, ha affermato. La nota ha attirato 16 emoji del pollice verso il basso, 11 emoji del cestino della carta straccia, sei emoji del pagliaccio, due emoji del palmo della faccia e due emoji della cacca, secondo gli screenshot della conversazione Slack.
Le organizzazioni dei media stanno lottando con l’utilizzo dei chatbot AI, che ora possono creare saggi, poesie e storie spesso indistinguibili dai contenuti creati dall’uomo. Diversi siti di media che hanno provato a utilizzare l’intelligenza artificiale nella raccolta di notizie e nella scrittura hanno subito disastri di alto profilo. G/O Media sembra imperterrito.
All’inizio di questa settimana, Lea Goldman, vicedirettore editoriale di G/O Media, ha informato i dipendenti di Slack che la società aveva “iniziato test limitati” di storie generate dall’intelligenza artificiale su quattro dei suoi siti, tra cui AV Club, Deadspin, Gizmodo e The Da asporto, secondo i messaggi visualizzati da The Post. “Potresti individuare errori. Potresti avere problemi con il tono e/o lo stile”, ha scritto Goldman. “Sono consapevole che ti opponi a questo atto di citazione e che i tuoi rispettivi sindacati hanno già e continueranno a pesare con obiezioni e altre questioni”.
I dipendenti hanno risposto rapidamente con preoccupazione e scetticismo. “Nessuna delle nostre descrizioni del lavoro include la modifica o la revisione dei contenuti prodotti dall’intelligenza artificiale”, ha affermato un dipendente. “Se volevi un articolo sull’ordine dei film di Star Wars, avresti potuto semplicemente chiedere”, ha detto un altro. “L’intelligenza artificiale è una soluzione che cerca un problema”, ha detto un lavoratore. “Abbiamo scrittori di talento che sanno cosa stiamo facendo. Così efficacemente tutto ciò che stai facendo è sprecare il tempo di tutti.
Diversi articoli generati dall’intelligenza artificiale sono stati individuati sui siti dell’azienda, inclusa la storia di Star Wars sul verticale io9 di Gizmodo, che copre argomenti legati alla fantascienza. Sul suo sito sportivo Deadspin, un “Deadspin Bot” di intelligenza artificiale ha scritto una storia sulle 15 franchigie sportive professionistiche di maggior valore con valutazioni limitate delle squadre ed è stata corretta il 6 luglio senza alcuna indicazione di cosa fosse sbagliato. Il suo sito di cibo The Takeout aveva un “Takeout Bot” che sottolineava una storia sulle “catene di fast food più popolari in America basate sulle vendite” che non fornivano cifre di vendita. Il 6 luglio, Gizmodo ha aggiunto una correzione alla sua storia di Star Wars osservando che “le classifiche degli episodi non erano corrette” ed erano state corrette.
Il sindacato di Gizmodo ha rilasciato una dichiarazione su Twitter denunciando le storie. “Questo è immorale e inaccettabile”, scrissero. “Se vedi una riga che termina con ‘Bot’, non fare clic su di essa.” Ai lettori che fanno clic sul sottotitolo di Gizmodo Bot viene detto che “le storie sono state prodotte con l’aiuto di un motore di intelligenza artificiale”.
Diakopoulos, della Northwestern University, ha affermato che i chatbot possono produrre articoli di scarsa qualità. I bot, che si allenano sui dati provenienti da luoghi come Wikipedia e Reddit e li usano per aiutarli a prevedere la parola successiva che potrebbe entrare in una frase, hanno ancora problemi tecnici che li rendono difficili da fidarsi nel riferire e scrivere, ha detto.
I chatbot a volte sono inclini a inventare fatti, omettere informazioni, scrivere un linguaggio che distorce le opinioni, rigurgitare contenuti razziali e sessisti, riassumere male le informazioni o fabbricare completamente citazioni, ha detto.
Le società di notizie devono disporre di “editing in the loop”, se devono utilizzare i robot, ha aggiunto, ma ha affermato che non può basarsi su una sola persona e che devono esserci più revisioni del contenuto per garantire che sia accurato e aderisca a lo stile di scrittura della società di media.
Ma i pericoli non sono solo per la credibilità delle organizzazioni dei media, hanno detto i ricercatori di notizie. I siti hanno anche iniziato a utilizzare l’intelligenza artificiale per creare contenuti fabbricati, che potrebbero potenziare la diffusione della disinformazione e creare caos politico.
Il watchdog dei media NewsGuard ha affermato che esistono almeno 301 siti di notizie generati dall’intelligenza artificiale che operano senza “nessuna supervisione umana e pubblicano articoli scritti in gran parte o interamente da bot” e coprono 13 lingue, tra cui inglese, arabo, cinese e francese. Creano contenuti che a volte sono falsi, come bufale sulla morte di celebrità o eventi completamente falsi, hanno scritto i ricercatori.
Le organizzazioni sono incentivate a utilizzare l’intelligenza artificiale nella generazione di contenuti, hanno affermato gli analisti di NewsGuard, perché le aziende di tecnologia pubblicitaria spesso inseriscono annunci digitali sui siti “senza riguardo alla natura o alla qualità” del contenuto, creando un incentivo economico a utilizzare i robot di intelligenza artificiale per sfornare come più articoli possibili per l’hosting degli annunci.
Lauren Leffer, giornalista di Gizmodo e membro della Writers Guild of America, East Union, ha affermato che si tratta di uno sforzo “molto trasparente” da parte di G/O Media per ottenere maggiori entrate pubblicitarie perché l’intelligenza artificiale può creare rapidamente articoli che generano traffico di ricerca e clic e costano molto meno da produrre rispetto a quelli di un giornalista umano.
Ha aggiunto che il processo ha demoralizzato giornalisti ed editori che ritengono che le loro preoccupazioni sulla strategia di intelligenza artificiale dell’azienda siano passate inascoltate e non siano valutate dal management. Non è che i giornalisti non commettano errori sulle storie, ha aggiunto, ma un giornalista ha un incentivo a limitare gli errori perché è ritenuto responsabile di ciò che scrive, il che non si applica ai chatbot.
Leffer ha anche notato che a partire da venerdì pomeriggio, la storia di Star Wars ha ottenuto circa 12.000 visualizzazioni di pagina su Chartbeat, uno strumento che tiene traccia del traffico di notizie. Ciò impallidisce rispetto alle quasi 300.000 visualizzazioni di pagina che una storia scritta da umani sulla NASA ha generato nelle ultime 24 ore, ha detto.
“Se vuoi gestire un’azienda il cui intero sforzo è quello di indurre le persone a fare clic accidentalmente su The error-filled story about Star Wars movies and TV shows demonstrates why artificial intelligence shouldn't be involved in news-gathering, reporters …Poi [AI] potrebbe valere il tuo tempo “, ha detto. “Ma se vuoi gestire una società di media, forse fidati della tua redazione per capire cosa vogliono i lettori”.
Fonte: https://www.washingtonpost.com/technology/2023/07/08/gizmodo-ai-errors-star-wars/