L’intelligenza artificiale ha ancora molto da imparare sulla scrittura
Il giornalismo AI tra plagi, errori grossolani e incapacità di creare contenuti interessanti
30 Gennaio 2023
Da quando a fine novembre l’organizzazione che si occupa di ricerca e sviluppo nel campo dell’intelligenza artificiale, OpenAI, ha presentato al pubblico il suo nuovo chatbot ChatGPT, in molti si sono detti stupiti. Il software offre in effetti qualità inaspettate: è in grado ad esempio di spiegare algoritmi complessi nello slang di un personaggio di un film-gangster degli anni Quaranta o di scrivere nuovi versi della Bibbia basati su argomenti attuali. Studi recenti dimostrano che spesso le persone non sono in grado di distinguere tra un testo prodotto da un’intelligenza artificiale e uno scritto da un individuo in carne e ossa, e proprio per loro potenzialità sorprendenti nella scrittura sistemi come ChatGPT si stanno facendo notare tra i non addetti ai lavori. Dato che l’AI probabilmente non sarà una semplice bolla del momento, come invece lo sono state le criptovalute, in tanti stanno immaginando i modi in cui questi sistemi potrebbero essere sfruttati in futuro, come copiare durante un esame (visto che si riescono a scrivere saggi piuttosto convincenti a partire da un semplice spunto). E non sono stati pochi quelli che si sono chiesti perché tecnologie del genere non vengano impiegati anche nel giornalismo o più in generale nell’editoria. La questione, però, in questi casi è un po’ più complessa di quanto appare, in prima battuta proprio perché sistemi come ChatGPT non sono prodotti poi così perfetti.
Asked ChatGPT for a bible verse asking a spouse to stop snoring pic.twitter.com/xtfNqaLPrz
— Stew Fortier (@stewfortier) December 2, 2022
Nonostante i software siano in grado di creare articoli perfettamente sensati, il caso meno noto di CNET – sito di news che si occupa di tecnologia – ne ha mostrato anche i limiti. Senza comunicarlo in modo chiaro, da novembre a oggi CNET ha pubblicato almeno 70 articoli scritti da un’intelligenza artificiale, finché un altro sito che si occupa di tecnologia non se n’è accorto. Futurism aveva notato in quegli articoli una serie di errori banali, che i giornalisti di CNET dovevano risolvere di volta in volta segnalando la cosa (una pratica tipica del giornalismo anglosassone). In altri casi si leggevano avvisi come «Attualmente stiamo verificando l’accuratezza di questa storia». I problemi non riguardavano solo la scarsa affidabilità giornalistica o gli errori grossolani, ma anche l’incapacità di creare contenuti interessanti per i lettori. Gli articoli di CNET generati automaticamente erano sempliciotti, pieni di luoghi comuni e poco accattivanti: in uno per esempio si legge: «La scelta tra una banca e una cooperativa di credito dipende da persona a persona. Dovrete soppesare pro e contro con i vostri obiettivi per capire quale vada meglio per voi». È una considerazione sensata, certo, ma del tutto scontata per un utente che vuole saperne di più. Dopo varie polemiche, la direttrice di CNET, Connie Guglielmo, ha annunciato la sospensione della pubblicazione di articoli scritti dall’intelligenza artificiale, spiegando che si trattava di un «esperimento» volto a verificare se la tecnologia potesse aiutare lo staff di giornalisti nel «coprire gli argomenti a 360 gradi».
We've learned a lot from the ChatGPT research preview and have been making important updates based on user feedback. ChatGPT will be coming to our API and Microsoft's Azure OpenAI Service soon.
— OpenAI (@OpenAI) January 17, 2023
Sign up for updates here: https://t.co/C7kMVpMAKv
Un altro problema frequente è il plagio: i software setacciano il web in cerca di fonti disponibili, senza però alcun riguardo critico. Di recente lo scrittore Alex Kantrowitz ha scoperto che un generatore automatico di articoli aveva copiato diverse frasi da un suo pezzo. Resta il fatto che i tool di intelligenza artificiale non sono una novità nel per il giornalismo: nel 2014 l’agenzia di stampa Associated Press, una delle più importanti al mondo, cominciò per esempio a sfruttarne uno per i suoi articoli compilativi, cioè organizzati sempre sullo stesso schema. Il Financial Times invece utilizza un tool che controlla in automatico se negli articoli pubblicati vengono interpellati troppi uomini a discapito delle donne, mentre BuzzFeed ha annunciato che comincerà a usare sistemi di intelligenza artificiale per migliorare i suoi quiz online e altri tipi di contenuti.
OpenAI's new ChatGPT explains the worst-case time complexity of the bubble sort algorithm, with Python code examples, in the style of a fast-talkin' wise guy from a 1940's gangster movie: pic.twitter.com/MjkQ5OAIlZ
— Riley Goodside (@goodside) December 1, 2022
Il genere di articoli in cui viene utilizzata sempre più spesso l’intelligenza artificiale, con tutte le problematiche del caso, sono quelli definiti “da SEO” (cioè per “search engine optimization”, ottimizzazione per i motori di ricerca), articoli che cercano di posizionarsi nei primi risultati dei motori di ricerca, così da ricevere più visite. Questi articoli non necessitano di essere particolarmente elaborati e interessanti, l’importante è che ci siano e che più persone possibili li trovino e vi ci entrino, così che i proventi della pubblicità siano maggiori. Seguono dunque spesso uno schema fisso e utilizzano abbondantemente le parole chiave di un certo argomento per apparire tra i primi risultati di ricerca. il rischio di un utilizzo massiccio dell’intelligenza artificiale per produrre pezzi “da SEO” è che i motori di ricerca si riempiano solo di contenuti molto simili tra loro o che, in futuro, vengano usati al di fuori del marketing, per esempio per influenzare l’opinione pubblica. «Il fatto che ChatGPT e strumenti simili possano generare infinite variazioni di testi convincenti, in modo veloce, gratuito e potenzialmente all’infinito, è un’opportunità per chi vuole condurre operazioni di propaganda, campagne di molestie coordinate, spam e altre attività dannose», scrive la giornalista Casey Newton nella sua newsletter Platformer. «Le piattaforme hanno storicamente lottato per determinare con un alto grado di precisione quali dei loro utenti sono reali e quali sono bot; quando i bot possono utilizzare strumenti come questo, allora i danni sono potenzialmente altissimi».