3 marzo 1923: esce nelle edicole il primo numero del Time
3 March 2021Festa della donna: quali role model femminili nel cinema d’avventura?
8 March 2021Scrittura e intelligenza artificiale: nemiche o alleate?
Algoritmi che predicono gusti e tendenze per gli acquisti, articoli di giornale scritti da AI stupefacenti: dove finisce l’automazione e inizia la creatività?
1997: l’intelligenza artificiale Deep Blue (sviluppata da IBM) batte il campione del mondo di scacchi Garri Kasparov.
2015-2016: l’intelligenza artificiale AlphaGo (sviluppata da Google) batte i campioni di go Fan Hui e Lee Sedol.
2018: la casa d’aste Christie’s vende per più di 400.00 dollari un quadro realizzato da un’intelligenza artificialeideata dal collettivo francese Obvious (studiosi, artisti e ricercatori che lavorano sulle potenzialità creative dei GAN – Generative Adversarial Networks). Il ritratto era stato creato inserendo nel sistema migliaia di ritratti dipinti dal XIV secolo a oggi.
2018: lo scrittore Ross Goodwin (un tempo ghostwriter alla Casa Bianca per l’amministrazione Obama) equipaggia un’automobile con sensori e telecamere collegate a un computer, su cui è installata un’intelligenza artificiale “istruita” con circa 20 milioni di parole (un misto di poesia, romanzi di fantascienza e altri che Goodwin definisce solo “di letteratura cupa”), e chiede all’intelligenza artificiale di scrivere una serie di frasi per raccontare il viaggio che compiranno insieme da New York a New Orleans (un omaggio a Jack Kerouac). Ne escono componimenti come “Erano le nove e diciassette del mattino, e la casa era pesante” oppure “Un’azienda di impianti di risalita per l’ultima volta che il treno era già oscurato e la strada era già lì”.
2020: sul Guardian viene pubblicato un articolo sulle intelligenze artificiali… scritto da un’intelligenza artificiale.
2020: lo scrittore Yudhanjaya Wijeratne pubblica il romanzo di fantascienza The Salvage Crew, scritto in collaborazione con un’intelligenza artificiale.
Cosa si intende per intelligenza artificiale?
Nella vulgata comune, per intelligenza artificiale (che da qui in poi chiameremo anche AI, cioè con l’acronimo inglese, che è il più diffuso) si intende una sorta di “mente costruita dall’uomo” capace di pensare come un essere umano, ma con velocità ed efficienza centuplicate grazie al progresso dell’informatica, che nel corso del tempo crea computer sempre più rapidi e più potenti. In effetti la caratteristica che ha reso i computer prima utili e poi praticamente indispensabili è l’efficienza nella capacità di calcolo, la possibilità di elaborare quantità enormi di dati in un tempo ridotto. Tutto questo, però, sempre sotto la guida delle persone che lo utilizzano: un computer calcola, ma non sa che cosa sta calcolando.
Il computer non è una macchina intelligente che aiuta le persone stupide, anzi, è una macchina stupida che funziona solo nelle mani delle persone intelligenti. – Umberto Eco
In realtà, anche gli algoritmi che registrano la nostra presenza sui social, o quelli con cui Netflix ci propone i film che più dovrebbero piacerci, sulla base delle nostre scelte precedenti, sono forme rudimentali di intelligenza artificiale basate prevalentemente su dati statistici: un po’ come quelli delle previsioni del tempo o di certi programmi di analisi finanziaria che suggeriscono ai risparmiatori come, dove e quando investire i loro soldi.
Eppure, nessuno penserebbe mai che l’algoritmo di Facebook o quello di Amazon siano delle “intelligenze”. Li immaginiamo come sequenze di calcolo e sfilze di medie matematiche che muovono dei dati in una direzione invece che in un’altra (a Tizio la partita della Juve, a Caio il documentario sullo Sri Lanka). Come potrebbero programmi di questo tipo diventare, anche avendo a disposizione tutto il tempo del mondo e tutti i dati del mondo, una “mente artificiale” che sappia pensare come un essere umano?
L’equivoco di fondo sta nel credere che l’intelligenza artificiale sia una specie di cervello-fotocopia del nostro, e di conseguenza una sorta di concorrente (il che spiega gli allarmismi fra cui il diffuso “le macchine ci ruberanno il lavoro”, teso a semplificare un problema ben più complesso), cosa che invece non è affatto detta anche nel campo che più interessa agli scrittori e ai lettori: quello della creatività.
È il solito errore di pensare che qualcosa debba essere fatto esattamente come il nostro cervello, per imitare ciò che il nostro cervello sa fare. Non serve per forza un essere senziente, per scrivere una poesia in cui un altro essere senziente possa infondere del significato. – Joanna Penn in Writing in an Age of Artificial Intelligence
Le capacità creative di GPT-3
Parlare di creatività artificiale e di scrittura significa, oggi, parlare di GPT-3. Si tratta dell’ultima versione di un software di intelligenza artificiale per la produzione di testi, creato dalla società californiana OpenAI, che lo ha ceduto a Microsoft lo scorso ottobre. L’acronimo GPT sta per “Generative Pretrained Transformer”:
Un transformer è una rete neurale che usa tecniche di Natural Language Processing per eseguire un compito. In altri termini si tratta di un modello computazione linguistico pensato per generare sequenze di parole, codice o altri dati, partendo da un input di partenza. La tecnica fu introdotta da Google nel 2017 e usata nella traduzione automatica per prevedere, statisticamente, sequenze di parole. – Vincenzo Cosenza su VincosBlog
GPT è, ad esempio, il software usato dal Guardian per il famoso articolo pubblicato l’anno scorso, esperimento in cui comunque la presenza di una guida umana è stata fondamentale. Il pezzo è stato “commissionato” a GPT-3 dalla editor Amana Fontanella-Khan che ha fornito l’argomento, la lunghezza e l’attacco. Il software ha prodotto otto possibili articoli, che poi la stessa editor ha assemblato in uno solo, scegliendo le parti più acute e/o interessanti di ciascun testo (e senza mai rivelare al pubblico cosa contenessero gli altri, quindi per quanto ne sappiamo potevano esserci interi periodi privi di senso).
A rendere GPT-3 incredibilmente potente è il fatto che sia basato su circa 45 terabyte di testi. Per capirci, l’intera Wikipedia in lingua inglese equivale solo allo 0,6% di questo corpus. Oppure, guardandola in un altro modo, GPT-3 processa circa 45 miliardi di volte il numero di parole che un essere umano ascolta in tutta la sua vita”. – John Thornhill, “The astonishingly good but predictably bad AI program”, su The Financial Times, agosto 2020.
Una ars combinatoria di idee proposte da un software
Anche nel caso di Yudhanjaya Wijeratne e del suo romanzo, si è trattato di collaborare nella stesura con una AI, non di delegarla alla AI. Quello che interessava a Wijeratne era andare oltre l’uso degli algoritmi con cui avrebbe potuto, ad esempio, strutturare la parte più generale del suo worldbuilding (un buon software sa costruire dal nulla un sistema solare, le posizioni dei pianeti, le condizioni di vita – o meno – su ciascuno di essi, la gravità, il tempo meteorologico giorno per giorno). Questo non sarebbe stato molto diverso dal fare ricerche su Google, raccogliere una serie di dati appartenenti al mondo reale e utilizzarli per costruire un mondo fittizio. Wijeratne voleva un passo in più.
D’altra parte, i software che producono testi lavorano sulla grammatica e sulla sintassi (grazie al loro archivio incommensurabile), ma – qui sta il punto che li differenzia dalla mente umana – non lavorano sulla semantica, sul significato di quello che dicono, o meglio che scrivono. È facile che costruiscano frasi dotate di senso perché statisticamente, nel loro corpus di riferimento, troveranno più frasi sensate che accrocchi casuali di parole, e più il corpus aumenta più i risultati statistici si faranno raffinati; ma non hanno (ancora?) una coscienza che permetta loro di sapere, indipendentemente dalla statistica, che “il gatto salta” funziona, mentre “il gatto vola” no, oppure sì ma solo in determinate condizioni (è un gatto magico in una fiaba, è appeso a un grosso drone, in realtà sta semplicemente correndo e quindi “vola” è una metafora…).
Non potendo pretendere dalle AI una complessità di ragionamento e di contestualizzazione superiore alle loro forze, lo scrittore ha pensato di usare strumenti più rudimentali (per così dire), cioè quelli legati all’industria dei videogiochi. Dovendo scrivere una sorta di space-opera che si svolgeva su un altro pianeta, ha lasciato che il software non solo gestisse la parte del worldbuilding, ma gli proponesse anche alcune situazioni che potevano emergere dalle condizioni date in precedenza.
Ci sono questi programmi che sbucano e ti dicono: ‘Okay, succede questo. E questo’. Io, in quanto autore, esamino il tutto e dico ‘Va bene’. Allora il “coso” che pensa al tempo mi dice che c’è la neve, il “coso” che pensa agli eventi random mi dice che i personaggi stanno per essere attaccati. E il generatore di personaggi, che è stato messo in moto dagli eventi, decide di fornire agli avversari, o ad almeno uno di loro, una tuta mimetica adattabile. Quindi, se hanno le mimetiche da neve, gli altri saranno terrorizzati perché non possono vedere da dove arrivano i nemici. Ma ho “diretto” io la storia, perché non è che la AI scrivesse insieme a me, era piuttosto come avere qualcosa che ti sta sempre vicino con una sfilza infinita di idee. E ogni volta che io invece ne sono a corto, tira fuori un’altra carta e mi chiede: ‘Hai provato questo? Bene. E questo? Vogliamo provare quest’altro?’ – Yudhanjaya Wijeratne in un’intervista con Joanna Penn
I limiti creativi delle AI
Rimane sempre e comunque il fatto che, per fornire idee o per scrivere testi, le AI, anche quelle incredibilmente potenti ed elaborate come GPT-3, si basano in modo fin troppo automatico sul database che hanno a disposizione. Questo pone anzitutto problemi etici: è stato dimostrato come, non potendo (ancora?) vagliare criticamente le fonti, le AI siano soggette alla stesura di testi razzisti e misogini (riflettendo cioè la cultura dominante nel mondo di oggi e più ancora nel passato) e possano anche essere usate per diffondere fake news che sembrino estremamente credibili.
In secondo luogo, la “creatività artificiale” va intesa come un processo di cui non avere paura, per almeno due motivi. Primo, l’opera è tale non solo mentre viene creata, ma anche e soprattutto mentre viene fruita: se un quadro suscita in noi emozioni, lo farà a prescindere dal fatto che sia stato realizzato da una persona o da un automa che si è basato su tanti altri quadri. Secondo, sebbene le AI possano contare su un machine learning sempre più evoluto e quindi imparare non solo dagli input esterni ma anche dai propri errori, emulando così una delle caratteristiche più tipiche degli esseri pensanti, tuttavia non possiedono (ancora?) una tale autonomia da poter generare testi di una certa consistenza che siano completi, autosufficienti e dotati di senso (a meno di non puntare unicamente su una quantità inverosimile e antieconomica di tentativi random, come quelli nella Biblioteca di Babele immaginata da Borges). Per ottenere risultati narrativi coerenti, anche le più prodigiose AI devono ricorrere all’aiuto degli esseri umani; di qualcuno che sia in grado di dire, con piena coscienza, “cogito ergo sum”.
Una postilla
Va da sé che tutti gli “ancora?” disseminati fra parentesi in questo stesso articolo, ne rendono le conclusioni quanto mai opinabili e provvisorie: col tempo, intelligenze umane e artificiali dovranno lavorare insieme per raffinarle al meglio delle loro possibilità.
(Valentina Semprini)
1 Comment
[…] non si tratta solo di gestire i libri a casa. Per esempio, si adattano molto bene alla lettura digitale i volumi più corposi. Come certi fantasy o certi thriller che contano ottocento-mille pagine a […]