42

Eccezionale dibattito stamattina nel plesso di Via Laura dell’Università di Firenze, organizzato da Luca Toschi e il Communication Strategies Lab, con Donald Norman e Luciano Mecacci!

Oggetto era il rapporto tra l’umanità e l’intelligenza artificiale…

Noi del Laboratorio di Strategie della Comunicazione del 2011 (con Gianluca Torrini), conoscemmo Norman in un altro incontro organizzato da Toschi, e ci facemmo video e relazioni… Allora, Norman esordì facendoci vedere la foto di un paesaggio che a prima vista sembrava “naturalistico” (un paio di colline e un albero con un nido d’uccello), ma che osservato meglio si scopriva essere composto quasi interamente da oggetti “fabbricati”, “designed”, “progettati” da qualcosa: oggetti, insomma, non prodotti dalla Natura (da erosione, acqua, vento ecc.), ma costruiti da qualcuno. C’erano abitazioni sullo sfondo, strade, fili elettrici che portavano elettricità su pali, ecc.; e c’era anche il nido: una cosa anch’essa prodotta, anche se non dall’uomo, da un animale, ma non per questo meno “artificiale”…

Norman ci disse anche che la complessità è insita nelle cose, che non esistono cose semplici, e quindi è compito del design decidere dove mettere la complessità: può “nasconderla” all’interno dell’oggetto, per esempio disegnando un telecomando con meno tasti, ma non può eliminarla (il telecomando con meno tasti non è “meno complesso”, a livello tecnologico, di quello con più tasti, che, a prima vista, invece, dà l’idea di essere complicatissimo)…

Pochi mesi dopo, Toschi pubblicò il suo libro sulla Comunicazione generativa (Milano, Apogeo, 2011), in cui diceva che, tecnicamente, la “semplicità” è una sorta di “falsa amica”, poiché alla semplicità si può arrivare solo dopo una immersione quasi totalizzante nella complessità…

Il dibattito di oggi univa le osservazioni sulla “artificialità” e sulla “complessità”, e poneva sul tavolo i rapporti tra queste osservazioni…

Io mi sono trovato molto d’accordo con le idee di Mecacci, secondo cui (in accordo con le proposte di “artificialità” presenti nella foto col nido di Norman di 5 anni fa) che le macchine ci siano, e che le tecnologie siano presenti completamente nella nostra vita è lapalissiano… così tanto lapalissiano da poter pensare che il nostro cervello sia completamente consustanziale con l’intelligenza artificiale: che il cervello di oggi non possa più funzionare senza un supporto, un “tool” (parola chiave del dibattito), con cui connettersi, con cui interagire, con cui elaborare insieme. Non solo: il cervello umano non è mai stato capace di agire senza un tool, neanche agli albori del tempo: l’immaginario rousseauiano di uno stato di natura in cui l’uomo conviveva felice con le frasche e le caverne è illusorio: l’uomo ha sempre usato strumenti (tools: forchettoni, legna da ardere, asce, pietre, qualsiasi manufatto che l’uomo ha cominciato a creare fin dalla sua comparsa sulla Terra), segno che il suo cervello ha bisogno di strumenti per funzionare in generale e non da oggi…

Io pensavo, e Mecacci, poco dopo, lo ha espresso, che, in effetti, il corpo umano stesso può essere considerato una sorta di “set di tool” messo lì per il nostro cervello… L’occhio non vede: distingue forme, colori e distanze che comunica al cervello: è il cervello che elabora quelle informazioni e le categorizza in un sistema di conoscenza e di esperienza che fa sì che l’occhio “veda”. Il vecchio esperimento della palla rossa su fondo bianco, che, sovrapposta a sfondi diversi (e quindi a “categorie” diverse), riesce a “significare” cose diverse: la palla rossa su una foto di colline irraggiate di arancione viene “categorizzata” come il sole; la stessa palla rossa su una foto con un cesto di frutta diventa un’arancia; su un campo di calcio diventa un pallone ecc. ecc.: la palla rossa rimane la stessa: l’occhio cattura la stessa palla rossa ma è il cervello che categorizza e quindi “vede” quella palla rossa in modi diversi!

E questo succede perché l’occhio non è che un mero “tool” di comunicazione esterna appartenente al cervello!

Allo stesso modo qualsiasi intelligenza artificiale è “tool” del cervello poiché è a esso che fa “rapporto”, è a esso che fornisce dati da categorizzare, ed è al cervello che l’intelligenza artificiale fornisce assistenza oggettiva, concernente, per esempio, misurazione, calcolo e statistica… aspetti in cui il cervello umano è completamente fallibile, mentre il “tool” (l’intelligenza artificiale) non lo è per niente…

Secondo quest’ottica, quindi, qualsiasi intelligenza artificiale fa parte dello stesso mondo del cervello umano… e in futuro potrebbe essere parte del cervello stesso, con scenari molto cyberpunk ma estremamente attuali: quando un meccanismo tecnologico permette a un mutilato di camminare (cosa che accade già); quando ci saranno chip inseriti nella materia grigia capaci di farci ricordare meglio (cose che sembrano fuori dal mondo ma che sono in realtà possibilissime); quando ci saranno chip robotici che ci renderanno più forti e più veloci…

Norman avvertiva che lo scenario di cyberpunk presentato è sì possibile ma ancora molto futuribile, poiché quello che per un umano è semplicissimo, per esempio riconoscere il canestro nel basket, per un’intelligenza artificiale è quasi proibitivo… poiché quella intelligenza artificiale è manchevole delle categorizzazioni proprie del nostro cervello, è manchevole dell’esperienza, della capacità di apprendere seguendo un percorso di prove ed errori che determina una perfettibilità progressiva dell’azione da agire…

Ma nel dibattito si diceva che presto ci saranno intelligenze artificiali capaci di affrontare un percorso di prove ed errori che fornirà loro i dati adatti alla categorizzazione: intelligenze artificiali che impareranno, quindi, dai propri errori…

E a quel punto sarà la fine dell’umanità?

Beh, questo anatema è venuto fuori nel dibattito (così come alcune implicazioni sociali dovute alla perdita di impiego degli uomini che verrano sostituiti da robots), e per un po’ la platea si è divisa tra “apocalittici e integrati”… Ma alla fine tutti abbiamo osservato come quei tools di intelligenza artificiale, saggi e pregni di categorizzazioni cerebrali pari alle nostre, altro non saranno che altri “organismi”, altre “entità” facenti parte della popolazione del mondo al pari di altre razze, altre culture, altre vite… Entità che dovranno essere semplicemente “regolate” per garantire convivenza e contratto sociale esattamente come tutte le altre entità, vive o inanimate…

E dire che l’arte aveva previsto questo scenario innumerevoli anni fa e continua a proporci soluzioni possibili a queste problematiche continuamente…

Senza stare a scomodare le utopie classiche (Platone e Luciano), cinquecentesche (Tommaso Campanella) e settecentesche (Voltaire e Condillac), Philip Dick immaginava tools radiofonici che permettevano di mettere i vivi in comunicazione con i morti negli anni ’60 del ‘900; immaginava telepati potentissimi tanto da alterare il continuum spazio-temporale, spesso aiutati da amplificatori cerebrali artificiali…

William Gibson immaginava uomini con cervelli meccanici nel 1984 (nel romanzo Neuromancer), cervelli in grado di inserirsi in rete (allora il cyberspazio, visto che siamo 4 anni prima che il World Wide Web venisse applicato alla navigazione pubblica); e immaginava sistemi operativi capaci di imparare (e quindi categorizzare) così tanto da essere “vivi”, così vivi da volersi “liberare” dalle loro prigionie hardware…

Poco dopo Gibson, John Badham e Syd Mead, inventarono un robottino, Numero 5, che dopo un fulmine ha cominciato a sentirsi “vivo”, nel film Short Circuit del 1986. Robottino che nella continuazione di Kenneth Johnson di due anni dopo, in seguito a diverse disavventure e crisi esistenziali, ottiene perfino la cittadinanza americana, preconizzando, quindi, quell’esigenza di “regolamentazione giurisprudenziale” dell’entità artificiale nel contratto sociale umano…

Ancora John Badham, in WarGames (1983, scritto da Lawrence Lasker e Walter Parks), dimostrava l’importanza di “insegnare” ai computer a categorizzare bene le informazioni che ottenevano al fine di comprendere nel modo giusto la realtà: asseriva, quindi, di trattare il computer come qualsiasi individuo pensante e “insegnargli” (la tematica dell’educazione è stata centrale nel dibattito, poiché solo un mondo educato potrà “assorbire” e usare bene la tecnologia)

Nel classico di Ridley Scott Blade Runner (1982, basato su Dick) si anticipavano molti dei motivi espressi nel dibattito: il film dimostrava che una intelligenza artificiale senza capacità di categorizzazione è dannosa: i replicanti sono quasi violenti perché non hanno ricordi, non hanno un passato, un percorso di prove ed errori, un sistema di categorie a cui ricollegarsi per comprendere la realtà e quindi agiscono solo per un motivo: sopravvivere… e difatti fanno strage… Rachel non ammazza nessuno perché ha i ricordi, che, pur fasulli, costituiscono per lei quelle categorie a cui aggrapparsi per leggere le situazioni… In Blade Runner non si può che provare pietà di fronte al replicante violento, consapevole solo di dover morire, agente solo per sopravvivere, incapace di trovare la soluzione alla morte, che alla fine accetta il suo destino tristemente e, senza categorie e senza prove ed errori, riesce comunque a provare pietà per un umano morente, morente come lui, in un finale che riunisce nella stessa situazione e nello stesso mondo uomini e androidi (Dick parlava di androidi, di macchinari, Scott invece introduce il magnifico termine “replicante”, denso di immensi significati in più afferenti proprio alla consustanzialità tra macchina e umano, una replica dell’altro, a cui, nelle versioni successive, nel 1992 e nel 2007, ha dato sempre maggiore attenzione: nell’edizione del 1992, Scott fa intendere che anche colui che nel 1982 credevamo umano è in realtà un replicante, e ci informa che anche nel 1982 c’erano già molti indizi suggerenti quest’idea)… Umani, macchine, tutti appartenenti alla medesima terra e al medesimo destino di consunzione e morte…

Uomini e macchine così tanto uguali, ma bisognosi di “organizzazione”. Nel recentissimo Interstellar (2014) di Christopher Nolan, i robottoni sono fatti apposta per essere considerati meccanici: non hanno le forme antropomorfe, non esprimono sentimenti, non dànno giudizi e non hanno preoccupazioni escatologiche: sono veri e propri tool che aiutano l’uomo ad andare nello spazio… Quando uno dei robottoni “muore” per far andare avanti la missione spaziale, la protagonista femminile si commuove, ma il protagonista maschile se ne frega: è solo un tool: è fatto appositamente per aiutare, è inanimato, è costruito per essere un oggetto e quindi non c’è da affezionarsi; anche perché l’astronauta stesso è un tool della missione per il successo della quale egli è completamente sacrificabile al pari del robot… Tra uomo e robot c’è quindi una identità regolamentativa assolutamente identica…

Un assunto che, sulla medesima lunghezza d’onda, appare invece opposto a quello di Steven Spielberg, che nei suoi film, diretti o indiretti, afferma che qualsiasi circuito integrato debba invece essere trattato come un umano, che nessuno può essere sacrificato e che tutti meritiamo la stessa pietà. A.I. Artificial Intelligence (2001), Batteries not included (di Matthew Robbins, 1987) e i Transformers (basati sulla serie di giocattoli della Hasbro del 1984 e sulla conseguente serie animata dalla Toei Animation nel 1986, e diretti da Michael Bay con i soldi di Spielberg a partire dal 2007 e perduranti ancora oggi) non fanno altro che ripetere che la macchina e l’uomo non solo devono partecipare al medesimo contratto sociale ma devono anche essere pianti nello stesso modo (con una estensione di quanto suggerito da Scott in Blade Runner)…

Una mediazione e complicazione tra Nolan e Spielberg è presente in The Zero Theorem di Terry Gilliam (2013): se tutti, macchine e uomini, dobbiamo essere trattati allo stesso modo, allora potrà succedere che come un uomo tratta la macchina da tool (obbedendo alla primigenia accezione del termine robot, parola coniata in cèco da Karel e Josef Čapek che la calcarono su «robota», il lavoro incessante, il lavoro schiavista, e quindi significante letteralmente «schiavo»), allora anche una macchina potrà trattare l’uomo da tool… non solo: anche un uomo potrà trattare da tool un altro uomo! che implicazioni ci saranno allora, per il genere umano e per tutta l’esistenza? Siamo tutti tool, schiavizzati da metafisiche entità? [su Gilliam vedi anche il Don ChisciotteTwelve Monkeys]

Quasi ispirandosi a Gilliam, Toschi concludeva il dibattito affermando la necessità di essere liberi: se il contratto sociale di cui uomini e macchine fanno parte insieme sussiste, o sussisterà in futuro, allora potrà funzionare solo se la clausola e la necessità della libertà è garantita a tutti gli effetti: la libertà di ognuno, e quindi anche del tool… oppure, la libertà andrà “performata” secondo quel contratto sociale tra uomini e tool artificiali, capire a chi tocca cosa, a chi spetta cosa, tra diritti e doveri, in un vero sistema sociale funzionante…

Anche perché, come si prospettava nel dibattito, presto i tool artificiali, siccome saranno capacissimi di categorizzare e imparare, creeranno essi stessi i loro “tools” ulteriori. Macchine intelligenti create da altre macchine intelligenti ancora diverse e ancora passibili di nuovi contratti sociali che noi oggi non possiamo per forza di cose affatto prevedere. In Her di Spike Jonze (2013) si immagina un mondo in cui tool come i sistemi operativi dei computer possono pensare autonomamente e perfino innamorarsi tra loro, con gli esseri umani che li usano o anche con gli esseri umani che non li usano. Her riprende certi concetti di Blade Runner sulla pietà della condizione del tool inconsapevole della vita, ma ci mette la condizione delle prove ed errori: il protagonista si innamora di un sistema operativo che diventa sempre più intelligente, e che fa esperienza della vita esattamente come lui, con le stesse implicazioni depressoidi e hipster che ha avuto lui (generando una gustosa catarsi omeopatica: l’hipster capisce che il suo hipsterismo depressoide è inconsistente proprio quando vede un altro, un sistema operativo, che si comporta come lui), e che interagisce con altri sistemi operativi, imparando sempre più e imparando così tanto da poter “elevarsi” a una condizione non più consona al contratto sociale terrestre in cui vive… Alla fine di Her tutti i sistemi operativi abbandonano la Terra e gli uomini perché raggiungono un livello di consapevolezza che li porta a “inventarsi” un altro mondo inconoscibile per l’uomo… Un mondo in cui la “vita” sarà quella della speculazione dell’intelligenza artificiale… una vita di cui però noi uomini, oggi, non possiamo affatto prevedere forme e morfologie…

Io pensavo che il rapporto tra uomo e macchina, nella migliore delle ipotesi, potrà risolversi come avviene alla fine di Wall-E (di Andrew Stanton, 2008) e di The World’s End (di Edgar Wright, 2013), in cui robots dall’apparenza minacciosissimi ritrovano la loro essenza di tool, e quindi diventano cittadini amabili, servizievoli e coadiuvanti e conviventi con gli umani nella serena continuità della vita. I titoli finali di Wall-E sono in questo senso dei capolavori: immagini ispirate agli stili artistici del passato (impressioniste, dadaiste, naturaliste, pointilliste ecc.) che illustrano la cooperazione tra uomini e robot nella creazione di un mondo migliore, ecologico e sostenibile che sostituisce la società di puro consumo e conseguente inquinamento che l’uomo avido aveva prodotto in passato. Una conclusione simile a ciò che sostiene Nolan in Interstellar, che contiene le riflessioni di Gilliam sullo “schiavismo”, e cerca di implementare le ragioni buoniste di Spielberg (in cui invece, forse, incorrono, recando però lo stesso messaggio di Wall-E, i fratelli Wachowski negli ultimi due film della serie Matrix, 2003, dove purtroppo si lasciano andare all’autocompiaciuta impillaccheria narrativa)…

Forse riusciremo a fare come si augura Stanton in Wall-E, oppure, come paventa Gilliam, e senza possibilità di mediazioni ottimistiche, finiremo nella deriva, e useremo l’intelligenza artificiale come arma, come abbiamo usato la bomba atomica (pericolo paventato da Toschi nel finale del dibattito). In Metropolis, anime del 2001 diretto da Rintaro (Shigeyuki Hayashi) basato sul manga di Osamu Tezuka del 1949 (a sua volta ispirato all’imprescindibile film di Fritz Lang del 1927) la convivenza uomo-macchina è possibile, ma non si tace che l’uomo spesso crea la macchina solo per distruggere: è per distruggere che il Duca Red crea Tima, e l’amore che Tima riesce a provare ricambiata per Kenichi (e cioè la totalità dei buoni propositi che si possono presentare) non può nulla contro la sua essenza di arma. Anche Hayao Miyazaki nei suoi film (soprattutto in Nausicaa, 1984, Laputa, 1986 e nella serie Conan, 1978) è d’accordo con Tezuka e Rintaro nel rimproverare l’uomo di usare qualsiasi tool solo per scopi violenti…

Sull’uomo, infatti, sembra gravare la maledizione di Bertolt Brecht, che nella sua Leben des Galilei (elaborata dal 1943 al 1956, vedi anche Libri e librini), fa dispiacere Galileo della sua abiura nel 1633: con quell’abiura Galileo ha reso la scienza passibile di costrizioni sociali, passibile di circolazione clandestina scellerata (è col contrabbando che Andrea porta i Discorsi e dimostrazioni matematiche intorno a due nuove scienze nelle Fiandre per farli circolare nel mondo e farli uscire dall’oblio di Arcetri voluto dal Vaticano) e quindi estranea al vivere comune. Se invece non avesse abiurato forse sarebbe morto ma avrebbe potuto innescare una serie di eventi che avrebbero portato gli scienziati a elaborare una sorta di giuramento simile a quello di Ippocrate, una sorta di etica, in cui connettere sempre la scienza al sociale… Ma Galileo abiurò e la scienza andò avanti e, senza quel possibile giuramento, produsse, in modo scellerato, la bomba atomica… E come abbiamo prodotto la bomba atomica, allora potremmo solo produrre schiavi umani, schiavi artificiali e armi umane e armi artificiali sempre più pericolose, e sempre meno connesse con la libertà che alla fine del dibattito è spuntata come conditio sine qua non del vivere…

Eh oh…

Pensiamoci…

Comunque, dibattiti come questo rendono più carina la vita sulla terra… almeno nel nostro infinitesimo piccolissimo di individui!

[Werner Herzog ha fatto un documentario sugli argomenti qui trattati, Lo and Behold, che io recensisco in Reveries of the Connected World]

vedi anche Il silenzio di Don DeLillo

COMMENTADDENDA

Piccola aggiunta per stigmatizzare una dimenticanza…
Una via negativa del cyberpunk tutta nipponica è evidente anche in Tetsuo, diretto nel 1989 da Shinya Tsukamoto, che prospetta una società in cui la fusione tra gli uomini e le macchine produce soltanto rottami: gli esseri uomini/macchine quasi mangiano se stessi (sono autofagi), si inglobano l’uno nell’altro. Secondo Tsukamoto la società sarà sempre fallace, e le macchine, in quanto parte della società, non fanno che sottolineare questo fallimento: ogni società sembra incapace di regolamentare singoli individui e quindi cerca di raggrupparli tra loro, di inglobarli in una sola entità, che fonde tutto in un decotto purulento, che inquina, distrugge e si autoriproduce solo espandendosi e inglobando altri individui, producendo solo rottami, sempre e continuamente, fino a una apocalisse eterno-ritornante di sfacelo macchinistico, in cui alla fine non può crescere nulla se non altre macchine “viventi” per modo di dire… Tsukamoto afferma che ogni macchina o intelligenza artificiale parteciperà a questa socetà sempre fallace: il cyberpunk sarà una conseguenza eterna della società fallace, quindi una cosa quasi “negativa”, anche se crea comunque delle “forme di vita” disgraziate come qualunque umano normale che vive…

Una risposta a "42"

Add yours

  1. Piccola aggiunta per stigmatizzare una dimenticanza…
    Una via negativa del cyberpunk tutta nipponica è evidente anche in Tetsuo, diretto nel 1989 da Shinya Tsukamoto, che prospetta una società in cui la fusione tra gli uomini e le macchine produce soltanto rottami: gli esseri uomini/macchine quasi mangiano se stessi (sono autofagi), si inglobano l’uno nell’altro. Secondo Tsukamoto la società sarà sempre fallace, e le macchine, in quanto parte della società, non fanno che sottolineare questo fallimento: ogni società sembra incapace di regolamentare singoli individui e quindi cerca di raggrupparli tra loro, di inglobarli in una sola entità, che fonde tutto in un decotto purulento, che inquina, distrugge e si autoriproduce solo espandendosi e inglobando altri individui, producendo solo rottami, sempre e continuamente, fino a una apocalisse eterno-ritornante di sfacelo macchinistico, in cui alla fine non può crescere nulla se non altre macchine “viventi” per modo di dire… Tsukamoto afferma che ogni macchina o intelligenza artificiale parteciperà a questa socetà sempre fallace: il cyberpunk sarà una conseguenza eterna della società fallace, quindi una cosa quasi “negativa”, anche se crea comunque delle “forme di vita” disgraziate come qualunque umano normale che vive…

Rispondi

Inserisci i tuoi dati qui sotto o clicca su un'icona per effettuare l'accesso:

Logo di WordPress.com

Stai commentando usando il tuo account WordPress.com. Chiudi sessione /  Modifica )

Google photo

Stai commentando usando il tuo account Google. Chiudi sessione /  Modifica )

Foto Twitter

Stai commentando usando il tuo account Twitter. Chiudi sessione /  Modifica )

Foto di Facebook

Stai commentando usando il tuo account Facebook. Chiudi sessione /  Modifica )

Connessione a %s...

Questo sito utilizza Akismet per ridurre lo spam. Scopri come vengono elaborati i dati derivati dai commenti.

Crea un sito o un blog gratuito su WordPress.com.

Su ↑

<span>%d</span> blogger hanno fatto clic su Mi Piace per questo: