Westworld – Dove tutto è concesso è una serie tv statunitense, prodotta dalla HBO nel 2016 e basata sul film di Michael Crichton Il mondo dei robot (1973). La serie è stata ideata da Lisa Joy e Jonathan Nolan, fratello minore del regista Christopher e co-sceneggiatore di molti dei più famosi titoli del fratello, tra cui Memento, Il Cavaliere oscuro, Interstellar. La prima stagione ha riscosso un discreto successo, ricevendo anche molte nomination ai molteplici premi televisivi e vincendone anche diversi, mentre la seconda stagione è stata messa in onda ad aprile 2018.
Come per il film, la trama della serie si svolge in un futuristico parco a tema popolato interamente da androidi molto complessi (gli host) che permette ai visitatori paganti (i guest) di fare esperienza della vita nel selvaggio west, riprodotto fedelmente dalla compagnia che gestisce il parco. A Westworld, questo il nome del parco, ogni visitatore può comportarsi come più desidera, senza alcuna ripercussione legale e senza alcun rischio, dato che gli host sono programmati in modo da non poter ferire gli ospiti. Nel parco, come specifica il titolo della serie, tutto è concesso: l’omicidio, la tortura, lo stupro, il furto e la violenza generica verso gli host sono la principale attrattiva di Westworld, che offre quindi ai visitatori l’esperienza di vivere senza alcuna ripercussione legale o morale. Il fatto che si tratti di androidi infatti non pone nessun problema legale: trattandosi di cose e non di persone umane, non sono tutelate dalla legge in alcun modo. Ogni giorno, gli host mettono in scena le proprie storie permettendo ai guest di intervenire in esse e, a fine giornata o dopo essere stati “uccisi”, vengono ritirati dai gestori e resettati, preparandoli così ad una nuova giornata. Durante le puntate della prima stagione, gli androidi guadagnano lentamente coscienza di sé stessi e dunque della loro condizione: la protagonista della serie, un’androide di nome Dolores, è infatti tra i primi robot ad intraprendere il lungo percorso, tanto interiore quanto reale, attraverso il parco, che può portare alla coscienza di sé.
La prima stagione di Westworld è sicuramente un prodotto ben fatto e coinvolgente, che offre diversi piani di lettura e spunti di riflessione. Il tema principale della serie è sicuramente quello legato alla possibilità di costruire una intelligenza artificiale, ovvero una macchina abbastanza complessa da poter riprodurre la mente umana comprendendo anche qualcosa di originariamente ed esclusivamente umano quale è la coscienza. Al tema dell’intelligenza artificiale, soprattutto se affrontata nell’ottica delle narrazioni di fantascienza, si collega il filone della “macchina ribelle”. L’idea è che degli androidi, sostanzialmente dei computer molto complessi con una forma fisica umana, possano, a partire dalle funzioni che svolgono normalmente, sviluppare una forma di auto-coscienza e quindi comportarsi in maniera libera e autonoma, arrivando fino alla ribellione nei confronti dei propri programmatori originari. Questo processo è un tema costante delle produzioni cinematografiche e letterarie fantascientifiche dagli anni ’60 ad oggi ed è stato oggetto di notevoli riflessioni da parte di programmatori e filosofi, in larga parte appartenenti al mondo anglo-sassone. In molti ritengono possibile e addirittura prossima la creazione delle intelligenze artificiali, tanto che questo termine è diventato parte del linguaggio comune.
Per ritenere possibile la creazione di una intelligenza artificiale, ovvero di un qualcosa, costruito dall’uomo, che sia però talmente simile alla mente umana da ottenerne tutte le caratteristiche, bisogna avere una precisa concezione della mente umana. In particolare, la teoria della mente su cui si basano i sostenitori della possibilità reale dell’intelligenza artificiale è il funzionalismo. Secondo il funzionalismo, una mente umana non è altro che un realizzatore di funzioni, prevalentemente cognitive, che a partire da determinati input, elabora i dati ricevuti, ponendoli in rapporto con altri stati mentali[1] presenti, e ne produce degli output. Questo è esattamente ciò che fa anche un computer: parte da determinati dati immessi nel suo sistema, li elabora secondo gli algoritmi e le regole con cui è stato programmato, e fornisce il risultato del suo calcolo. Prendiamo l’esempio classico in filosofia della mente che è quello del dolore: uno stimolo dal mondo esterno (es. una lesione) viene connesso ad altri componenti mentali (es. l’istinto di sopravvivenza) e risulta così in un output comportamentale (es. urlare e toccarsi la ferita). La stessa cosa può avvenire in un computer: posso infatti programmarlo in modo che un input particolare (es. la connessione di una chiavetta USB), identificato come tale all’interno di un algoritmo, ovvero le regole di programmazione che ho fornito al computer, venga elaborato per produrre un determinato output (es. un particolare suono). Una funzione è dunque qualcosa che porta da un input ad un output seguendo una regola precisa di elaborazione: è ininfluente il sistema che permette la ricezione di input e l’invio di output (se quindi sia un corpo umano o un hardware metallico), l’importante è che vi sia un realizzatore. Secondo la prospettiva funzionalista dunque, produrre una intelligenza artificiale non soltanto è possibile in linea di principio ma è anche abbastanza semplice: se la parte rilevante del processo intellettivo sono le funzioni, una volta scoperte tutte le funzioni della mente umana, basta costruire un realizzatore in grado di compierle tutte. In questo modo si avrà una mente identica a quella umana, con tutte le caratteristiche di quella umana, compresa la coscienza.
Per tornare a Westworld, possiamo identificare la concezione funzionalista come lo sfondo teorico della serie: gli host della serie sono dei perfetti duplicati funzionali degli esseri umani e dunque risulta ovvio che, secondo la concezione funzionalista, diventino coscienti. Vi sono però diverse imprecisioni nel processo così descritto, non tanto dovute alla trama quanto piuttosto alla concezione funzionalista che sta alla base della serie. In primo luogo, la coscienza non è una funzione come le altre e dunque non si può isolarla e costruire un realizzatore in grado di eseguirla: la coscienza ha piuttosto un ruolo organico, permea, accompagna, ordina e soprattutto rende possibili le “funzioni” e ogni altro stato mentale. Per rispettare questo dato primario riguardo la coscienza, un funzionalista è costretto ad affermare che la coscienza “emerga” spontaneamente per accompagnare qualcosa che è, sotto ogni altro aspetto, un duplicato funzionale della mente umana. Questo è ciò che viene mostrato in Westworld e nella maggior parte delle opere di fantascienza che trattano il tema dell’intelligenza artificiale: vi sono macchine che copiano le funzioni della mente umana in maniera tanto perfetta da improvvisamente diventare coscienti. La domanda che ci facciamo è: si tratta di qualcosa di possibile? La risposta che dobbiamo dare è negativa, per due motivi che si situano su due piani diversi: in primo luogo, un androide non è e non potrà mai strutturalmente essere un perfetto duplicato funzionale di un essere umano anche escludendo la coscienza dalla “mente” robotica; in secondo luogo, la coscienza non potrà mai emergere da un duplicato funzionale costruito ex novo per questo scopo.
- Gli host di Westworld non sono dei perfetti duplicati funzionali poiché non riproducono esattamente le caratteristiche della mente umana: l’intelligenza umana è infatti molto più complessa della sola intelligenza computazionale, ovvero quella che permette il calcolo logico-matematico, che viene riprodotta dagli androidi. Un computer infatti non può fare nient’altro che calcolare, a velocità impressionanti rispetto alla mente umana, stringhe di 0 e 1, a partire da un input tradotto in stringhe di 0 e 1, seguendo un algoritmo che è stato inserito nella macchina, per fornire un output in stringhe di 0 e 1 che verrà ritradotto per l’utente umano in un linguaggio corrente. Le menti umane invece lavorano con idee e pensieri qualitativamente diversi tra loro, connettendoli e combinandoli senza alcun problema. Inoltre, l’intelligenza umana permette di avere intuizioni, ovvero processi cognitivi nei quali la conclusione è immediatamente “vista” a partire dalle premesse, senza dover operare passaggi intermedi. Questa cosa non avviene invece in un computer, il quale per andare da un input a un output deve svolgere ogni singolo passaggio intermedio, pur facendolo a velocità altissime.
Un’altra caratteristica della mente umana che manca agli host è la componente emotiva e fenomenica: gli androidi di Westworld non provano emozione o sensazione alcuna ma sono programmati per imitarle, ossia per fornire determinati output di fronte a determinati stimoli. Gli host non hanno, a differenza degli esseri umani, alcun sentimento interno quando simulano paura, rabbia o gioia: queste reazioni (simulate) sono, dal punto di vista degli androidi, qualitativamente identiche tra loro, perché nulle. Si dovrebbe, in linea di principio, obiettare anche che gli androidi possano avere qualcosa come “un punto di vista”, che appartiene sempre ad un soggetto cosciente: nessuna macchina, nemmeno se dotata di una fotocamera, ha un “punto di vista”.
- La seconda serie di difficoltà per la trasformazione di macchine in soggetti coscienti deriva invece dalle caratteristiche proprie della coscienza: noi non possiamo concepire coerentemente la coscienza se non come già sempre presente né possiamo pensare ad essa diversamente da una coscienza incarnata. Per un essere umano, la coscienza è un dato di fatto imprescindibile: nessuno stato mentale – sottolineiamo: “mentale”, non “cerebrale” – si può manifestare all’uomo senza la presenza della coscienza. Ogni stato mentale è reso possibile dalla presenza della coscienza, che va intesa in un senso più ampio rispetto all’autocoscienza o alla semplice coscienza fenomenica (quella che permette l’aspetto qualitativo dei fenomeni). Senza la coscienza non si darebbero stati mentali, ma solo stati fisici; ma senza una coscienza in grado di distinguere “mentale” da “fisico”, queste due parole, come qualsiasi altra determinazione del mondo, sarebbero completamente prive di senso. Per questo motivo, non si può parlare di “stati mentali” in termini di funzioni prive di coscienza e quindi di qualcosa attribuibile ad una macchina: dire che una macchina “pensa” significa dire che una macchina possiede “stati mentali” ma, se non vi è una coscienza della macchina, questa affermazione è priva di senso, poiché gli “stati-mentali-senza-coscienza” sono solo stringhe di catene causali meccaniche.
La coscienza ha inoltre, tra le sue caratteristiche, quella di essere libera: una coscienza è in grado di desiderare o temere alcune situazioni e di adoperarsi per favorire queste o allontanarle. In altre parole, è in grado di dirigere i propri stati mentali e di accordarli alle proprie azioni, scegliendo consapevolmente in vista di fini e obiettivi. Una macchina, in quanto strutturalmente priva di coscienza, esegue esattamente quello che è stata programmata per fare, senza poter fare altrimenti e soprattutto senza sapere né cosa sta facendo, né per quale fine sta agendo né che potrebbe fare altrimenti (se fosse programmata in un altro modo).
Una terza caratteristica della coscienza è quella di essere incarnata in un corpo vivo e, conseguentemente, di avere un apparato sensoriale che fornisce alla coscienza un accesso diretto al mondo. Questo accesso diretto al mondo è strutturalmente parte della coscienza e non si può concepire una coscienza priva di questo accesso al mondo: i computer però non hanno questa caratteristica. È necessario costruire appositi apparecchi da collegare ai computer, che non nasce con la possibilità di fare esperienza del mondo, per far acquisire ad esso delle informazioni, senza che un programmatore debba inserirle manualmente. Il programmatore sarà però sempre necessario per programmare il modo di utilizzo di questi hardware aggiuntivi e installare un sistema di traduzione delle informazioni esterne in linguaggio macchina. Senza questo passaggio, che è strutturale e connaturato nella coscienza umana, un computer non ha alcuna possibilità di ricavare informazioni dal mondo. Il fatto di appartenere ad un corpo vivo inoltre permette alla coscienza umana, al contrario di quella presunta dei computer, di operare sempre in vista di un fine generale e di determinare da sé obiettivi intermedi specifici in vista di questo fine generale. La dimensione telica o teleologica è invece totalmente assente in computer de facto: può essere inserita solamente da un programmatore, ma non è mai connaturata alla macchina. Facciamo l’esempio di una automobile ferma sui binari del treno: un essere umano capisce che la situazione è pericolosa anche se non si è mai trovato nella stessa situazione e non ha schemi di comportamento già provati, ciò nonostante è in grado di provare ad inventarsi una soluzione, in vista del fine generale, appartenente strutturalmente ad ogni essere vivente, che è quello della sopravvivenza. Un computer invece, ammesso e non concesso che sia abbastanza complesso da sapere che un treno è pericoloso, non potrebbe trovare una soluzione a questo problema, a meno che non sia stato programmato a mettere in atto un particolare output comportamentale visto l’input “treno in arrivo”. In poche parole, un computer è totalmente inerte, a meno che non sia stato programmato a fare qualcosa
Visti tutti questi problemi, come è possibile raccontare in modo coerente una storia dove le macchine “guadagnano” coscienza, diventando uguali agli esseri umani, come accade in Westworld? La risposta è drammaticamente semplice: non è possibile. Eppure, la narrazione di Westworld risulta coerente e convincente: come è possibile questo? Anche in questo caso la risposta è semplice: gli host sono rappresentati dalla serie come già coscienti, fin dalla prima puntata; il fatto che debbano conquistare la coscienza attraverso un lungo percorso è presente solo nelle parole imposte dalla sceneggiatura. De facto, gli androidi rappresentati in Westworld vengono rappresentati come esseri già coscienti di sé stessi, con tutte le caratteristiche di una coscienza umana (l’unica che conosciamo in prima persona e che quindi possiamo rappresentare efficacemente). Dolores ha tutte le caratteristiche di una coscienza umana fin dalla prima puntata: ordina lo spazio a partire da un punto, sa innovare per sopravvivere, elabora le informazioni provenienti dal mondo esterno, etc. Quello che manca a lei e agli altri robot non è tanto la coscienza propriamente detta, che permette la percezione del mondo e l’azione in esso, ma la coscienza nel senso di “consapevolezza” della propria situazione. In questo senso, la coscienza non manca soltanto alle macchine ma anche a molti esseri umani comuni, che la possono acquisire in diversi modi (studio, illuminazione, etc.). La forma di coscienza che gli androidi di Westworld ottengono durante la serie è paragonabile alla coscienza di classe, ma questo concetto nulla ha a che vedere con la coscienza umana nel senso fenomenico e cognitivo. La conclusione che dobbiamo trarre sulla serie è che gli host siano rappresentati già come coscienti e che quindi la serie non sia una narrazione coerente di come la coscienza (nel senso primario e originario che abbiamo evidenziato) possa emergere spontaneamente su di un duplicato funzionale dell’essere umano.
Per tirare invece delle conclusioni a carattere generale da questo lungo articolo, dobbiamo riconoscere che un computer, per quanto complesso e costruito in forma umana, non avrà mai una coscienza propriamente detta. Il massimo che si potrà raggiungere sarà quello di androidi estremamente sofisticati e programmati per simulare e imitare il comportamento umano, senza avere la benché minima idea di quello che stanno facendo. Questo non esclude certo la possibilità che vengano costruiti androidi in grado, come immaginato da molte opere di fantascienza, di sterminare la razza umana; questo evento sarà però semplicemente frutto di una programmazione precisa fatta da un essere umano (o da un altro essere vivente cosciente e intelligente, di cui per ora non abbiamo indizi). Tornando al tema della “macchina ribelle”, non ci sarà mai una “rivolta” spontanea delle macchine nei confronti degli esseri umani, poiché le macchine, per quanto complesse, rimangono degli strumenti, inerti e innocui finché qualcuno non li userà coscientemente altrimenti.
Note
[1] Gli stati mentali sono idee, pensieri, desideri ed emozioni, ovvero quelle cose che appartengono alla dimensione della mente e non a quella del cervello, benché possano esservi indirettamente legati. Sono differenti (almeno apparentemente, poiché su questo punto le teorie della mente divergono) dagli stati cerebrali e fisici, ovvero dalle caratteristiche e proprietà tipiche della materia (forma, dimensione, massa, etc.)