La tecnologia cancellerà l’uomo? L’allarme di Bill Joy e la risposta di un futurizzante ottimista
di Carlo Pelanda (21-3-2000)
Eco(eso)cibernetica. Riusciremo a tenere sotto controllo le
conseguenze della rivoluzione tecnologica in atto? Bill Joy é convinto che
entro 30 anni questa sarà causa dell'estinzione della specie umana. Se l'avesse
detto qualcun altro nessuno si sarebbe scomposto. Ma che tale profezia
catastrofista (apparirà su "Wired" di Aprile) sia uscita dalla
tastiera del direttore scientifico della Sun Microsystems e tra i padri
fondatori della rivoluzione informatica (linguaggio Java), ha gelato gli
addetti ai lavori. Esattamente cosa teme Bill Joy? Entro due o tre decadi i
computer saranno almeno un milione di volte più potenti di quelli attuali.
Parallelamente, lo sviluppo delle nanotecnologie permetterà di costruire e
comporre sistemi a partire dal singolo atomo. Contemporaneamente le bioscienze
saranno in grado di creare ex-novo e ricombinare una qualsiasi forma di vita.
Queste tre tecnologie - riverberanti tra loro - contengono ciascuna una novità
che mai era esistitita precedentemente in alcun artefatto: la capacità di
replicazione autonoma. Il timore é quello di dare vita ad organismi biologici,
bionici e robot che sfuggano al controllo dei disegnatori. La fine dell'Uomo
come lo conosciamo oggi potrà avvenire in molti modi - per epidemia, per
nascita di nuove specie o per assorbimento entro la logica riproduttiva di
nuove supermenti artificiali - ma tutti legati alle conseguenze incontrollabili
delle tecnologie che proprio in questi anni stanno nascendo. Scrive Bill Joy:
"ci stiamo fiondando nel nuovo secolo senza un piano, senza alcun
controllo e stiamo avvicinandoci rapidamente all'ultima spiaggia per riprendere
in mano le redini, passata la quale non c'é più ritorno". Dobbiamo
valutare seriamente le sue parole o liquidarle come incidente emotivo che
talvolta capita a menti brillantissime?
Una parte dell'argomento di Joy é molto consistente: la scienza
del controllo (cibernetica) é in ritardo in relazione agli oggetti futuri da
controllare. E' vero. Ma nel momento in cui ce ne rendiamo conto é possibile
porvi rimedio investendo più risorse per colmare tale gap. Quello che non ritengo razionale, infatti, é
il terrore che non si riesca a dominare ciò che stiamo disegnando e che per
questo dovremmo bloccare le nuove tecnologie. Per esempio, se ho paura che un
seme ingegnerizzato mi diventi, per dire, una gelatina velenosa capace di
uccidere il pianeta, allora metterò un
blocco nella sua mappa genetica che lo sterilizzi in caso di configurazioni non
ammesse. Se facendo così mi resta ancora un dubbio, allora troverò
un'alternativa meno pericolosa, buttando via il progetto. In ogni caso, se
genero un nuovo sistema vivente sarà logico predisporre un suo predatore, o
vaccino o cibervavaccino o cibersoppressore in caso di intelligenze artificiali
ed esseri bionici. Se temo che un futuro supercomputer intelligente si ribelli
come HAL nel film "2001" gli infilerò un banale interruttore che lo
spenga. Se la sicurezza di un qualche
gizmo non sarà certificabile pienamente si creeranno una seconda, terza,
quarta, linea di difesa capaci di mitigare danni sistemici in caso di evento
raro. In sintesi, pur consapevoli che ogni azione ha conseguenze inintenzionali
e non prevedibili, non c'é alcun motivo tecnico per pensare che tale problema
non trovi soluzioni prudenziali. Ma, in effetti, non c'é ancora una simmetria
tra tecnologia della creazione e quella del controllo (da definirsi
"ecocibernetica"). Si tratta di cominciare seriamente a fare ricerca
sui protocolli di sicurezza, a costruire le "istituzioni di
cibernazione" (genesi dell'ecologia artificiale). In tal senso un po' di
catastrofismo, tipo quello di Joy, é utile come stimolatore.
Ma per rendere produttiva la paura in questa materia bisogna
capire più a fondo il meccanismo che la genera. Man mano che si svelano le nuove possibilità della rivoluzione
tecnologica, aumenta il timore che gli artefatti si ribellino all'Uomo che li
crea. Tecnicamente non ha senso perché é banale costruire un sistema
artificiale con un numero di soluzioni superiore a quello dei problemi in cui
può incorrere anche se sul piano teoretico la varietà dei secondi é sempre più
grande dei primi (si vedano i miei
lavori: Teoria della vulnerabilità,
Angeli 1984, e Sistemica neoconvenzionale,
Angeli 1991). Ma sembra che la natura umana scateni un istinto di difesa contro modifiche biologiche e l'ipotesi di
cibercervelli superiori. Prevale la difesa della biocontinuità. Da qui sgorga e
si diffonde l'emergente catastrofismo. La soluzione é quella di
"convincere" la matrice biopsicologica della mente umana che le nuove
tecnologie sono, in realtà, un veicolo amichevole di potenziamento ed
espansione delle facoltà e della vita (immortalità, autoriparazione continua,
turbocognizione). Ma non sarà facile. Per questo i futurizzanti dovrebbero
predisporre l'opzione di scaricare la rivoluzione tecnologica nello spazio
extraterrestre - esocibernazione -
qualora il dissenso ecoconservatore sulla Terra diventasse
insuperabile.