ENGLISH VERSION


Dati personali
Pubblicazioni
Articoli
CAP TV
Interviste
Voci dei lettori

 CERCA


Carlo A. Pelanda
X  

MENU   VITA   ARTICOLI   INTERVISTE
fb Tw print

Carlo Pelanda: 2000-3-21Il Foglio

2000-3-21

21/3/2000

La tecnologia cancellerà l’uomo? L’allarme di Bill Joy e la risposta di un futurizzante ottimista

 Eco(eso)cibernetica. Riusciremo a tenere sotto controllo le conseguenze della rivoluzione tecnologica in atto? Bill Joy é convinto che entro 30 anni questa sarà causa dell'estinzione della specie umana. Se l'avesse detto qualcun altro nessuno si sarebbe scomposto. Ma che tale profezia catastrofista (apparirà su "Wired" di Aprile) sia uscita dalla tastiera del direttore scientifico della Sun Microsystems e tra i padri fondatori della rivoluzione informatica (linguaggio Java), ha gelato gli addetti ai lavori. Esattamente cosa teme Bill Joy? Entro due o tre decadi i computer saranno almeno un milione di volte più potenti di quelli attuali. Parallelamente, lo sviluppo delle nanotecnologie permetterà di costruire e comporre sistemi a partire dal singolo atomo. Contemporaneamente le bioscienze saranno in grado di creare ex-novo e ricombinare una qualsiasi forma di vita. Queste tre tecnologie - riverberanti tra loro - contengono ciascuna una novità che mai era esistitita precedentemente in alcun artefatto: la capacità di replicazione autonoma. Il timore é quello di dare vita ad organismi biologici, bionici e robot che sfuggano al controllo dei disegnatori. La fine dell'Uomo come lo conosciamo oggi potrà avvenire in molti modi - per epidemia, per nascita di nuove specie o per assorbimento entro la logica riproduttiva di nuove supermenti artificiali - ma tutti legati alle conseguenze incontrollabili delle tecnologie che proprio in questi anni stanno nascendo. Scrive Bill Joy: "ci stiamo fiondando nel nuovo secolo senza un piano, senza alcun controllo e stiamo avvicinandoci rapidamente all'ultima spiaggia per riprendere in mano le redini, passata la quale non c'é più ritorno". Dobbiamo valutare seriamente le sue parole o liquidarle come incidente emotivo che talvolta capita a menti brillantissime?

 Una parte dell'argomento di Joy é molto consistente: la scienza del controllo (cibernetica) é in ritardo in relazione agli oggetti futuri da controllare. E' vero. Ma nel momento in cui ce ne rendiamo conto é possibile porvi rimedio investendo più risorse per colmare tale gap.  Quello che non ritengo razionale, infatti, é il terrore che non si riesca a dominare ciò che stiamo disegnando e che per questo dovremmo bloccare le nuove tecnologie. Per esempio, se ho paura che un seme ingegnerizzato mi diventi, per dire, una gelatina velenosa capace di uccidere il pianeta, allora  metterò un blocco nella sua mappa genetica che lo sterilizzi in caso di configurazioni non ammesse. Se facendo così mi resta ancora un dubbio, allora troverò un'alternativa meno pericolosa, buttando via il progetto. In ogni caso, se genero un nuovo sistema vivente sarà logico predisporre un suo predatore, o vaccino o cibervavaccino o cibersoppressore in caso di intelligenze artificiali ed esseri bionici. Se temo che un futuro supercomputer intelligente si ribelli come HAL nel film "2001" gli infilerò un banale interruttore che lo spenga.  Se la sicurezza di un qualche gizmo non sarà certificabile pienamente si creeranno una seconda, terza, quarta, linea di difesa capaci di mitigare danni sistemici in caso di evento raro. In sintesi, pur consapevoli che ogni azione ha conseguenze inintenzionali e non prevedibili, non c'é alcun motivo tecnico per pensare che tale problema non trovi soluzioni prudenziali. Ma, in effetti, non c'é ancora una simmetria tra tecnologia della creazione e quella del controllo (da definirsi "ecocibernetica"). Si tratta di cominciare seriamente a fare ricerca sui protocolli di sicurezza, a costruire le "istituzioni di cibernazione" (genesi dell'ecologia artificiale). In tal senso un po' di catastrofismo, tipo quello di Joy, é utile come stimolatore.

 Ma per rendere produttiva la paura in questa materia bisogna capire più a fondo il meccanismo che la genera.  Man mano che si svelano le nuove possibilità della rivoluzione tecnologica, aumenta il timore che gli artefatti si ribellino all'Uomo che li crea. Tecnicamente non ha senso perché é banale costruire un sistema artificiale con un numero di soluzioni superiore a quello dei problemi in cui può incorrere anche se sul piano teoretico la varietà dei secondi é sempre più grande dei primi (si  vedano i miei lavori: Teoria della vulnerabilità, Angeli 1984, e Sistemica neoconvenzionale, Angeli 1991). Ma sembra che la natura umana scateni  un istinto di difesa contro modifiche biologiche e l'ipotesi di cibercervelli superiori. Prevale la difesa della biocontinuità. Da qui sgorga e si diffonde l'emergente catastrofismo. La soluzione é quella di "convincere" la matrice biopsicologica della mente umana che le nuove tecnologie sono, in realtà, un veicolo amichevole di potenziamento ed espansione delle facoltà e della vita (immortalità, autoriparazione continua, turbocognizione). Ma non sarà facile. Per questo i futurizzanti dovrebbero predisporre l'opzione di scaricare la rivoluzione tecnologica nello spazio extraterrestre - esocibernazione -  qualora il dissenso ecoconservatore sulla Terra diventasse insuperabile. 

(c) 2000 Carlo Pelanda
FB TW

(c) 1999 Carlo Pelanda
Contacts: letters@carlopelanda.com
website by: Filippo Brunelli
X
La tua privacy è importante
Utilizziamo, senza il tuo consenso, SOLO cookies necessari alla elaborazione di analisi statistiche e tecnici per l'utilizzo del sito. Chiudendo il Cookie Banner, mediante il simbolo "X" o negando il consenso, continuerai a navigare in assenza di cookie di profilazione. More info

Tutti Cookie tecnici Cookie analitici di terze parti

Accetto Chudi