Tutto cominciò col telefonino…

Di Fabio Albertario

 

La traettoria del biochip, da esperimento a prodotto di consumo.

 

“Tutto cominciò col telefonino…” così un nonno del 2050 potrebbe annoiare i  nipotini con le sue memorie di gioventù. Racconti di tempi che sembreranno antichi e pre-tecnologici ai bambini della nuova generazione, abituati come saranno ad essere costantemente online o in diretto contatto con genitori, amici, giocattoli parzialmente coscienti, dispositivi intelligenti, mondi virtuali, etc. “Ma nonno, vuoi dire che dovevi fisicamente comporre un numero e sperare che l’altra persona avesse questo telefonino acceso? E potevate solo parlare?!” L’idea di un interfaccia uomo-macchina talmente rudimentale sembrerà assurda ai nostri giovani discendenti, ma anche per noi abitanti del 2005 sembra strano pensare ad un mondo senza telefonini o senza web - e quel mondo non è poi così lontano... La differenza fra il mondo del 2005 e quello del 2050 qui immaginato è l’apparizione, lo sviluppo e la diffusione di massa di un  interfaccia diretto fra sistema nervoso e computer: il biochip.

 

Gli inizi

 

I primi telefoni portatili sembravano dei mattoni: come dimensioni, come peso ed esteticamente. Come non bastasse, erano estremamente costosi. Evidentemente, però, i vantaggi da loro offerti furono tali da far ignorare, almeno ad una parte del pubblico, gli ovvi aspetti negativi. Oggi, infatti, grazie al continuo progresso nella miniaturizzazione elettronica e agli effetti delle economie di scala, i telefonini sono un prodotto di consumo di enorme successo: piccoli, leggeri, belli ed economici.  Per queso motivo sono qui presi come modello per analizzare la possibile traettoria della diffusione del biochip.

 

L’evoluzione del telefonino sembra ora volta ad assorbire palmari, lettori MP3, macchine fotografiche, laptop e consoles in un unico strumento, o meglio, in una infinita serie di strumenti multi-funzione, calibrati a soddisfare le diverse esigenze di  diverse fasce di pubblico. La configurazione precisa di queste miriadi di dispositivi non è ancora emersa e sarà determinata dalle richieste del mercato e dai limiti dell’innovazione tecnologica. Questi futuri strumenti saranno dapprima visti come utili e divertenti, ma verranno ben presto considerati da molti come semplicemente indispensabili - un’opinione che potrà solo rafforzarsi con l’aggiunta di ulteriori optional quali, per esempio, GPS, sistemi diagnostici e sistemi per la sicurezza personale.

 

Biochip

 

Ora, ormai da qualche anno, stiamo assistendo all’apparizione dei primi, rudimentali, sistemi di interfaccia tra cervello e computer (biochip), utilizzati per applicazioni cliniche generalmente tese a restituire funzioni (vista, udito, mobilità) a pazienti che le abbiano perse in seguito a malattia o incidenti. I biochip finora sviluppati sono costosi, offrono una funzionalità limitata e, soprattutto,  richiedono invasivi interventi chirurgici. Sembrerebbe logico, però, supporre che anche il biochip seguirà, almeno in parte, la traettoria seguita dal telefonino e da tutte le nuove tecnologie di successo: inizialmente attraggono solo un pubblico di nicchia (“early adopters”) e solo in seguito raggiungono il grande pubblico. Esiste però una differenza fondamentale fra telefonini e biochip, una differenza che potrebbe essere un serio ostacolo al successo di mercato di quest’ultimo e che ci costringe a confrontarci con due neologismi, uno celeberrimo, l’altro praticamente sconosciuto.

 

Il dilemma cyborg/fyborg

 

Cyborg e’ l’abbreviazione di “organismo cibernetico” (“cybernetic organism”). Il termine e’ stato popolarizzato dalla fantascienza e indica un essere umano con innesti elettronici e/o meccanici grazie ai quali diviene capace di prestazioni super-umane. Fyborg e’ invece un neologismo piu’ recente e meno conosciuto. Creato solo nel 1995 è l’abbreviazione di “cyborg funzionale” (“functional cyborg”) e indica un individuo che incrementa le proprie capacità tramite mezzi tecnologici non innestati sul proprio organismo. In pratica, in un modo o nell’altro siamo tutti fyborg, chi più, chi meno (chi porta occhiali, chi usa un semplice telefono, etc). L’ovvio vantaggio del fyborg rispetto al cyborg è che il primo non deve sottoporsi agli interventi chirurgici necessari al secondo. Lo svantaggio è che un interfaccia diretto computer/sistema nervoso appare piu’ problematico, anche se non teoricamente impossibile, con l’approccio fyborg.

 

Quale dei due approcci vincerà sul mercato? Tutto dipenderà da quello che le tecnologie di interfaccia avranno da offrire e dalla reazione del pubblico, ovviamente. Un sistema di navigazione stradale integrato in un paio di occhiali, ad esempio, sembrerebbe preferibile ad un sistema che richiedesse un collegamento diretto con il nervo ottico. D’altra parte, però, gli interventi laser per la miopia sono un esempio di come una minoritaria ma significativa parte del pubblico sia disposta ad affrontare un intervento invasivo proprio per liberarsi dalla necessità di portare gli occhiali, il che suggerisce che la paura dell’opzione-cyborg sarà tutt’altro che universale. Inoltre, è difficile immaginare convincenti esperienze di realtà virtuale (cioè che coinvolgano tutti i cinque sensi) senza un interfaccia diretto con il sistema nervoso. Sembra plausibile azzardare l’ipotesi, quindi, che in presenza di funzionalità sufficientementi attraenti, la risposta del pubblico, per quanto inizialmente di nicchia, dovrebbe essere sufficiente a sostenere tale emergente settore.

 

In pratica

 

Oggi ci troviamo nella prima fase dell’era del biochip. Le prime, sperimentali, versioni sono utilizzate in applicazioni tese a superare handicap fisici: sensori per tetraplegici, protesi “intelligenti” per amputati e protesi cerebrali. Quando tali sistemi saranno stati perfezionati e inizieranno ad essere visti non solo in televisione o sui giornali, ma nella vita di tutti i giorni, nella forma di portatori di handicap che si lasciano l’handicap alle spalle, inizierà la seconda fase, quella degli “early adopters”. Costoro, tecnofili sempre interessati alle tecnologie più avanzate disponibili, inizieranno a cercarne modelli commerciali per utilizzo personale allo scopo di incrementare le proprie capacità intellettuali e la propria efficienza. Tale seconda fase rappresenterà un cambiamento fondamentale nell’immagine pubblica del biochip che comincierà ad essere visto non più come solamente terapeutico, ma come uno strumento capace di offrire capacità nuove e migliore efficienza in capacità già precedentemente disponibili. La terza fase, quella del mercato di massa, sarà raggiunta quando i costi si saranno ridotti, l’innesto chirugico del biochip sarà ormai un’operazione di routine e i vantaggi dell’interfaccia cervello-computer saranno evidenti al grande pubblico.

 

Il futuro

 

La direzione che prenderà a quel punto l’evoluzione del biochip è al di là della capacità di previsione attuale e dipende non solo dai limiti della tecnologia, ma anche dai limiti della creatività dei “biochippers”. Nasceranno sicuramente sottocolture giovanili intorno ad impieghi del biochip che oggi nessuno ha nemmeno immaginato e altrettanto sicuramente ci dovremo confrontare con usi illeciti e amorali della tecnologia. Allo stesso tempo, il confine fra essere umano e macchina diverrà sempre meno netto sia in pratica che nel subconscio collettivo. Una possibile e positiva conseguenza di ciò potrebbe essere la diffusione dell’idea che il superare la condizione umana con mezzi tecnologici sia non solo possibile, ma anche profondamente liberatorio per l’individuo, finalmente in fuga dai limiti del corpo, e fonte di prosperità per la società nel suo insieme, grazie all’incrementata efficienza della sua forza lavoro.