The Innovators

Walter Isaacson

Risponde alla domanda

Come sono nate le innovazioni tecnologiche.

Perchè leggerlo?

The Innovators ti permetterà di dare uno sguardo interiore su come i migliori e i più brillanti innovano e collaborano. Esplora le forze sociali e culturali che hanno ispirato l’innovazione tecnologica attraverso la storia dei computer e di Internet.

}

19-minutes read

File formato PDF

Blinkist.com

Richiede abbonamento

Sintesi in italiano

E IO COSA CI GUADAGNO? SCOPRI COME LA COLLABORAZIONE È ENTRATA NELLA RIVOLUZIONE DIGITALE

La cultura pop dipinge il genio come l’ambito dei “lupi solitari”, che fanno grandi scoperte chiudendo fuori il mondo e immergendosi in teorie e esperimenti folli.

Seppur romantico, questo mito non è veramente il modo in cui l’innovazione avviene. L’innovazione è, invece, figlia della collaborazione. Anche gli innovatori più introversi furono incoraggiati ed allevati da una cerchia di amici e di menti creative, che li hanno aiutati verso le scoperte che hanno assicurato loro eredità durature.

Infatti, senza un simile supporto, coloro che oggi chiamiamo geni avrebbero potuto essere, invece, solo una nota a piè di pagina nella storia dell’innovazione.

Che sia negli hacker clubs o nelle riunioni societarie, nei gruppi di esperti governativi o tra semplici amici, i talenti migliori della tecnologia, il più delle volte, hanno fatto le loro scoperte all’avanguardia attraverso delle collaborazioni.

Nei seguenti paragrafi, scoprirai anche:

  • Come dei nerd che fumano erba hanno fatto una delle scoperte più grandi nella storia dei videogames
  • Come rifiutare di brevettare il World Wide Web lo ha reso ciò che è oggi; e
  • Perché dobbiamo molte del calcolo moderno all’amore per la matematica e per la poesia di una donna.

 

LA MATEMATICA “POETICA” DI ADA LOVELACE FORNÌ UNA PRECOCE VISIONE DEL RUOLO DEI MODERNI COMPUTER

Tutto iniziò con Ada Lovelace (1815-1852), figlia del poeta inglese Lord Byron. Anche se Byron non fu coinvolto nella sua educazione, Lovelace nondimeno ereditò il suo impetuoso temperamento artistico.

Su ordine di sua madre, Lovelace iniziò a studiare con rigore la matematica, per disciplinare la sua mente ribelle. Durante i suoi studi, sviluppò una passione per la tecnologia e le macchine che, combinata con la sua immaginazione galoppante, sfociò in un approccio unicamente “poetico” alla matematica.

Alla giovane età di 17 anni, avrebbe partecipato ai ricevimenti settimanali del mago della scienza e della matematica, Charles Babbage. Questi ricevimenti erano una meraviglia, con lezioni, bambole meccaniche, telescopi puntati alle stelle e affascinanti dimostrazioni di stratagemmi elettrici e magnetici.

La colonna portante di questi eventi, comunque, era la macchina differenziale di Babbage, un ingombrane marchingegno che poteva fare calcoli meccanici.

Vedere il lavoro di Babbage la ispirò e nei suoi appunti, ora famosi, espose le sue idee che combinavano, con creatività, la sua vasta conoscenza della matematica con la sua indole creativa.

Nel 1834, Babbage portò le sue idee un passo più avanti con la sua macchina analitica, una macchina che non solo poteva svolgere una singola operazione, ma anche cambiare operazioni – e persino dire a se stessa di farlo.

Tra il 1842 e il 1843, Lovelace tradusse dal francese la trascrizione di una presentazione di Babbage della sua macchina, a cui aggiunse i propri copiosi appunti all’avanguardia.

Questi appunti – lunghi più del doppio dell’articolo originale di Babbage e, alla fine, molto più influenti – descrivevano i “computer” come apparecchi che potevano riprodurre musica, forme e poesia.

Le idee di Lovelace erano, essenzialmente, una visione profetica della funzionalità dei computer, molto oltre ai semplici calcoli eseguiti dalla macchina analitica di Babbage.

Lovelace fu anche pioniera nella programmazione dei computer, spiegando come la macchina differenziale potesse essere programmata con schede perforate, incrementando così di molto la sua versatilità e trasformandola da congegno specialistico a macchina di applicazione generale.

IL MONDO DEI COMPUTER MODERNI NON È USCITO DA UNA SINGOLA MENTE, MA FU IL RISULTATO DI MOLTE ISPIRAZIONI

Ci sono voluti quasi 100 anni dalla visione di Babbage di un computer prima che i progressi nella tecnologia rendessero possibile costruirne uno.

Nel 1937, quattro elementi chiave aiutarono a definire come un moderno computer potesse nascere. Le componenti elettroniche avrebbero costituito il centro del computer, mentre i progressi fatti sui circuiti e sui pulsanti significarono che il moderno computer sarebbe stato digitale, e non analogico. Per di più, i computer avrebbero funzionato sulla base del linguaggio binario (0 e 1), e sarebbero stati macchine di applicazione generale, capaci di eseguire un certo numero di compiti.

Nel novembre del 1945, gli inventori J. Presper Eckert e John Mauchly presentarono il loro ENIAC (Elecronic Numerical Integrator and Computer), il primo computer ad incorporare tutti questi elementi.

Diversamente dai suoi predecessori, l’ENIAC era completamente elettronico, nonché veloce e potente, potendo effettuare più di 5000 addizioni e sottrazioni in un secondo. La funzionalità e la composizione dell’ENIAC fornirono, pertanto, la base di tutto il calcolo moderno.

Tuttavia, delle controversie giudiziarie affliggevano i tentativi, da parte degli inventori, di brevettare la loro scoperta – rivelando alla fine quanto davvero collaborativa sia stata l’invenzione del moderno computer.

A Eckert e Mauchly fu garantito un brevetto per l’ENIAC per la prima volta nel 1964. Tuttavia, la Honeywell, azienda del settore della tecnologia, rivendicò il brevetto, sostenendo che i concetti alla base dell’ENIAC non fossero originali della squadra che lo aveva inventato.

Durante i procedimenti legali, fu portato alla luce che Mauchly aveva visitato, nel 1941, il fisico John Vincent Atanasoff e aveva esaminato un computer che Atanasoff aveva costruito. Il giudice decise che il lavoro di Eckert e Mauchly derivasse da quello di Atanasoff, e dichiarò il brevetto dell’ENIAC invalido.

Mauchly e Eckert, comunque, meritano la maggior parte del merito per aver inventato il computer moderno, principalmente grazie alla loro capacità di attingere idee da fonti diverse ed integrarle tra loro.

Questa storia mostra come idee ed invenzioni tanto complesse raramente provengono dalla mente di un solo individuo. Invece, le invenzioni che determinano un cambiamento radicale sono il prodotto di uno scambio di idee collaborativo.

IL SOFWARE DEL COMPUTERE, O LA PROGRAMMAZIONE, FU UN’INVENZIONE CHIAVE NELL’IDEAZIONE DI MACCHINE MULTI-USO

Probabilmente, conosci almeno una persona che lavora come programmatore per computer. Ma sai veramente cosa è che un programmatore fa?

Essenzialmente, programmare è l’atto di immagazzinare una sequenza di istruzioni dentro la memoria elettronica di una macchina.

Un vero computer, tipo quello immaginato da Ada Lovelace, dovrebbe essere capace di effettuare qualsiasi operazione logica. Per far ciò, avremo bisogno di una macchina che non sia limitata dal suo hardware, o i tuoi componenti fisici, ma sia controllata dal suo software, le istruzioni che dicono ad essa come gestire un calcolo.

Il matematico e filosofo inglese Alan Turing illustrò il concetto di programmazione nel 1948, scrivendo che, piuttosto che avere più macchine specializzare nel compiere diversi lavori, sarebbe stato meglio avere una singola macchina “programmata” per portare a termine tutte le operazioni richieste.

In modo interessante, durante la Seconda Guerra Mondiale le donne giocarono un ruolo critico nello sviluppo della programmazione, guidate dal programmatore pioniere e ufficiale di marina Grace Hopper.

Poiché era stata professoressa di matematica, la donna fu assegnata alla scrittura di ciò che sarebbe diventato il primo manuale per la programmazione dei computer, quando iniziò a lavorare al computer digitale della marina statunitense, il Mark I.

Hopper si approcciò alla programmazione in una maniera metodica e collaborativa. Dava ai computer precise istruzioni, mentre coinvolgeva anche la sua squadra nel perfezionamento di porzioni di codice di programmazione, per compiti specifici.

Nel 1945, Hopper aveva trasformato il Mark I nel grande computer più facilmente programmabile.

Hopper non fu la sola donna ad avere un impatto notevole sul mondo del calcolo. Di fatto, le donne sono state, tipicamente, in prima linea nella rivoluzione della programmazione.

Poiché la prima programmazione era un compito altamente ripetitivo, che consisteva nello scambiare cavi e regolare interruttori, spesso questo tipo di compiti non qualificati venivano relegati alle donne. Tuttavia, divenne presto evidente che la programmazione di un computer era importante tanto quanto il suo hardware.

SERVÌ UN TRIO DI MENTI CREATIVE PER CREARE IL PRIMO TRANSISTOR, INAUGURANDO UNA NUOVA ERA PER IL MONDO DEI COMPUTER

L’invenzione dei computer non diede il via, immediatamente, alla rivoluzione digitale. I primi computer erano enormi e costosi, pertanto il loro uso diffuso era, almeno a quei tempi, fuori questione.

Di fatto, la nascita della nostra epoca digitale non avvenne fino all’avvento dei transistor, piccoli semiconduttori che permettono a programmi altamente complessi di funzionare su piccoli apparecchi.

L’importanza dei transistor nella rivoluzione digitale è cruciale tanto quanto il motore a vapore nella rivoluzione industriale. I transistor resero i computer ubiquitari, poiché permisero di inserire una seria potenza di elaborazione in piccoli computer, calcolatori e lettori musicali.

Questi apparecchi rivoluzionari furono possibili grazie a una combinazione di diversi talenti, che si incrociarono tutti alla Bell Labs, con base nel New Jersey.

Come società, la Bell Labs aveva una cultura rara, fondata sulla condivisione di idee. Questo ambiente collaborativo permise grandi innovazioni, dal momento che menti talentuose da settori diversi venivano messe insieme per scambiarsi idee e ispirazioni.

Nel 1939, il fisico presso la Bell Labrs, William Shockley, concepì l’idea di usare i semiconduttori al posto degli ingombranti tubi a depressione, che, fino a quel momento, erano stati il metodo standard di alimentazione dei computer.

Shockley, allora, riunì un’ottima squadra di ricerca, che comprendeva menti brillanti come i suoi colleghi alla Bell Labs John Bardeen e Walter Brattain, per aiutarlo a realizzare la sua visione.

Finalmente, il 16 dicembre 1947 – dopo due anni di sperimentazioni e teorizzazioni in collaborazione – Bardeen e Brattain riuscirono a condensare tutti le componenti di un semiconduttore in un piccolo spazio, creando così il primo transistor.

Per i suoi sforzi, il trio fu insignito del premio Nobel, nel 1956.

DUE DIVERSI INGEGNERI ELABORARONO L’IDEA DEL MICROCHIP QUASI CONTEMPORANTEMENTE

Col decimo anniversario dall’invenzione del transistor, emerse un nuovo ed incalzante problema: la tirannia dei numeri.

Uno dei grandi progressi realizzati con il transistor era stato il fatto che permettesse circuiti molto più avanzati. Comunque, al crescere del numero di componenti in un circuito, cresceva ancora di più il numero di connessioni tra questi – e dal momento che i circuiti erano spesso realizzati a mano, creare tutte quelle connessioni era praticamente impossibile.

L’invenzione del microchip risolse il problema. Tuttavia, in maniera interessante, due scienziati ne elaborarono il concetto indipendentemente, praticamente allo stesso tempo.

Nell’estate del 1958, Jack Kilby, della Texas Instruments, iniziò a lavorare ad un progetto per costruire circuiti elettrici più piccoli, quando ebbe l’idea di creare tutte le componenti di un circuito a partire dallo stesso pezzo di silicone, invece di assemblare parti differenti.

Da questa idea nacque il microchip –  un risultato per cui Kilby venne insignito del premio Nobel.

Solo pochi mesi dopo la scoperta innovativa di Kilby, Robert Noyce, co-fondatore della Faichild Seminconductor and Intel, scoprì di poter usare linee di rame stampate per connettere due o più transistor sullo stesso pezzo di silicone. Il suo design, più elegante, divenne il modello per tutti i futuri microchip.

Entrambe le scoperte significavano che il processo di costruire e connettere circuiti poteva essere automatizzato, così eliminando l’ostacolo della creazione manuale dei circuiti e ponendo fine alla tirannia dei numeri.

L’ingegnere Ted Hoff sviluppò ulteriormente le potenzialità dei computer quando concepì una soluzione migliore per progettare i microchip con funzioni variabili. Nel 1971, creò un chip multiuso, chiamato microprocessore, che poteva essere programmato per molteplici usi.

Oggi, i microprocessori si trovano in tutti i dispositivi, dalle macchine per il caffè ai pc.

HIPPIES E HACKERS NEGLI ANNI ’60 E ’70 COMBINARONO LE LORO IDEE PER CREARE IL PC

I primi visionari immaginarono un “personal computer” già nel 1945. Ma ci sarebbero volute altri tre decenni prima che i computer diventassero un prodotto di massa invece che uno strumento per i ricercatori.

La rivoluzione dei pc iniziò, sul serio, verso la metà degli anni ’70, quando i geni della tecnologia e gli imprenditori della controcultura si unirono e si fecero seri nel loro armeggiare coi computer.

Tuttavia, i semi per la sperimentazione furono piantati negli anni ’60, quando, nella area di San Francisco Bay, un potente mix di hippies e hackers esplorò il dilagante mondo della tecnologia. Per questi primi hackers, “l’imperativo della pratica” era la regola dominante: per capire una cosa, hai bisogno di prenderla da parte con le tue stesse mani e poi usare le tue conoscenze per creare cose nuove e migliori.

Steve Jobs combinò questi due mondi: era un visionario entusiasta della controcultura tanto quanto un hacker esperto, e, insieme a Steve Wonziak, passò dal costruire dispositivi beffardi che potevano intercettare chiamate a lunga distanza a fondare la Apple Computer.

Sia Jobs che Wozniak avevano frequentato le riunioni dell’Homebrew Computer Club, un club di hobbisti dove i nerd della tecnologia potevano incontrarsi e scambiarsi idee e dove la filosofia della controcultura e l’entusiasmo per la tecnologia creavano una combinazione perfetta.

Fu all’Homebrew Computer Club che i due diedero un’occhiata al primo personal computer: l’Altair 8800.

Inventato da Ed Roberts, l’Altair 8800 era il primo vero pc funzionante per consumatori domestici. Roberts non era né un esperto di computer né un hacker, ma solo un grande appassionato.

Usando il nuovo microprocessore Intel 8080, creò un computer che, nonostante la sua dimensione ingombrante, la scarsa memoria, la tastiera e tutti gli altri dispositivi, qualsiasi altro appassionato poteva creare e avere.

Quando l’Altair 8800 apparve sulla copertina del numero di gennaio 1975 di Popular Electronics, la gente ne andrò matta. La società di elettronica, MITS, che produceva l’Altair 8800, fu sommersa dagli ordini per il kit per il computer, che costava 397$.

Hai visto come la collaborazione ha asfaltato la strada per i moderni computer. Nei prossimi paragrafi, scoprirai come la collaborazione abbia cambiato i modi in cui usiamo i computer.

DA STRUMENTO A GIOCATTOLO: LA CULTURA COLLABORATIVA DEI VIDEOGAMES HA CONTRIBUITO A PLASMARE IL PC

Mentre i dispositivi diventavano più piccoli e più potenti, anche la percezione di cosa i computer potessero e dovessero fare cambiò. Noi possiamo usare i computer non solo per lavoro, ma anche per gioco.

Fu questo cambiamento nell’utilità che contribuì ad asfaltare la strada per un’altra rivoluzione ancora: i videogames.

I primi videogames, in realtà, precedettero il primo pc, e, di fatto, aiutarono a determinare alcune delle sue caratteristiche principali. Pensare in termini di gioco aiutò gli sviluppatori a coltivare l’idea che i pc potessero avere un’interfaccia intuitiva e display grafici accattivanti; in breve, che potessero essere personali ed interattivi,

Ad esempio, nel 1962, la creazione del videogame Spacewar diede alle persone l’opportunità di maneggiare un computer e fare sì che rispondesse ai comandi in tempo reale. Il semplice gioco era gratis e basato su software open-source, e oggi costituisce una testimonianza del potere degli sforzi condivisi.

Guidata dall’esperto di computer Steve Russell, la creazione di Spacewar fu, in realtà, il prodotto di una organizzazione studentesca da sfigati al Massachussetts Institute of Technology (MIT), chiamata  Tech Model Railroad Club. Questo gruppo avrebbe fatto da pioniere alla cultura hacker della pratica, che sarebbe in seguito diventata così importante per l’innovazione nella nostra era digitale.

Anche se i videogames hanno influito sul design dei pc, fu l’innovatore Nolan Bushnell a trasformare i videogames in un vero settore industriale.

Grande fan di Spacewar, Bushnell inventò una console per il gioco, che chiamò Computer Space. La console vendette 1500 unità e acquisì immediatamente un seguito di venerazione. Beshnell arrivò a fondare la società di videogames Atari, dove creò il gioco semplice, iconico e di successo, Pong.

Atari era nota per le sue feste a base di erba e birra, e rappresentò lo spirito del tempo che definì Silicon Valley: ammirare l’anticonformismo, mettere in discussione l’autorità e coltivare la creatività.

LA COSTANTE CONCORRENZA TRA PRODUTTORI DI SOFTWARE CONTRIBUISCE IL COMPLESSIVO MIGLIORAMENTO DEI SOFTWARE STESSI

Nel 1974, Paul Allen e Bill Gates contemplarono la copertina del magazine che raffigurava il primo pc al mondo, e si spaventarono. L’idea di essere stati lasciati indietro agli inizi della rivoluzione dei computer era un pensiero tremendo per i due fanatici di computer.

Allen e Gates, allora, spesero le successive otto settimane in una delirante scrittura di codici. Il lavoro sarebbe diventato, alla fine, una dei software di base dei pc.

Gates e Allen erano sempre stati affascinati dai codici dei software, ma molto meno dagli hardware. Si immaginavano un mercato dove gli hardware fossero semplicemente un set di pezzi intercambiabili, e i software di applicazioni e sistemi operativi sarebbero stati il vero punto per la vendita di un computer.

Con questa visione, iniziarono a scrivere software che permettessero agli appassionati di creare i propri personali programmi sui computer Altair, e, facendo così, lasciarono un settore industriale per i software di pc.

Nel 1920, c’erano ormai diversi modelli di sviluppo di software concorrenti, e la concorrenza incoraggiava il costante miglioramento di ciascun modello.

Due approcci differenti sono emersi, da allora. L’approccio di Microsoft è sostenitore di un sistema operativo che sia distinto dal suo hardware; l’approccio Apple combina hardware e software in un sistema ben compatto.

In più, e a parte, l’approccio Linux abbraccia l’idea di software gratis, open-source.

Ognuno di questi approcci ha i propri distinti vantaggi. Mentre Apple determina un design coerente e un’esperienza ininterrotta per l’utente, Microsoft permette agli utenti più scelta e maggiori opzioni per la personalizzazione. L’approccio open-source, comunque, consente a qualsiasi utente di modificare il software a suo piacimento.

Finora, nessun approccio ha avuto la meglio nel settore. E, significativamente, con la coesistenza continua di ciascuno di questi modelli, si determina la concorrenza che spinge ciascuno di essi a migliorare incessantemente.

INTERNET FU CREATO GRAZIE A UNA COLLABORAZIONE TRA L’ESERCITO, LE UNIVERSITÀ E LE IMPRESE PRIVATE

Un’innovazione, di solito, porta il timbro dell’ambiente che l’ha creata. Questo è particolarmente vero per quanto riguarda internet.

Internet fu creato come uno sforzo prettamente collaborativo, in una cooperazione tra l’esercito statunitense, le università e delle società private.

Il professore Vannevar Bush, comunque, fu il soggetto che riunì questi gruppi. In qualità di rettore della MIT School of Engineering, co-fondatore dell’azienda di elettronica Raytheon oltre che amministratore della migliore scienza militare americana durante la Seconda Guerra Mondiale, Bush aveva una conoscenza e un’esperienza uniche in grado di ispirare un simile sforzo cooperativo.

Nel 1945, Bush pubblicò un rapporto, sollecitando il governamento a finanziare della ricerca di base in collaborazione con le università e l’industria, in modo da assicurare sicurezza militare e economica agli Stati Uniti.

Alla luce di questo rapporto, il Congresso istituì la National Science Foundation, un’organizzazione che riunisce esperti da campi eterogenei. Questo, in cambio, aiutò ad innescare la rivoluzione tecnologica che ha dato la sua forma a molto del ventesimo secolo.

Accademici ed esperti di computer, all’interno di questa cornice, furono così in grado di scambiarsi liberamente idee. Quella più cruciale, di queste, venne dallo psicologo ed esperto di tecnologia J.C.R. Licklider, un pioniere le cui idee divennero alcuni dei concetti fondamentali di internet.

Lickider si immaginò reti decentralizzate, che avrebbero permesso alle informazioni di scorrere da e verso ogni luogo, come anche l’interfaccia che avrebbe aiutato l’interazione uomo-macchina in tempo reale.

Ma fu il collega di Liklider, Bob Taylor, che immaginò una rete che potesse permettere di raggiungere dei centri per condividere le risorse dei computer e collaborare su progetti. E fu un altro collega ancora, Larry Roberts, che contribuì a costruire questa rete.

Così, ARPANET, lanciato nel 1969, fu utilizzato per funzioni tanto militari quanto accademiche. Non fu che nel 1973 che varie reti indipendenti furono in grado di essere combinate, insieme alla creazione di un protocollo di comunicazioni, chiamato Internet Protocol, creando ciò che oggi noi conosciamo come internet.

DELLE POLITICHE GOVERNATIVE REALIZZATE CON CURA PORTARONO ALL’APERTURA DI INTERNET AL PUBBLICO

Sebbene il pc e internet fossero stati concepiti attorno allo stesso periodo e con lo stesso spirito, lo sviluppo di ciascuno di essi seguì una strada differente.

Una ragione di ciò fu il fatto che internet non rappresentò, inizialmente, una risorsa pubblica, e solo coloro che erano collegati a un istituto di istruzione o di ricerca avevano l’accesso alla rete. A quel tempo, furono sviluppate anche le e-mail e le prime comunità online (come le bacheche e i forum di discussione).

Tuttavia, prima di poter parlare di una rivoluzione online, il pubblico dovette trovare un modo per avere accesso a internet. Questo non fu possibile fino all’invenzione del modem, che permise ai pc di accedere alle reti mondiali attraverso i fili del telefono.

Comunque, esisteva già un fitto intreccio di leggi e regolamenti che prevenivano che le società commerciali, come America Online (AOL), connettessero i propri clienti con facilità.

Prima si essere eletto vicepresidente, nel 1992, Al Gore aiutò a districare la burocrazia in qualità di senatore, scrivendo e battendosi per il passaggio del High Performance Computing and Communications Act del 1991, conosciuto anche, più semplicemente, come il Gore Act.

L’atto abbassò le barriere all’ingresso delle comunicazioni via internet, allo scopo di stabilire una “infrastruttura di informazione nazionale” che avrebbe permesso ai servizi commerciali di sviluppare ulteriormente le connessioni a internet, e renderlo maggiormente disponibile per l’uso pubblico.

Il flusso di nuovi utenti che si iscrissero a servizi come quello della AOL negli anni successivi trasformò completamente il modo in cui internet poteva funzionare – e avrebbe funzionato – preparando la strada per una straordinaria era di innovazione.

L’ex vicepresidente Gore non è, come spesso si scherzava a fine anni ’90, il “padre di internet”. Nondimeno, la sua lungimirante e la determinazione a rendere internet accessibile in maniera diffusa è lodevole.

I suoi sforzi hanno portato alla fase successiva della rivoluzione digitale, in cui i computer sono diventati strumenti tanto per la creatività personale quanto per la collaborazione.

TIM BERNERS-LEE È L’INCREDIBILE TALENTO DELLA TECNOLOGIA CHE, DA SOLO, CONCEPÌ IL WORLD WIDE WEB

Anche se i modem e i servizi online resero possibile praticamente a chiunque di avere accesso a internet, i primi utenti si trovarono ugualmente persi in una giungla tecnologica che non c’era modo di navigare.

Per i più, il primo internet era, semplicemente, troppo difficile per capirne il senso – fino all’avvento del World Wide Web, che risultò principalmente dagli sforzi di Tim Berners-Lee.

Figlio di due esperti di computer, Berners-Lee aveva già acquisito una conoscenza di base da bambino, crescendo nella Londra degli anni ’60: mentre un computer è buono a masticare numeri e elaborare informazioni lineari, non può fare associazioni casuali e collegare le informazioni in una forma intelligente, come può fare la mente umana.

Combinando internet e l’ipertesto – parole o frasi con un codice speciale che, se cliccate, mandano l’utente a un altro pezzo o contenuto correlato, Berners-Lee intendeva realizzare la sua fantasia di una rete di informazioni facilmente accessibili, in costante crescita.

Robert Cailliau, un ingegnere belga che lavorava alla European Organization or Nuclear Research di Ginevra (conosciuta come il CERN), aiutò Berners-Lee a rafforzare la sua proposta di finanziamento, in modo che la sua idea potesse essere trasformata in realtà.

E, mentre l’amministratore del CERN aveva sperato, inizialmente, in un brevetto, Berners-Lee credeva, al contrario, che il World Wide Web dovesse rimanere gratis e aperto, per diffondersi ed evolvere.

La fiducia di Berners-Lee nella sua convinzione che un web più libero è un web migliore è ciò che ha permesso ad esso di diventare esattamente ciò che lui aveva immaginato: una piattaforma per la condivisione di informazione e collaborazione.

RIASSUNTO FINALE

Il messaggio chiave in questo libro:

La nostra era digitale è il risultato degli sforzi compiuti da una lunga serie di collaboratori che hanno condiviso ed esplorato le loro idee grandiose insieme. Dai contributi visionari alla programmazione di Ada Lovelace negli anni ’40 dell’Ottocento alle radicali innovazioni dei nostri tempi, tutti i più grandi movimenti tecnologici sono stati il prodotto di energia collaborativa.