Computer: storia dell’informatica da Babbage, ai personal computer fino alla rivoluzione di Internet e del World wide Web

 

In questa nuova edizione di Computer – Storia dell’informatica da Babbage ai giorni nostri oltre ai due autori originari (rispettivamente Jeffrey R. Yost, direttore del Charles Babbage Institute e professore di ricerca e Martin Campbell-Kelly, professore emerito presso il Dipartimento di Informatica della Warwick University) si aggiungono per dare nuove prospettive alla narrazione due giovani autori: Nathan Ensmenger e Jeffrey Yost.

 

Il libro è organizzato in quattro parti: la prima racconta l’informatica prima dei computer elettronici. Le due parti successive descrivono l’era dei mainframe (tipi di computer generalmente noti per le loro grandi dimensioni, quantità di memoria, potenza di elaborazione e alto livello di affidabilità) e dello sviluppo dei computer che vanno dal 1945 al 1980. La parte finale indaga le origini del personal computing e di Internet

 

Copertina frontale del libro Computer. Storia dell'informatica da Babbage ai nostri giorni scritto da Martin Campbell-Kelly, William F. Aspray, Nathan Ensmenger pubblicato da Edizioni Thedotcompany. Da Charles Babbage a Steve Jobs, dal gigante Eniac ai mainframe ai primi personal computer fino agli smartphone e le Big Tech: l'informatica e la sua storia.
Computer. Storia dell’informatica da Babbage ai nostri giorni scritto da Martin Campbell-Kelly, William F. Aspray, Nathan Ensmenger pubblicato da Edizioni Thedotcompany

La storia dei computer, o come dicono gli autori della macchina dell’informazione (information machine) comincia dal XIX secolo, per gestire gli aumenti di informazioni: con la rivoluzione industriale l’aumento di urbanizzazione e della popolazione resero ai governi, compagnie telefoniche e compagnie di assicurazioni un compito arduo riuscire a fare censimenti, tenere conto delle comunicazioni ed elaborare le polizze assicurative. Alla fine del XIX l’industria delle macchine per la contabilità e l’archiviazione era fiorente: basti pensare che il sistema di elaborazione a schede perforate per il censimento degli Usa nel 1890 diede vita all’IBM.

 

Collegandosi al metodo delle schede perforate è fondamentale nella storia dei computer la figura di un matematico britannico, Charles Babbage,che era orientato, tra gli anni 30 e 40 dell’800 alla costruzione di una “macchina analitica”: ovvero di una macchina programmabile capace di svolgere ogni tipo di calcolo. La macchina utilizza due tipi di schede perforate – le prime, le operation cards determinano la natura delle operazioni da effettuare, le altre, le variable cards, riguardano le variabili delle operazioni. Anche se questo tipo di macchina non avrebbe mai visto la luce, Babbage è colui che ha concepito il primo computer automatico e programmabile.

 

Tuttavia le macchine sviluppate da Babbage e dai suoi colleghi non erano all’altezza delle esigenze militari della Seconda guerra mondiale. Vennero sviluppate macchine come l’ENIAC ( Electronic Numerical Integrator and Calculator), progettato e costruito alla Moore School of Eletrical Engineering. Questa macchina era impiegata principalmente per il calcolo balistico del lancio dei proiettili d’artiglieria. Al progetto parteciparono dagli scienziati John Mauchly e John Presper Eckert con la consulenza di John von Neumann (il matematico che fu cooptato nel Progetto Manhattan per la costruzione della bomba atomica): insieme diedero vita al concetto di programma memorizzato: il dispositivo di memorizzazione del computer sarebbe stato usato per contenere sia le istruzioni di un programma sia i numeri su cui operava. Su questo concetto si basano tutti i calcolatori fino a oggi, infatti le specifiche funzionali di base del computer sono state scritte da Von Neumann nel 1945 e sono seguite fino anche in epoca odierna, ma la strada verso quelle tecnologie che ora sono parte integrante e praticamente indispensabili delle nostre vite è ancora lunga.

 

Negli anni Cinquanta e Sessanta i computer fecero una differenza soprattutto nei sistemi real time: cioè un sistema che risponde a messaggi esterni in tempo reale.

 

Negli anni Settanta si passò dunque dai sopracitati mainframe (il prodotto principale di IBM in cui è tuttora leader di mercato) a una cultura informatica che porterà lentamente alla creazione dei personal computer, cioè il modello di calcolo associato al time sharing(un computer che può essere usato simultaneamente) e ai mini computer (una macchina con prestazioni e potenza intermedie tra un mainframe e un microcomputer, in grado di consentire l’accesso a più utenti).

 

All’inizio degli anni Ottanta il personal computer si era già sviluppato in tutte le sue componenti ma non aveva ancora una definizione univoca, ma differente in base al paradigma dei leader di mercato: per Commodore il personal computer era un’evoluzione dei calcolatori esistenti, per Apple invece una macchina rivolta agli hobbisti dell’informatica.
In seguito i personal computer divennero più user friendly grazie all’industria dei software che esplose dopo il 1983 e all’interfaccia grafica.

 

Bisogna però approdare negli anni Novanta perché venga sviluppato il World Wide Web e si inneschi quella rivoluzione tecnologica e sociale che ha permesso all’uomo di rimanere costantemente connesso a una rete per reperire, diffondere informazioni e comunicare con i suoi simili.

 

Per spiegare l’invenzione di Tim Berners-Lee bisogna però fare un passo indietro e raccontare molto brevemente la storia di Internet, che è l’insieme di tutte le reti informatiche. Agli albori ci fu ARPANET una rete di computer studiata e realizzata nel 1969 dalla DARPA, l’agenzia del Dipartimento della Difesa degli Stati Uniti , nasce in realtà con l’obiettivo di diventare una rete indistruttibile, capace di continuare a lavorare anche in condizioni estreme, come ad esempio una guerra nucleare. Fu infatti creata a scopi militari per far fronte alla guerra fredda. Esaurita la sua funzione in ambito bellico negli anni Settanta si collegarono ad ARPANET tutte le reti universitarie e quelle di ricerca. Tim Bernes Lee sfruttò quella fu l’evoluzione di ARPANET per sviluppare il World wide web, il quale permette di navigare e usufruire di un insieme molto vasto di contenuti amatoriali e professionali (multimediali e non) collegati tra loro attraverso collegamenti.

 


Negli anni Novanta assistiamo alla guerra dei browser (il browser è un’applicazione per l’acquisizione, la presentazione e la navigazione di risorse sul Web), da cui uscirà vincente Google, oggi Google Chrome, confermandosi il motore di ricerca più utilizzato al mondo.

 


Il nuovo millennio si aprì con la cosiddetta bolla dell dot-com, bolla speculativa, quando i titoli azionari legati al settore tecnologico registrarono una crescita straordinaria e repentina in tutto il mondo, ma poi crollarono a causa della saturazione del mercato. Con il conseguente “panic selling” gli investitori delle aziende dedicate al settore tecnologico capirono di aver investito male i propri soldi e, per recuperare almeno in parte il capitale, iniziarono a svendere le proprie azioni. Il Nasdaq, l’indice azionario di riferimento, perse, nel Marzo del 2000, in tre giorni quasi il 9%. La bolla era scoppiata ma era solo agli inizi. Nei mesi successivi, si bruciarono oltre 3mila miliardi di dollari, una cifra enorme che portò alla liquidazione di migliaia di piccole “dot-com”.

 

Le ultime pagine del libro sono dedicate ai social network, Facebook e Twitter, ai quali gli autori riconoscono un ruolo fondamentale per quanto riguarda profondi mutamenti sociali (come la nascita della primavere arabe e il movimento Occupy, movimento di protesta internazionale che si rivolge soprattutto contro la disuguaglianza economica e sociale), ma anche alcune perplessità in merito alla mole di dati degli utenti usati a scopi pubblicitari e agli evidenti problemi di privacy.


“Computer” è un manuale indispensabile per chi voglia conoscere i protagonisti e le tecnologie che hanno inizialmente semplificato il lavoro umano fino a scardinare dal punto di vista antropologico le comunicazioni tra gli individui e modi di fruizione di ogni forma di testo, audio o immagine.

Il libro può essere acquistato qui

 

Profili social degli autori:

Jeffrey R. Yost: Twitter / Linkedin

Jeffrey Yost: Linkedin / Twitter

 

 

The Power law di Sebastian Mallaby - Il Venture Capital, la Silicon Valley e la creazione di un nuovo futuro

4 Agosto 2023

SAMSUNG RISING - Storia dell’azienda sudcoreana e della i dinastia famigliare fondatrice, i Lee

4 Agosto 2023