Site icon Corriere dell'Irpinia

Scienza e tecnologia, se l’informazione è parte dell’universo

di Michele Zarrella

Per il senso comune il concetto di informazione è qualcosa di astratto, di non fisico, ma recenti studi dicono che l’informazione è strettamente connessa con la realtà ed è una parte fondamentale dell’Universo. In principio l’informazione risiedeva nel cervello dell’Homo sapiens. Essa veniva trasferita agli altri oralmente tramite gesti e suoni, cioè tramite la parola. Ma circa cinque mila anni fa l’umanità scoprì il grande potere dei simboli che fissati su una tavoletta di argilla potevano conservare e trasmettere agli altri, anche alle generazioni successive, l’informazione. Questi simboli replicavano i suoni con cui si indicavano gli oggetti e le cose, e costituiscono il primo passo verso la comprensione dell’immenso potere costituito dall’informazione, che avrebbe modellato il mondo fino a come lo conosciamo oggi. Gli antichi mesopotamici combinando i suddetti simboli potevano esprimere non solo i resoconti e la conoscenza ma qualunque idea immaginabile. Con tale sistema anche il pensiero più strano o astratto poteva ora vivere al di fuori del cervello umano. Tra le tante invenzioni dell’Homo sapiens quella della scrittura è la più potente, perché permette l’archiviazione e la trasmissione della cultura, del sapere e di ogni informazione agli altri e alle future generazioni. Anche per millenni. È straordinario il potere dei simboli: un’idea, una preghiera, un’emozione di una persona vissuta oltre 4.000 anni fa vengono fissate con dei simboli nell’argilla e noi possiamo leggerle e metterci in sintonia con lui.

Fino al XIX secolo la scrittura è stata l’unica tecnologia utilizzata dalle persone per trasmettere la cultura. Fu durante la Rivoluzione industriale, in quel turbinio di idee e di invenzioni, che si scoprì che l’informazione era un concetto molto più profondo e più potente di quanto chiunque avesse mai pensato e che esso non era trasmissibile solo fra gli umani ma anche fra gli umani e le macchine. Infatti nel 1804 Joseph Marie Jacquard (1752 -1834) brevettò una invenzione che permetteva con delle schede appositamente perforate di realizzare con i telai esistenti qualunque tipo di tessuto o broccato progettato. Il disegno ideato dallo stilista doveva essere suddiviso e tradotto in una serie di schede perforate che venivano inserite nel telaio e agivano facendo abbassare o sollevare i fili pertinenti ricreando il motivo desiderato. La lavorazione veniva così automatizzava e accelerava una produzione fino a quel momento lentissima che non si riusciva a soddisfare la domanda.

A noi qui non interessano i vantaggi industriali dell’invenzione ma il fatto che con questo sistema le informazioni venivano trasferite dal disegno alla scheda perforata e poi al telaio e infine al tessuto finito. Cioè tramite schede perforate si poteva afferrare l’essenza di un’idea, di un processo, estrare le informazioni fondamentali e rappresentarle in tutt’altra forma: un foro e un pieno. Con centinaia o migliaia di schede, a seconda della complessità del disegno, le schede di Jacquard davano delle istruzioni al telaio, che eseguiva il lavoro realizzando qualunque motivo richiesto. L’informazione che prima veniva trasferita con suoni (la parola) o simboli (la scrittura) ora veniva trasferita con due soli semplici segni (un foro o un pieno) stampati su numerosissime schede. Più era complesso il disegno maggiore era il numero di schede da perforare, ma la sostanza era sempre la stessa: si possono trasferire informazioni comunque complesse usando solo due simboli. Un sistema semplicissimo ed elementare. Un’idea straordinariamente profonda e potente che permette di gestire, elaborare e archiviare alcune informazioni. Però la velocità della trasmissione dell’informazione è rimasta lenta per molto tempo perché legata ai mezzi di trasmissione dell’epoca: cavalli, navi.

Nel XIX secolo, si è iniziato a utilizzare l’elettricità, e con lo sviluppo delle tecnologie e alcuni codici, in particolare il codice Morse, che ancora oggi utilizziamo, ha permesso comunicazioni a velocità altissime: quella della corrente elettrica e, poi, quella delle onde elettromagnetiche e potevano raggiungere efficacemente ogni luogo, servito dalla rete di telecomunicazioni.

Sembrava di essere giunti all’apice. Ma non è così. Perché l’informazione si è rivelata un concetto molto più importante e fondamentale che non riguarda soltanto la comunicazione umana, ma l’intero Universo. James Clerk Maxwell (1831 –1879) è stato uno dei primi scienziati a capire che il calore è strettamente legato al movimento degli atomi di un corpo: più si agitano più il corpo è caldo. Allo zero termico assoluto gli atomi sono fermi. Utilizzando questa informazione potremmo pensare di separare, con una macchina ideale, gli atomi meno agitati dagli atomi più agitati di un corpo utilizzando solo l’informazione sul loro movimento. Maxwell immaginò un diavoletto che apre e chiude un varco posto al centro di una scatola e fa passare gli atomi più veloci da una parte e quelli più lenti dall’altra, ottenendo così una zona calda da un lato contigua a una fredda dall’altro. Il diavoletto avrebbe creato così ordine dal disordine solo conoscendo la velocità degli atomi, cioè solo conoscendo l’informazione: senza impiegare energia. Un’idea che sembrava “folle”, perché in contrasto con la legge della termodinamica che dice che l’entropia aumenta sempre nel tempo. Il dibattito fra gli scienziati è durato per oltre un secolo. Fu uno scienziato un po’ visionario a concepire una macchina – e non un diavoletto! – che manipolasse solo informazioni. Alan Turing (1912 – 1954) fu il primo uomo al mondo a costruire un computer moderno: una macchina che sfrutta e utilizza la potenza dell’informazione, cioè dei simboli immateriali capaci di rappresentare un qualunque aspetto del mondo. Era partito dall’idea di ridurre un semplice processo matematico a un insieme di regole ben precise e meccanicamente riproducibili. Per lui non era necessario utilizzare quotidianamente una persona per fare dei conti ripetitivi. Turing studiando il problema, che s’era posto, capì che qualunque calcolo va distinto in due parti rigidamente e rigorosamente separate: i dati e le istruzioni, cioè cosa devo fare con i dati. Per esempio se devo fare 8 + 12, 8 e 12 sono i dati, “+” è l’istruzione. Fatto questa separazione importantissima occorreva trasferire questo concetto alla macchina. Cioè occorreva trovare un sistema per tradurre informazioni come queste in un linguaggio che la macchina potesse comprendere. Come Jacquard fece per i telai usando un foro e un pieno, Turing usò uno 0 e un 1. Mettendo migliaia e migliaia di 0 e 1 in serie riusciva a dire alla macchina cosa fare. Questi 0 e 1 costituivano quella che oggi chiamiamo la memoria del computer. Successivamente Turing scoprì che quella serie di 0 e 1 poteva istruire la macchina anche su qualsiasi altri tipi di dati: suoni, documenti, musica. Per questo venne chiamata macchina universale di Turing. Più cose si voleva che la macchina facesse più grande però doveva essere la memoria stessa. Ma al tempo di Turing realizzare grandi memorie era un’impresa enorme.

Nei primi anni ’70 del secolo scorso, il computer che utilizzavamo nella facoltà di ingegneria occupava una sala grandissima con grandi armadi (rack) e con accesso limitato a poche persone per evitare scariche elettrostatiche e polveri. Lo sviluppo dei transistor, dei microchip e dell’elettronica in generale ha consentito di realizzare computer sempre più potenti e più piccoli. Pensate agli attuali smartphone. Oggi uno smartphone è molto, ma molto più potente di quel computer dell’università ed è molto ma molto più piccolo: sta in una mano. I software, le app che utilizziamo per scrivere, telefonare, inviare video e foto altro non sono che una lunga sequenza di miliardi e miliardi di 0 e 1: sono istruzioni che dicono al computer o allo smartphone cosa fare. Ma oggi possono anche descrivere le regole della matematica, le leggi della fisica, realizzare dipinti e imitare i processi della natura fino realizzare la simulazione dell’evoluzione della struttura dell’intero Universo. Ecco la potenza dell’idea di Turing: utilizzando solo due simboli semplici (0 e 1) il computer è in grado di catturare l’essenza del mondo. Il potere delle informazioni stava rivelando la sua vera natura: la sua potenza. Ma occorreva un altro passo: la teoria dell’informazione, che si pone a metà strada fra matematica applicata, telecomunicazioni, informatica, fisica applicata e statistica. Pionieri di questi studi sono stati Harry Nyquist Ralph Hartley, negli anni ’20, e Claude Shannon negli anni ’40. Shannon si rese conto che la quantità di info contenute in un documento, una telefonata, un brano musicale, un video non ha nulla a che fare col suo significato. Per risolvere il problema dei tecnici della Bell di misurare le informazioni che gestivano, fissò una unità di misura all’informazione e la chiamò “bit” che significa cifra binaria. Il bit è la parte più piccola possibile dell’informazione e possiamo pensarlo come l’atomo dell’informazione. Trasformare l’informazione in cifre binarie è stato un atto potentissimo. Ha reso qualsiasi tipo di informazione memorizzabile, precisa e utilizzabile. Quello che una volta era un concetto astratto, una nozione oggi è diventato qualcosa di tangibile. Oggi, grazie a Shannon, è qualcosa di misurabile, qualcosa di reale. E se l’informazione è qualcosa di reale essa deve sottostare alle leggi universali della fisica. Allora il diavoletto di Maxwell non può mettere ordine senza consumare energia e in definitiva senza far aumentare l’entropia dell’Universo. Il diavoletto deve tenere in mente le posizioni degli atomi, come se avesse un registro dove memorizzarle, ma quando non ce la fa più ha bisogno di un registro più grande, cioè di altra memoria o di cancellare le informazioni acquisite. E proprio l’energia occorrente per comprimere oltre un certo limite una stringa o cancellare le informazioni acquisite è quella che necessita per mettere l’ordine, ma, come tutti i processi energetici, fa anche aumentare l’entropia. L’energia necessaria per cancellare anche un solo bit, si chiama limite di Landauer pari approssimativamente a 0,0178 elettronvolt alla temperatura di 25 °C. È piccola, molto piccola ma pur sempre reale. Solo per completezza, quindi chi vuole lo può saltare, ripoto il teorema di Shannon: “Per una serie di variabili aleatorie indipendenti ed identicamente distribuite di lunghezza che tende ad infinito, non è possibile comprimere i dati in un messaggio più corto dell’entropia totale senza perdita di informazione.”

In definitiva quello che gli scienziati ci dicono è che l’informazione non può mai essere separata dal mondo fisico e che l’evento più insignificante nel mondo naturale – una foglia frale che cade sul terreno –  contiene una quantità straordinariamente enorme di informazioni. E oggi grazie alle idee di Jacquard, Turing, Shannon ed altri con gli sviluppi dell’elettronica e i potenti computer che la tecnologia ha realizzato siamo in grado di descrivere, modellare e simulare la natura in modo molto semplice e dettagliato. Questi cambiamenti culturali sono le vere rivoluzioni che cambiano le società. Non certo le guerre!

La scienza non si ferma, oggi gli scienziati stanno esplorando nuovi modi di manipolare le informazioni usando di tutto: dalla meccanica quantistica al DNA. I prossimi computer saranno computer quantistici. Chi volesse fare degli ottimi investimenti dovrebbe investire in quelle società che stanno sviluppando i computer quantistici. Ci stiamo avviando verso una nuova era dell’informazione. Se pensate che eravate all’apice vi sbagliate. Siamo sulla lunga strada di un viaggio bellissimo per l’umanità.

 

Exit mobile version