ANTONIO LEPSCHY
Socio dei XL
Universita’ di Padova

Conferenza inaugurale dell’Anno Accademico 1991, tenuta il 20 marzo 1991 nella Sede Accademica.

L’informazione, una idea – guida del nostro secolo

PREMESSA

L’evoluzione dell’ingegneria moderna può esser vista come una storia di successive separazioni. Nel Rinascimento personaggi come Leonardo o Tartaglia, che certamente non erano solo ingegneri, potevano vantare le loro capacità ingegneristiche sia nel campo militare sia in quello civile; nel Settecento ebbe luogo una distinzione sempre più marcata fra ingegneri militari e gli ingegneri civili, che ebbe riflessi anche sulla struttura delle scuole di ingegneria che allora cominciavano ad apparire; nell’Ottocento agli ingegneri civili (edili, idraulici, di ponti e strade) cominciarono a contrapporsi gli ingegneri industriali; più di recente perfino 1’organizzazione ufficiale italiana degli studi di ingegneria, tendenzialmente conservatrice, ha dovuto riconoscere 1’opportunita di articolare tali studi nei tre settori dell’ingegneria civile, dell’ingegneria industriale e dell’ingegneria dell’informazione.L’informazione è divenuta infatti una delle idee guida del nostro secolo. In questo il modo di vivere dei singoli come delle grandi comunità è stato profondamente modificato dalle soluzioni che la tecnica ha dato ai problemi di trasmissione delle informazioni, portate dagli sviluppi della teoria delle comunicazioni, ai problemi di elaborazione delle informazioni, legate ai progressi dell’informatica, ed a quelli di utilizzazione delle informazioni per gestire flussi di materia o di energia, che sono frutto degli avanzamenti dell’automatica. Tutto ciò, d’altra parte, è stato reso possibile dalla conturbante velocità dell’evoluzione della microelettronica.

Queste discipline sono intrinsecamente legate alla nozione di informazione, che solo nel nostro secolo è stata messa a punto, attribuendole lo status di grandezza suscettibile di essere misurata quantitativamente con procedimenti obiettivi. Di tali discipline si tracceranno le linee di sviluppo dai primi esordi alla situazione attuale, cercando di mettere in rilievo la continua interazione fra aspetti tecnici ed aspetti scientifici che le caratterizza.

Prima di farlo si vuol però osservare come siano da considerare momenti decisivi nella storia della scienza quelli in cui matura la consapevolezza della necessità di attribuire un preciso significato tecnicizzato (nel senso che il termine ha nella linguistica) ad una parola che nel linguaggio comune aveva un significato più vago e generico (che in tale linguaggio conserva). Così è avvenuto, ad esempio, per parole quali forza, energia, o potenza, o per calore e temperature, e così è avvenuto -e la nostra generazione ne è stata testimone- per la parola informazione (quale compare, ad esempio, nella espressione quantità di informazione); essa ha acquistato un preciso significato in campo tecnico e scientifico pur se ne prosegue 1’uso tradizionale nel linguaggio comune e se, anche, se ne va diffondendo un altro uso tecnicizzato diverso nel campo delle cosiddette comunicazioni di massa.

Una consolidate tradizione vuole che, nel campo dell’ingegneria, 1’approfondimento della teoria preceda lo studio delle applicazioni. Questa tradizione potrebbe certo esser fatta risalire molto addietro nel tempo ma ha avuto una sua sanzione, per cosi dire, formale nel 1794, quando venne istituita con un decreto della Convenzione (ormai termidoriana) I’Ecole Centrale des Travaux Public, che l’anno dopo sarebbe divenuta I’Ecole Polytechnique.

Nell’ordinamento degli studi, fissato da Gaspard Monge con la collaborazione di altri scienziati e tecnici illustri, si partiva infatti dalla considerazione che una sola teoria costituisce la base delle diverse applicazioni in cui si articola il servizio dell’ingegnere. Non era pertanto ammissibile che ogni singola scuola di applicazione, di carattere particolare, esaurisse in se 1’intero arco di insegnamento, includente la teoria e le sue applicazioni. AI contrario il biennio preparatorio doveva fornire per tutte le diverse scuole di applicazione le conoscenze di base; tali conoscenze venivano considerate di due tipi: quelle che dipendono dalle matematiche, necessarie per studiare la forma ed il movimento dei corpi, e quelle che dipendono dalla fisica (intesa in senso lato), necessarie per studiare l’essenza dei corpi ed i fenomeni che in essi hanno luogo

Questa priorità della teoria rispetto alle applicazioni ha certo un suo indubbio fondamento sul piano logico ed anche, probabilmente, su quello didattico; è divenuta, comunque, un concetto così abituale che spesso si è portati a credere che essa si manifesti anche nell’ordine storico. In realtà non è cosi o, almeno, non è sempre cosi. Molte applicazioni dell’ingegneria si sono sviluppate sulla base dell’intuizione, dell’esperienza e dell’abilità artigianale; solo più tardi hanno potuto trovare il loro fondamento su solide basi scientifiche. Spesso, anzi, la scienza è stata stimolata ad interessarsi di taluni problemi dal rilievo che questi avevano assunto sul piano applicativo; un esempio fatto molto spesso è quello della macchina a vapore che si è diffusa prima della formulazione teorica della termodinamica ed anzi ne ha stimolato la nascita.

Una situazione analoga si verifica anche nel caso della teoria dell’informazione, che ha sistematizzato concetti ed affrontato problemi che erano emersi nel quadro del progresso tecnico più che secolare delle telecomunicazioni, dal telegrafo ottico al radar.

Se, però, la pratica empirica ed artigianale e 1’inventivita individuale spesso precedono la scienza, è pur vero che i progressi dell’ingegneria non possono ulteriormente manifestarsi oltre un certo limite se non si basano su adeguati fondamenti scientifici: E ciò, infatti, che consente il formarsi di una vera e propria tecnologia, se si vuole dare a questo termine il significato per il quale esso designa un insieme di procedimenti tecnici fondati su approfondite conoscenze scientifiche

I PRIMORDI DELLE TELECOMUNICAZIONI

Il problema delle telecomunicazioni si manifesto in rapporto all’esigenza di ottenere una trasmissione di messaggi fra siti inaccessibili e/o in modo più veloce di quello che poteva essere assicurato da messaggeri, come quelli dell’antica Grecia, fra i quali è rimasto famoso Filippide che portò ad Atene la notizia della vittoria sui Persiani a Maratona, o come, più tardi, i messi a cavallo che potevano avvalersi di un servizio di stazioni di posta (dalle quali ha preso nome, per analogia di funzioni, il relé dei primi collegamenti telegrafici: la parola francese relais prima di indicare tale dispositivo tecnico era stata usata per indicate il cambio di una muta di cani e poi, più tipicamente, quello dei cavalli nella stazione di posta).

Allo scopo ci si servi a lungo di segnali luminosi (falò o anche lanterne per distanze minori, segnali di fumo etc.) ed anche di segnali acustici (ad esempio le campane a martello per avvertire dell’incombere di qualche disastro). Certamente un limite alle possibilità di questi sistemi era posto dalla difficoltà di utilizzare opportuni codici, capaci di diversificare d messaggio da trasmettere in misura corrispondente alle necessità. Anche quando si usavano dei codici, questi erano generalmente molto inefficienti, come lo è, ad esempio, quello di cui si legge in molti romanzi (penso in particolare alla Certosa di Parma di Stendhal) in cui ciascuna lettera dell’alfabeto viene rappresentata da una sequenza di simboli elementari (colpi battuti su un muro, accensioni c spegnimenti di una lanterna etc.) a cui numero corrisponde la posizione nell’alfabeto corrente della lettera da trasmettere.

Un momento importante nello sviluppo dei sistemi di trasmissione ottica è rappresentato dalle iniziative del fisco francese Claude Chappe (1763-1805). Questi aveva pensato di risolvere i problemi delle comunicazioni a distanza mediante segnali acustici o anche elettrici ma si era poi orientato verso 1’impegno di segnali ottici, costituiti in un primo tempo dall’esposizione dell’una o dell’altra delle due facce di un pannello con una faccia bianca e una nera. Questo metodo fu sperimentato con successo nel marzo del 1791. Dopo ulteriori esperienze, nel marzo del 1792 Chappe presentò all’Assemblea Legislativa la sua invenzione: si trattava ora di utilizzare semafori nei quali asticelle di legno venivano posizionate utilizzando ruote e pulegge; ogni posizione corrispondeva ad un simbolo e doveva essere ripetuta su un analogo semaforo nella stazione successive della catena di trasmissione. Il sistema venne chiamato inizialmente tachigrafo e poi, ben presto, telegrafo. Sulla base di relazioni favorevoli il progetto di Chappe fu approvato dalla Convenzione che il 4 agosto 1793, in pieno Terrore, decise la costruzione di una linea telegrafica fra Parigi e Lilla. Un anno dopo, il 15 agosto 1794, poco dopo la caduta di Robespierre e 1’istaurazione del regime termidoriano, il telegrafo fu in grado di trasmettere a Parigi la notizia della resa di Quesnoy; il 13 ottobre di quell’anno fu decisa la realizzazione di una linea che collegasse Parigi a Landau; poco dopo Hoche fece attivare la linea Parigi Brest.

Il telegrafo ottico ebbe ben presto una larga diffusione, passando dagli iniziali impieghi per scopi militari a quelli per finalità civili. Lo stesso Chappe pensò di trar partito dalla sua invenzione sfruttandola per il commercio e per la meteorologia ma fu battuto dalla concorrenza che aveva utilizzato spregiudicatamente, con minime modifiche, i suoi procedimenti, ed il fallimento delle sue iniziative lo spinse al suicidio.

Come si è accennato, Chappe (come pure altri prima di lui) aveva pensato di servirsi dell’elettricità per trasmettere messaggi ma la cosa divenne concretamente possibile solo dopo 1’invenzione delta pila. Si arrivò cosi al telegrafo elettrico, con le sue stazioni di ripetizione a relé. Da questo momento il progresso delle telecomunicazioni ha seguito due linee distinte, anche se necessariamente interagenti: usando termini odierni potremmo dire che una riguarda gli aspetti in cui è prevalente 1’attenzione per i fenomeni elettromagnetici e 1’altra quelli in cui 1’interesse si concentra sull’informazione trasportata dai segnali trasmessi anziché sulla natura fisica di tali segnali. In rapporto al tema che qui ci interessa, ci si limiterà a tenere conto soprattutto della seconda di queste linee.

Da questo punto di vista la figura da prendere in considerazione dopo Chappe è quella di Samuel F.B. Morse (1791-1852) americano, pittore, uomo di larghi interessi che mise a punto un suo progetto di telegrafo elettrico nel 1832, durante la traversata atlantica che lo portava dall’Europa negli Stati Uniti. In un primo momento pensò di adottare un codice efficiente ma poco pratico in cui a ciascuna parola utilizzabile era associate un numero. Il codice fu messo a punto nel 1837 ma fu abbandonato fin dall’anno successive a favore di quello che va sotto il nome di alfabeto Morse e che utilizza tre simboli, il punto, la linea e 1’intervallo fra la sequenza di punti e/o linee corrispondenti ad una data lettera e la sequenza successiva.

E’ interessante notare che Morse aveva intuito (anche se forse non ancora in maniera completamente conscia) 1’importanza del problema della efficienza di trasmissione, tanto è vero che associò la sequenza più semplice (un solo punto) alla lettera più frequente in inglese (la E), la sequenza appena un po’ meno semplice (una sola linea) alla lettera che è la seconda in graduatoria di frequenza (la T, sempre nel caso dell’inglese; in italiano alla E segue la I) e cosi via, in modo da utilizzare simboli la cui trasmissione richiede minor tempo per le lettere che si incontrano più di frequente, e simboli a mano a mano più lunghi per le lettere più rade. Allo scopo, per altro, Morse non si giovò di tabelle di frequenza basate sullo spoglio di un opportuno insieme di testi ma, con brillante intuizione, fece riferimento al numero di caratteri contenuti nei diversi scomparti delle cassette dei tipografi; in concreto la scelta di Morse si rivelò molto efficace, tanto che adottando criteri moderni la velocità di trasmissione potrebbe essere aumentata solo del 15%.

La costruzione delle prime lince telegrafiche su distanze apprezzabili impose la scelta fra lince aeree e cavi interrati, che si risolse a favore delle prime perché i cavi davano luogo a fenomeni di distorsione inaccettabili; ma se sulle linee continentali si poteva evitare il cavo interrato, sostituendolo con linee aree, il problema non poteva certo essere risolto in questo modo nelle trasmissioni, transoceaniche dove fu necessario ricorrere ai cavi sottomarini, con tutti i problemi che tale scelta obbligata comportava e per i quali si dovettero studiare opportune soluzioni.

Le distorsioni sono dovute al fatto che un segnale che in trasmissione ha una forma costante a tratti (assumendo alternativamente l’uno o l’altro di due valori di tensione convenzionalmente associabili ai simboli 0 ed 1) in ricezione assume la forma di un segnale che sale con velocità finita (e non bruscamente) e che poi ridiscende in modo graduate, dando luogo ad una coda abbastanza lunga; ciò ha, inevitabilmente, effetti negativi sul ritmo al quale possono essere trasmessi treni di impulsi rettangolari che si vogliano individuare facilmente in ricezione

Un altro fenomeno che danneggia l’intelligibilità di un messaggio ricevuto legato al manifestarsi di rumori, sovrapposti al segnale utile, dovuti ad esempio a tempeste magnetiche.

Da problemi nati nel contesto delle applicazioni pratiche venivano così emergendo concetti, come appunto quelli di distorsione e di rumore, che non erano legati in modo diretto alla natura fisica dei fenomeni in gioco e che avrebbero trovato invece un inquadramento soddisfacente nell’ambito della teoria dell’informazione.

Altri problemi di questo tipo si vennero ponendo quando, con 1’invenzione di A. Meucci ed i brevetti di A.G. Bell (1875), cominciò a diffondersi il telefono e quindi si ricorse a segnali che, per usare la terminologia odierna, dovremmo chiamare analogici, anziché digitali come i segnali telegrafici.

Alla soluzione di problemi delle comunicazioni elettriche, telegrafiche o telefoniche, si dedicarono scienziati e tecnici di rilievo; del telegrafo si era già occupato K.E Gauss; nel 1855 William Thomson (che sarebbe poi stato nominato Lord Kelvin) calcolò la corrente che deve essere ricevuta attraverso un cavo sottomarino in corrispondenza alla trasmissione di un segnale telegrafico; altri contributi vennero dati più tardi dal grande matematico francese Henry Poincaré e dall’inglese Oliver Heaviside, una figura irregolare, per vari rispetti eccentrica, di studioso; di problemi tecnici si occuparono, inoltre, fra gli altri Thomas Edison e Nihailo Pupin, ma su questi, come sugli aspetti più specificamente legati allo studio dei fenomeni elettromagnetici, si è ritenuto qui di dover sorvolare, concentrando 1’attenzione sugli aspetti più direttamente legati alla teoria dell’informazione.

GLI SVILUPPI DELLA TEORIA DELL’INFORMAZIONE FINO ALLA II GUERRA MONDIALE

1 primi contributi alla teoria dell’informazione sono individuabili nell’opera di Harry Nyquist, che cominciò a lavorare nel 1917 alla American Telephone and Telegraph Company, dove poté giovarsi della sua preparazione matematica che era assai più ampia ed approfondita rispetto alla media di quanti allora si occupavano di problemi di telegrafia e telefonia. Nel 1924 presentò i suoi primi risultati in cui definì la velocità di trasmissione (telegraph speed) con la formula W = K log m, dove K è una costante il cui valore è legato al numero di simboli trasmessi nell’unita di tempo ed m è il numero di simboli diversi fra i quali si scelgono quelli da trasmettere. In tal modo, a parità di K, se si dispone di soli due simboli (per esempio 0 ed 1 o -1 e +1) si ha una certa velocità; se si utilizzano tre simboli (per esempio -1, 0 e +1) la velocità aumenta del 60%, se si ricorre ad un alfabeto di quattro simboli (per esempio -3, -1, +1, +3) la velocità raddoppia e cosi via.

Altri risultati molto importanti conseguiti da Nyquist riguardano il legame fra la velocità di linea (metà del numero di elementi di segnale trasmissibili in un secondo) e la larghezza di banda del canale di trasmissione, nonché questioni di ridondanza, con conseguenze di rilievo anche per la sintesi dei segnali da trasmettere.

Dopo i contributi di Nyquist bisogna segnalare quelli di R.VL. Hartley che nel 1928 presentò i risultati delle sue considerazioni in argomento, arrivando a definire 1’informazione di un messaggio formato da una successione di n simboli scelti in un alfabeto di m simboli come H = n log m. L’espressione è valida anche alla luce delle nostre conoscenze odierne se la scelta di ciascuno degli n simboli del messaggio è indipendente da quella degli altri simboli e se la probabilità di ciascuno degli m simboli dell’alfabeto a disposizione è la stessa degli altri simboli. Su questa base Hartley poté affrontare in modo rigoroso il problema della codificazione di simboli primari (per esempio le lettere dell’alfabeto) in termini di simboli secondari (per esempio 0 e 1, oppure -1, 0 ed 1 o quelli dell’alfabeto Morse), problema che era stato preso in considerazione fin dai tempi dello stesso Morse che, come si è detto, pur su basi empiriche ne aveva dato una soluzione abbastanza efficiente.

In tutt’altro filone di interessi nel 1929 venne pubblicato un contributo, significativo ma che risultò alquanto oscuro, del fisico L. Szilard che vi si servì di un concetto di informazione per risolvere un paradosso fisico. Il lavoro di Szilard, obiettivamente molto difficile, non fu allora compreso o, per lo meno, non ebbe seguito immediato.

A proposito di questo lavoro viene opportuno dedicare un cenno al controverso problema dei rapporti fra 1’entropia considerate dalla termodinamica e dalla meccanica statistica e quella considerata dalla teoria dell’informazione.

In termini inevitabilmente grossolani si potrebbe dire, seguendo l’impostazione, significativa anche se, in qualche modo, di parte, di un autorevole studioso di problemi di comunicazioni, quale J.R. Pierce, che nella termodinamica classica 1’entropia è un indice di reversibilità del fenomeno considerato (nel senso che esso è reversibile solo se la relativa variazione di entropia è nulla), che nella meccanica statistica 1’entropia sta a significare il grado di indifferenziazione o di disordine (o, se vogliamo, della conseguente diminuzione della nostra conoscenza) e che nella teoria delle comunicazioni 1’entropia (negativa, o negentropia) è una misura della quantità di informazione convogliata da un messaggio legata all’incertezza che si ha a priori sul messaggio stesso (nel senso che un messaggio scelto fra dieci possibili trasmette una quantità di informazione minore di quella trasmessa da un messaggio scelto fra un milione di messaggi possibili).

Pierce ritiene di poter affermare, su queste basi, che scopi ed impieghi dell’entropia nella teoria delle comunicazioni e nella meccanica statistica sono del tutto diversi, come lo sono i concetti a partire dai quali si è arrivati, nei due contesti, alle identiche espressioni formali dell’entropia. In particolare della entropia delta fisica e della entropia delta teoria delle comunicazioni dice che 1’una può fare completamente a meno dell’altra e che i molti sforzi orientati a metterle in relazione non hanno fatto che confondere le idee e la confusione diventa ancora maggiore quando al termine ‘informazione si attribuisce più di un significato; tutt’al più concede che questi tentativi siano stati interessanti; ma nega che siano stati significativamente fecondi

Una serie di nuovi contributi al progresso della teoria dell’informazione fu stimolata, ancora una volta, da esigenze concrete quali quelle che si manifestarono nella seconda guerra mondiale; in questa, infatti, venne largamente impiegato il radar che è caratterizzato da un elevato livello di rumore. I problemi a cui il rumore dava luogo erano tanto più gravi quando il radar doveva dare indicazioni anziché sulla posizione di navi, che potevano essere considerate praticamente ferme, sulla posizione di aeroplani e, soprattutto, doveva contribuire a predirne le rotte, non note a priori e tanto più difficili da stimare quanto più aumentava la velocità e la manovrabilità dei velivoli. Si trattava, in questo caso, di filtrare i segnali in gioco in modo tale da attenuare le frequenze prevalenti nel rumore senza attenuare sensibilmente quelle del segnale utile; il problema fu risotto, indipendentemente, da A.N. Kolmogorov e da N. Wiener.

Dopo la guerra Wiener, nel 1948, pubblicò Cybernetics, un libro in cui, come suggeriva il sottotitolo, tendeva a dare una visione unitaria dei problemi connessi alla trasmissione di informazioni (communication) ed al loro impiego per scopi di governo (control) quali si rnanifestano sia nei sistemi artificiali della tecnica (machine) sia in quelli naturali della biologia (animal). La cibernetica, da allora, è venuta in molti casi a costituire il lido di approdo di molte delle applicazioni non tecniche della teoria dell’informazione, mentre a proposito di quelle più specificamente connesse alla tecnica delle telecomunicazioni si è parlato, più spesso, come qui già si è fatto, di teoria delle comunicazioni o di teoria applicata dell’informazione.

Alla teoria delle comunicazioni fu intitolata una memoria pubblicata nel 1946 da Dennis Gabor, che è considerate anch’egli uno dei padri fondatori delta cibernetica e che più tardi ottenne il premio Nobel per le sue ricerche sull’olografia; tale memoria è certamente originale e suggestiva ma non vi si tiene conto della nozione di rumore.

IL CONTRIBUTO DI CLAUDE E. SHANNON

Se si dovesse fissare una data di nascita per la teoria dell’informazione e non si volesse risalire ai lavori pionieristici di Nyquist e di Hartley, probabilmente la scelta più appropriata sarebbe quella del 1948, anno in cui apparve, oltre a Cybernetics, un importante articolo di C.E. Shannon, seguito 1’anno dopo da una monografia dello stesso Shannon e di W. Weaver.

Il lavoro di Shannon inquadra in termini più generali ed illuminanti i risultati conseguiti in precedenza da Nyquist ed Hartley e si spinge più innanzi sulla stessa strada dedicando maggiore attenzione non tanto al problema di Wiener e Kolmogorov di come si debba manipolare un segnale corrotto da rumore ai fini di una migliore stima del segnale stesso, quanto a quello di come codificare in partenza il segnale da convogliare su un dato canale disturbato ai fini di consentire la migliore ricostruzione in arrivo del messaggio trasmesso. Weaver inquadra la problematica in una prospettiva più ampia considerando, accanto al problema tecnico di cui si occupa Shannon (relativo all’accuratezza nella trasmissione dei simboli), anche il problema semantico (legato all’adeguatezza dei simboli nel corrispondere ad un significato) nonché il problema pragmatics (connesso all’efficacia con la quale il messaggio ricevuto può influenzare il comportamento del destinatario).

La posizione di Shannon, semplificando e banalizzando, consiste nel ritenere che l’ attenzione non vada concentrata sul significato dell’informazione trasmessa ma sulla possibilità di ricostruire in ricezione in modo pia o meno corretto il messaggio trasmesso; Weaver ritiene invece che le due nozioni di informazione (come la intende Shannon) e di significato siano legate in modo inscindibile.

Nell’ambito dell’impostazione di Shannon 1’informazione associate ad una scelta fra m simboli, ciascuno dei quali abbia una probabilità p di venire scelto, è data dall’espressione:

Image1

dove, se si usano i logaritmi in base 2, H risulta espresso in bit. Si noti che, necessariamente, 0 < p < 1 e, quindi, log p < 0, talché H > 0.

L’ espressione corrisponde, a parte il segno, a quella ricavata per l’entropia nel contesto della meccanica statistica. Nella termodinamica, per il secondo principio, 1’evoluzione spontanea procede sempre nel verso al quale corrisponde un aumento di entropia; nel contesto di un sistema di comunicazione, valutando 1’incertezza prima e dopo un messaggio è possibile stimare la quantità di informazione ad esso associabile in termini di differenza fra 1’entropia a priori e l’ entropia a posteriori; il messaggio opera nel senso di diminuire 1’incertezza e, quindi, introduce un’entropia negativa o negentropia (il che non deve stupire, dato che la trasmissione di un messaggio è un fenomeno non spontaneo, ma artificiale).

Generalmente le probabilità p di ciascuna scelta di un simbolo non sono note e, quindi, si fa riferimento alle frequenze relative f, che sono il rapporto fra d numero n di situazioni in cui è stata effettuata la scelta del simbolo i-esimo ed il numero complessivo N delle situazioni considerate. Il tal caso:

Image2 Image3

Infine se la scelta avviene entro una gamma continua di valori, anziché fra i simboli di un insieme discreto, si ha:

Se, nel caso della scelta fra i simboli di un insieme discreto, tutti i simboli fossero equiprobabili, la quantità di informazione sarebbe massima, assumendo il valore

Image4

Detta entropia relativa Hrel il rapporto H/Hmax, la ridondanza si definisce come Hmax —

H/Hmax = 1 — Hrel. La ridondanza può esser considerata come un fattore dannoso, perché richiede un messaggio più lungo a parità di quantità d’informazione ma, d’altra parte, presenta aspetti positivi nel senso che consente più facilmente di ricostruire un messaggio corrotto da rumore. Tutte le lingue naturali hanno una certa ridondanza: quella dell’inglese è di circa 0.5. La ridondanza può venire volutamente introdotta per raggiungere determinati obiettivi; per esempio i codici binari (ridondanti) ad individuazione od a correzione di errore consentono di stabilire se in una sequenza di cifre binarie (che può rappresentare un numero razionale) si è verificato oppure no un errore (sostituzione di uno 0 con un 1 o viceversa) o anche di individuare qual è la cifra sbagliata e quindi di correggerla.

Quando si tratti di diminuire la ridondanza per rendere più veloce la trasmissione di un messaggio risulta utile un teorema di Shannon in base al quale, se una sorgente ha un’entropia di H bit per simbolo ed un canale ha una capacità di C bit per secondo, è possibile codificare 1’uscita della sorgente (cioè il segnale da trasmettere) in modo tale che la velocità di trasmissione si approssimi quanto si vuole al suo limite di C/H simboli per secondo.

L’impostazione di Shannon consente altresì di tenere conto adeguato della perdita di informazione dovuta ai rumori, inevitabilmente presenti (anche se in misura maggiore o minore) nel canale di trasmissione. In questo contesto acquisisce notevole importanza il parametro che va sotto il nome di rapporto segnale/rumore S/R (dove S è 1’intensità del segnale utile emesso dal trasmettitore ed R quella del rumore presente nel canale). In funzione di tale parametro la capacità C del canale (in bit/secondo) risulta espressa dalla legge che generalizza quella di Hartley, a suo tempo citata, e che porge

Image5

essendo Df la larghezza di banda, già presa in considerazione da Nyquist.

Di notevole interesse ed importanza, in questo contesto, è anche il teorema di Shannon secondo il quale, al manifestarsi di due messaggi, 1’entropia congiunta dei due messaggi è minore o uguale alla somma delle entropie di detti messaggi; in particolare è uguale a tale somma se i due messaggi sono indipendenti. Da questo teorema, sotto opportune ipotesi, si desume la validità di quell’ulteriore generalizzazione della legge di Hartley che va sotto il nome di formula Hartley- Tuller-Wiener-Shannon.

E’ fuori di dubbio che i grandiose successi conseguiti nel campo delle telecomunicazioni sono da collegare, in buona parte, ai risultatati delle ricerche nel campo dell’elettronica, in quello dell’elettromagnetismo ed in quello dei nuovi materiali. Non si può però disconoscere che un ruolo molto importante nell’orientare la ricerca in questi settori è stato svolto dalla possibilità di far riferimento alle nozioni ed alle leggi messe a punto nel quadro degli studi di teoria dell’informazione, i quali d’altra parte, come si è visto, sono stati a loro volta stimolati dai problemi concreti delle telecomunicazioni.

LA PREISTORIA DELLE MACCHINE DA CALCOLO

Dopo aver considerato i problemi legati alla trasmissione delle informazioni, è il momento di passare a quelli relativi alla loro elaborazione, che costituiscono 1’oggetto dell’informatica, intesa secondo la definizione della International Federation for Information Processing come la parte delta scienza e delta tecnologia specificamente relativa all’elaborazione di rappresentazioni di idee, di oggetti, di fatti, di relazioni etc. opportunamente formalizzate e capaci di essere comunicate e manipolate per mezzo di un opportuno processo.

In quest’ambito si inquadrano, ovviamente, i problemi di elaborazione dell’informazione numerica, cioè del vero e proprio calcolo automatico, ma si cercherà di dedicare qualche cenno anche a problemi di elaborazione dell’informazione non numerica.

Fin dall’antichità 1’uomo ha cercato di aiutarsi a compiere operazioni di calcolo con artifizi c strumenti adatti allo scopo ed uno di questi può essere considerato 1’abaco su cui venivano opportunamente disposti sassolini, dal cui nome latino deriva appunto la parola calcolo.

Anche se si ha notizia di una macchina aritmetica concepita di Wilhelm Schickard, astronomo e matematico dell’Università di Tubinga (1623 o 1624), che ne parlò in una sua lettera a Johann Kepler, la prima macchina per eseguire operazioni aritmetiche, nel caso specifico somme, che fu largamente conosciuta ed apprezzata è stata quella ideata e realizzata da Blaise Pascal nel 1642. Suo padre, Etienne Pascal, nel 1640 era stato nominato da Richelieu commissario per il riordinamento dei tributi nell’Alta Normandia e Blaise, allora diciassettenne, lo aveva seguito a Rouen dove era stato associato a pesanti e tediosi lavori di calcolo, che gli suggerirono 1’idea di una macchina addizionatrice, oggetto di ammirato stupore da parte dei suoi contemporanei, che la chiamarono, dal suo nome, pascaline.

Il successivo passo avanti nella realizzazione di macchine da calcolo fu compiuto neppure un trentennio dopo, nel 1671, ad opera di Gottfried Wilhelm Leibniz, e potrebbe essere fonte di riflessioni di un certo interesse il constatare che, agli inizi del calcolo meccanico, si incontrano non dei tecnici pratici ma dei matematici, ed anzi dei matematici i cui interessi principali erano di carattere filosofico. La macchina ideata da Leibniz fu una moltiplicatrice, basata sull’impiego di ruote a gradini che continuarono poi a venire adottate per motto tempo nel campo dell’esecuzione meccanica di operazioni aritmetiche.

Fino alla seconda metà dell’Ottocento non si può parlare di produzione industriale (e neppure artigianale) di macchine da calcolo ma solo della progettazione (e talora anche della costruzione) di singoli esemplari, raramente replicati. La realizzazione industriale di macchine da calcolo meccaniche (e poi elettromeccaniche), che ha avuto ancora ampio spazio di sviluppo anche nel nostro secolo, si collega, invece, ad invenzioni e brevetti della seconda meta dell’Ottocento, fra i quali si segnalano quelli dello svedese W.T. Odhner (1875).

Un altro importante filone delle iniziative che si avvalgono di strumenti meccanici per scopi di calcolo è quello legato alla statistica ed in particolare ai censimenti. Negli Stati Uniti il Bureau of Census nel 1880 assunse Herman Hollerith che studiò nuove soluzioni per 1’elaborazione dei dati raccolti, ciò che portò nel 1890 alla costruzione delle prime macchine da calcolo a schede perforate; nel 1910 1’operazione fu ripetuta con James Power e da tali circostanze presero 1’avvio aziende industriali che si occuparono di meccanografia fra le quali quella che oggi, passate a produrre elaboratori elettronici, vanno sotto il nome di IBM e di Unisys.

Gli odierni elaboratori sono però sostanzialmente diversi dalle macchine calcolatrici tradizionali, non tanto per il ricorso alla tecnologia elettronica (che pure è stata determinante per il loro sviluppo) quanto per la concezione generate, in cui si affida alla macchina non solo 1’esecuzione delle singole operazioni ma anche il programma secondo il quale eseguire sequenze di operazione aritmetiche ed anche di operazioni logiche, dalle quali consegue la scelta fra distinte alternative previste.

Macchine che possono essere considerate veri e propri precursori degli elaboratori moderni furono invece la Difference Engine e, soprattutto, I’Analytical Engine, progettate e parzialmente realizzate dal matematico inglese Charles Babbage (1791-1871). Una caratteristica importante dei progetti di Babbage era relativa all’impiego delle schede perforate, usate già nel Settecento da Jean-Baptiste Falcon, da Jacques de Vaucanson (il famoso costruttore di automi) e da altri ed impiegate a livello industriale da Joseph-Marie Jacquard, all’inizio del diciannovesimo secolo, nei suoi telai, al fine di meccanizzare la tessitura di stoffe operate. Le schede costituivano una primitiva forma di memorizzazione di istruzioni e, in linea di principio, avrebbero potuto consentire il funzionamento delle macchine di Babbage, le cui difficoltà (che ne impedirono la realizzazione anche successivamente) erano legate all’inadeguatezza delta tecnologia meccanica dell’epoca. La figura di Babbage è, per molti aspetti, affascinante e merita anche per altri motivi 1’attenzione che oggi le viene dedicata soprattutto per la sua attività pioneristica nel campo dei calcolatori.

Figlio di un banchiere, Charles Babbage nacque il 26 dicembre 1791; nel 1810 entrò al Trinity College di Cambridge, dove compì la sua formazione universitaria. Della sua vita e delta sua opera viene data abitualmente un’immagine non scorretta ma riduttiva che lo vede come un matematico applicato il quale, rendendosi conto dei molti errori delle tavole numeriche disponibili all’epoca, s’impegnò nella progettazione e nei tentativi di costruzione di macchine capaci di eseguire in modo corretto e ragionevolmente efficiente i calcoli necessari per ottenere, ad esempio, attendibili tavole di logaritmi con molte cifre decimali: prima la Difference Engine, basata sull’impiego del metodo delle differenze finite, e poi I’Analytical Engine, assai più complessa e da considerarsi come il vero e proprio precursore degli elaboratori di oggi. Per la realizzazione di questi progetti Babbage spese buona parte dell’eredità paterna e si giovò anche di sussidi pubblici, che tuttavia furono ad un certo punto sospesi per il mancato conseguimento di risultati per i quali, in effetti, la tecnologia meccanica dell’epoca, come si è detto, non disponeva di mezzi adeguati e che solo 1’elettronica ha permesso poi di conseguire.

La macchina di Babbage non fu mai costruita interamente (nonostante anche il figlio tentasse di realizzarne alcune parti); ciò non di meno la sua concezione generale, sorprendentemente moderna, non può non colpire e giustifica il fatto che si sia potuto parlare di essa come di uno dei grandi avvenimenti intellettuali della storia dell’uomo. Si spiega cosi anche 1’interesse che si è di recente manifestato per la figura di Babbage e per la sua cerchia alla quale appartenne Lady Lovelace, la figlia di Byron, Ada, al cui nome è stato intitolato negli anni Settanta di questo secolo un linguaggio di programmazione. Questo interesse è però relativamente recente, in quanto la figura di Babbage era stata pressoché dimenticata e si è imposta essenzialmente nella seconda meta del nostro secolo nonostante i cultori delta tecnica non siano abituati a rivolgere alla storia delle loro discipline quell’attenzione che è tipica, invece, nel campo delle scienze dell’uomo.

La figura di Babbage merita però interesse ed attenzione anche perché egli fu davvero, come lo definì A. Hyman, il figlio di due rivoluzioni: il movimento riformatore e liberale della prima metà dell’Ottocento, con i più autorevoli rappresentanti del quale Babbage fu in contatto non solo in Inghilterra ma anche in Francia ed in Italia, e la rivoluzione industriale, che proprio in Inghilterra era iniziata nella seconda metà del Settecento ma che Babbage, con notevole acume di giudizio, vedeva avere prospettive di successo più notevoli in altri paresi, dato che in Inghilterra tendeva a prevalere un interesse praticistico, nel senso deteriore del termine, caratterizzato da un’insufficiente attenzione a quei progressi della scienza che avrebbero poi di fatto reso possibili ulteriori significativi progressi delle applicazioni tecniche. Era anzi in questo quadro che Babbage riteneva indispensabile che in Inghilterra si potesse disporre, nell’interesse dell’industria ma anche in quello dei commerci e dell’economia, di tavole numeriche precise e di strumenti adeguati per generarle.

IL PRIMO SVILUPPO DEGLI ELABORATORI ELETTRONICI

Come per molte invenzioni di apparati tecnici complessi, anche per gli elaboratori non è facile fissare una data che corrisponda alle prime realizzazioni significative attribuibili con sicurezza a questo campo.

Di massima si può far riferimento al periodo della seconda guerra mondiale ma la fama delle macchine costruite a quel tempo non dovrebbe far dimenticare l’oscuro lavorio che anche nel decennio precedente si era avuto per tentare di adottare tecniche elettriche od elettroniche allo scopo di automatizzare procedure di calcolo. Questi tentativi si basavano inizialmente sull’uso di relè elettromagnetici (o di altri dispositivi che avevano trovato impiego nella commutazione telefonica) e ad essi sono legati i cosiddetti relay computers realizzati in vari modelli presso i Bell Laboratories da George R. Stibitz fra la fine degli anni Trenta e gli anni Quaranta.

In questo contesto va ricordata, inoltre, 1’attività del tedesco Konrad Zuse che, servendosi sia di tecnologie meccaniche sia di tecnologie elettroniche (particolarmente per iniziativa del suo collaboratore Schreyer), costruì fin dagli ultimi anni Trenta geniali macchine da calcolo da utilizzare nella progettazione di strutture aeronautiche, campo nel quale egli era un apprezzato specialista. Nel caso di Zuse la guerra impedì la conclusione della sua opera perché la sua macchina, la Z4, fu distrutta da un bombardamento prima di essere completata e lo stesso Zuse venne destinato al fronte russo.

Una vicenda per certi aspetti simile toccò, negli Stati Uniti, a John Vincent Atanasoff, al quale di recente è stato rivendicato il merito delta concezione re della parziale costruzione (con 1’aiuto dell’allievo Clifford Berry) del primo calcolatore elettronico (nel senso moderno del termine). la macchina ABC, (Atanasoff Berry Computer) alla quale si dedicarono dal 1937 al 1942. Infatti anche Atanasoff aveva ideata la macchina in rapporto alle specifiche esigenze di calcolo connesse alla sua attività di ricerca ed anch’egli non ebbe il tempo per completarla, venendo chiamato alle armi come ufficiale della marina militare.

Le esigenze belliche furono invece di stimolo ad un’attività che si pu6 considerare un significativo preludio allo sviluppo dell’informatica, quale quella della cifrazione e della decifrazione: i tedeschi avevano messo a punto la macchina Enigma per cifrare messaggi segreti e gli inglesi svilupparono la serie delle macchine Colossus (il cui nome la dice lunga sulle loro impegnative dimensioni) con le quale riuscirono a decifrare i messaggi in codice tedeschi.

Accanto a queste attività legate alla realizzazione fisica di macchine non si può non citare 1’opera di Alan M. Turing (1912-1954) che, occupandosi dei problemi di computabilità, concepì, sia pure come modello ideale del quale interessava il principio di funzionamento e non la realizzazione costruttiva, la macchina che da lui prese il nome, ne i fondamentali contributi di Johann (John) von Neumann (1903-1957) che, fra 1’altro, ideò lo schema di macchina calcolatrice automatica al quale fu dato il suo nome.

Ritornando alla costruzione di macchine destinate all’esecuzione automatica di sequenze di operazioni, le prime per usi generali furono concepite e realizzate durante il periodo bellico o nell’immediato dopoguerra. E’ del 1944, in particolare, la macchina ASCC (Automatic Sequence Controlled Computer), detta anche Mark 1, costruita da Howard Aiken ad Harvard con il determinante contributo della IBM. Nel 1946 J.P. Eckert e J. W. Mauchly realizzarono, presso la Moore School of Engineering a Filadelfia, la macchina ENIAC (Electronic Numerical Integrator And Calculator) che presentava molte delle caratteristiche a suo tempo considerate da Babbage per I’Analytical Engine e si serviva di una tecnologia completamente elettronica: conteneva 18.000 tubi elettronici, ciò che costituisce un risultato notevolissimo per la tecnologia dell’epoca, ed assorbiva 100 kW; ovviamente la manutenzione era molto impegnativa e richiedeva la sostituzione incessante dei tubi elettronici, che si guastavano con grande frequenza (basti pensare che se, molto ottimisticamente, si potesse attribuire a tubi opportunamente selezionati una vita media di 10.000 ore, statisticamente si sarebbe verificato il guasto di un tubo ogni mezz’ora).

L’ASCC/Mark e I’ENIAC adottavano quello che fu chiamato lo schema Harvard, che impiegava memorie separate per i dati e per le istruzioni e ben presto fu abbandonato con 1’adozione dello schema proposto da von Neumann nel 1946, il quale prevedeva un’unica memoria per i dati e per le istruzioni e permetteva così un enorme potenziamento della elasticità funzionale dell’elaboratore.

Questo schema fu adottato, in particolare, nella macchina EDSAC (Electronic Delay Storage Automatic Calculator) realizzata nel 1948 in Gran Bretagna, nell’Università di Cambridge, da un gruppo guidato da. M.W. Wilkes.

Il primo elaboratore in cui si trovano applicati tutti i principi concepiti da Babbage può essere considerate il selective Sequence Electronic Calculator della IBM realizzato anch’esso nel 1948 ed installato poi in una vetrina delta sede di Manhattan di tale ditta, dove suscitò grande interesse fra il pubblico.

QUARANT’ ANNI DI SVILUPPO DELL’INFORMATICA

Il numero di anni al quale fa riferimento il titolo di questo paragrafo corrisponde al periodo dall’inizio della diffusione commerciale degli elaboratori, fissabile convenzionalmente al 1950, fino ad oggi.

Le prime fasi delta sviluppo degli elaboratori elettronici possono essere caratterizzate efficacemente con riferimento alle mutazioni della tecnologia degli elementi attivi impiegati per 1’esecuzione delle operazioni logiche nell’unità centrale; allo scopo, infatti, furono usati prima tubi elettronici ad alto vuoto poi transistor, poi circuiti integrati; si parlò quindi di tre generazioni successive di elaboratori.

Generalmente una classificazione risulta efficace quando appare valida anche adottando punti di vista diversi da quelli che sono serviti a stabilirla. Ciò si è verificato nel caso che stiamo considerando, in quanto la classificazione fatta resta sostanzialmente valida anche se ci si riferisce alla tecnologia delle memorie (a tamburo magnetico nella prima generazione, a matrici di nuclei di ferrite nella seconda, a semiconduttori nella terza) ed anche a certe caratteristiche software quali 1’introduzione dei linguaggi di programmazione ad alto livello (ad esempio il Cobol ed il Fortran) nella seconda generazione e le possibilità legate al funzionamento in time- sharing ed all’adozione di sistemi operativi nella terza.

Più tardi, pur continuandosi ad adottare circuiti integrati (ma ad integrazione sempre più spinta), si è ritenuto di poter parlare di una quarta generazione e di prevederne una quinta a breve scadenza, con corrispondenti modifiche nel campo dell’architettura e delle proprietà software.

Fare delle date precise è sempre un po’ arbitrario. Ad ogni modo per la prima generazione ci si può riferire al decennio fra il 1946 ed il 1956. Per la seconda, tenendo conto che il primo elaboratore a transistors è stato costruito nel 1955 ma che la sostituzione degli elaboratori a tubi non è stata immediata, si possono considerare gli ultimi anni Cinquanta ed i primi anni Sessanta: convenzionalmente se ne potranno fissare i termini di inizio e di fine al 1957 ed al 1963. Prendendo conseguentemente come anno di inizio per la terza generazione il 1964, alcuni la fanno arrivare solo al 1971 (anno in cui furono introdotti i primi microprocessori; la parola per designarli, però, fu coniata solo nel 1972), altri la estendono per un intero altro decennio.

Facendo riferimento a valori medi dei parametri che caratterizzano ciascuna generazione di elaboratori dai punti di vista più significativi, e posti convenzionalmente uguali ad 1 quelli relativi alla prima generazione si può dire, sia pure con inevitabile arrotondamento, che passando dalla prima alla seconda e poi alla terza generazione la capacita di memoria è aumentata da 1 a 10 a 1000, la velocità di elaborazione è aumentata da 1 a 10 a 100, 1’affidabilità (stimata ad esempio in termini della durata media dell’intervallo fra guasti consecutivi) è aumentata da 1 a 100 a 1000, le dimensioni di ingombro sono diminuite da 1 a 1/100 a 1/1000, la dissipazione si è ridotta da 1 a 1/1000, il costo è diminuito da 1 a 1/10 a 1/100.

L’ulteriore rivoluzione che ha caratterizzato 1’ultimo ventennio è legata all’avvento dei microprocessori. Uno dei primi dispositivi di questo tipo è l’Intel 4004, realizzato nel 1971, nel quale in uno stesso chip era stata integrata una CPU (central processing unit) con un sommatore parallelo da 4 bit, 16 registri da 4 bit, un accumulatore ed un pushdown stack. Nel 1972 vennero realizzati microprocessori da 8 bit, nel 1974 da 16 bit e nel 1981 da 32 bit; attualmente ci si orienta verso quelli da 64 bit. Nel decennio che va dal 1971 al 1981 il numero di dispositivi per chip è aumentato di 200 volte, la velocità di elaborazione è aumentata di 30 volte ed il throughput globale (cioè, in termini grossolani, la quantità di informazione elaborate passando dall’ingresso all’uscita) di due o tre ordini di grandezza. Il progresso in questo campo è stato dunque molto più veloce di quello dei grandi elaboratori.

I progressi in fatto di densità di integrazione e di incrementi delta velocità di elaborazione sono poi ulteriormente continuati fino ad oggi. Mentre nel 1970 si era al margine inferiore della tecnologia LSI (large scale integration) con 2000 componenti per chip, ben prima delta fine del decennio si sono raggiunti i 100.000 componenti per chip, passando così dalla LSI alla VLSI (very large scale integration), intorno alla meta degli anni Ottanta si era già superato il milione di componenti per chip e verso la fine di questo decennio ci si è avvicinati a quella soglia dei 107 componenti per chip oltre la quale si può parlare di ULSI (ultra large scale integration). Contemporaneamente dal 70 al 90 la velocità di elaborazione espressa in milioni di istruzioni al secondo passa da poco più di 1 a quasi 100 nei grandi calcolatori (mainframe), da poco più di 0.1 a 10 nei minicalcolatori e da 0,05 a 5 nei personal computer (che, dopo il 90, sembrano destinati a fornire prestazioni largamente sovrapposte a quelle previste nello stesso periodo per i mini- calcolatori).

Nel frattempo il microprocessore è stato impiegato in tutti i campi per fornire capacita di elaborazione specializzata agli strumenti più diversi, dalle bilance automatiche ormai diffusissime nel campo della distribuzione commerciale alle apparecchiature più sofisticate. Si attua così la previsione, che una decina di anni fa aveva lasciato parecchi ancora increduli, secondo la quale il microprocessore si avviava a divenire ubiquitario come lo erano divenuti i motori elettrici di piccola potenza, che oggi effettivamente incontriamo dappertutto, senza quasi rendercene conto. La diffusione dei microprocessori si inquadra nella tendenza dell’elettronica moderna a passare dall’analogico al digitale (cioè alla rappresentazione dei valori numerici non con la misura di una grandezza fisica, per esempio una tensione od una corrente, ma – convenzionalmente – con una sequenza di stimoli, le cifre) e dalla logica cablata (il cui hardware è predisposto per 1’esecuzione di una sola, pur complessa operazione) alla logica programmabile (con la quale, a mezzo del software, si possono far compiere ad uno stesso hardware di tipo generale operazioni diverse).

Dopo la rapida rassegna degli sviluppi dell’informatica negli ultimi quarant’anni forse non è necessario procedere con ulteriori considerazioni in argomento, per esempio parlando del passaggio dalla tradizionale architettura SISD (single instruction – single data) all’architettura SIMD (single instruction – multiple data) delle macchine vettoriali o a quella MISD (multiple instruction – single data) per il trattamento in pipeline od infine alle architetture MIMD (multiple instruction – multiple data) oppure delle prospettive del calcolo parallelo, della connection machine o delle reti neurali e neppure ai vantaggi che 1’informatica — strumento essenziale di attuazione delle tecniche di intelligenza artificiale — potrà essa stessa trarre dall’impiego di tali tecniche, per esempio ai fini di sostituire le attuali periferiche di ingresso con terminali comandabili a voce (cioè capaci di interpretare il parlato).

Infatti quanto già detto (sia pure con particolare riferimento agli sviluppi dell’hardware) può bastare ai fini di dare un’idea generate della situazione che, secondo alcuni, può provocare quello shock da futuro legato al fatto che la velocità di adattamento dell’uomo sarebbe inferiore a quella dello sviluppo tecnologico quale si è manifestato in questo campo. Ciò che, per altro, sembra piuttosto dubbio, specialmente se ci si riferisce non all’adattabilità del singolo individuo maturo ma a quella delle nuove generazioni che vengono a contatto con 1’informatica e che dimostrano di saper benissimo convivere con essa.

INTELLIGENZA ARTIFICIALE E SISTEMI ESPERTI

I sistemi esperti costituiscono uno dei rami principali in cui si articolano oggi la ricerca e lo sviluppo applicativo nel campo dell’intelligenza artificiale (alla quale si fa abitualmente riferimento con 1’acronimo A.I. dell’espressione inglese corrispondente).

Sulla definizione (e sulla stessa definibilità), sulle possibilità e sui limiti dell’A.I. si è sviluppato (e continua tutt’oggi) un dibattito che, ovviamente data la natura dei problemi, non si è concluso ma che sembra destinato a doversi considerare superato nei fatti assumendo una posizione analoga a quella sostenuta da 0. Veblen per la geometria che sarebbe da considerare ciò che viene ritenuto tale da un numero abbastanza grande di persone competenti; esistono infatti ormai nume- rosi seri programmi di ricerca, con importanti finanziamenti, e riviste scientifiche qualificate che ne presentano e discutono i risultati, che si intitolano all’A.I.

Ai fini di una definizione, probabilmente la difficoltà maggiore si pone a proposito di che cosa si debba intendere precisamente per intelligenza. Tuttavia, siccome questa parola nel discorso comune viene usata molto frequentemente senza sostanziali ambiguità sembra lecito poter dire che l’A.I. è la disciplina che si propone di produrre ed utilizzare modelli computazionali rigorosamente definiti (e come tali eseguibili su un elaboratore elettronico di sufficiente potenza) per i comportamenti intelligenti (cioè tali che, se fossero tenuti da un uomo, verrebbero considerati intelligenti nell’accezione corrente del termine). Questo modo di vedere risulta coerente con il criterio del ben noto test suggerito da Turing, secondo il quale si può parlare di comportamento intelligente di una macchina quando, in una situazione di interazione scritta fra un soggetto umano ed un’altra entità che egli non vede e che potrebbe essere sia una macchina sia un altro uomo, il soggetto non sia in grado di stabilire, per quante domande ponga, se il suo interlocutore è un uomo o una macchina. Ovviamente alla base di queste considerazioni sta la convinzione che il sistema nervoso sia una particolare macchina per 1’elaborazione delle informazioni che utilizza principi e metodologie non troppo diversi da quelli di altre macchine, in particolare di elaboratori elettronici, sufficientemente potenti e veloci, opportunamente programmati. Si ripropone per altro il problema se 1’elaboratore debba riprodurre il modo di operare dell’uomo, più che i risultati di quell’operare,

0 non piuttosto ottenere gli stessi risultati, 0 possibilmente risultati migliori, eventualmente per altra via. Ma su ciò non sembra il caso di dilungarsi in questa sede.

La storia dell’intelligenza artificiale (nel senso in cui la si intende oggi) può essere fatta risalire al 1956, anno in cui J. McCarthy organizzò a Dartmouth un convegno, definito più tardi storico, nel corso del quale fu coniata 1’espressione Artificial Intelligence. In questo quadro, già dalla fine degli anni Cinquanta furono presentati i primi programmi capaci di comportamenti intelligenti, quali il Logic Theorist, in grado di dimostrare teoremi di logica, ed il General Problem Solver. L’orientamento iniziale era volto alla simulazione dei processi cognitivi dell’uomo ed alla ricerca di metodi generali per la soluzione di classi molto estese di problemi. Come nei settori collegati della traduzione automatica e delta lettura di testi scritti a mano, i primi passi apparvero incoraggianti, in quanto si aveva la sensazione di aver percorso con uno sforzo modesto una buona meta del cammino da compiere. Si sottovalutava però il fatto che i risultati erano di scarso interesse finché non portavano alla soluzione completa del problema e che ogni ulteriore passo su questa via veniva a costare sempre di più in fatto di difficoltà intrinseche, di tempo di calcolo e di potenza dell’elaboratore da impiegare: 1’obiettivo sembrava cosi allontanarsi sempre più a mano a mano che si procedeva. Per tali motivi, mentre al principio degli anni Sessanta si era diffuso un atteggiamento improntato a grandi aspettative, quando tali aspettative andarono deluse (e se ne ebbe la consapevolezza verso la fine degli anni Sessanta ed all’inizio del decennio successive) la ricerca in A.I. attraversò un periodo di crisi, dovuto al taglio dei finanziamenti ed alla conseguente cancellazione di molti progetti.

Negli anni Settanta andò quindi maturando un atteggiamento completamente diverso da quello ottimistico e trionfalistico degli inizi e basato invece su una grande prudenza nel valutare sia i risultati sia le prospettive e su una sorta di rimpicciolimento che consisteva nello spostare 1’interesse dal cosiddetto calcolatore universale ai sistemi esperti specializzati nella soluzione di particolari classi, alquanto limitate, di problemi.

Ovviamente non si trattava solo di un atteggiamento tattico ma anche e soprattutto di un orientamento basato sulla convinzione, maturata nel frattempo, secondo la quale la capacita di risolvere problemi dipende più dalla conoscenza incorporate che dalle procedure inferenziali utilizzate. Su queste nuove basi la ricerca in A.I. ha avuto una nuova fase di sviluppo esplosivo, specialmente nel campo della rappresentazione della conoscenza, in quello della robotica industriale e della robotica antropomorfa (con i connessi problemi di visione e di interpretazione di immagini) ed in quello, che qui più specificamente ci interessa, dei sistemi esperti.

I sistemi esperti costituiscono una delle più interessanti fra le applicazioni delle tecniche di rappresentazione delta conoscenza; si tratta, precisamente, di cercare di utilizzare la conoscenza immagazzinata per fornire una consulenza avente caratteristiche paragonabili a quella che potrebbe essere offerta da un esperto umano.

In questo senso i sistemi esperti possono essere considerati come un’estensione dei sistemi dotati di capacita di reperimento delle informazioni (information retrieval) e della capacità di ragionare sulle informazioni reperite. In proposito c’è però da osservare che 1’uomo, generalmente, utilizza le informazioni secondo logiche non standard e, quindi, i sistemi esperti dovrebbero essere messi in grado di utilizzare queste logiche non equivalenti al calcolo predicativo.

Più precisamente i sistemi esperti devono essere dotati della capacita di reperire le informazioni di interesse non solo fra quelle esplicitamente memorizzate ma anche fra quelle ricavabili da esse secondo opportuni tipi di inferenza e di dar conto, inoltre, della procedure seguita per ricavare 1’informazione che viene fornita all’utente. In rapporto a queste esigenze il sistema esperto risulta formato da una base di dati (la base della conoscenza), che va man mano modificata ed arricchita, di un motore inferenziale e di un modulo di spiegazione che consenta all’utente di rendersi conto del modo in cui sono state tratte le conclusioni che gli vengono sottoposte.

Nella strutturazione dei sistemi esperti all’inizio si sono contrapposte due distinte impostazioni: quella di generazione e verifica (generate and test) e quella basata su regole. La prima trova il suo campo elettivo di impiego nei problemi che ammettono un numero limitato di risposte; il sistema esperto genera ciascuna di queste risposte e verifica quale soddisfi i vincoli assegnati (per esempio corrisponda ai dati sperimentali); un esempio può essere fornito dal sistema esperto Dendral che fornisce un valido ausilio all’analista chimico nella determinazione della formula di struttura di composti organici.

La seconda impostazione è basata sull’impiego di regole del tipo if, then cioé: se si verificano le circostanze a, b, c, allora è certo/verosimile (con un dato grado di verosimiglianza, compreso fra 1 e 0) che si verifichi la situazione d (oppure: è necessario/opportuno intraprendere 1’azione d). Le regole possono poi essere applicate risalendo dagli effetti ultimi alle cause prime (backward chaining) secondo la logica del medico (nei problemi di diagnosi) o dell’inquirente, oppure traendo le possibili conclusioni dai fattori noti (forward chaining) secondo la logica del giocatore di scacchi.

Poiché spesso i dati sono imprecisi non si potrà usare sempre la classica logica a due valori ma converrà rivolgersi a logiche a più valori o, meglio, alla logica, sfumata (fuzzy) introdotta da L.A. Zadeh nel 1965.

INFORMAZIONE E CONTROLLO

Come si è visto nel contesto delle considerazioni fin qui fatte, 1’informazione può essere trasmessa e può essere elaborata. In entrambi i casi si opera a livello di segnale: anche se le potenze in gioco possono essere tutt’altro che trascurabili, esse non hanno un’importanza intrinseca, almeno da un certo punto di vista, ma il solo scopo di costituire il necessario supporto alle informazioni trasmesse o elaborate.

Può essere il caso, però, di ricordare che Weaver suggeriva di tenere conto, oltre che degli aspetti tecnici e di quelli semantici, anche degli aspetti pragmatici dell’informazione, cioè di quelli per i quali essa può influenzare un comportamento. Forzando un po’ questo punto di vista potremmo scorgere un tal tipo di impiego dell’informazione anche nel caso del rapporto uomo – macchina o macchina – macchina, in cui un’informazione (fornita dall’uomo o da un’altra macchina) influenza il comportamento di una macchina e quindi modifica flussi di potenza o di materia.

Se si ha a che fare con due (parti di) macchine che si influenzano a vicenda, si ha la situazione del controllo automatico, in cui, tipicamente, una parte del sistema preleva informazioni sul comportamento dell’impianto da controllare, le elabora, ed in base al risultato di questa elaborazione influenza il comportamento dell’impianto stesso, in modo da fargli assumere 1’andamento desiderato.

In questo caso si ha, propriamente, un ciclo di retroazione (feedback) e la discipline che si occupa dei sistemi di questo tipo, sia dal punto di vista teorico, sia da quello tecnologico, viene chiamata automatica (parola coniata in Francia nel 1956, molto diffusa in Italia ed in altri paesi dell’Europa continentale, un po’ meno nella Gran Bretagna e negli Stati Uniti dove è più frequente 1’uso di espressioni quali Systems and control science and technology come del resto il termine Computer science and technology tende a prevalere su Informatics).

Nei sistemi di controllo oltre a dispositivi capaci di trasmettere e di elaborare 1’informazione è necessario disporre anche di elementi capaci di prelevare informazione direttamente dall’impianto da controllare, senza 1’intermediazione dell’uomo e, soprattutto, elementi capaci, se 1’espressione non è troppo ardita, di far interagire flussi di informazione con flussi di energia o di materia, con un compito che potrebbe far pensare a quello della glandola pineale di cartesiana memoria. Compiti di questo genere hanno avuto, nella tecnica, rubinetti e valvole idrauliche, inserite in tubazioni, che comandati con minimo sforzo consentono di modulare portate anche cospicue di fluidi, poi i relè, applicando all’avvolgimento di controllo dei quali modeste correnti è possibile aprire o chiudere un contatto attraverso il quale far circolare una notevole corrente, più tardi i tubi elettronici a vuoto spinto od a riempimento gassoso ed infine i transistors ed i raddrizzatori controllati.

La retroazione, però, non si è rivelata solo un efficace procedimento tecnico, utilizzato per scopi di regolazione e controllo o anche per esigenze diverse. Essa si è dimostrata, infatti, un efficacissimo strumento per pensare, nel senso che modelli interpretativi a retroazione si sono dimostrati assai efficaci nelle discipline più diverse.

Si concluderà quindi questo lungo excursus sui vari aspetti dell’informazione dedicando qualche cenno agli impieghi della retroazione nella tecnica ed ai modelli interpretativi a retroazione.

LA RETROAZIONE NELLA TECNICA

Come si è detto, 1’impiego della retroazione nella tecnica per scopi di controllo è molto diffuso, nei campi applicativi più diversi. Il principio in base al quale questi sistemi funzionano ci appare ovvio: si tratta, infatti, come si è detto, di rilevare lo scostamento fra il valore desiderato ed il valore effettivo della grandezza che costituisce 1’uscita dell’impianto da controllare e di agire su tale impianto nel senso di forzarlo a far aumentare la sua uscita quando questa è più bassa del voluto e, simmetricamente, di forzarlo a farla diminuire nel caso contrario.

Ciò potrebbe indurre a pensare che 1’impiego della retroazione nella tecnica sia piuttosto antico e diffuso. In realtà per usare la retroazione a scopi di controllo automatico (e cioè quando non è 1’uomo che valuta lo scostamento fra valore desiderato e valore effettivo della grandezza da controllare) occorre, in generale, come si è detto, un dispositivo di misura, che trasduca la grandezza da controllare in un’altra grandezza ad essa univocamente legata (per esempio la posizione di un organo mobile), che sia facile da elaborare e da confrontare con una grandezza omogenea che rappresenti il riferimento. Risulta così chiaro il motivo per il quale non si sono potuti avere sistemi di controllo automatici delle temperature prima dell’invenzione dei termometri.

Nell’antichità classica sono stati ideati dispositivi ai quali è possibile associare uno schema a retroazione, dove una valvola veniva comandata dal livello di un galleggiante: la posizione della valvola determina il valore di una portata affluente o defluente, che influenza il livello raggiunto dal liquido in un serbatoio, mentre tale livello, attraverso il galleggiante ed un sistema di leve, influenza a sua volta la posizione della valvola e quindi la portata. Una tecnica di questo tipo è stata usata da Ctesibio, vissuto ad Alessandria al tempo di Tolomeo. Il Filadelfo (285-247 a.C.), che Vitruvio cita e paragona ad Archimede, per un orologio ad acqua; lo stesso principio è stato utilizzato anche da Filone di Bisanzio, vissuto nella seconda meta del II secolo, per la regolazione di una lampada ad olio, da Erone in vari dispositivi e, per la realizzazione di orologi ad acqua, da vari tecnici ed inventori appartenenti ad una tradizione che lega 1’antica Alessandria a Bisanzio ed alla cultura islamica.

Il primo sistema a retroazione inventato nell’Europa moderna indipendentemente da modelli antichi è un regolatore automatico della temperature di forni (applicato ad un’incubatrice e ad un atanor, cioè ad un fornello alchimistico) ideato e costruito da Cornelis van Drebbel nei primi decenni del diciassettesimo secolo; non è un caso, in rapporto alle considerazioni che si sono svolte all’inizio, che a Drebbel sia stata attribuita 1’invenzione del termometro (come pure del microscopio e del telescopio, anche se fu soltanto, con ogni probabilità, il primo che introdusse in Inghilterra questi strumenti).

Drebbel nacque ad Alkmaar in Olanda, nel 1572 e mori a Londra prima del 1634. Cultore di varie scienze, dalla matematica alla fisica ed alla chimica e inventore di rilievo, anche se da alcuni fu considerato un alchimista o addirittura un ciarlatano, da altri fu stimato; in particolare ne ebbe alta opinione Robert Boyle. Giacomo I, re d’Inghilterra, si interessò ai suoi esperimenti e nel 1604 lo chiamò a Londra. Drebbel fu poi a Praga, fra il 1610 ed il 1612, su invito dell’imperatore Rodolfo II, interessato a quanto riguardasse 1’astrologia e l’alchimia. Successivamente tornò in Inghilterra, fu di nuovo a Praga (dove fu fatto imprigionare dall’Elettore Palatino Federico V), poi ancora in Inghilterra dove si occupò di problemi di ingegneria navale (pare abbia realizzato un sommergibile) e di idraulica e fu anche inviato a La Rochelle con compiti di ingegnere militare. In campo chimico si deve a lui 1’impiego di sali di stagno per 1’industria tintoria.

I suoi sistemi di controllo della temperatura si basano sull’impiego di termometri (ad alcool o ad aria) che, mediante un gioco di leve, comandano il registro di tiraggio del forno: quando la temperatura è più bassa del voluto, il registro facilita la circolazione di una maggiore quantità di aria e la fiamma si ravviva; quando la temperature è più alta, il registro tende a chiudersi e la fiamma si attenua.

Di tali forni a regolazione termostatica abbiamo un disegno di mano dello stesso Drebbel e la descrizione dettagliata, illustrata da un disegno, ad opera di un viaggiatore francese, Balthasar de Monconys, che nel 1663 visitò il laboratorio di Drebbel, allora custodito dal suo genero Johan Sibertus Kufler, che, consapevole dell’importanza di quell’invenzione e timoroso che altri se ne appropriasse, non gli fece vedere 1’apparecchio in funzione.

Sempre del diciassettesimo secolo è un altro dispositivo del quale può esser data un’interpretazione a retroazione, la pentola di Papin, che può esser vista come un regolatore della pressione di vapore (infatti quando la pressione sale al di sopra del valore desiderata provoca automaticamente 1’apertura di una valvola di sfiato).

Nel secolo successivo abbiamo invece, quanto meno, le prime applicazioni industriali ed i primi brevetti di un dispositivo per la regolazione della velocità di rotazione di una macchina (che per altro era già stato usato in precedenza nei mulini): si tratta del cosiddetto regolatore di Watt, del 1787, basato sul dispositivo centrifugo a sfere che, in buona sostanza, trasduce la velocità angolare di rotazione della macchina nella posizione del colletto su cui sono incernierate le bielle, permettendo così il confronto (mediante un sistema di leve) con una posizione di riferimento (corrispondente alla velocità voluta) e, quindi, 1’azione sul motore, per variarne la velocità, in base all’esito di tale confronto.

Con il secolo diciannovesimo i sistemi di regolazione a retroazione trovano impiego sempre più esteso in rapporto alle esigenze della crescente industrializzazione. Si rimane, per altro, in campo artigianale, nel senso che innovazioni e miglioramenti sono frutto della genialità inventiva e dell’esperienza di tecnici pratici e non effetto di applicazione sistematica di principi teorici. E’ interessante però mettere in rilievo un’eccezione e cioè una nota di James C. Maxwell, che analizz6 da un punto di vista rigoroso ed in modo compiutamente formalizzato il comportamento dei regolatori di velocità realizzati dall’astronomo George B. Airy per i suoi telescopi. La memoria di Maxwell (presentata alla Royal Society nel 1867) si intitola On governos (dal termine dell’inglese tecnico dell’epoca, del resto non completamente caduto in disuso, con cui si indicavano i regolatori); a tale titolo si ispirò N. Wiener, nel 1947, quando coniò la parola cibernetica che avrebbe costituito il titolo del suo volume uscito l’anno successivo.

La memoria di Maxwell rimane, però, un fatto isolato e i sistemi di regolazione a retroazione continuarono per motto tempo ancora a venire progettati e messi a punto su basi empirico-intuitive.

Un passo significativo, determinante ai fini del progresso tecnologico in questo settore, si ebbe solo negli anni Venti di questo secolo con le applicazioni della retroazione nell’elettronica. Che si tratti di applicazioni basate su una più precisa consapevolezza delle caratteristiche intrinseche del meccanismo che si adottava può esser provato dal fatto che proprio in quest’epoca è nata la parola inglese feedback (con riferimento ad impieghi in campo elettronico).

Le applicazioni delta retroazione a cui si fa qui riferimento non erano relative a scopi di controllo ma all’esigenza di attribuire a circuiti elettronici ed a sistemi di comunicazione le caratteristiche volute. In particolare si trattava di compensare le distorsioni e gli altri tipi di disturbo che avevano luogo negli amplificatori a tubi elettronici impiegati nel collegamento telefonico transcontinentale degli Stati Uniti. A questo fine Harold S. Black, che per diversi anni si era occupato del problema fornendo anche ingegnosi contributi alla sua soluzione, nel 1927 pensò di ricorrere ad uno schema a retroazione nel quale lo stesso amplificatore veniva fatto attraversare dal segnale in arrivo e da un segnale corrispondente alla sua uscita (opportunamente attenuata), in modo da avere la combinazione degli effetti utili e la compensazione delle distorsioni. Analoghi schemi a retroazione furono proposti anche per circuiti che utilizzavano tubi elettronici al fine di realizzare amplificatori ad alto guadagno od oscillatori da impiegare nel campo della radiotecnica.

In tutti questi casi il comportamento del sistema è poco intuitivo ed è necessario disporre di una teoria che fornisca metodi di analisi adeguati per prevedere il comportamento del sistema e metodi di sintesi adatti per progettarlo affinch6 si comporti nel modo desiderato.

Questi metodi vennero messi a punto soprattutto negli anni Trenta del nostro secolo ad opera dello stesso Black, del già citato Harry Nyquist e di H. Bode.

Durante la seconda guerra mondiale e poi nel decennio seguente ebbe luogo il trasferimento di tali metodi allo studio di veri e propri sistemi di controllo: inizialmente, in rapporto alle esigenze belliche, per la progettazione dei sistemi di puntamento di antenne radar e di armi antiaeree, successivamente nel campo delle applicazioni industriali vere e proprie. Dalla fine degli anni Cinquanta lo studio di controllo si è giovato in maniera determinante dei risultati della teoria dei sistemi dinamici.

In sintesi si può dire che, se è vero che per molto tempo i meccanismi di controllo basati sulla retroazione hanno potuto essere concepiti e perfezionati anche senza disporre di una teoria, è però anche vero che questo modo di procedere aveva dei limiti intrinseci e lo dimostra la quantità e la qualità dei risultati ottenuti negli ultimi cinquant’anni nel campo del controllo, che hanno potuto essere conseguiti certo in grazia dei progressi dell’elettronica e delle varie tecnologie interessate ma anche e soprattutto per la disponibilità di un adeguato apparato teorico che si sviluppa e si aggiorna continuamente

MODELLI A RETROAZIONE

Come si è detto, la retroazione è stata impiegata nella tecnica per la realizzazione di sistemi di controllo fin dell’antichità (e comunque, nell’Europa moderna almeno fin dagli inizi del diciassettesimo secolo) senza che si avesse una precisa consapevolezza della sua presenza nei sistemi che si realizzavano. Questa consapevolezza è stata raggiunta solo negli anni Venti del nostro secolo, con riferimento ad applicazioni che interessavano soprattutto la radiotecnica e le telecomunicazioni (ed è proprio in questo periodo che è stata coniata la parola inglese feedback che la designa). E’ solo però con Norbert Wiener e con il suo famoso libro intitolato alla Cibernetica, pubblicato nel 1948, che matura 1’interesse ad utilizzare gli schemi a retroazione come modelli interpretativi per fenomeni di vario tipo, ed in particolare per i fenomeni naturali della biologia.

Procederemo qui ad una rapida rassegna di alcune discipline nelle quali i modelli a retroazione hanno dato buona prova di sé, consentendo di ricondurre all’interazione di pochi (sotto)sistemi, sostanzialmente semplici, comportamenti anche abbastanza complessi.

Si inizierà dal campo della dinamica delle popolazioni, che tanto interesse ha acquisito anche presso il grande pubblico per i suoi legami con i problemi dei cosiddetti limiti dello sviluppo. Il modello più semplice che si può considerare a questo proposito è quello in cui la popolazione p presente in un determinato paese viene considerata il risultato di un fenomeno di accumulazione del flusso delle nascite fn (espresso in nati vivi per anno ed eventualmente completato da quello delle immigrazioni) da cui va sottratto il flusso dei decessi fd (espresso in morti per anno ed eventualmente completato da quello delle emigrazioni).

11 flusso delle nascite è proporzionale al livello della popolazione tramite il coefficiente di natalità cn. (espresso in nati vivi per anno per mille abitanti). Analogamente il flusso dei decessi è proporzionale al livello della popolazione tramite il coefficiente di mortalità cm. Si hanno così due canali di retroazione, uno positivo ed uno negativo; come risultato, se cn e cm sono costanti, la popolazione cresce con legge esponenziale (cioè a tempo di raddoppio costante) quando il coefficiente di natalità prevale su quello di mortalità e diminuisce con legge esponenziale decrescente (a tempo di dimezzamento costante) in caso contrario.

E’ più realistico, specialmente nello studio di popolazioni animali, supporre che il coefficiente di crescita (differenza fra quello di natalità e quello di mortalità dipenda dal divario fra la cosiddetta capacità portante (livello di popolazione che viene mantenuto dalle risorse rinnovabili di cui si dispone) e il livello effettivo della popolazione stessa; questa, quindi, dapprima cresce velocemente (quando il divario in questione è ancora forte), poi sempre più lentamente, tendendo asintoticamente al livello che corrisponde alla capacita portante. Si ha cioè la crescita secondo una logistica.

La retroazione, cioè 1’influenza reciproca di due sottosistemi, è particolarmente idonea a dar conto anche della situazione corrispondente alla convivenza di due specie, una di prede e 1’altra di predatori; il modello che interpreta le equazioni proposte dal grande matematico Vito Volterra per lo studio di questi fenomeni è appunto di questo tipo. Lo schema da conto dell’andamento ciclico, riscontrato spesso in natura: infatti, se la popolazione delle prede aumenta rispetto ad una situazione di equilibrio, si ha un aumento dei predatori, il quale determina una diminuzione delle prede, che a sua volta da luogo ad una diminuzione dei predatori e cosi via.

Restando sempre nel campo delle scienze naturali, passiamo dalla teoria della dinamica delle popolazioni alla fisiologia per considerare 1’omeostasi, cioè la capacità degli organismi viventi di conservarsi in condizioni di equilibrio pressoché costanti, nonostante il variare delle condizioni esterne (per esempio nella regolazione della temperature interna, in quella della glicemia etc.). L’omeostasi può essere interpretata mediante meccanismi (spesso più meccanismi cooperanti) che hanno la struttura e le caratteristiche dei sistemi di regolazione usati nella tecnica; questi, in particolare, si basano su un anello di retroazione negativa in cui le variazioni di una grandezza (negli esempi citati, la temperature interna del corpo o il livello di glucosio nel sangue) provocano reazioni che hanno come effetto una variazione in senso opposto della grandezza considerate e, quindi, il suo ritorno verso le condizioni di equilibrio. Può valere la pena di ricordare che la parola omeostasi è stata introdotta dal fisiologo W. B. Cannon, al quale si deve un’opera ben nota, pubblicata nel 1932 ed intitolata Tbe Wisdom of the Body: la saggezza del corpo si manifesta appunto attraverso 1’omeostasi, vista come lo strumento universale capace di assicurare agli organismi le condizioni più opportune per la sopravvivenza.

Modelli a retroazione possono essere usati anche per fenomeni della vita diversi da quelli più propriamente di regolazione omeostatica (in cui si tiene sotto controllo un parametro dell’ambiente interno) e specificamente per i sistemi di controllo della posizione di parti del corpo (come per esempio quelli, basati sia su una retroazione visiva sia su una retroazione propriocettiva, che hanno luogo quando si avvicina la mano ad un oggetto per afferrarlo). Fenomeni di questo genere furono considerati con grande interesse da Norbert Wiener. Passando dai sistemi naturali a quelli, in qualche modo artificiali, dell’economia, si può dire che anche in questo campo i modelli a retroazione sono stati considerati con motto interesse. A titolo di esempio si ricorda il modello a moltiplicatore ed acceleratore (concepito originariamente da Samuelson nel 1939 e poi modificato nel 1950 da Hicks) nella forma dovuta ad A.W. Phillips.

Il modello che descrive il comportamento di un sistema macroeconomico chiuso può essere schematizzato nel modo seguente: la produzione P varia nel tempo per adeguarsi alla domanda complessiva D; la domanda complessiva consta di tre addendi: i consumi C, gli investimenti I e gli interventi governativi C. I consumi C dipendono dalla produzione (se questa è costante sono proporzionali ad essa secondo il coefficiente c di propensione al consumo, se varia tendono a riprodurre con un certo ritardo le variazioni); gli investimenti I dipendono anch’essi dalla produzione e, più precisamente, dalla sua tendenza a variare e cioè, dalla sua derivata (quando la produzione cresce, per effetto della crescita della domanda, si tende ad investire; quando diminuisce, si tende a disinvestire). Il canale che lega i consumi alla produzione corrisponde a quei fenomeni che gli economisti designano con il termine moltiplicatore ed il canale che lega gli investimenti alla derivata della produzione corrisponde a quelli a proposito dei quali parlano di acceleratore. Associando, come ha fatto Phillips, opportuni valori numerici ai parametri che caratterizzano il modello, questo può dar conto di come il sistema evolva in assenza di G (e rivela che, per opportuni valori dei parametri, in esso possono aver luogo oscillazioni che corrispondono ai cosiddetti cicli economici), permette di valutare gli effetti di G (che altrimenti sarebbero di interpretazione non immediate, appunto per la presenza dei due canali di retroazione) ed anzi, nelle intenzioni di Phillips, aveva proprio lo scopo di consentire la valutazione più opportuna dell’andamento nel tempo da far assumere a G in funzione anticiclica.

Modelli a retroazione sono stati proposti anche in altri campi, tradizionalmente meno formalizzati, quali quelli della psicologia, della sociologia, della scienza della politica, etc.

Cominciando da questi ultimi, si possono ricordare i modelli proposti da Lanchester nel suo saggio Mathematics in Warfare, del 1956, e da Richardson nel suo libro Arms and Insecurity, del 1960. Si tratta di modelli a retroazione che possono ricordare quelli proposti per i sistemi predatore-preda (con la differenza che, in questo caso, ciascuna delle due potenze impegnate in guerra o nella corsa agli armamenti è contemporaneamente predatrice e preda).

Anche nel campo delta psicologia sociale la presenza di anelli di retroazione può essere individuata nella dinamica di certi atteggiamenti mentali ed in particolare nel fatto che questi possono venire rafforzati secondo meccanismi analoghi a quelli in cui si ha una risposta crescente esponenzialmente. In base a considerazioni di questo tipo M. Maruyama ha tentato di spiegare il carattere nazionale dei Danesi (una nazione omogenea, anche perché non molto popolosa e con una lunga tradizione storica unitaria) appunto attraverso 1’individuazione degli atteggiamenti che le catene di retroazione rinforzano.

Per mostrare fino a che punto ci si possa spingere nel voler ritrovare schemi a retroazione, si vuol concludere questa rassegna illustrando brevemente il modo in cui tale schema è stato suggerito per interpretare la vulgata tradizionale della dialettica di Hegel. Secondo questa versione la dialettica consiste nel porre un concetto astratto, la tesi, nel negarlo, come alcunché di finito, passando al suo opposto, 1’antitesi, ed infine nel compendiare nella sintesi quanto vi è di valido nelle due precedenti determinazioni, superandole entrambe. Il processo dialettico è però qualche cosa di continuo, in cui la sintesi raggiunta in una prima fase si ripropone come una nuova tesi, che suscita a sua volta un’antitesi e si combina con questa dando luogo ad un’ulteriore sintesi e cosi via indefinitamente.

Ma in tal modo ci si ritrova nella stessa situazione che e stata messa in rilievo dagli studiosi di informatica, mostrando come ad un procedimento iterativo indefinito corrisponda un diagramma di flusso con un ciclo.

La retroazione può cossi interpretare in modo suggestivo il processo dialettico, dando conto del fatto che, secondo 1’impostazione adottata, il passaggio da tesi ed antitesi a sintesi ed il porsi della sintesi come una nuova tesi non sono da considerarsi come momenti consecutivi di una successione temporale ma, piuttosto, come momenti di una successione logica. Nello stesso tempo lo schema permette però anche di intuire la compatibilità di un tal modo di vedere le cose con i non pochi casi in cui, nel divenire storico, si passa temporalmente da posizioni inizialmente assunte a posizioni contrastanti, tendendo poi ad una posizione intermedia più equilibrata (in cui si conservano gli aspetti positivi di ciascuna delle due posizioni precedenti). E’ infatti tipico dei sistemi a retroazione fornire una risposta oscillatoria (smorzata) anche quando le proprietà delle singole parti che interagiscono fra di loro nel ciclo non avrebbero, a priori, suggerito un comportamento di questi tipo.

Questa lunga serie di esempi di sistemi a retroazione, che va da modelli matematici veri e propri, impiegabili concretamente per scopi di predizioni, a suggestioni che non vanno molto oltre il divertimento intellettuale, rinforza chi si occupa di sistemi a retroazione nella convinzione che questi siano effettivamente molto efficaci per interpretare in modo semplice fenomeni piuttosto complessi.


Ultimo aggiornamento: 15/03/2005 HTML 4.01 valido! info@accademiaxl.it