Le Guide di Salehi Consulting
Il Mondo dei Computer
First Published: Mon, 1 Nov 2004 10:00:00 GMT
ATTENZIONE!
Il contenuto di questa documentazione è .
Vista la complessità della materia il suo scopo principale è quello di dare uno sguardo
alla evoluzione generale tenendo d’occhio gli sviluppi futuri di hardware e software,
rimandando alle fonti adeguate per una trattazione più approfondita di tali materie.
Tutte le fonti, quando presenti, vengono riportate in fondo, nei paragrafi: Link Esterni e Riferimenti.
Il mondo dei computer.
Breve viaggio nel mondo dei computer….
I computer sono parte integrante della
nostra società. Sono delle macchine in grado di elaborare dati e, di conseguenza, informazioni secondo
codici prefissati. Gli elaboratori elettronici hanno avuto e continuano ad avere una enorme
evoluzione.
Quì di seguito i passaggi principali che hanno segnato lo sviluppo tecnologico dei computer.
1936 Alan Turing inventa la Macchina di Turing, da lui chiamata
“a-machine”, dove la "a" iniziale significa “automatic”.
1946 Nasce negli Stati Uniti d’America l’ENIAC (Electrical Numerical
Integrator and Calculator), il primo elaboratore elettronico.
1951 J. Presper Eckert e John Mauchly, già tra gli inventori
dell’ENIAC, danno alla luce l’UnivAC (Universal Automatic Computer) che a
differenza dell’ENIAC, poteva essere programmato per svolgere qualsiasi
compito. I computer escono dai laboratori per raggiungere i primi
utilizzatori paganti.
1952 Il 4 novembre del 1952 fù una data che segnò la storia di
diversi campi. La CBS (C Broadcast S) utilizza un UnivAC per predire i
risultati delle elezioni presidenziali negli Stati Uniti d’America. Il
risultato fù strabiliante con scostamenti dell’ordine del 1%. Dalle elezioni
del 1956 in poi tutti i network televisivi americani si sono dotati di
supporti informatici per lo sviluppo delle previsioni.
1958 Jack S. Kilby, nei laboratori della Texas Instruments, realizza il
primo circuito stampato basato sul germanio. L’anno successivo Robert Noyce
produce il primo circuito stampato basato sul silicio. Nasce una
nuova industria.
1959 entra in produzione il primo elaboratore italiano costruito in serie: l’ELEA 9003.
1964 è l’anno degli S/360 di IBM, la prima famiglia di computer
compatibili tra loro.
1965 ci porta il packet switching &lsquo,commutazione di pacchetto’. Su
questa tecnica di trasmissione dati sono tuttora basati la maggior parte dei
protocolli di rete.
1966 Viene costruito l’ILIAC IV, il primo computer parallelo e appaiono
sul mercato le prime calcolatrici tascabili.
1967 è l’anno della nascita di un indicatore di posizione per un
sistema di visualizzazione, il mouse.
1970 comparsa nei supermercati statunitensi dei codici a barre per la
lettura automatizzata dei prezzi delle merci con i relativi computer alla
cassa.
1971 A. Shugart inventa il disco floppy.
1974 viene ricordato per il kit di montaggio dell’Altair 8800 della
MITS (Micro Instruments Telemetry Systems) a 397 dollari. Era basato sul
microprocessore Intel 8008 e lo si può considerare il primo pc
(personal computer) commerciale della storia.
1976 Steve Jobs e Steve Wozniak fondano Apple e presentano la scatola
di montaggio dell’Apple I. Prezzo consigliato 666,66 dollari. È subito un
successo.
1977 È la volta del VAX 11/780 di Digital Equipment e di Apple
II.
1978 Texas Instruments immette sul mercato Speak & Spell, il primo
giocattolo parlante e Intel presenta il microprocessore 8086.
1980 È l’anno del RISC (Reduced Instruction Set Computer). Gli
artefici furono, ognuno per prorpio conto, David Patterson dell’università
di California a Berkeley, IBM e HP (Hewlett-Packard).
1981 Il 12 agosto del 1981 fù presentato il primo pc IBM. Era
dotato di un microprocessore 8088 funzionante ad una frequenza di 4.7 MHz e
di sitema operativo PC-DOS 1.0 di Microsoft. Si apre l’era dei
compatibili.
1982 È l’anno della nascita di Sun Microsystems (Stanford
University Network) ad opera di Scott McNealy, Andy Bechtolsteim, Vinod
Khosla e Bill Joy, e di SGI (Silicon Graphics).
1983 è l’anno di Compaq (Compatibility quality) e dei primi
portatili.
1984 È l’anno del primo Macintosh.
1986 Danny Hillis, sovvenzionato dalla DARPA, costruisce la Connection
Machine CM-1. Una macchina parallela composta da 64.000 elementi di calcolo
ad un bit. Nel corso della dimostrazione trovò tutte le occorrenze di
una parola chiave nel testo di 16.000 articoli in un ventesimo di
secondo.
1987 IBM presenta la sua linea di pc PS/2.
1989 Intel mette in commercio il processore 80486.
1991 Tandy presenta il primo lettore di CD-ROM.
1993 Intel presenta il processore Pentium.
1995 Intel presenta il processore Pentium Pro.
1997 Intel presenta il Pentium II.
1999 Intel rilascia il Pentium III.
CPU - Central Processing Unit
Il numero di componenti presenti nel circuito
di una CPU (Central Processing Unit) o processore è passato dai 4,000 del microprocessore 4004 del 1970
agli oltre 40 milioni dei processori della generazione del 2001 e, questo dato, è destinato a cambiare con
il passare del tempo per lo sviluppo delle tecnologie di miniaturizzazione e l’utilizzazione di
nuovi materiali.
La tabella 1 mostra la crescita del numero di transistor contenuti nei
microprocessori della famiglia X86.
Tabella 1: Evoluzione dei microprocessori.
Processore
Anno
Transistori
Frequenza [Hz]
Architettura [bit]
Tecnologia [nm]
4004
1970
4,000
1,000,000
?
0.24
8008
1973
8,000
4,700,000
?
0.24
8086
1978
29,000
10,000,000
?
0.24
80386
1986
275,000
27,500,000
32
0.24
80486
1989
1,200,000
100,000,000
32
0.24
Pentium
1993
3,200.000
200,000,000
32
0.24
PPro
1996
5,500,000
255,500,000
32
0.24
PII
1997
6,500,000
366,500,000
32
0.24
PIII
1999
10,000,000
1,000,000,000
32
0.24-0.18
PIV
2001
42,000,000
2,000,000,000
32
0.18-0.14
PIVEE
2006
178,000,000
3,200,000,000
64
0.065
Il Linguaggio dei Computer
I calcolatori o elaboratori elettronici sono
macchine in grado di elaborare informazioni trasformandole in altre informazioni. Una definizione alquanto
generale è la seguente: informazione è un qualunque insieme di segnali che condizionano
l’evoluzione di un sistema. Nell’informatica questa definizione assume un significato
ancor più ristretto, si intende, per informazione tutto ciò che può essere rappresentato tramite opportune
sequenze di simboli in un alfabeto prefissato.
Nel 1954, grazie a Grace Hopper, vede la luce il compilatore A-O, il capostipite dei
linguaggi di programmazione. Nel 1957 viene commercializzato da IBM il linguaggio fortran
(formulas translator), rivolto principalmente al mondo tecnico-scentifico.
Nel 1959 esce il Cobol (Common business oriented language), il primo linguaggio indipendente dalla
macchina di utilizzazione.
Tra il 1960 e il 1965 si sviluppa il progetto, tra America Airlines e IBM, di un sistema per la gestione
computerizzata delle prenotazioni aeree che prende il nome di Sabre. Nel 2000, lo stesso sitema,
completatosi ed evolutosi, è interfacciato al Web, collega oltre 30.000 agenzie di viaggio, 3 milioni di
clienti privati e aziendali, 400 linee aeree, 50 società di noleggio di automobili, 35.000 hotel, dozzine
di linee ferroviarie, linee di traghetti e di navi da crociera.
Il 1961 si contraddistingue per la nascita del timesharing ideato da John McCarthy e sviluppato da Fernando
Corbuto due docenti del MIT (Massachusetss Institute of Technology). l’idea è che un
programma in esecuzione su una macchina può essere interrotto, il suo stato, al punto
d’interruzione, viene memorizzato per lasciare la esecuzione dei passi di un altro programma per poi
essere ripreso dallo stesso punto. Con questo concetto l’interattività dell’utente con la
macchina diventa più pratica.
Nel 1962 la Purdue University istituisce il primo croso di laurea in &lsquo,computer science’ che
quando comparve in Italia (19XX) venne poi malamente tradotto con &lsquo,scienza
dell’informazione’ e solo successivamente in &lsquo,informatica’.
Il 1963 è l’anno del codice ASCII (American Standard Code for Information Interchange) che assegna a
caratteri, numeri, segni di punteggiatura e caratteri di controllo un valore univoco. Nella tabella
sottostante viene riportato il suddetto codice. I valori delle prime due righe e
l’ultimo dell’ultima sono i caratteri di controllo (return, back space, line feed,
carriage return, escape, delete, etc.).
Tabella 2: Il codice ASCII a 7 bit.
NUL
SCH
STX
ETX
EOT
ENQ
ACK
BEL
BS
HT
LF
VT
FF
CR
SO
SI
DLE
DC1
DC2
DC3
DCA
NAK
SYN
ETB
CAN
EM
SUB
ESC
FS
GS
RS
US
space
!
"
#
$
%
&
'
(
)
*
+
,
-
.
/
0
1
2
3
4
5
6
7
8
9
:
;
<
=
>
?
@
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
[
\
]
^
_
`
a
b
c
d
e
f
g
h
i
j
k
l
m
n
o
p
q
r
s
t
u
v
w
x
y
z
{
|
}
~
DEL
Il 1964 è la volta del linguaggio BASIC.
Nel 1969 i Bell Labs decidono di abbandonare il progetto di un sistema operativo multiutente e
multitasking Multics. Due ricercatori, Dennis Ritchie e Ken Thompson, decidono di crearne uno nuovo,
Unix.
Nel 1971 Niklaus Wirth crea il linguaggio Pascal.
Nel 1973 Dennis
Ritchie, ai Bell Labs, sviluppa il linguaggio C.
Il 1979 è l’anno di VisiCalc (Visible Calculator) di VisiCorp. Ideato da Bob Frankson e Dan Bricklin
fù il primo spreadsheet (foglio di calcolo) commerciale. Da questo momento, ogni azienda ha almeno
un buon motivo per acquistare un pc.
Tabella 3:
Vendite di prodotti software sul mercato americano.
Anno
Milioni di dollari
1981
140 $
1984
1,400 $
Il 1983 vede il lancio di Lotus 1-2-3,
un altro spreadsheet. Il suo lancio pubblicitario non avvenne,
come consuetudine, attraverso le riviste specializzate ma attraverso pagine e pagine su
&lsquo,Wall Street Journal’, &lsquo,Business Week’, &lsquo,Fortune’. Lotus voleva una
nuova clientela, quella degli uomini d’affari, dei manager.
Nel 1985 Bjarne Stroustrup dà i natali al più diffuso linguaggio di programmazione a oggetti
&lsquo,object-oriented’, il C++.
Nel 1987 Microsoft lancia, insieme ad IBM, il
sitema operativo OS/2 1.0 e, da sola, Windows 2.0. Nell’anno successivo viene fondata la OSF
(Open Software Foundation) per la definizione di standard nei sistemi aperti.
Nel 1990 Microsoft presenta Windows 3.0, Tim-Berners-Lee, fisico ricercatore del CERN
(Centre Europeen Recherge Nuclear) di Ginevra, sviluppa l’HTML (Hyper Text Markup Language)
e l’HTTP (Hyper Text Transfer Protocol).
Nel 1992 Microsoft lancia il sistema operativo Windows NT rilasciato poi l’anno successivo.
Nel 1993 l’NCSA (National Centre for Supercomputing Applications) lancia il browser Mosaic.
Nel 1994 esce la versione 1.0 del sitema operativo Linux per opera di Linus Torvalds, uno studente
dell’Università di Helsinki.
Il 1995 è contraddistinto dal lancio di Windows 95 da parte di Microsoft, Sun Microsystems rilascia il
linguaggio JAVA.
Il 1996 è l’anno dei database (basi di dati) Oracle, Informix, IBM e Sybase.
Nel 1998 Microsoft lancia Windows 98.
Nel 2000, sempre Microsoft, rilascia Windows 2000.
Programma Istruzioni che il calcolatore
esegue.
Istruzione Una frase che utilizza
parole o/e simboli propri del linguaggio utilizzato.
Linguaggio E’ definito da un
vocabolario, da regole sintattiche e semantiche.
Vocabolario Insieme delle parole e dei
simboli propri del linguaggio.
Primitive Sono parole con significato
primitivo, originario, che il calcolatore può comprendere ed eseguire. Si chiamano primitive
perché non sono definite da altre istruzioni. Sono quindi le parole base che vanno a formare il
vocabolario.
Procedure Sono nuove parole che vengono
"inventate" durante la scrittura dei programmi e che vanno ad arricchire anch’esse il
vocabolario.
Regole Sintattiche Permettono di
costruire frasi corrette combinando fra di loro le parole del vocabolario.
Regole Semantiche Data una frase
sintatticamente corretta, esse ne definiscono il significato.
italiano
Binario
ternario
ottale
Decimale
esadecimale
zero
0
0
0
0
0
uno
1
1
1
1
1
due
10
2
2
2
2
tre
11
10
3
3
3
quattro
100
11
4
4
4
cinque
101
12
5
5
5
sei
110
20
6
6
6
sette
111
21
7
7
7
otto
1000
22
10
8
8
nove
1001
100
11
9
9
dieci
1010
101
12
10
A
undici
1011
102
13
11
B
dodici
1100
110
14
12
C
tredici
1101
111
15
13
D
quattordici
1110
112
16
14
E
quindici
1111
120
17
15
F
Sguardo al Futuro
Che cosa ci riserva il futuro?
Questa è una bella domanda a cui da sempre si vorrebbe dare risposta. Ecco cosa ne pensano cinque oracoli
moderni.
Bill Gates chairman e CEO di Microsoft.
“Fino a questo momento non abbiamo visto ancora nulla di quello che la tecnologia informatica può
fare. Tra dieci anni il pc sarà un piccolo schermo che si potrà tranquillamente portare in giro oppure
che si troverà incastonato nel piano di una scrivania e che servirà per visionare lettere e documenti.
Il concetto di archivio, così come lo intendiamo oggi - pile di documenti di carta -,
risulterà antiquato. Oggi anche quelli di noi che ricorrono alla tecnologia il più possibile continuano
a mettere su carta molte cose: tra non molto i progressi nel campo dell’hardware e del software
renderanno tutto ciò puramente digitale. Le innovazioni saranno comunque molte. Per esempio lavoreremo
con computer che condivideranno i dati e saranno sempre collegati ad Internet. Non sarà più necessario
spostare i dati: semplicemente i nostri file compariranno. Credo che nel giro di dieci anni i libri,
la musica e le fotografie saranno tutti in formato digitale. La gente si stupirà quando si troverà di
fronte un modulo di carta. Sono disposto a giocare la mia reputazione, ma credo fermamente che nei
prossimi dieci anni qualsiasi modulo di carta sparirà. Chi baserà il suo lavoro principalmente sui dati
avrà a disposizione un computer, un dispositivo contenente un processore dalla potenza incredibile,
in grado di offrire risposte immedite: si porterà questo dispositivo appresso, per esempio ad una
riunione, e tutte le informazioni saranno lì. I computer saranno in grado di replicare le informazioni e,
quando verranno lanciati degli aggiornamenti, i dati raggiungeranno tutti i computer e tutte le
applicazioni. I sistemi operativi si occuperanno dell’autenticazione e del riconoscimento vocale e
a nessuno interesserà sapere dove risiederà il server”.
Ray Kurzweil, ha brevettato diverse tecnologie hardware e software, fondatore di una decina di
societa di informatica, ha scritto diversi libri e vinto diversi premi letterari e scientifici. Da anni
è impegnato nella progettazione di prodotti per i disabili.
“Entro il 2019 un computer da 1.000 dollari avrà la stessa potenza di calcolo del cervello umano:
20 milioni di miliardi di operazioni al secondo. Entro il 2029, 1.000 dollari di computer equivarranno a
1.000 cervelli. Questo riguarda la capacità dell’hardware. Il software impiegherà di più,
ma nel 2029 saranno in grado di pareggiare la flessibilità e l’intelligenza del cervello umano.
In parte questo avverrà effettuando il &lsquo,reverse engineering’ del cervello.
Una volta raggiunto un livello di intelligenza comparabile a quella umana,
i computer la surclasseranno necessariamente perché in grado di condividere con estrema facilità
le proprie conoscienze e le abilità che hanno appreso. Personalmente penso che il mondo
dell’intelligenza umana e quello delle macchine cominceranno a crescere assieme.
Piazzeremo impianti neurali intelligenti nei nostri cervelli per migliorare le capacità sensoriali
e le nostre percezioni, la memoria e le facoltà di raggionamento. In effetti lo stiamo già facendo,
anche se in modo molto limitato. Saremo anche capaci di collegarci al Web direttamente con il cervello,
senza bisogno di apparecchiature esterne, e la realtà virtuale sarà molto più convincente della versione
molto rudimentale che ci è dato di sperimentare oggi”.The Law of Accelerating Returns by Ray Kurzweil (in English)
Scott McNealy presidente e CEO di Sun Microsystem.
“Il concetto di computer non esisterà più, la stessa parola diventerà poco utilizzata.
I computer si troveranno solo nelle stanze che ospiteranno i server. Tutto il resto si trasformerà in
dispositivi collegati alla rete. Non esisteranno più personal computer, ma solo dispositivi di rete.
Utilizzeremo smart card o tecnologie simili che ci permetteranno di far sapere ad altri dispositivi
collegati alla rete chi siamo e a che cosa possiamo accedere. Digiteremo la nostra password
e potremo accedere a qualsiasi servizio per il quale abbiamo pagato.
L’idea che attualmente abbiamo delle interfaccie dei computer non sarà più tale.
Nel giro di dieci anni andremo tutti in giro tenendo sotto il braccio (o sulla scrivania)
il nostro mainframe personale, ci porteremo in giro senza problemi 40 milioni di righe di
codice”.
Arno Penzias premio Nobel per la fisica e consulente dei Bell Labs.
“In futuro tutto, o molto, verrà personalizzato in funzione della singola persona.
Nel mondo del lavoro in questo modo si otterrà il massimo della produttività. McDonalds, per esempio,
già sta attuando questa strategia: la persona dietro il bancone, anche se non sa fare i conti,
deve solo premere il tasto corrispondente al Big Mac.
Le interfaccie verranno progettate espressamente per noi. Una persona potrà essere mancina,
o avere dei difetti di pronuncia - tutti abbiamo qualche difetto -
ma con il tempo le macchine si occuperanno di supplire ai nostri difetti.
I programmi individuali saranno sempre più personalizzati,
e impareranno a conoscere i nostri comportamenti attraverso la presenza, in background,
di un meccanismo di data mining. Questi programmi chiederanno:
&lsquo,Cosa fai di solito quando ti trovi in situazioni simili a questa?’
Non si potranno eliminare gli standard, ma sarà certamente possibile far apparire una cosa standard
agli occhi del computer e personalizzata agli occhi dell’utente”.
John Seely Brown responsabile scentifico di Xerox e direttore del PARC.
“Uniremo i mondi della scienza organica e dell’informatica,
realizzando componenti inorganici con proprietà di autodiagnosi e riparazione
che potranno definirsi quasi biologiche. Questi componenti, che potrebbero anche essere microscopici,
saranno in grado di eseguire azioni fisiche in modo molto accurato. Pensate, per esempio,
alle stampanti a colori ad alta velocità: oggi necessitano di
un’accurata registrazione dell’immagine, che viene generata quattro volte;
un domani, attraverso pezzi di silicio microscopici che agiranno come cigli,
la stampante sarà in grado di regolare la carta anche di un solo micron per far si’
che tutti i colori siano allineati in modo perfetto. Quello che avremo, quindi,
sarà una superficie in movimento senza alcuna parte visibile in movimento,
il che ci permetterà di realizzare una enorme quantità di nuove applicazioni”.