ATTENZIONE!
Il contenuto di questa documentazione è .
Vista la complessità della materia il suo scopo principale è quello di dare uno sguardo alla evoluzione
generale tenendo d’occhio gli sviluppi futuri e rimandando alle fonti adeguate per una trattazione
più approfondita della materia.
Tutte le fonti, quando presenti, vengono riportate in fondo, nei paragrafi: Link Esterni e Riferimenti.
La rete Internet nasce nel 1969 con il
nome di “ARPAnet” collegando inizialmente, 4 computer a cui si sono aggiunti altri
computer di basi militari, università e centri di ricerca e, infine, tutto il mondo, mediante l’uso
di protocolli di trasmissione che ne permetto la comunicazione.
Internet è una rete pubblica e globale di interconnessione di reti di computer (computer networks)
che trasmette dati
tramite la commutazione di pacchetto
(packet switching)
utilizzando il protocollo Internet
IP (Internet Protocol).
È una rete di reti, o meglio, “La Rete delle Reti” (network of networks)
che è formata da milioni di reti, da quelle piccole implementate nelle case domestiche a quelle
accademiche, da quelle delle aziende a quelle governative, che, assieme, portano le più svariate
informazioni e forniscono servizi come la posta elettronica
(electronic mail),
le chat online,
il trasferimento di file,
le Pagine Web e altre
documentazioni del
World Wide Web.
Contrariamente al pensiero comune, la rete Internet e il
World Wide Web
non sono e non hanno lo stesso significato. La rete Internet è una collezione
di reti di computer interconnesse e collegate tra di loro tramite cavi in
rame, in fibra ottica o senza filo, ecc.. Il Web è, invece, una collezione
di documenti, collegati tramite
hyperlinks (collegamento ipertestuale)
e URLs.
Il World Wide Web e accessibile tramite Internet, come altri servizi quali la posta elettronica
(eMail),
la condivisione di file
(file sharing),
e altri ancora descritti in questa documentazione.
Quando l’Unione Sovietica lanciò lo Sputnik spinse gli
Stati Uniti a creare nel febbraio 1958 la
“Advanced Research Projects Agency”
(ARPA; successivamente conosciuta come
“Defense Advanced Research Projects Agency” o DARPA) per recuperare
velocemente il divario tecnologico che si era ormai costituito. ARPA
creò l’“Information Processing Technology Office” (IPTO) per favorire
la ricerca sviluppata dal programma
“Semi Automatic Ground Environment”, che, per la prima volta, mise in
rete i sistemi radar di tutta la nazione. J. C. R. Licklider, capo dell’IPTO, fra i primi, vide nella rete
globale il suo grandissimo potenziale rivoluzionario adatto ad unificare le
conoscenze e l’intera umanità in genere.
Nel 1950, Licklider passò dalla “Psycho-Acoustic Laboratory” della
“Harvard University” al “MIT”
(Massachusetts Institute of Technology) al servizio del comitato che ideò,
creò e sviluppò i “MIT Lincoln Laboratory”. Lavorò in un progetto
dedicato alla “Guerra Fredda” chiamato “SAGE”
(Semi Automatic Ground Environment) disegnato per creare un sistema
computerizzato di difesa area. Nel 1957 divenne Vice Presidente della
“BBN”, dove comprò il primo computer di produzione “PDP-1” e
condusse la prima dimostrazione pubblica di condivisione del tempo
“time-sharing”.
Licklider recrutò lo scienziato Lawrence Roberts e lo mise a capo di un
progetto di implementazione di una rete. Roberts si basò sulla tecnologia
sviluppata dal lavoro di Paul Baran che, per la U.S. Air Force,
aveva effettuato uno studio esaustivo che, per la realizzazione di una rete
altamente sorvegliabile e robusta, raccomandava il packet switching
(commutazione di pacchetto) nei confronti della commutazione di circuito.
Dopo tanto lavoro, il primo nodo situato a UCLA divenne attivo il
29 ottobre 1969 e venne chiamato “ARPANet”.
A partire dal 1978, “British Post Office”,
“Western Union International” e “Tymnet” collaborarono alla
realizzazione della prima rete internaziona a commutazione di pacchetto
detta “International Packet Switched Service” (IPSS). Questa
rete si è poi espansa sin dal 1981 dall’Europa e gli Stati anche verso il
Canada, Hong Kong e l’Australia.
La prima
“wide area network” che utilizza i protocolli di
trasmissione TCP/IP divenne operativa il 1º gennaio 1983, quando
la fondazione statunitense “National Science Foundation” (NSF) costruì
una rete universitaria in backbone che poi divenne l’“NSFNet”. Alcuni
ritengono che sia questa la vera data di nascita di
“Internet”.
Dal 1985 venne aperta agli interessi commerciali e vi si uniscono importanti
network quali:
Usenet,
Bitnet e altri network commerciali o accademici come:
X.25,
Compuserve e
JANET. Telenet, che prese poi il nome di Sprintnet, era una rete di
computer privata di computer, operativa dagli anni 70’ a cui si aveva
libero accesso a livello nazionale tramite “dialup” da molte città
degli Stati Uniti. Questa rete si unì alle altre negli anni 90’ non
appena il protocollo TCP/IP diveniva sempre più popolare. L’abilità del
protocollo TCP/IP di lavorare su questi network di comunicazione pre
esistenti ed in particolare modo sulla rete internazionale X.25 IPSS
ne permise una veloce crescita.
Il termine “Internet”, utilizzato per descrivere una rete
globale tramite TCP/IP, nacque in questi anni divenendo di publico
dominio.
Il 6 agosto del 1991 il CERN (Conseil Européen pour la Recherche Nucléaire)
pubblicò il nuovo progetto del “World Wide Web”. Due anni
dopo, Tim Berners-Lee, sempre al CERN, creò l’HTML
(HyperText Markup Language) basato sull’SGML
(Standard Generalized Markup Language),
l’HTTP (HyperText Transfer Protocol) e le prime Pagine
Web.
Tra i primi Web browser ci fù
ViolaWWW, basato su
HyperCard. Venne ben presto sostituito in popolartità da
Mosaic. Nel 1993 il
National Center for Supercomputing Applications alla
University of Illinois a Urbana-Champaign ne realizzò la versione
1.0 e dal 1994 aumentò il pubblico interesse per questa rete che
precentemente era preminentemente di interesse accademico, tecnico e
militare. Dal 1996 il termine ’Internet” divenne di uso
corrente per riferirsi al
World Wide Web.
Ripercorriamo le tappe più importanti della evoluzione di Internet.
1962 - John Licklider del MIT
(Massachusetts Institute of Technology), apre la strada alle reti di
computer. In “Galatic Network”, lo scienziato, descrive un
complesso di computer interconnessi che permettono di avere accesso a dati e
programmi da qualsiasi località.
1965 - Creazione delle reti a commutazione di pacchetto
(packet switching).
1969 - Nasce ARPAnet, utilizzando il
Network Control Protocol (che sarà poi sostituito dal TCP/IP
(Transfer Computer Protocol/Internet Protocol)) per mettere in connessione
quattro host Honeywell 516 dotati di 12 KB di memoria.
1971 - Ray Tomlinson, sulla rete ARPAnet, invia il primo
messaggio di email. Il testo contenuto era: “Testing 1-2-3”.
1979 - Viene costituito Usenet: è l’inizio dei newsgroup.
1983 - Viene coniato il termine Internet. TCP/IP ne è il
protocollo.
1984 - Vengono introdotti i DNS (Domain Name Server).
1990 - Tim Berners-Lee sviluppa il World Wide Web e il
linguaggio HTML (HyperText Markup Language) derivandolo da un altro
linguaggio l’SGML (Standard Generalized Markup Language). Cessa di
esistere ARPAnet. Alla McGill University di Montreal viene
sviluppato il primo motore di ricerca, denominato Archie. Un
server del CERN (Conseil Européen pour la Recherche Nucléaire) diventa
il primo server del WWW (World Wide Web).
1992 - La rete Internet fa i primi passi verso la multimedialità
con il NetAid il 9 ottobre 1992.
1993 - Marc Andreessen del NCSA
(National Center for Supercomputing Applications) lancia il browser
Mosaic X.
1994 - Pizza Hut riceve il primo ordine di una pizza attraverso
Internet (per la cronaca si tratta di una pizza al formaggio con
peperoni e funghi). Nascono Amazon.com, Progressive Network
(ora Real Network), Yahoo e Netscape Communications.
1995 - Vengono definite le specifiche principali per l’IPv6 a
128 bit.
1997 - Decine di milioni di persone seguono via Internet le
gesta della sonda Pathfinder su Marte.
1998 - Si comincia a parlare di New economy, e-bussines,
ICT, NASDAQ, ….
???? - Napster….
???? - ePhone….
Tabella 01:
Numero di host collegati alla rete.
Anno
Rete
Numero di Host
Stati Connessi
Numero di Utenti
1969
ARPAnet
4
-
-
1977
ARPAnet
100
-
-
1981
ARPAnet
200
-
-
1984
Internet
1,000
-
-
1986
Internet
2,000
-
-
1987
Internet
10,000
-
-
1989
Internet
100,000
-
-
1990
Internet
300,000
-
-
1993
Internet
-
60
-
1994
Internet
3,200,000
81
-
1995
Internet
-
121
-
1996
Internet
10,000,000
165
-
1997
Internet
19,500,000
191
-
1998
Internet
36,800,000
200
-
1999
Internet
-
211
-
2000
Internet
-
214
-
2006
Internet
-
229
1,086,250,903
Today's Internet
Internet protocols
Ci sono tre livelli di proticolli:
Al livello più basso si trova l’IP
(Internet Protocol) che definisce il peso dei dati (datagrams) o dei
pacchetti
(packets) che vengono trasportati in blocchi da un nodo ad un’altro.
The vast majority of today's Internet uses version
four of the IP protocol (i.e.
IPv4,
and although
IPv6 is standardised, it
exists only as "islands" of connectivity, and there are many ISPs who don't
have any IPv6 connectivity at all.
Al livello successivo si trovano i protocolli
TCP (Transmission Control Protocol) che effettua una connessione
virtuale che ha anche alcuni livelli atti a garantirne la’affidabilità
e
l’UDP (User Datagram Protocol) con i quali un host invia i dati
ad un altro. È un protoccolo che, con un lavoro migliore,
trasmette i pacchetti di dati senza connessione ed, in cui, i pacchetti di
dati (data packets) che vengono persi durante la trasmissione non vengono
inviati nuovamente.
Al livello più alto si trova l’application protocol che
definisce i messaggi specifici e il formato dei dati trasmessi inviati e
compresi dalle applicazioni in esecuzione ai capi della comunicazione.
Le Guide di Salehi Consulting
Intranet
ATTENZIONE! Il contenuto di questa pagina è
.
Una intranet è una rete di computer
privata (computer network) che usa
il protocollo internet, la
connettivotà di rete, e
possibilmente i sistemi di telecomunicazione pubblici per poter condividere
informazioni digitali tra i suoi dipendenti.
What Makes Intranets so Popular in Todays Workplace?
Industry Examples
Sguardo al Futuro
Che cosa ci riserva il futuro?
Questa è una bella domanda a cui da sempre si vorrebbe dare risposta. Ecco
cosa ne pensano cinque oracoli moderni.
Bill Gates chairman e CEO di Microsoft.
“Fino a questo momento non abbiamo visto ancora nulla di quello che
la tecnologia informatica può fare. Tra dieci anni il pc sarà un piccolo
schermo che si potrà tranquillamente portare in giro oppure che si troverà
incastonato nel piano di una scrivania e che servirà per visionare lettere e
documenti. Il concetto di archivio, così come lo intendiamo oggi -
pile di documenti di carta -, risulterà antiquato. Oggi anche quelli di noi
che ricorrono alla tecnologia il più possibile continuano a mettere su carta
molte cose: tra non molto i progressi nel campo dell’hardware e del software
renderanno tutto ciò puramente digitale. Le innovazioni saranno comunque
molte. Per esempio lavoreremo con computer che condivideranno i dati e
saranno sempre collegati ad Internet. Non sarà più necessario spostare i
dati: semplicemente i nostri file compariranno. Credo che nel giro di dieci
anni i libri, la musica e le fotografie saranno tutti in formato digitale. La
gente si stupirà quando si troverà di fronte un modulo di carta. Sono
disposto a giocare la mia reputazione, ma credo fermamente che nei prossimi
dieci anni qualsiasi modulo di carta sparirà. Chi baserà il suo lavoro
principalmente sui dati avrà a disposizione un computer, un dispositivo
contenente un processore dalla potenza incredibile, in grado di offrire
risposte immedite: si porterà questo dispositivo appresso, per esempio ad una
riunione, e tutte le informazioni saranno lì. I computer saranno in grado di
replicare le informazioni e, quando verranno lanciati degli aggiornamenti, i
dati raggiungeranno tutti i computer e tutte le applicazioni. I sistemi
operativi si occuperanno dell’autenticazione e del riconoscimento vocale e
a nessuno interesserà sapere dove risiederà il server”.
Ray Kurzweil, ha brevettato diverse tecnologie hardware e software,
fondatore di una decina di societa di informatica, ha scritto diversi libri e
vinto diversi premi letterari e scientifici. Da anni è impegnato nella
progettazione di prodotti per i disabili.
“Entro il 2019 un computer da 1.000 dollari avrà la stessa potenza di
calcolo del cervello umano: 20 milioni di miliardi di operazioni al secondo.
Entro il 2029, 1.000 dollari di computer equivarranno a 1.000 cervelli.
Questo riguarda la capacità dell’hardware. Il software impiegherà di più, ma
nel 2029 saranno in grado di pareggiare la flessibilità e l’intelligenza del
cervello umano. In parte questo avverrà effettuando il ‘reverse engineering’
del cervello. Una volta raggiunto un livello di intelligenza comparabile a
quella umana, i computer la surclasseranno necessariamente perché in grado di
condividere con estrema facilità le proprie conoscinze e le abilità che
hanno appreso. Personalmente penso che il mondo dell’intelligenza umana e
quello delle macchine cominceranno a crescere assieme. Piazzeremo impianti
neurali intelligenti nei nostri cervelli per migliorare le capacità
sensoriali e le nostre percezioni, la memoria e le facoltà di raggionamento.
In effetti lo stiamo già facendo, anche se in modo molto limitato. Saremo
anche capaci di collegarci al Web direttamente con il cervello, senza bisogno
di apparecchiature esterne, e la realtà virtuale sarà molto più convincente
della versione molto rudimentale che ci è dato di sperimentare
oggi”.The Law of Accelerating Returns by Ray Kurzweil (in English)
Scott McNealy presidente e CEO di Sun Microsystem.
“Il concetto di computer non esisterà più, la stessa parola diventerà
poco utilizzata. I computer si troveranno solo nelle stanze che ospiteranno i
server. Tutto il resto si trasformerà in dispositivi collegati alla rete. Non
esisteranno più personal computer, ma solo dispositivi di rete. Utilizzeremo
smart card o tecnologie simili che ci permetteranno di far sapere ad altri
dispositivi collegati alla rete chi siamo e a che cosa possiamo accedere.
Digiteremo la nostra password e potremo accedere a qualsiasi servizio per il
quale abbiamo pagato. l’idea che attualmente abbiamo delle interfaccie dei
computer non sarà più tale. Nel giro di dieci anni andremo tutti in giro
tenendo sotto il braccio (o sulla scrivania) il nostro mainframe personale,
ci porteremo in giro senza problemi 40 milioni di righe di
codice”.
Arno Penzias premio Nobel per la fisica e consulente dei
Bell Labs.
“In futuro tutto, o molto, verrà personalizzato in funzione della
singola persona. Nel mondo del lavoro in questo modo si otterrà il massimo
della produttività. McDonalds, per esempio, già sta attuando questa
strategia: la persona dietro il bancone, anche se non sa fare i conti, deve
solo premere il tasto corrispondente al Big Mac. Le interfaccie verranno
progettate espressamente per noi. Una persona potrà essere mancina, o avere
dei difetti di pronuncia - tutti abbiamo qualche difetto - ma con il tempo le
macchine si occuperanno di supplire ai nostri difetti. I programmi
individuali saranno sempre più personalizzati, e impareranno a conoscere i
nostri comportamenti attraverso la presenza, in background, di un meccanismo
di data mining. Questi programmi chiederanno: ‘Cosa fai di solito quando ti
trovi in situazioni simili a questa?’ Non si potranno eliminare gli standard,
ma sarà certamente possibile far apparire una cosa standard agli occhi del
computer e personalizzata agli occhi dell’utente”.
John Seely Brown responsabile scentifico di Xerox e direttore del
PARC.
“Uniremo i mondi della scienza organica e dell’informatica,
realizzando componenti inorganici con proprietà di autodiagnosi e riparazione
che potranno definirsi quasi biologiche. Questi componenti, che potrebbero
anche essere microscopici, saranno in grado di eseguire azioni fisiche in
modo molto accurato. Pensate, per esempio, alle stampanti a colori ad alta
velocità: oggi necessitano di un’accurata registrazione dell’immagine, che
viene generata quattro volte; un domani, attraverso pezzi di silicio
microscopici che agiranno come cigli, la stampante sarà in grado di regolare
la carta anche di un solo micron per far si’ che tutti i colori siano
allineati in modo perfetto. Quello che avremo, quindi, sarà una superficie in
movimento senza alcuna parte visibile in movimento, il che ci permetterà di
realizzare una enorme quantità di nuove applicazioni”.
Living Internet
Internet history and related information, including information from many creators of the Internet.
First Monday peer-reviewed journal on the Internet
Walter Willinger, Ramesh Govindan, Sugih Jamin, Vern Paxson, and Scott Shenker. (2002). Scaling phenomena in the Internet. In Proceedings of the National Academy of Sciences, 99, suppl. 1, 2573
2580.
A list of lectures, some of which relate to the Internet, from the Massachusetts Institute of Technology is available here. Of particular interest is lecture #3 The Next Big Thing: Video Internet which is delivered in Real Player format. The lecture gives a brief history of networking; discusses convergence between the Internet/telephone/television networks; the expansion of broadband access; makes predictions about the future of delivery of video over the Internet.
Living Internet
Internet history and related information, including information from many creators of the Internet.
First Monday peer-reviewed journal on the Internet
Walter Willinger, Ramesh Govindan, Sugih Jamin, Vern Paxson, and Scott Shenker. (2002). Scaling phenomena in the Internet. In Proceedings of the National Academy of Sciences, 99, suppl. 1, 2573
2580.
A list of lectures, some of which relate to the Internet, from the Massachusetts Institute of Technology is available here. Of particular interest is lecture #3 The Next Big Thing: Video Internet which is delivered in Real Player format. The lecture gives a brief history of networking; discusses convergence between the Internet/telephone/television networks; the expansion of broadband access; makes predictions about the future of delivery of video over the Internet.
Internet è un
mezzo che raccoglie il meglio e, a volte, anche il peggio dei genitori, degli
zii, dei nonni e dei bisnonni a cui lo si puo’ accostare ed a cui viene
soventemente paragonato. È un giornale od una rivista ma inoltre è
interattivo, ascoltabile dai non vedenti e con molteplici ed, oramai,
indispensabili funzioni di ricerca. È molto più di una semplice
telescrivente che batte le ultime notizie…
Il costo per la creazione di un sito web è un elemento che può essere calcolato solo dopo una analisi delle
specifiche esigenze. Il suo costo di avvio può variare sensibilmente, da poche centinaia di Euro
per un sito personale composto da poche pagine a molti milioni di Euro per siti istituzionali, e-commerce,
e-banking, portali, siti aziendali collegati alla Intranet, multimedia, telelavoro e quant’altro la
tecnologia ed il futuro ci riserveranno.
Normalmente viene creata una bozza di progetto che, dopo la revisione del committente, formula una stima
precisa dei costi per la realizzazione del sito.
Molte sono le
tecnologie utilizzabili tanto per la realizzazione che per la
visualizzazione di un sito web. HTML, CSS, JavaScript, Java, CGI, PERL,
PHP, Pyton, ASP, VB, SWF, GIF, JPG, PNG, WAW, AU, MPG, AVI, MOV, WMF, PDF,
DOC, SSL, MySQL, Oracle, Apache, IIS, IE, Mozilla, Netscape, Opera, …
.
La progettazione di
un sito deve tenere in massima considerazioni gli aspetti comunicativi che
deve fornire tanto dal punto di vista del rispetto dell’immagine che già
si possiede tanto dalla comunicazione di quel che si vuole pubblicare…
.
Per la prima
realizzazione di un sito web, sono da prevedere 2 fasi:
PROGETTAZIONE
Analisi delle esigenze e pianificazione del progetto web con i contenuti (testi, immagini e
contenuti multimediali) forniti dal cliente
Stesura del piano strategico di comunicazione (cosa si vuole comunicare) da concordare con il cliente
REALIZZAZIONE GRAFICA
Progetto creativo e grafico personalizzati
Elaborazione digitale dei testi e delle immagini da utilizzare
Preparazione di un prototipo del sito
REALIZZAZIONE PRATICA
Realizzazione del sito secondo le specifiche concordate
Attivazione del sito online appena completato
La durata delle fasi dipende dalla complessità
del sito e possono variare da pochi giorni a diversi mesi.
IMPORTANTE:
TUTTI I TESTI E LE IMMAGINI DOVRANNO ESSERE FORNITI DAL CLIENTE, INCLUSO IL
RELATIVO SCHEMA CON INDICAZIONI DETTAGLIATE PER l’INSERIMENTO DEGLI
STESSI NEL SITO.
I documenti HTML sono nel formato plain-text (ASCII).
Questo tipo di files puo' essere creato, modificato e
editato,utilizzando un qualsiasi editor di testo come:
Emacs o vi per le macchine UNIX; BBEdit per le
macchine Macintosh; Edit e WordPad o Notepad per
macchine Dos o Windows. Si puo' utilizzare un qualsiasi
word-processor purche si salvi il documento nel formato
solotesto con ritorno di fine linea.
T. Berners-Lee, R. T. Fielding, H. Frystyk Nielsen, J. Gettys e J. C. Mogul
"Hypertext Transfer Protocol - HTTP/1.0." Work in Progress,
MIT/LCS, UC Irvine, CERN, DEC, August 1996.