Hacktivism. La libertà nelle maglie della rete
di A. Di Corinto e T.Tozzi |
||
3.2.3.
La scienza collettiva. Cooperazione, standard e linguaggi condivisi.
Unire i popoli e i saperi in rete. |
||
Un
altro degli aspetti principali dell'etica hacker, al MIT e non solo,
è il promuovere gli aspetti cooperativi. Una delle caratteristiche
delle reti telematiche è quella di permettere la cooperazione a
distanza delle persone per realizzare un obbiettivo comune. Secondo
M. Chiari "la rete abolisce sostanzialmente le distanze geografiche
e aiuta in modo molto netto la possibilità di organizzare piccoli
gruppi di ricerca internazionali con contatti quotidiani, quasi
di amicizia personale molto stretta, anche se non fisica, di scambio
continuo delle proprie impressioni e delle proprie indagini di ricerca.
Questo cambia due aspetti: l'aspetto della diffusione dei risultati
e l'aspetto della certificazione dei risultati" e dunque "il
concetto della proprietà intellettuale del lavoro" (Chiari
M., 1997). Un'altra
caratteristica delle reti telematiche è stata quella di fornire
uno strumento attraverso il quale i saperi possano essere condivisi
e il contenuto di tali saperi possa essere il risultato di una molteplicità
di espressioni. Per
realizzare tali obiettivi, è stato cercato di creare un linguaggio
(degli standard, altrimenti chiamati protocolli) condiviso attraverso
cui far dialogare le più svariate tecnologie della comunicazione.
A
tale impresa hanno partecipato le persone degli ambiti scientifici
ed istituzionali più disparati.
Nel
1945 V. Bush scrive "As we may think" in cui viene teorizzata
una macchina ipertestuale, ovvero una macchine che permettesse di
creare una strutturazione ed una serie di rimandi tra le informazioni
secondo percorsi molteplici, non gerarchici e non fissi. Sarà uno
dei primi studi che permetteranno la nascita di Internet così come
oggi la conosciamo. Poco dopo, nel 1947 viene fondata The Association
for Computing Machinery (ACM) che diventerà uno dei riferimenti
nello sviluppo delle tecnologie informatiche. Tra gli obiettivi
dell'ACM vi è quello di promuovere la circolazione e il libero scambio
di informazioni tra gli specialisti e il pubblico riguardo all'informatica.
Al 1948 risale il primo tentativo di creare un mezzo di comunicazione
di gruppo. Fu intrapreso durante la crisi e il ponte aereo di Berlino
nel tentativo di collegare apparecchi telex di una decina di paesi
diversi ma, dato che ognuno cercava di comunicare simultaneamente
in lingue diverse, il tentativo fallì. Nel
1957 i russi lanciano lo Sputnik e ciò provocò negli americani la
necessità di creare nello stesso anno un'agenzia, l'Arpa, che concorresse
con i russi nella realizzazione di un sistema di comunicazione globale.
Gli
studi sul perceptron della fine degli anni cinquanta, sono studi
su reti artificiali distribuite che ispireranno gli studi di P.
Baran. Baran è un dipendente della Rand Corporation che tra il 1960
e il 1962 disegnerà il modello di rete distribuita (in alternativa
alle reti centralizzate) che a sua volta ispirerà lo sviluppo del
modello della rete Arpanet da cui nascerà in seguito Internet. Sarà
inoltre un saggio del 1960 di Licklider dal titolo "Man-Machine
Symbiosis" a postulare un'analisi del computer come organismo
in simbiosi con l'uomo. Da tale testo e dal suo successivo "On-Line
Man Computer Communication" (1962), in cui avanza l'ipotesi
di un Network Galattico, trarranno in molti l'ispirazione per le
ricerche che faranno nascere Arpanet. All'inizio
degli anni sessanta, la tecnologia che permetteva l'uso contemporaneo
di un computer da parte di più utenti veniva definita "time
sharing". Tale tecnologia fu alla base della nascita della
telematica, che veniva tra le altre cose pensata come la possibilità
per più utenti di collegarsi alle risorse remote di una macchina
tramite una rete telematica e sfruttarne le risorse di calcolo.
Il "time sharing" è stato importante anche per la nascita
delle "comunità virtuali" in quanto gli utenti collegati
simultaneamente in "time sharing" potevano anche scambiarsi
materiali e comunicare tra loro in tempo reale. Non a caso alcune
applicazioni come la posta elettronica nacquero proprio ad uso dello
scambio durante il "time sharing". Tale
tecnologia venne elaborata grosso modo contemporaneamente presso
tre gruppi di ricerca indipendenti: il MIT tra il 1961 e il 1967,
la Rand Corporation tra il 1962 e il 1965 e al National Physical
Laboratory in Inghilterra tra il 1964 e il 1967 (Blasi, 1999, pag.17-18). Come
si è già detto saranno gli hacker a promuovere al MIT le tecnologie
interattive, sviluppandone tutti gli aspetti che permettevano di
utilizzarle per cooperare e scambiarsi materiali in rete. Lo sviluppo
di tali tecnologie veniva fatto collettivamente. Ad esempio, all'inizio
degli anni sessanta, quando arriva un nuovo modello di computer
al MIT, il Tx-0, la sua programmazione viene realizzata collettivamente
dal gruppo degli hacker, ovvero ognuno mette a disposizione le sue
soluzioni. Nel
1962 S. Russell, hacker del MIT, programma il videogioco Space War,
il primo videogioco per computer, e ne mette il codice a disposizione
di tutti. Grazie a ciò gli altri hacker realizzarono degli abbellimenti
al programma Space war che alla fine era il risultato di un'elaborazione
collettiva e venne dato gratuitamente in giro, diventando uno dei
più famosi videogame della storia. Lo
stesso spirito lo ritroveremo nella realizzazione del ben più famoso
Linux, il sistema operativo realizzato collettivamente negli anni
novanta. Originariamente
il termine hacker veniva usato per definire una soluzione brillante
ad un problema informatico. Ma allo stesso tempo alla base dell'etica
hacker vi era la cooperazione e libertà di rielaborare e migliorare
i prodotti intellettuali altrui, quale nel loro caso era l'esempio
del software. Nella
seconda metà degli anni sessanta l'ITS 9
al MIT, è un sistema aperto che incoraggia la condivisione dei files.
E' una sorta di biblioteca collettiva di programmi disponibile on-line. Mentre
nel 1965 T. Nelson nel testo "Literary Machines" conia
il termine ipertesto ("per 'ipertestò si intende un testo scritto
non sequenziale che si dirama e fornisce opzioni al lettore, meglio
se letto su di uno schermo interattivo"), nel 1967 viene realizzato
il primo sistema ipertestuale, chiamato Hypertext Editing System,
ponendo dunque le premesse ad un'organizzazione dei saperi globali
non gerarchica e non lineare (Gubitosa, 1998). Nel
1968 D. Engelbart elabora il NLS (oNLineSystem) che era un sistema
di comunicazione a distanza attraverso l'integrazione in rete di
computer "interattivi e multiaccesso". Il sistema di Engelbart
faceva tra le altre cose uso di monitor e di uno strumento simile
all'attuale mouse per fornire un puntatore (Blasi, 1999, pag. 23-25).
Lo
stesso anno, mentre i movimenti di tutto il mondo scendono in piazza
rivendicando la necessità di abolire le strutture gerarchiche ed
elitarie a favore del collettivo, nasce il Network Working Group
(NWG), all'interno del quale si distingue la figura di S. Crocker.
Lo scopo del NWG era quello di sviluppare i protocolli di comunicazione
ed altre parti significative di quella che diventerà la rete Internet.
Il Network Working Group, un nucleo di hacker selezionato da un
gruppo di talentuosi studenti universitari, operava sulla base del
modello open-source: a chiunque era permesso di contribuire con
idee, che venivano poi sviluppate collettivamente. I codici sorgente
di tutte le soluzioni venivano pubblicati fin dall'inizio, di modo
che gli altri potessero usarli, testarli e svilupparli. Questo modello
è usato ancora oggi. La composizione e il nome di questo gruppo
di hacker d'avanguardia sono cambiati molte volte nel corso del
tempo. A tutt'oggi è conosciuto come Internet Engineering Task Force,
e opera con l'Internet Society fondata da V. Cerf, un membro preminente
del gruppo fin da quando era studente di informatica alla UCLA.
Cerf ha rivestito un ruolo importante in quasi tutti i progressi
tecnologici che hanno scandito l'evoluzione della Rete. Tuttavia,
un aspetto è sempre rimasto immutato: Internet non ha alcun direttorio
centrale che ne guidi lo sviluppo; al contrario, la sua tecnologia
viene ancora sviluppata da una comunità aperta di hacker. Riflettendo
su questo sviluppo, Abbate (Abbate, 1999) nota che nella progettazione
di Internet pare non ci sia stata alcuna partecipazione da parte
delle corporation. Così come il suo predecessore (Arpanet), Internet
è stata progettata informalmente e con pochissima grancassa da un
gruppo di esperti autoselezionatisi (Himanen, 2001, pag. 136). Sempre
nel 1968 J.C.R. Licklider scrive insieme a R. Taylor il saggio "Il
computer come strumento di comunicazione". Al suo interno si
legge "tra pochi anni le persone saranno in grado di comunicare
più efficacemente attraverso un computer piuttosto che faccia a
faccia". Nella stesura del suo saggio Licklider aveva in mente
il sistema NLS (On Line System) progettato da Engelbart lo stesso
anno (Blasi, 1999, pag. 23-25). Nel saggio Licklider affronta anche
il problema della disparità tra chi avrà accesso alle nuove tecnologie
e chi ne sarà privo. Si legge al suo interno: "Anche se vengono
venduti sempre più sistemi di elaborazione interattiva ad accesso
multiplo e se sempre più gruppi prevedono di usare questi sistemi
entro l'anno prossimo, per il momento esistono forse solo cinque
o sei comunità di elaboratori interattivi ad accesso multiplo. (...)
Per la società, l'impatto sarà più o meno buono, principalmente
a seconda di come verrà risolta questa questione: <<Essere
collegati sarà un privilegio o un diritto?>>. Se la possibilità
di sfruttare il vantaggio dell'"amplificazione dell'intelligenza"
sarà riservata a un'elité privilegiata della popolazione, la rete
non farà che esasperare le differenze tra le opportunità intellettuali.
Se invece l'idea della rete dovesse risultare, come noi speravamo
progettandola, un ausilio per l'istruzione, e se tutte le menti
vi dovessero reagire positivamente, di certo il beneficio per il
genere umano sarà smisurato" (Rheingold, 1994, pag. 90-91). Nel
1969 nasce Arpanet, finanziata dalla Advanced Research Projects
Agency del Pentagono. Secondo
Himanen "si sente spesso sostenere che lo scopo di Arpanet
era di costruire una rete resistente agli attacchi nucleari. Nel
loro saggio 'A Brier History or the Internet', i precursori dello
sviluppo della Rete (V. Cerf, B. Kahn e altri) hanno definito questa
diffusa credenza una falsa diceria. Le vere origini della Rete furono
più pratiche. Il direttore del progetto, L. Roberts, un accademico
che passò dal Mit ad ARPA, ideò una rete come mezzo per migliorare
la cooperazione tra gli informatici: <<In particolari campi
disciplinari sarà possibile raggiungere una massa critica di talenti,
permettendo così a persone geograficamente distanti di lavorare
con efficacia interagendo in un sistema>> (Roberts, 1992,
pag. 2)" (Himanen, 2001, pag. 156). Di
fatto all'inizio per i progettisti di Arpanet la rete serve in primo
luogo a condividere dei computer prima ancora che a comunicare,
rispecchiando i presupposti del concetto di "time sharing"
(Blasi, 1999, pag. 28). Nel
1969 Steve Crocker, del gruppo di ricerca di Leonard Kleinrock all'UCLA,
scrive il "Request For Comments" (RFC) numero l, un documento
nel quale si descrivono i "protocolli" di connessione
tra due computer. I documenti RFC sono proposte di innovazioni tecniche,
"richieste di commenti" aperte a tutti nella rete. Lo
stile aperto dei RFC viene immediatamente apprezzato da tutte le
università e si crea un clima di intensa cooperazione che si riflette
in quello del Network Working Group (NWG) che farà costante uso
degli RFC (Gubitosa, 1998). Lo
stesso anno viene progettato il Sistema Operativo Unix che sarà
destinato a diventare nel giro di poco tempo uno standard all'interno
dei principali centri universitari e scientifici. Per molti anni
la At&t non prende nemmeno in considerazione la commercializzazione
di Unix, e lo cedono gratuitamente alle università pur continuando
a detenerne i diritti (Gubitosa, 1998). All'inizio
degli anni settanta venne realizzato uno dei primi sistemi di e-mail.
Fu R. Tomlinson a scegliere il simbolo @ che tuttora usiamo negli
indirizzi e-mail (Himanen, 2001, pag. 136). Nel
1971 M. Hart, professore di testo elettronico all'Illinois Benedectin
College, idea il Progetto accademico Gutenberg Project (http://promo.net/pg/).
Il progetto offre libri gratuitamente e liberi da copyright in rete
(Blasi, 1999, pag. 117). Nel
1971 R. Stallman entra al MIT. Sarà Stallman ad avviare nel 1983
il progetto GNU intorno a cui si aggregheranno gli sforzi di coloro
che credono nel software libero e nella realizzazione collettiva
del software. La nascita di Linux, il sistema operativo più usato
dai provider Internet, dovrà molto al progetto GNU di Stallman (vedi
La liberazione del software). Nel
1972 il prototipo di Arpanet viene presentato ufficialmente ad ottobre
all'International Conference on Computer Communications (ICCC) ad
Washington con una dimostrazione pratica organizzata da B. Kahn.
Tra le applicazioni ludiche c'era il dialogo a distanza di due computer
che simulava una seduta con un computer che faceva da psicanalista
grazie al software Eliza e un altro che riproduceva lo stile discorsivo
di un soggetto paranoide (Parry). In realtà l'unica applicazione
che interessasse i ricercatori di Arpanet era l'uso della posta
elettronica (Blasi, 1999, pag. 29). A quell'occasione si fa risalire
il primo utilizzo della parola "Internet". In seguito
a questo incontro viene costituito un gruppo di lavoro internazionale
che prese il nome di INWG, International Network Working Group,
con lo scopo di realizzare lo sviluppo degli standard di Internet.
Il primo direttore operativo del gruppo fu Cerf. L'INWH non aveva
un'autorità formale, ma in pratica sviluppò e fissò i più importanti
standard di Internet. Nel
1973 viene creato il File Transfer Protocol per scambiare file in
rete. Nel 1974 il Transmission Control Protocol da V. Cerf e R.
Kahn che saranno i protocolli chiave di Internet. Di fatto il TCP
fu anche il risultato del RFC-793, Transmission Control Protocol,
che chiedeva pareri e collaborazioni sulla relativa proposta di
protocollo. Nel
1975 nacquero i Message Service Group "SF-Lovers", "Human
Nets", ed altri. Non appena entrò in funzione ARPANET, la gente
cominciò a mandare posta elettronica, ben oltre il minimo necessario
per la manutenzione della rete. Di colpo la corrispondenza diventò
una conversazione di gruppo, una sorta di sistemi di teleconferenze
personalizzati che chiunque può mettere su comunità virtuali "fai
da te". Una delle prime mailing list fu SF-LOVERS, un elenco
di ricercatori dell'ARPA che volevano partecipare a dibattiti pubblici
sulla fantascienza. SF-LOVERS cominciò a comparire pubblicamente
in ARPANET alla fine degli anni settanta. Ci furono tentativi per
sopprimerlo, perché evidentemente era al di fuori anche delle interpretazioni
più liberali del concetto di attività di ricerca. (...) L'aspetto
sociale delle reti di elaboratori trovò la prima sede virtuale nell'elenco
di posta elettronica HUMAN NETS, in cui si discuteva sui rapporti
uomo-macchina (Rheingold, 1994, pag. 91). Nel
1977 viene realizzato il TCP/IP e i programmatori dei Bell Laboratories
distribuiscono il programma di servizio Unix-to-Unix Copy (UUCP),
progettato l'anno prima. UUCP fu distribuito insieme alle versioni
del sistema operativo Unix e consentiva a qualsiasi computer che
eseguisse Unix di comporre automaticamente il numero e connettersi
via modem con qualsiasi altro elaboratore Unix, effettuando scambi
reciproci di file (Rheingold, 1994., pag. 137). Nel
1981 nasce a Palo Alto in California il Computer Professional for
Social Responsability (CPRS). Il CPRS nasce come gruppo informale
di discussione di scienziati e tecnici informatici della California
uniti da un'indirizzario elettronico. Si costituiscono in società
nel 1983. Il CPRS ha lavorato come lobby nei confronti sia del governo
che del pubblico con uno sforzo educativo rivolto all'esterno, lanciando
austeri avvertimenti contro la fiducia eccessiva e irrazionale nei
sistemi informatici complessi. Il CPRS insiste nel dire che i semplici
computer non dovrebbero mai venire considerati una panacea magica
per i problemi sociali, etici o politici dell'umanità. I suoi membri
sono particolarmente preoccupati per la stabilità, sicurezza e affidabilità
dei sistemi di computer militari e soprattutto per quelli che controllano
gli arsenali nucleari. In effetti il CPRS si è fatto conoscere soprattutto
per i suoi continui e ben pubblicizzati attacchi alla credibilità
scientifica dell'Iniziativa di Difesa Strategica (SDI o Guerre Stellari)
(Sterling, 1992, pag. 246). Nel
1983 alcuni programmatori della University of California, finanziati
dall'ARPA, crearono una versione di Unix per i nuovi computer in
commercio; in questa nuova versione di Unix furono inseriti i codici
dei computer per comunicare con Internet, riuniti nel protocollo
TCP/IP. A questo punto i computer Unix potevano non solo comunicare
tramite modem relativamente lenti, ma potevano anche codificare
e decodificare i pacchetti di dati che viaggiavano a velocità molto
più alte in Internet. Dato che lo sviluppo era stato promosso da
finanziamenti pubblici, questa nuova versione di Unix fu distribuita
al prezzo del costo di distribuzione. A metà degli anni ottanta
nacquero nuove aziende, come la Sun Microsystem, sovvenzionata dall'ARPA,
e prosperarono all'istante perché distribuivano Unix con il software
necessario per le connessioni in rete. (...) Questa "rete di
reti" nata negli anni ottanta fu chiamata ARPA Internet, poi
solo Internet. Più questo nuovo strumento si dimostrava utile, più
le persone originariamente non autorizzate a usarlo volevano metterci
le mani sopra. I ricercatori di informatica a cui fu negato accesso
alla Rete sulla base della rigida interpretazione del concetto di
"uso accettabile" da parte del Dipartimento della Difesa
si rivolsero alla National Science Foundation (NSF). Quella interconnessione
tra reti per gli scienziati stava diventando una preziosa risorsa
intellettuale, perciò l'NSF istituì CSNET, altra rete scientifica
nell'ambito di Internet. (...) Dato che la tecnologia della commutazione
di pacchetti e delle connessioni in rete era stata creata con sovvenzioni
publiche, per le generazioni successive di reti il concetto di uso
accettabile escludeva soltanto le attività commerciali; questa situazione
ha cominciato a modificarsi nel 1993, con l'inizio della privatizzazione
di Internet. (...) La prima definizione di "uso accettabile"
limitava la Rete ai ricercatori del DARPA (come si chiama ora l'ARPA);
poi fu estesa comprendendo altri ricercatori scientifici sovvenzionati
da militari e dal governo, poi fu ancora estesa alle comunità scientifiche
e di studiosi, e ora [nel 1994, n.d.a.] sta per estendersi anche
alla comunità commerciale (Rheingold, 1994, pag. 99). Nel
1984 la National Science Foundation (NSF) entra in internet collegando
la rete con potenti calcolatori e potenziandone le linee di trasmissione
(Gubitosa, 1996, pag. 13). Viene creato il NSFNET, successivamente
si collegheranno altre agenzie come la NASA, il National Institute
of Health, il Department of Energy (Sterling, 1993). Il NSFNet è
il consorzio che amministra l'intera rete accademica negli USA.
Nel 1987 La dorsale di rete di NSFNet (il consorzio accademico USA)
comincia a essere gestita in collaborazione con una società privata,
la Merit Networks, a sua volta connessa con la IBM e la MCI (Blasi,
1999, pag. 62). L'Advanced Network & Services (ANS), controllata
da IBM e MCI, gestisce NSFNET dal 1987. In tal modo Merit Networks,
IBM e MCI gestiscono su una propria rete privata a larga banda il
network accademico USA. Nel 1991 la ANS, società senza scopo di
lucro, fondò una consociata a fine di lucro, la ANS CO+RE, per vendere
servizi telematici. In un articolo del dicembre 1991 sul New York
Times, intitolato Denunciati favoritismi nella promozione della
rete telematica nazionale, il cronista di tecnologia J. Markoff,
che pubblicò per primo la storia del WORM di Morris, scriveva: "Proprio
a una settimana da quando il presidente Bush ha sottoscritto un
decreto che istituisce la creazione di una superautostrada telematica
nazionale, sono scoppiate polemiche su un eventuale vantaggio illecito
che il governo avrebbe aggiudicato a una joint venture di IBM e
MCI, che ha creato e gestisce
una parte fondamentale della rete". Markoff citava vari esperti
e concorrenti privati che temono che l'ANS possa sfruttare la posizione
di gestore della NSFNET per mettere in difficoltà i concorrenti
desiderosi di connettersi alla Rete (Rheingold, 1994, pag. 103). Ciò
venne dunque inizialmente visto come una violazione delle regole
sulla concorrenza nel fatto che una rete pubblica (finanziata con
soldi pubblici) potesse competere direttamente - sulla stessa rete
fisica - con concorrenti privati. A partire dal 1993-1994 la situazione
viene risolta creando un sistema decentralizzato che interconnetteva
le realtà accademiche regionali evitando di passare dalla ANS (che
in seguito sarà acquistata da AOL) (Blasi, 1999, pag. 62). Le
domande che si poneva Rheingold in relazione a tale episodio erano
le seguenti: "se le organizzazioni commerciali (tra cui due
delle principali aziende mondiali, IBM e AT&T) assumono la gestione
della Rete dalle istitituzioni pubbliche, chi vi avrà accesso e
a chi sarà negato? Chi deciderà che cosa potranno dire e fare gli
utenti della Rete? Chi farà da giudice in caso di disaccordo sul
diritto di accesso o sul comportamento telematico? Questa tecnologia
è stata sviluppata con denaro pubblico. Deve esserci un limite alle
tariffe che le aziende private possono praticarci in futuro per
usare una tecnologia nata e sviluppata con il denaro delle nostre
tasse? (...) Quanto si dovrà pagare, e che cosa bisognerà accettare
di dire o non dire per inserire e consultare informazioni nella
rete? I prezzi determinano l'accesso. Che cosa vogliono controllare
le grandi aziende che aspirano a diventare i principali appaltatori
della rete del futuro? Se controllano i canali di informazione,
le reti a fibre ottiche e i nodi di smistamento ad alta velocità,
e sono anche in concorrenza per erogare servizi commerciali attraverso
quel canale, che effetto avrà tutto ciò sui loro concorrenti minori?
Quale potrebbe essere per loro il prezzo ragionevole dei sevizi
continuativi di rete? E se questi grandi protagonisti fossero tentati
di impedire ai distributori di informazioni minori di fare loro
concorrenza come venditori di contenuti?" (Rheingold, 1994,
pag. 103-104). Nel
1988 viene realizzato Internet Relay Chat (IRC) il sistema che permette
di fare un dialogo scritto in rete in tempo reale. Tra
il 1989 e il 1990 Tim Berners-Lee progetta il World Wide Web al
CERN di Ginevra. Il Web è un sistema client/server per distribuire
documenti ipertestuali. I documenti vengono codificati con uno speciale
linguaggio di descrizione del testo, HTML (HyperText Mark-up Language). Se
prima un libro elettronico poteva essere scaricato dalla rete (via
FTP ad esempio) ma non consultato direttamente, il Web permette
ora una lettura on line (Blasi, 1999, pag. 71-72). Le
tecnologie basate sulla microelettronica sono anche caratterizzate
dalla loro capacità di ricombinare informazioni in ogni maniera
possibile. Questo è ciò che Castells chiama "ipertesto"
(seguendo la tradizione che va da Ted Nelson a Tim Berners-Lee)
e che la gente chiama World Wide Web. Il vero valore di Internet
sta nella sua capacità di collegare ogni cosa a partire da ogni
punto e di ricombinarla insieme. Ciò sarà ancora più esplicito quando
il progetto originario di World Wide Web di Berners-Lee verrà ripristinato
nelle sue due funzioni, sia come browser sia come editor, invece
di essere soltanto un browser/provider di informazioni collegato
a un sistema di posta elettronica. Mentre lo Xanadu di Nelson era
chiaramente un'utopia visionaria, il potenziale reale di Internet,
così come lo vedeva Nelson, sta nella ricombinazione di tutta l'informazione
e di tutta la comunicazione esistente sulla base di scopi specifici
decisi in tempo reale da ciascun utente/produttore dell'ipertesto.
La ricombinazione è fonte di innovazione (Castells, 2001, pag. 122). Dice
Berners-Lee: "il Web è una creazione sociale più che tecnica.
L'ho progettato per un effetto sociale -aiutare la gente a lavorare
insieme- e non come un giocattolo tecnico. Lo scopo finale del Web
è quello di sostenere e migliorare la nostra vita in rete nel mondo"
(Himanen, 2001, pag. 136). Dal
punto di vista storico, il concetto di ipertesto sembra emergere
da tre linee di ricerca differenti. Per Bush il problema principale
è la crescita dei dati (records) di cui gli operatori devono tenere
conto. Per Nelson il problema fondamentale è il modo in cui il sistema
editoriale può venire riformato dalle nuove tecnologie dell'informazione.
Per figure come D. Engelbart e Tim Berners-Lee il tema centrale
è quello degli strumenti di collaborazione e coordinamento di gruppi
di lavoro (Blasi, 1999, pag. 69). Nel
1992 viene fondata ISOC, Internet Society, una organizzazione internazionale
non governativa che ha come obiettivo la definizione e l'evoluzione
degli standard Internet, la raccolta di documenti sulla storia della
rete e il coordinamento delle attività internazionali per facilitare
lo sviluppo e la diffusione dell'Internet in tutti i paesi del mondo
(Gubitosa, 1998). Per combattere la logica del networking esclusivo,
alcuni hacker difendono l'obiettivo di un networking inclusivo.
A questo proposito opera l'istituzione hacker collocata al cuore
dello sviluppo della Rete, l'Internet Society. La sua etica si riassume
in questo principio: "Nessuna discriminazione nell'uso di Internet
sulla base di razza, colore, genere (sessuale), linguaggio, religione,
opinioni politiche o di altro tipo, origini nazionali o sociali,
proprietà, censo o altre condizioni sociali". L'Internet Society
sostiene la diffusione della Rete e l'insegnamento delle competenze
del network a tutti coloro che sono stati tagliati fuori dallo sviluppo,
dalle imprese e dai governi (Himanen, 2001, pag. 100). Nel
1994 T. Berners-Lee fonda il W3C (World Wide Web Consortium) un'organizzazione
no-profit per l'elaborazione di protocolli comuni rivolti al miglioramento
del web che vede la partecipazione attiva di programmatori di tutte
le case software coinvolte nel mercato del web per introdurre e
imporre standard de facto. Il risultato è un'innovazione continua
degli standard base del sistema (Blasi, 1999., pag. 77). |
||
|
||
Licenza: Questo testo e' soggetto alla GNU Free Documentation License Copyright (c) 2002 A. Di Corinto, T.Tozzi
Permission is granted to copy, distribute and/or modify this document
under the terms of the GNU Free Documentation License, Version 1.1 |