Dove vuoi andare?
Ospiti e camere
...
IT | Cambia lingua Preferiti Vicino a me Inserisci la tua struttura
Regioni Località turistiche Punti d'interesse Offerte Last Minute
B&B Day
primo weekend di marzo
Settimana del Baratto
terza settimana di novembre
BarattoBB
baratto tutto l'anno in B&B
BB25
25 Euro tutto l'anno
B&B Card
richiedila gratis
Come aprire un B&B Mondo B&B Blog Magazine Turismo Speciali Eventi Fiere Punti d'interesse Suggerisci un punto d'interesse Tesi universitarie sul B&B
(Guadagna 100 Euro)
Scopri i B&B migliori B&B Europa
FAQ e contatti Note legali, Cookie Policy, Privacy Area Riservata Gestori
Italiano English Français Deutsch Español

Turismo in rete: la gestione on line dei Bed & Breakfast di Agropoli

di Roberta Ruggiero
Università Telematica Pegaso
Corso di Laurea in Scienze Turistiche L-15
Teorie e Tecniche della Comunicazione
Relatore: Prof. Ioppolo Domenico
Anno Accademico 2019 - 2020

2.1 - La nascita di internet

L’Italia si è collegata la prima volta ad internet il 30 aprile 1986 aPisa, lì ci fu il primo segnale di rete Internet pervenutoci tramite Roaming Creek in Pennsylvania tramite l’ausilio di satelliti presenti nell’orbita italiana. Internet era ancora una rete giovane che collegava pochi centri urbani, principalmente in America, per poi evolversi in tutto il mondo. In Italia prima delle reti casalinghe vi erano reti principalmente aziendali ed universitarie.

Prima di essere chiamato così, risalente al 1969, veniva denominato ARPANET, dal nome dell’Agenzia americana a capo del progetto, Arpa, acronimo di Advanced Research Project Agency, il cui scopo era quello di garantire le comunicazioni militari in modo veloce e sicuro anche in caso di attacchi nucleari. Nel mezzo della guerra fredda, conflitti armati tra Unione Sovietica e Stati Uniti erano all’ordine del giorno, finalizzati alla supremazia globale. Diveniva quindi di fondamentale importanza poter comunicare in modo efficiente ma soprattutto a distanza.

La prima rete, molto lenta (50 Kbit/s) collegava le Università della California, da Los Angeles a San Francisco fino a Santa Barbara. Lo stato del sole, istituì un collegamento con lo Utah, successivamente per trasmettere dati importanti in formato testuale, utilizzando i protocolli FTP14, che permettevano il trasferimento di file. In futuro questa tecnologia arrivò anche in Italia. I progressi si susseguivano l’uno dopo l’altro, si istituì anche un modo per controllare i computer da remoto, tramite telenet15.

Alla fine degli anni ’70 iniziarono a diffondersi gli ambienti digitali, dove gli utenti potevano scambiarsi informazioni su temi specifici, chiamati newsgroup. Precisamente nel 1973 questo fenomeno approda in Europa collegando vari Paesi, dalla Gran Bretagna alla Norvegia e così via. Il modello prevedeva un computer a testa. Nello stesso anno R. Kahn e V. Cerf elaborarono i protocolli TCP, acronimo di Transfer Control Protocol e IP, Internet Protocol. Il loro scopo era interconnettere le reti, per far comunicare Arpanet con altre reti sviluppatesi in Francia e Gran Bretagna.

Internet, tuttavia, è un insieme di reti eterogenee connesse tra loro che possono comunicare attraverso una serie di protocolli, che sono tutt’ora alla base della comunicazione on line. Il protocollo TCP/IP costituisce la base di internet. Ogni dispositivo, sia fisso sia mobile, possiede un cd. Indirizzo IP. Altro anno da ricordare è il 1991, in cui il britannico Tim B. Lee sviluppò il noto protocollo HTTP, acronimo di Hyper Text Transfer Protocol, ovvero uno strumento di trasferimento di un ipertesto utilizzato per trasmettere informazioni nel web, cambiando così il modo di vivere, di informarsi, di comunicare ma anche di viaggiare e di fare acquisti.

Tramite l’ausilio del HTTP si sviluppò il World Wide Web, da noi conosciuto come www., struttura che permette agli utenti di fruire una lettura di dati e documenti sotto forma di ipertesto, all’interno del quale è possibile trovare numerose informazioni raggruppate in sottoinsiemi chiamati siti web. Il primo sito web on line fu http://info.cern .ch/hypertext/WWW/TheProject.html, ancora oggi visualizzabile nella sua forma originale. Nel 1991, anno quindi attribuito alla vera nascita di internet, gli utenti erano ancora poche centinaia di migliaia, per poi divenire ben 55 milioni, in media 9 su 10 possedevano questo strumento.

All’interno di ogni sito si può navigare alla ricerca di informazioni sfruttando il meccanismo del protocollo sopra citato, spostandosi da un punto all’altro tramite pagine diverse sotto il nome di “link”. Si diffusero i primi browser, tra cui Mosaic, ricordato come il primo in ordine di popolarità. Una delle grandi abilità di Mosaic, era quella di cercare i contenuti esatti tramite l’utilizzo di parole chiave, comunemente conosciute come Keyword. Il perfezionamento del protocollo HTTP, la diffusione dei browser e i progressi tecnologici resero possibile accedere alle informazioni presenti in internet a tutti gli utenti. Anche questo fenomeno quindi è divenuto da elitario a comune.

Per ovviare alla difficoltà di acquisire informazioni, furono creati i motori di ricerca, quali Yahoo, Google, Bing e Ask.com, strumenti tutt’ora maggiormente utilizzati. Precisamente questi motori di ricerca, talvolta denominati search engine, sono programmi che in una frazione di secondo, riescono a confrontare e ad analizzare milioni di contenuti, tramite il WWW, fornendo agli utenti i risultati più pertinenti da loro ricercati, in tempo reale. Agiscono come filtro estraendo dalle enormi quantità di informazioni rappresentate sotto forma di elenco ordinato, di pagine, immagini, video, infografiche, articoli, documenti vari e altri tipi di file,spesso denominati “pagina dei risultati del motore di ricerca” oppure SERP.

Per classificare i risultati ottenuti, vengono adoperati, negli appositi algoritmi, i crawlers, ovvero dei controllori che vigilano sul numero di parole chiave, quante volte vengono inserite in una pagina, quanti link riceve un determinato documento, in quali punti della pagina sono poste le parole chiave, o quante volte un utente ha visitato un determinato sito dopo una ricerca. Affinché queste rapide consultazioni siano possibili, esistono degli agenti automatici, i sopra citati crawlers, che esplorano quindi le pagine inserendo automaticamente i dati in un database aggiornato.