Cambia le impostazioni sulla Privacy

 Internet nell'era di Google - Come organizzare un sito Web

HOME

Internet: un archivio universale / I motori di ricerca / Google: una porta di accesso unica / Uso improprio del sito / Google: il meta-sito o la metafora di Internet / Le alternative / I portali strutturati per / I contenuti testuali / La ricerca per immagini / Conclusioni e previsioni

Internet: un archivio universale o una forma di svago?

Internet è molte cose, mezzo di comunicazione, contenitore di informazioni strutturate e non, vetrina per attività commerciali, luogo virtuale per transazioni economiche o sociali, per raggiungere questi scopi è diventato nel tempo un enorme archivio universale, su ogni settore dello scibile umano.
È evidente che questo aspetto lo rende uno strumento di lavoro di grande efficacia, ma un elemento da approfondire è come questo enorme archivio possa diventare anche uno strumento di svago (entertainment) alternativo o complementare a quelli già esistenti.

Se riflettiamo infatti su come si intrattiene, utilizzando Internet, una gran parte dei navigatori, vediamo che la pura e semplice ricerca di informazioni costituisce un elemento importante, e le fasi dello svago sono sia la fruizione della informazione trovata, sia il processo stesso di ricerca ipertestuale che, attraverso i continui rimandi per associazioni logico-sequenziali, conduce il navigatore a trovare e/o cercare informazioni alle quali originariamente non aveva pensato, o delle quali ignorava l'esistenza, o aveva perso il ricordo. Naturalmente l'interesse è incrementato dal fatto che le informazioni possono essere di qualsiasi tipo, testuali, iconiche, fisse o in movimento, musicali o sonore, e possono dar luogo ad una seconda fase interattiva (forum, guestbook, e-mail, chat).

Per cercare le informazioni di interesse tra le 100 stazioni radio o le 20-30 stazioni TV ricevibili in una grande città italiana è sufficiente un telecomando e una ricerca sequenziale, ma per cercare le informazioni tra i milioni di siti e i miliardi di pagine di Internet occorrono strumenti più sofisticati.

I motori di ricerca

Come ormai tutti sanno questi strumenti sono i portali, le directory, i motori di ricerca. I primi selezionano uno spazio di informazioni (per esempio lo spazio dei musicisti contemporanei di jazz, rock, pop, ecc. di lingua inglese e latina, nel caso del noto portale AllMusic), e lo organizzano in modo gerarchico. Le directory (Yahoo e i suoi derivati) applicano lo stesso concetto a tutto lo scibile umano reperibile su Internet. I motori invece, la più originale creazione dell'era Internet (in fondo portali e directory derivano dal mondo editoriale) demandano la organizzazione delle informazioni alle informazioni stesse.

Solo due parole per ricordare il funzionamento di un motore di ricerca. Tre sono gli elementi principali che lo compongono, un navigatore automatico, che esplora automaticamente la rete (il cosiddetto crawler), un archivio per raccogliere i risultati, e una interfaccia per renderli disponibili agli utenti del motore. Il successo dei motori negli anni è dipeso essenzialmente dalla tecnologia, perché la vastità della rete rendeva, e in parte rende, semplicemente non raggiungibili i primi due compiti. In altre parole non è possibile con la tecnologia attuale né percorrere in un tempo gestibile tutti i siti e tutte le pagine della rete, né archiviarle in modo accessibile e in tempi umani in un archivio.
I motori quindi fanno alcune importanti semplificazioni: a) il crawler percorre solo una parte dei siti e quindi delle pagine; b) il ciclo di aggiornamento non è di ore (o giorni), ma di settimane; c) l'archivio contiene solo una sintesi delle pagine reperite.

La novità rappresentata da Google è stato il raggiungimento di un accettabile livello di approssimazione, infatti a) la porzione di Web visitata dal crawler ottimizzato di Google (tra il 16% e il 20%, a seconda delle stime) risulta sufficiente per la gran parte degli scopi, anche perché il Web in realtà è popolato anche da "riflessi", nel senso di copie delle stesse informazioni che si propagano e quindi è importante non solo la quantità, ma soprattutto la significanza delle informazioni; b) il ciclo rimane forzatamente lungo, ma accettabile e guidabile con vari strumenti; c) la evoluzione della tecnologia e l'uso di server distribuiti consente di mantenere non solo la sintesi ma anche la copia della parte testuale delle pagine, e nel tempo si è scoperto che sono queste le informazioni più importanti.

E soprattutto Google ha elaborato una interfaccia utente che ha rappresentato finalmente quello che gli utenti vogliono: niente elementi inutili (no frills), una grafica percepita come standard (font verdana, sfondo bianco, elementi separatori a colori assoluti), che consente di presentare più informazioni con meno distorsione, e una facilità molto maggiore nel raggiungere il risultato sperato.

Una facilità dovuta a due elementi, uno semplice e uno complesso. Quello semplice, ma innovativo, è stata la possibilità di inserire frasi esatte con una notazione intuitiva, le virgolette; attraverso le frasi esatte, con semplici associazioni logiche (per esempio "windows xp" restringe di molto la ricerca rispetto alla parola windows, che in inglese ha un significato generico) la ricerca si abbrevia; pare strano, ma gli altri motori di ricerca precedenti richiedevano una sintassi più complessa per utilizzare le frasi esatte.

Quello complesso è ovviamente la completezza e significanza della base dati sulla quale le ricerche avvengono, ottenuta grazie ad alcune importanti innovazioni del crawler, elaborato in settori di ricerca.

Qual è il risultato di queste innovazioni? Semplicemente che il navigatore sa ormai che inserendo una frase su Google gli verranno presentati una serie di risultati interessanti, attraverso i quali con un passo o due (seconda ricerca sui risultati o modifica della frase di ricerca) arriverà alla informazione cercata. Un semplice confronto con un potente meta-motore come Copernic (che attiva in parallelo più motori) consente di verificare che i risultati significativi non variano di molto.

Il risultato è stata la affermazione di Google come motore di ricerca privilegiato dalla maggior parte dei navigatori, e come porta di accesso preferenziale ai "contenuti" di Internet.

Google: una porta di accesso unica (o quasi)

Google sostituirà quindi portali e directory? La ricerca in una directory di una informazione, tipicamente rappresentata dall'indirizzo di un sito, è una alternativa che sarà sempre richiesta da chi preferisce seguire nella ricerca un percorso dalla logica strutturata, organizzata per gerarchia di argomenti, o aree di interesse. La differenza la farà quindi la efficacia della ricerca. Se la directory consente di raggiungere effettivamente il risultato, il che significa in questo caso fornire un insieme gestibile di informazioni alla fine della ricerca (2-3 pagine di siti effettivamente validi, cioè attivi e aggiornati) questa strada avrà sempre i suoi estimatori e utilizzatori. Se la directory conduce a elenchi indifferenziati di siti di varia qualità, alcuni dei quali non attivi o addirittura con link non validi, sarà fatalmente abbandonata a favore di Google.
Quindi nessun problema apparente in vista per il popolare Yahoo, se non un limite alla sua possibile crescita.

I portali specializzati sono in numero molto superiore (centinaia di migliaia o forse milioni, in numero molto grande no-profit o amatoriali) e sono i più impattati dal fenomeno Google. Un portale specializzato, a differenza di una directory contiene tipicamente un misto di puntatori e contenuti, e i puntatori sono organizzati per gerarchie, quindi sono assimilabili alle directory.

Il fatto è che i contenuti, se testuali, sono indirizzati anche da Google, che potrebbe essere il tramite principale mediante il quale i navigatori li raggiungono.

Facciamo un esempio su un noto e apprezzato portale musicale italiano, Musicaitaliana.It, ed ipotizziamo che un navigatore stia cercando informazioni su una edizione del Festival di San Remo, magari la celebre n.17 del 1967. Se conosce il portale e se già sa che esiste una ampia sezione sul festival il navigatore cercherà i dati seguendo il percorso logico, quello impostato e previsto dai curatori del sito. Se però ignora l'esistenza del portale, o ha dimenticato il suo indirizzo (URL), o ha premura, potrebbe cercare la informazione direttamente da Google, per esempio inserendo la frase <Festival "San Remo" "Luigi Tenco"> se ricorda che si tratta dell'edizione alla quale partecipò il cantautore genovese (l'unica) e nella quale tragicamente si suicidò. Questa ricerca farà andare direttamente alla pagina del sito Musicaitaliana.It sul festival, assieme probabilmente a molte altre di contenuto simile in altri siti analoghi (e concorrenti).

In sintesi, stesso risultato, ma con minore numero di passi, e accesso diretto alla ricchezza di un sito: i contenuti.

Il problema nasce quando la percentuale tra accessi "guidati" (originati dalla home-page) e accessi diretti alle pagine web (via Google o altri motori) pende fortemente sul secondo fattore. Questa è per l'appunto la situazione attuale, che vede, per siti ricchi di contenuti testuali, il 10-20% di accessi dalla home page, rispetto agli accessi diretti alle pagine interne.

Un altro elemento statistico importante è la percentuale di accessi da utenti ricorrenti o nuovi. In un sito le cui pagine sono indirizzate da Google la percentuale sarà spostata in prevalenza sugli utenti "nuovi" (che non hanno mai visitato il sito prima). E' questa una conseguenza diretta della diversa dimensione dello spazio utenti di Google (milioni di utenti) e quello degli utenti habitué del sito (tipicamente migliaia, per siti specializzati di buon seguito).

Uso improprio del sito

In sintesi si determina una modalità di visita che non è quello pensato dagli architetti del portale (attraverso la home page e la struttura a directory del sito). Prima di tutto il contenuto viene messo a confronto immediato con i concorrenti. Poi la facilità di accesso alla pagina con i contenuti di interesse minimizza il tempo di permanenza sul sito, che può avvicinarsi pericolosamente ad un minuto o poco più. Infine il salto della home-page diminuisce la riconoscibilità, la fidelizzazione, la interazione tra gli utenti e il sito. Al limite, i navigatori potrebbero anche non sapere da quale sito stanno attingendo le informazioni (anzi, questo potrebbe essere un caso frequente).

Google: il meta-sito o la metafora di Internet

In pratica Google diventa un vero e proprio meta-sito o sito di siti. Accedere a Google equivale ad accedere ad Internet, e i contenuti dei vari siti vengono disaggregati e riportati all'unità elementare, la pagina web. I legami tra le pagine web immaginati e realizzati dagli architetti dei siti vengono annullati e sostituiti dai legami creati dal motore di ricerca.

Google si appropria dei contenuti delle varie pagine, senza produrli, ma solo indirizzandoli. La relativamente recente sezione "news" è un buon esempio in tal senso: gli articoli sono presi da varie fonti, controllati per significanza e credibilità con vari algoritmi (e probabilmente anche da curatori umani) e assemblati come le pagine di notizie della CNN o di Repubblica. Con costi redazionali zero o quasi anche Google ha in questo modo la sua sezione di "notizie del giorno".
Perché ciò viene permesso dagli editori? Perché in cambio Google fornisce (gratuitamente) una prestazione di valore inestimabile in Internet: la visibilità. E' uno scambio alla pari, o almeno uno scambio inevitabile. Senza visibilità i contenuti non hanno alcun valore, chi dà la visibilità si appropria dei contenuti. In cambio dà un piccolo valore aggiunto: un puntatore al sito che guiderà una piccola ma importante percentuale di naviganti sul sito, dando al sito la possibilità di fidelizzarli.

Le alternative

Quali sono le alternative a disposizione del curatore del sito? Solo due, rifiutare di fornire i propri contenuti a Google oppure strutturare tutto il portale-sito in vista anche (o soprattutto) della visita via Google. Per seguire la prima alternativa è sufficiente inibire le pagine al motore di Google (molto correttamente è una possibilità garantita dal motore, anche per privacy) oppure creare pagine non testuali, dove per esempio il testo è su file grafici, oppure è generato dinamicamente.

Un forte atto di orgoglio e di forza rinunciare al formidabile traino di visibilità, quindi di pubblicità, del più popolare motore di ricerca. Una diminuzione certa delle visite e uno scambio tra quantità degli accessi e qualità, in pratica si rinuncia ai visitatori occasionali (molti) per puntare ai relativamente pochi (ma buoni) visitatori fedeli del sito, un bacino di utenti assiduo e ricorrente. Una strategia tipica di portali che tendono a creare una comunità di frequentatori assidui e di portali abbastanza forti per loro conto, magari perché associati al sito di un quotidiano (come Kataweb Musica con Repubblica) o noti a livello mondiale (come il già citato AllMusic).

I portali strutturati per

La maggior parte dei portali e siti saranno invece ben lieti di essere puntati da Google, anzi sarà una loro precisa strategia entrare nel novero dei siti elencati per ogni ricerca, possibilmente nella prima pagina.

Un sito linkato da Google deve essere però pensato come un ambiente multi-ingresso, con una particolare attenzione alle pagine foglia (ricche di contenuti), piuttosto che alle pagine di menu, che potrebbero essere saltate.

Se l'obiettivo e' capitalizzare l'accesso per trasformare la visita casuale in un consapevole accesso al sito allora la pagina, ogni singola pagina foglia, dovrà essere strutturata come se fosse l'intero sito, o almeno una sua efficace sintesi.

Come minimo il visitatore occasionale deve sapere "in casa" di chi e' capitato, poi deve essere invogliato ad abbandonare il percorso di ricerca che stava perseguendo per addentrarsi invece nella scoperta del sito con il quale e' venuto in contatto. La maggioranza dei visitatori proseguirà abbandonando subito la pagina dopo averne ricavato la informazione (tornando quindi a Google), ma alcuni rimarranno, e la pagina linkata e cliccata avrà avuto il ruolo di un banner pubblicitario, con due notevoli plus; gratuito e volontario, ovvero non intrusivo.

La pagina standard dovrà quindi contenere:

- nome del sito (con collegamento)
- logo del sito (con collegamento)
- pulsante home (con collegamento)
- link per contatti - email
- invito esplicito a visitare la home page
- link al menu di argomenti di cui la pagina - foglia fa parte
- copyright e altri diritti sui contenuti
- liberatorie e disclaimer su contenuti non propri utilizzati

Tutte queste informazioni dovranno però essere posizionate in modo visibile, ma marginale, al fine di non penalizzare il contenuto, pena la fuga immediata del visitatore verso la prossima opzione offerta dal motore.

Altro accorgimento e' rendere la grafica uniforme o perlomeno non contrastante con quella di Google: l'utente Google rimarrà più probabilmente sul sito, mentre potrebbe essere respinto da una grafica molto diversa, a meno che sia veramente a lui gradita; soprattutto dovrà essere coerente in termini di tempi di risposta, Google ha abituato gli utenti ad accessi velocissimi, anche perché solo testuali, pagine pesanti, con immagini voluminose, animazioni o altri frills potrebbero essere chiuse ancora prima di completare la visualizzazione. Da non dimenticare infatti che Google aveva proposto molte risposte possibili alla domanda, è facile quindi che il visitatore infastidito ritorni alla pagina Google e clicchi sul sito successivo del risultato della ricerca.

I contenuti testuali

Il mondo di Google e' testuale, sono testuali le informazioni e anche la pubblicità (i siti auto-sponsorizzati che compaiono in piccolo sulla destra secondo il modello "pagine gialle" di qualche anno fa). La ricchezza multimediale di internet e' quindi in parte ricacciata indietro, proprio per la impossibilità attuale di cercare una immagine, un suono o una immagine in movimento. La chiave per cercare e' infatti ancora un semplice testo.

Diventa quindi fondamentale, per garantire un ritorno al sito, curare la parte testuale dei contenuti, in quanto sarà la parte più esposta e visibile del sito. Contenuti scarsi, parziali, scadenti, limitati, copiati da altri siti, non credibili, renderanno il sito privo di interesse per i naviganti.

La ricerca per immagini

Ma Google ha esteso in seguito la sua modalità di ricerca alle immagini, riconoscendo quindi la loro importanza sia per il contenuto di intrattenimento sia per il contenuto informativo e di sintesi. Come avviene però la ricerca? Non certo attraverso una vera ricerca sul significato dell'immagine, magari mediante tecniche di pattern recognition. Se si cerca l'immagine di un cammello Google non sarà in grado di riconoscere una immagine dove si scorgono due gobbe, ma più semplicemente la parola "cammello" nel nome del file JPG o nel contesto della pagina nella quale compare (ad iniziare dalla eventuale didascalia). La ricerca per immagini rafforza quindi ulteriormente la importanza del testo, ma è per altri versi un ulteriore moltiplicatori di accessi. Cercando una immagine infatti il motore di ricerca condurrà alla pagina del sito dove l'immagine è collocata, e da questo accesso potrebbe generarsi una navigazione all'interno del sito.

Arricchire un sito con immagini (di interesse) aumenta quindi in modo sensibile le probabilità di accesso e quindi la visibilità di un sito.

Conclusioni e previsioni

Se Internet prende e prenderà in futuro, in percentuale più o meno elevata, il posto delle televisione come forma di intrattenimento, Google avrà un ruolo simile al telecomando, e i navigatori utilizzeranno Google per una fruizione dei contenuti analoga allo "zapping" televisivo, una occhiata e via a decine di siti. Il tutto su scala enormemente più vasta per varietà di contenuti. Esattamente come le trasmissioni televisive attuali, i siti dovranno mettere in atto tattiche per trattenere i visitatori ed essere riconosciuti come entità peculiari ed interessanti alle quali tornare. Questa abilità farà la differenza e rappresenterà il criterio di selezione.

Anche su Internet infatti si passerà fatalmente ad una fase di concentrazione, come è avvenuto in scala ridotta e a suo tempo, per le radio "libere", e quindi ad una selezione dei siti principali per ogni argomento, e ad una continua lotta, contro lo zapping-Google, per rimanere nel ridotto novero degli "spazi a lunga permanenza".

© Alberto Truffi per Musica & Memoria / Maggio 2006

CONTATTACI

HOME


IMMAGINI PUBBLICATE-I contenuti di questo sito non a scopo di lucro sono gratuiti, il sito ha lo scopo di diffondere la cultura della musica e le immagini sono complementari ai testi a scopo didattico, di critica e di discussione, come previsto dalla vigente legge italiana 633/41 sulla disciplina del diritto d'autore (art.70 del Capo V - Utilizzazioni libere). Per le immagini inserite non originali non è stata individuata in buona fede una restrizione di copyright. Qualora fossero a nostra insaputa sotto copyright è possibile segnalarlo al webmaster che le rimuoverà prontamente, se richiesto. Per informazioni dettagliate vedi il DISCLAIMER

PUBLISHED IMAGES - The contents of this non-profit site are free, the site has the aim of spreading the culture of music and the images are complementary to the texts for educational, critical and discussion purposes, as required by current Italian law 633/41 on the regulation of copyright (art.70 of Chapter V - Free uses). For non-original images inserted, a copyright restriction has not been identified in good faith. If they are under copyright without our knowledge, it is possible to report it to the webmaster who will promptly remove them, if requested. For detailed information see the DISCLAIMER