Você está na página 1de 50

UNIVERSITÀ DI PISA

FACOLTÀ DI LETTERE E FILOSOFIA

MASTER POST-LAUREA IN
“COMUNICAZIONE PUBBLICA E POLITICA”

A.A. 2007/2008

Qualità della comunicazione ed economia


della conoscenza nell'era dell'informazione

Stage effettuato presso

Candidato
Federico Melosi

Tutor Università
Edoardo Datteri

Tutor Ente
Federico Neri

7 ottobre 2008
Indice

0 | Prologo
0.1 | Alcune considerazioni iniziali: lo stato delle cose
0.2 | Abbiamo un problema comunicativo...
0.3 | ... ma possiamo risolverlo: gestione intelligente
dell'informazione e organizzazione della conoscenza

1 | Comunicazione = informazione + pertinenza


1.1 | La teoria ingegneristica dell'informazione: il modello
“comunicativo” di Claude Shannon e Warren Weaver
1.2 | Un modello “postale” della comunicazione
1.3 | Contesto e funzioni comunicative nel modello di Roman
Jakobson
1.4 | Il contributo di Paul Grice: implicature conversazionali,
pertinenza informativa, cooperazione comunicativa
1.5 | Un'ipotesi rivoluzionaria: la teoria della pertinenza di Dan
Sperber e Deirdre Wilson

2 | Progettare una comunicazione di qualità: architettura


dell'informazione, usabilità e accessibilità dei siti
web

2.1 | Il sito web come (s)oggetto comunicativo


2.2 | Dalle biblioteche al Web: l'architettura dell'informazione
2.3 | Progettare per l'utente: l'usabilità e i suoi metodi
2.4 | Il Web alla portata di tutti: l'accessibilità
2.5 | Un linguaggio per i contenuti ed uno per la forma: (X)HTML
e CSS
3 | Il Synthema Knowledge Center
3.1 | Il text data mining come analisi esplorativa intelligente di
dati open source
3.2 | Ontologie e basi di conoscenza
3.3 | Implementazione di una base di conoscenza: un'esperienza
nel campo dell'intelligenza artificiale con il Synthema
Knowledge Center

Riferimenti bibliografici
0 | Prologo

0.1 | Alcune considerazioni iniziali: lo stato delle cose

Mi occupo di informazione e comunicazione da diverso tempo e su diversi


fronti, pratici e teorici: fornisco informazioni e faccio comunicazione
quotidianamente sul luogo di lavoro; partecipo attivamente ad una serie di
processi comunicativi attraverso la rete Internet; studio inoltre le dinamiche –
cognitive, sociali e tecnologiche – che rendono il complesso universo della
comunicazione possibile e praticabile.
Nel maturare questi tipi di esperienze, ci si rende ben presto conto che il
concetto di comunicazione è estremamente plastico, spesso immemore del
suo etimo (quante volte, nell'atto di communicare, possiamo dire di aver
davvero messo quel munus, quel dono in doverosa compartecipazione?), ma
che soprattutto evolve insieme ai tempi, alle persone e alle tecnologie;
perciò, chi decide di intraprendere un cammino professionale in questo
àmbito, deve porsi con decisione l'obiettivo di comprendere i bisogni,
conoscere gli strumenti e saper applicare il proprio sapere a seconda di ciò
che ogni situazione richiede.

In tutto ciò, un Master post-laurea in Comunicazione Pubblica e Politica – in


cui si è prestata particolare attenzione agli aspetti etici e filosofici come a
quelli che riguardano le nuove frontiere tecnologiche e massmediali dei
processi comunicativi – ha per me rappresentato un'occasione di
approfondimento su alcuni temi di fondamentale importanza, che potremmo
suddividere in:

 era dell'informazione
 qualità della comunicazione
 economia della conoscenza

Da anni ormai, viviamo in quella che è stata definita information age1,


un'epoca dominata principalmente dalla complessità e dal cambiamento, sul
piano sociale come su quello tecnologico. In particolare, ciò che caratterizza
l'era dell'informazione è la sua pervasività e circolarità: se nei primi anni
Novanta del secolo scorso, con l'esplosione delle cosiddette dot-com2,
abbiamo assistito al trasferimento di informazioni dal mondo fisico al mondo
digitale (ogni organizzazione che intendesse guadagnare visibilità si affrettava
ad allestire un proprio sito web), in séguito c'è stato un movimento
informativo, comunicativo ed economico del tutto interno al Web (sviluppo di
intranet aziendali al fine di aumentare la produttività del personale, servizi di
network sociale, piattaforme di e-commerce); fino a che il cerchio si è chiuso
con la recente tendenza che vede un riflusso dal mondo digitale a quello fisico
(si pensi ad alcune catene di centri commerciali come le svedesi IKEA 3 o ICA4
che mantengono la stessa impostazione logica, funzionale e cromatica nei
relativi negozi, siti web e cataloghi cartacei).

0.2 | Abbiamo un problema comunicativo...

Se poi ci concentriamo essenzialmente su contesti informativi elettronici – la


Rete, per intendersi – appare sùbito evidente come negli ultimi anni il numero
dei siti web e dei documenti (testuali, grafici e multimediali) contenuti al loro
interno sia cresciuto a dismisura, tanto da poterne parlare in termini di
information overload. Tale sovraccarico informativo (che comporta, di
conseguenza, un enorme dispendio cognitivo da parte di chi ne fruisce)

1 Fra i tanti testi dedicati all'argomento, si veda ad esempio Alberts D. S., Papp D. S. (eds.)
(1997-2001), The Information Age: An Anthology on Its Impact and Consequences, vol. I-III,
Command and Control Research Program Publications.
2 Wikipedia definisce una dot-com come «un'azienda di servizi che fa la maggior parte del
suo business tramite un sito internet» (<http://it.wikipedia.org/wiki/Dot-com>).
3 <http://www.ikea.com/>
4 <http://www.ica.se/>
costituisce spesso un'insospettabile causa di problemi, fra cui l'incapacità di
prendere decisioni e la scarsa possibilità di fissare mnemonicamente
l'informazione rilevante in un oceano di dati illogici e destrutturati.
In tempi non sospetti, il poeta americano Wystan Hugh Auden scriveva:

The greatest problem of today is how to teach people to ignore the


irrelevant, how to refuse to know things, before they are suffocated.
For too many facts are as bad as none at all.

Tuttavia, il nostro compito non è tanto quello di insegnare ad ignorare ciò che
non è rilevante, ma al contrario quello di apprendere in che modo e con quali
strumenti rendere l'informazione rilevante, comunque e per tutti.
Sapere come migliorare l'informazione – rendendola reperibile, fruibile e
pertinente (cognitivamente parlando) – attraverso metodi e tecniche dedicati
è pertanto l'unico modo per raggiungere e favorire una comunicazione di
qualità.

Fino a poco tempo fa, chi intendeva pubblicare un sito web per rappresentare
la propria organizzazione o il proprio servizio, si rivolgeva a quelle figure
professionali che sembravano essere meglio equipaggiate per operare nel
campo: normalmente esperti di tecnologia dell'informazione e grafici. Ma
molto spesso affidare ad ingegneri dell'informazione o ad artisti un lavoro che
prevede l'organizzazione e la gestione di contenuti oltre ad un'attenta
progettazione dell'interfaccia utente è «come pensare che gli esperti di
stampa quotidiana siano solo i tipografi o gli impaginatori... essi hanno
certamente un ruolo importantissimo nella pubblicazione di un giornale, ma
non unico, né primario: anzitutto avrò bisogno di giornalisti5.»
D'altronde, la navigazione sul Web ci ha fin troppo abituati ad esempi
“comunicativi” del genere:

5 Cantoni L., Di Blas N., Bolchini D. (2003), Comunicazione, qualità, usabilità, Milano,
Apogeo, p. 3.
[fonte: <http://havenworks.com/>]

[fonte: <http://www.ownyourc.com/>]

Nota a ragion veduta Thea van der Geest6 che «il semplice fatto di essere
presenti sul Web non garantisce più che il sito di un'organizzazione attragga
visitatori. L'effetto ipnotizzante della nuova tecnologia e dei nuovi trucchi si
sta riducendo. Le organizzazioni stanno diventando consapevoli che devono
dare ai loro visitatori buoni motivi per visitare il loro sito, e buoni motivi per
ritornarvi. Il semplice mezzo non è più un messaggio sufficiente. In modo
crescente, le organizzazioni trovano che la creazione di siti web non è
semplicemente l'hobby dei loro tecnici informatici, ma una parte essenziale

6 van der Geest T. M. (2001), Web Site Design is Communication Design, Amsterdam-
Philadelphia, John Benjamins, p. 1.
della loro comunicazione interna ed esterna.»

0.3 | ... ma possiamo risolverlo: gestione intelligente


dell'informazione e organizzazione della conoscenza

Per questo motivo la comunicazione sul Web ha bisogno di esperti in:

➔ architettura dell'informazione
➔ linguaggi di marcatura
➔ accessibilità e usabilità delle interfacce

In altre parole, una comunicazione sul Web qualitativamente efficace ed


efficiente può scaturire solamente da:

➔ un'organizzazione logicamente strutturata dei contenuti;


➔ un utilizzo differenziato di linguaggi per il contenuto (HTML, XML,
XHTML) e per la forma (CSS, XSL) del sito;
➔ una progettazione globale del sito centrata sull'utente, che tenga conto
– mediante specifiche tecnologie assistive – di persone con ridotte
capacità sensorie, motorie o psichiche e, al tempo stesso, incontri
l'utenza comune sul piano dell'intuitività e della semplicità d'uso.

Ma c'è un ulteriore importante aspetto da prendere in considerazione: il


processo che conduce dall'informazione, attraverso la comunicazione, alla
conoscenza, vera moneta di scambio dal valore aggiunto nell'economia che ci
circonda. Tramontato il modello dello sfruttamento meccanico di capitale e
lavoro proprio dell'era industriale, il sapere dell'uomo ha ritrovato un posto
centrale nel sistema economico attuale. Il nuovo sistema di “capitalismo
intellettuale” - come lo ha definito Angelo Deiana7 in una recente
pubblicazione - in cui siamo immersi «non è più fondato esclusivamente sulla

7 Deiana A. (2007), Il capitalismo intellettuale, Milano, Sperling & Kupfer, passim.


produzione di beni e sullo scambio di merci, ma si sviluppa e cresce
prevalentemente sulla riproduzione di esperienze e di emozioni, sul valore
economico dell'immateriale e dell'intangibile, sulla creatività. Vincono nel
mondo le produzioni di beni e servizi che puntano su fattori non riproducibili e
non trasferibili, ai quali si riesce ad applicare capacità tecnologica8»: la
conoscenza, appunto.
Questa rinnovata centralità assunta dall'uomo e dalle sue capacità
rappresenta il fattore competitivo più importante per chiunque si confronti
con il mercato, determinando una profonda riconfigurazione delle strutture
organizzative attraverso processi di rete basati su fattori tecnologici e
relazionali (i network), generati non solo dagli individui che detengono la
conoscenza all'interno delle strutture organizzative stesse (i professionisti),
ma anche dalle altre organizzazioni (i cosiddetti stakeholders, i “portatori di
interesse”), espressioni anch'esse di coloro che le guidano e della conoscenza
di cui sono detentori.

L'importanza strategica della conoscenza, di come produrla, gestirla ed


implementarla all'interno di un sistema informatico è emersa durante
l'esperienza di stage da me effettuata presso Synthema9, azienda leader nel
settore della tecnologia dell'informazione e del knowledge management.
Partendo dal presupposto che la maggior parte dei documenti reperibili sul
Web o nelle intranet aziendali si presenta come testo libero, non strutturato
né classificato, la trasformazione di tali documenti in informazione
consentirebbe di avere a disposizione una fonte inesauribile e continuamente
aggiornabile di dati significativi su una serie virtualmente infinita di campi del
sapere.
Tutto ciò avviene per mezzo di una particolare tecnologia linguistico-
matematica – il text mining – progettata per l'analisi automatica di ingenti
quantità di testi open source (ovvero dati disponibili e pubblicamente
accessibili in Rete codificati in diversi formati digitali). Il text mining
permette di avere una visione di insieme degli argomenti trattati, garantendo
una griglia di lettura sufficientemente limitata e intuitiva per essere

8 Ivi, p. 4.
9 <http://www.synthema.it/>
analizzata senza ulteriori mediazioni (ad esempio, filtri o parametri avanzati
di ricerca). Permette inoltre di accedere all'informazione su base tematica,
dando la possibilità di cogliere correlazioni spesso inaspettate fra i diversi
argomenti.
Tuttavia, il vero sistema di metadati che permette di classificare e
organizzare i dati sulla base del loro contenuto informativo è il Synthema
Knowledge Center (SKC), una base di conoscenza progettata per definire
ontologie linguistiche allo scopo di accedere non più a semplice informazione,
ma a conoscenza. Attraverso SKC è possibile trattare direttamente i dati
linguistici assegnando categorie grammaticali, funzioni logiche e relazioni
semantiche fra i lemmi; il sistema di concetti e relazioni derivante sarà quindi
interrogabile in linguaggio naturale attraverso un motore di ricerca dedicato.

Il progetto di ingegneria linguistica portato avanti da Synthema è un chiaro


esempio di come si possa trarre ordine e pertinenza – dunque conoscenza – dal
caos informazionale in cui siamo oggi immersi. La cura dell'informazione
conduce teoricamente sempre alla bontà della comunicazione, così come
l'attenzione prestata ad un'architettura logica dei contenuti e ad una
progettazione a misura d'uomo delle interfacce in contesto web.
1 | Comunicazione = informazione + pertinenza

1.1 | La teoria ingegneristica dell'informazione: il modello


“comunicativo” di Claude Shannon e Warren Weaver

Esiste un punto di vista assai diffuso secondo il quale un processo di


comunicazione avviene mediante il passaggio di un messaggio da un mittente
(sia esso un uomo, un animale o una macchina appositamente istruita) a un
destinatario (anch’esso uomo, animale o macchina). Affinché tale processo
abbia esito positivo, è necessario che le componenti che formano il messaggio
(i segni) siano approntate seguendo certe regole e combinate secondo altre
regole (regole che formano un codice): perché la comunicazione abbia luogo,
mittente e destinatario debbono condividere tra loro tali regole. L’operazione
si realizza poi grazie al fatto che i messaggi codificati viaggiano attraverso un
canale fisico (fonico-uditivo nel caso di messaggi orali, grafico-visivo se si
tratta di messaggi scritti) il quale svolge la funzione di supporto materiale;
infine, il contesto in cui la comunicazione si realizza può giocare un ruolo più
o meno importante a seconda del tipo di codice.
L’espressione più consistente di questa meccanicistica visione del comunicare
è rappresentata da uno dei primi tentativi di teorizzazione del processo
comunicativo: la teoria dell’informazione – o teoria matematica della
comunicazione – elaborata dai due ingegneri statunitensi Claude Shannon e
Warren Weaver10.
Originata da alcuni pionieristici lavori di ingegneria delle telecomunicazioni
risalenti alla metà degli anni Vénti e pubblicamente abbozzata da Shannon nel
1948, la teoria matematica della comunicazione è essenzialmente una teoria

10 Cfr. Shannon C., Weaver W. (1949), The mathematical theory of communication, Urbana
(IL), University of Illinois Press.
sul rendimento informazionale e sull’ottimale processo di trasmissione dei
messaggi.
Il “sistema generale di comunicazione” proposto da Shannon e Weaver è
schematizzabile come segue:

[Il modello comunicativo di Shannon e Weaver]

L’estrema semplicità schematica ed una vasta applicabilità ad una serie


eterogenea di fenomeni hanno reso il modello comunicativo di Shannon e
Weaver una presenza pressoché costante negli studi sulla comunicazione: la
sua validità strutturale è infatti dimostrabile sia nei processi comunicativi fra
macchine, sia in quelli fra esseri umani, sia in quelli fra una macchina ed un
essere umano (pensiamo al classico esempio del livello di benzina nel
serbatoio di un’auto, trasmesso mediante galleggiante e segnali elettrici al
cruscotto della vettura, sul quale appare quindi un messaggio diretto al
guidatore).

1.2 | Un modello “postale” della comunicazione

Tuttavia, il vero scopo del modello ingegneristico della comunicazione di


Shannon e Weaver è esclusivamente quello di arrivare a determinare il modo
più economico (in termini di velocità, sicurezza e qualità dell’informazione) di
codificare un messaggio, senza che la presenza del rumore ne renda
problematica o impossibile la comprensione. Sottolineando la scarsa
attenzione prestata dalla teoria dell’informazione al significato dei messaggi,
Mauro Wolf osserva11 infatti che

[…] la prospettiva dei teorici dell’informazione è simile a quella


dell’impiegato delle poste che deve trasmettere un telegramma: rispetto
a mittente e destinatario, che sono interessati al significato del messaggio
che si scambiano, il suo punto di vista è diverso. Il significato di ciò che
trasmette gli è indifferente in quanto il suo ruolo è quello di far pagare un
servizio in modo proporzionale alla lunghezza del testo, cioè alla
trasmissione di una “quantità di informazione”. Il codice di cui si interessa
la teoria dell’informazione – e che rende possibile la trasmissione di
informazione – serve a [stabilire] un sistema di ricorrenze. È un sistema
puramente sintattico, un sistema organizzante che non contempla nella
propria pertinenza il problema del significato del messaggio, cioè la
dimensione più specificamente comunicativa.

Si delinea così – con un significato ambivalente - quello che Felice Cimatti


definisce12 un modello postale della comunicazione. Da un lato abbiamo un
sistema metaforicamente accostabile ad un impiegato postale il cui unico
compito è quello di valutare e gestire tecnicamente la trasmissione di
messaggi, senza interessarsi del contenuto che essi contengono o dei
significati che essi veicolano; d’altra parte, il modello matematico della
comunicazione presenta le seguenti rilevanti caratteristiche:

 è lineare, ovvero ha una direzione prestabilita: quando la fonte di


informazioni comincia a trasmettere il segnale, il suo contenuto (il
messaggio) è già del tutto definito, pronto ad essere codificato (cioè
associato ad un segnale) e inviato a destinazione
 il ruolo del ricevente è del tutto simile a quello del mittente; è

11 Cfr. Wolf M. (2001), Teorie delle comunicazioni di massa, Milano, Bompiani, p. 117.
12 Cimatti F., “Fondamenti naturali della comunicazione”, in Gensini S., Cimatti F. (a cura di)
(1999), Manuale della comunicazione. Modelli semiotici, linguaggi, pratiche testuali,
Roma, Carocci, p. 54-59.
sufficiente invertire la direzione delle operazioni che si devono
compiere:
• codificazione: dal messaggio al segnale
• decodificazione: dal segnale al messaggio
 sono ammessi soltanto errori o disturbi tecnici che colpiscono il
segnale, non il messaggio (ad esempio, una linea telefonica gracchiante
o l’inceppamento di una macchina telefax)

Alla pubblicazione del modello di Shannon e Weaver, sono seguìti studi e


ricerche che ne hanno tentato la sistemazione e la rivisitazione. Senza
dubbio, uno dei maggiori contributi all'elaborazione di una teoria della
comunicazione è stato quello del linguista Roman Jakobson, le cui innovazioni
più importanti sono state l’allineamento della propria terminologia linguistica
a quella del modello informazionale e l’introduzione del concetto di funzione
comunicativa.

1.3 | Contesto e funzioni comunicative nel modello di Roman


Jakobson

Jakobson ha osservato che la comunicazione è sempre inserita in un contesto


e che ogni atto comunicativo prevede non soltanto la compresenza di
mittente, destinatario, messaggio, codice e canale di trasmissione, ma anche
e soprattutto la funzione che ogni singolo elemento svolge nel processo
comunicativo. Come mostrato nello schema seguente, nella teoria
comunicativa di Jakobson, ad ogni componente della comunicazione
corrisponde una particolare funzione comunicativa:
Il modello comunicativo di Jakobson

Gli elementi della comunicazione sono pertanto:

 mittente: colui che dà origine alla comunicazione;


 destinatario: colui al quale la comunicazione è rivolta;
 contesto: l'”universo” nel quale avviene la comunicazione;
 messaggio: l'oggetto comunicativo scambiato;
 canale: il mezzo (o i mezzi) attraverso il quale avviene la
comunicazione;
 codice: il sistema strutturato utilizzato per produrre segni.

Mentre le funzioni associate a ciascun elemento sono:

 espressiva (o emotiva): è quella per cui il mittente comunica ciò che


pensa (pensieri, opinioni, sentimenti, esclamazioni, interiezioni e tutte
le forme linguistiche utili a rappresentare il punto di vista del
mittente);
 persuasiva (o conativa, dal lat. cōnor, “intraprendere”): è quella per
cui il mittente intende produrre un effetto sul destinatario (imperativi
e pronomi di seconda persona mettono in evidenza il destinatario e la
sua possibile volontà di convincere o indurre qualcuno a fare qualcosa);
 fàtica: è quella che si concentra sul canale comunicativo (si tratta di
tutte le forme che fanno riferimento al canale, cercando di verificarne
il grado di attività: ad esempio, “Mi senti?”, “Hai capìto?”);
 metalinguistica: rende possibile la descrizione di un codice,
tematizzandone gli aspetti o il funzionamento generale;
 poetica: presta attenzione alla forma stessa del messaggio (è
l'orientamento del messaggio al messaggio stesso, ciò che tende ad
esprimerlo in modo formalmente raffinato);
 referenziale: è quella che permette di fare riferimento al contesto (si
tratta di tutti quegli elementi che fanno riferimento al contesto
comunicativo e che informano circa un determinato oggetto o
argomento).

Nonostante il modello comunicativo elaborato da Jakobson erediti il carattere


unidirezionale della teoria dell'informazione di Shannon e Weaver –
prevedendo una comunicazione basata sui concetti di mittente e destinatario
– ha comunque il grande merito di porre l'accento sull'importanza del contesto
in cui gli attori della comunicazione sono inseriti; ed è al contesto e alla sua
costitutiva caratteristica di fungere da soggetto comunicativo attivo che gli
studi di pragmatica linguistica si sono rivolti nella seconda metà del
Novecento.

1.4 | Il contributo di Paul Grice: implicature conversazionali,


pertinenza informativa, cooperazione comunicativa

In pragmatica, si fa spesso un fondamentale riferimento alla nozione di


implicatura conversazionale (o, più semplicemente, implicatura). La
centralità di questo concetto - paradossalmente contrapposta alla sua recente
elaborazione in àmbito filosofico e linguistico13 - è dovuta ad alcuni importanti
fattori: anzi tutto, l’implicatura si pone come esempio paradigmatico della
natura e del potere delle spiegazioni pragmatiche dei fenomeni linguistici,
dimostrando che le origini della capacità inferenziale umana, nei princìpi
generali che regolano l’interazione comunicativa, è esterna all’organizzazione
della lingua; in secondo luogo, la nozione di implicatura conversazionale dà un
importante contributo alla teoria dell’uso linguistico in quanto fornisce
un’esplicita spiegazione di come sia possibile intendere più di quanto si dice
effettivamente.
Le idee-chiave della teoria dell’implicatura sono state esposte dal filosofo
inglese Herbert Paul Grice sul finire degli anni Sessanta. Sostanzialmente, il
concetto di implicatura conversazionale costituisce il perno di una teoria sul
modo in cui gli esseri umani fanno uso della lingua. Grice suggerisce che un
insieme di assunti imprescindibili guidino la condotta della conversazione,
derivando da alcune considerazioni razionali di base, e possano formularsi
come norme per un uso efficiente ed efficace della lingua in contesti di
cooperazione comunicativa. Egli sostiene14 infatti che

i nostri scambi linguistici non consistono, di norma, in una successione di


osservazioni prive di connessioni reciproche, e non sarebbe razionale se
consistessero in ciò. È tipico che siano, almeno in certo grado, lavori in
collaborazione; e ciascun partecipante vi riconosce, in certa misura, uno
scopo o un insieme di scopi comuni, o almeno un orientamento
mutuamente accettato. Questo scopo o orientamento può essere fissato
fin dall’inizio […] o può evolversi durante lo scambio; può essere ben
definito o tanto indefinito da lasciare ai partecipanti una libertà di
movimento assai considerevole (come accade nella conversazione
occasionale) […]. Potremmo allora formulare un principio generale
approssimativo che ci si aspetterà che i partecipanti osservino, e cioè: il

13 Nonostante si sia riflettuto molto, in filosofia, sulla necessità e sull’utilità di una nozione
di implicatura pragmatica, l’argomento è stato studiato solamente a partire dalla metà
degli anni Sessanta.
14 Cfr. Grice H. P. (1975), “Logica e conversazione”, trad. it., in Sbisà M. (a cura di) (1978),
Gli atti linguistici. Aspetti e problemi di filosofia del linguaggio, Milano, Feltrinelli, p.
204.
tuo contributo alla conversazione sia tale quale è richiesto, allo stadio in
cui avviene, dallo scopo o orientamento accettato dallo scambio
linguistico in cui sei impegnato. Lo si potrebbe chiamare principio di
cooperazione.

Il principio di cooperazione generale (sintetizzabile in un caveat del tipo


“fornite il vostro contributo così come è richiesto, al momento opportuno,
dagli scopi o dall’orientamento del discorso in cui siete impegnati”) si
identifica secondo Grice intorno a quattro fondamentali massime
conversazionali, o princìpi generali della conversazione così formulati:

 massima della qualità:


• “cercate di fornire un contributo vero” e in particolare
 “non dite cose che credete false”
 “non dite cose per le quali non avete prove adeguate”

 massima della quantità:


• “fornite un contributo che soddisfi la richiesta di informazioni in
un modo adeguato agli scopi del discorso”
• “non fornite un contributo più informativo del necessario”

 massima di relazione:
• “fornite contributi pertinenti

 massima di modo:
• “siate perspicui” e in particolare
o “evitate oscurità di espressione”
o “evitate le ambiguità”
o “siate brevi”
o “procedete in modo ordinato”

Queste massime specificano cosa devono (o dovrebbero) fare i partecipanti


per conversare nel modo più efficiente, razionale e cooperativo: essi
dovrebbero parlare con sincerità, chiarezza e pertinenza, fornendo una
quantità sufficiente di informazioni.
In effetti, uno dei nodi principali della filosofia del linguaggio di Grice risiede
nell'affermare che l'espressione e il riconoscimento di intenzioni costituiscono
una caratteristica fondamentale della comunicazione umana, tanto verbale
quanto non-verbale. Ciò che ci interessa evidenziare è il fatto che, nello
sviluppare questo assunto, Grice pone le basi per una solida alternativa al
tradizionale modello comunicativo basato sulla trasmissione di informazioni: si
delinea un modello inferenziale della comunicazione, non più spiegato sulla
base di fattori meccanici ma profondamente umani.

1.5 | Un'ipotesi rivoluzionaria: la teoria della pertinenza di Dan


Sperber e Deirdre Wilson

La teoria della pertinenza – elaborata a partire dal 198615 dall'antropologo


francese Dan Sperber e dalla linguista inglese Deirdre Wilson – costituisce un
approccio al comportamento umano negli scambi comunicativi basato sulle
dinamiche cognitive che lo regolano. In particolare, come si è detto in
precedenza, essa rappresenta un tentativo di elaborazione di uno dei più
importanti assunti filosofici di Grice, secondo il quale la comunicazione
umana si fonda sull'espressione e il riconoscimento di intenzioni: sorge così un
modello inferenziale della comunicazione antitetico a quello classico, code-
based.
La contrapposizione fra i due sistemi è netta: se da un lato abbiamo una
configurazione meccanica in cui l’emittente codifica un messaggio attraverso
un codice condiviso e il ricevente che decodifica tale messaggio per mezzo del
medesimo codice, dall'altro prende invece forma un modello in cui il parlante
fornisce prova della sua intenzione di trasmettere un certo significato, il
quale viene inferito dall'ascoltatore sulla base della prova fornita.

15 Cfr. Sperber D., Wilson D. (1986), Relevance: Communication and Cognition, Oxford, Basil
Blackwell, 19952.
Secondo la teoria della pertinenza, ogni enunciato solleva aspettative di
rilevanza non perché l'ascoltatore debba davvero “obbedire” ad un principio
di cooperazione, a delle massime conversazionali o a qualche altra specifica
convenzione comunicativa, ma perché la ricerca di pertinenza è una
caratteristica fondamentale della cognizione umana che ogni comunicatore
può e deve sfruttare.
In termini generici, un input (cioè uno stimolo verbale, grafico, sensoriale et
c.) è rilevante per un individuo quando quest'ultimo riesce a connettere
informazioni pregresse al fine di trarre conclusioni di una certa importanza. In
termini teorici, un input è rilevante quando il suo processo di elaborazione in
un contesto di supposizioni disponibili produce un effetto cognitivo positivo
(ad esempio, una conclusione vera).
Il tipo più importante di effetto cognitivo è l'implicazione contestuale, una
conclusione deducibile dall'input e dal contesto allo stesso tempo, ma non da
uno dei due singolarmente. Altri tipi di effetto cognitivo prevedono il
rafforzamento, la revisione o l'abbandono delle supposizioni disponibili.
In accordo con la teoria della pertinenza, uno stimolo è dunque pertinente
per un individuo quando – e solo quando – la sua elaborazione produce un
effetto cognitivo positivo.
Quello di pertinenza è un concetto graduale e uno stimolo può essere in
competizione con altri per catturare l'attenzione dell'individuo. A tal
proposito, scrivono recentemente Wilson e Sperber16:

«What makes an input worth picking out from the mass of competing
stimuli is not just the cognitive effects it achieves. In different
circumstances, the same stimulus may be more or less salient, the
same contextual assumptions more or less accessible, and the same
cognitive effects easier or harder to derive. Intuitively, the greater the
effort of perception, memory and inference required, the less
rewarding the input will be to process, and hence the less deserving of
our attention. In relevance-theoretic terms, other things being equal,
the greater the processing effort required, the less relevant the input
will be. Thus, relevance may be assessed in terms of cognitive effects

16 Cfr. Wilson D., Sperber D. (2004), “Relevance Theory”, in Horn L., Ward G. (eds.),
Handbook of Pragmatics, Oxford, Basil Blackwell, p. 252.
and processing efforts.»

Schematizzando, la pertinenza di uno stimolo percepita da un individuo può


essere misurata sulla base a due criteri fondamentali:

 a parità di stimoli, più effetto cognitivo positivo si ottiene elaborando


l'input, maggiormente pertinente risulterà lo stimolo per l'individuo nel
medesimo tempo;
 a parità di stimoli, maggiore è il dispendio di forze nell'elaborazione,
minore è la pertinenza dello stimolo per l'individuo nel medesimo
tempo.

La teoria della pertinenza mostra che l'essere umano ha una tendenza innata
e automatica a massimizzare la rilevanza, per effetto del modo in cui l'intero
sistema cognitivo si è sviluppato ed evoluto:

«As a result of constant selection pressure towards increasing


efficiency, the human cognitive system has developed in such a way
that our perceptual mechanisms tend automatically to pick out
potentially relevant assumptions, and our inferential mechanisms tend
automatically to activate potentially relevant assumptions, and our
inferential mechanisms tend spontaneously to process them in the most
productive way17.»

Questa tendenza universale è definita da Sperber e Wilson nel primo


principio (cognitivo) della pertinenza: la cognizione umana tende ad essere
finalizzata alla massimizzazione della pertinenza.
Un contesto comunicativo inferenziale non può comunque essere creato o
predisposto intenzionalmente. La comunicazione inferenziale – ciò che nella
teoria della pertinenza è detta comunicazione ostensivo-inferenziale –
coinvolge infatti un ulteriore livello di intenzione, suddiviso in due livelli:

 intenzione informativa (l'intenzione di informare l'ascoltatore di

17 Ivi, p. 254.
qualcosa);
 intenzione comunicativa (l'intenzione di informare l'ascoltatore della
propria intenzione informativa).

Generalmente, la comunicazione ostensivo-inferenziale presuppone l'uso di


uno stimolo ostensivo, progettato per attrarre l'attenzione dell'ascoltatore e
focalizzarla sul significato del parlante. Secondo la teoria della pertinenza,
l'uso di uno stimolo ostensivo può creare precise e predittibili aspettative di
rilevanza altrimenti non suscitate da altri stimoli.
Data la tendenza universale a massimizzare la rilevanza, un ascoltatore – o un
lettore – presterà attenzione solamente ad uno stimolo che sembra rilevante
abbastanza. Producendo uno stimolo ostensivo, il parlante – o lo scrivente –
incoraggia quindi l'ascoltatore a presumere che sia rilevante a sufficienza da
poter essere elaborato (in questo punto risiede un netto contrasto con la
“semplicistica” nozione di cooperazione griceana).
Pertanto si giunge al secondo principio (comunicativo) della pertinenza:
ogni stimolo ostensivo (cioè, ogni atto comunicativo ostensivo-referenziale)
trasmette la presupposizione della propria pertinenza ottimale.
Uno stimolo ostensivo crea quindi una presupposizione di pertinenza. La
nozione di pertinenza ottimale intende spiegare che cosa ha diritto di
aspettarsi, in termini di sforzo ed effetto, l'ascoltatore di un atto
comunicativo ostensivo-inferenziale. Ne consegue che uno stimolo ostensivo
sia ottimalmente rilevante per l'ascoltatore a patto di rispettare due
condizioni:

 se è pertinente abbastanza affinché l'ascoltatore intenda impegnarsi


nella sua elaborazione;
 se è il più pertinente e compatibile con le abilità e con le preferenze
del parlante.

Sulla falsa riga prescrittiva delle massime conversazionali proposte da Grice,


potremmo riassumere in due avvertimenti la procedura di comprensione nella
teoria della pertinenza:
 “segui il percorso di minor sforzo nell'elaborare gli effetti cognitivi:
metti alla prova ipotesi interpretative (ad esempio, disambiguazioni,
risoluzioni dei riferimenti, implicature et c.) in ordine di accessibilità;
 “férmati quando le tue aspettative di pertinenza vengono soddisfatte.

Concludono18 in proposito Sperber e Wilson:

«[…] it is reasonable for the hearer to follow a path of least effort


because the speaker is expected (within the limits of her abilities and
preferences) to make her utterance as easy as possible to understand.
Since relevance varies inversely with effort, the very fact that an
interpretation is easily accessible gives it an initial degree of
plausibility.»

Per quanto attiene al nostro scopo, possiamo fermarci qui. La teoria della
pertinenza è un modello cognitivo-comunicativo estremamente complesso ed
articolato, non sondabile a fondo in poco spazio. Tanto però ci basta per
dimostrare l'importanza e l'imprescindibilità del concetto di rilevanza
comunicativa in relazione al nostro precipuo argomento di discussione: la
qualità della comunicazione e la gestione della conoscenza in contesto
digitale. Proprio in virtù del fatto che la massimizzazione della pertinenza è il
fine principale cui tende la cognizione umana nei processi di elaborazione
dell'informazione, averne la consapevolezza significherà – per chi
professionalmente si occupa di comunicazione – sfruttare con intelligenza e
sensibilità gli stimoli ostensivo-inferenziali (per continuare ad usare la
terminologia di Sperber e Wilson) attraverso un sito web e i contenuti per esso
veicolati.

18 Ivi, p. 259.
2 | Progettare una comunicazione di qualità:
architettura dell'informazione, usabilità e
accessibilità dei siti web

2.1 | Il sito web come (s)oggetto comunicativo

Il World Wide Web è ormai da tempo assurto (impropriamente) ad indicare la


totalità della rete Internet. La sua particolare natura ipertestuale si organizza
attraverso un insieme di “luoghi”: i siti, dei quali è assai complicato dare una
definizione univoca.
In un testo19 di qualche anno fa (oggi forse un po' datato ma concettualmente
sempre valido), gli autori proponevano di guardare metaforicamente ad un
sito web come a un bar, costituito da:

 un insieme di oggetti commestibili e fruibili ludicamente: cibi,


bevande, giochi; in realtà, affiché abbiano un senso, tali oggetti
richiedono
 altri oggetti, grazie ai quali sono confezionati e fruiti: piatti, bicchieri,
posate, tavoli, sedie, una cucina attrezzata, il locale stesso, un tavolo
da biliardo, un televisore; un bar è però un locale reale e vivo
soprattutto grazie a
 una comunità di persone che lo gestisce, che confeziona i cibi, che
serve ai tavoli; e lo è anche in virtù di
 una comunità di persone che lo frequenta per mangiare, bere, giocare,
stare con gli amici, rilassarsi.

19 Cantoni L., Di Blas N., Bolchini D. (2003), Comunicazione, qualità, usabilità, Milano,
Apogeo.
Inoltre, la realtà di un bar – e così quella di un sito web – dipende anche in
modo significativo da un ulteriore elemento: il mondo esterno, il mercato di
riferimento. Ciò richiede di considerare il Web alla stregua di un sistema
ecologico20 dinamico e non come un sistema irrelato di siti. Solo considerando
e integrando tutti questi elementi avremo un modello univoco e comprensivo
di un sito web, che non sia visto come semplice artefatto tecnologico ma
come un ecosistema comunicativo.

2.2 | Dalle biblioteche al Web: l'architettura dell'informazione

Uno dei primi settori a porsi il problema della qualità della comunicazione sul
Web – con particolare attenzione ai contenuti – è stato quello delle
biblioteche, da tempo abituate (per ragioni economiche e logistiche) a
confrontarsi con un rapporto problematico tra offerta dell'informazione (libri,
riviste e ogni altro tipo di pubblicazione “fisica”) e necessità di selezionare
solo i titoli migliori, maggiormente pertinenti per il pubblico di riferimento.
Il mondo delle biblioteche è stato soprattutto il primo a strutturare,
organizzare e classificare sistematicamente le informazioni: nel 660 a.C. un re
assiro organizzò le sue tavolette d'argilla in base all'argomento, nel 330 a.C. la
celebre biblioteca di Alessandria ospitava più di cento rotoli di pergamena e,
nel 1873, Melvil Dewey sviluppò un particolare sistema classificatorio – la
cosiddetta Classificazione decimale Dewey – per fornire un accesso
organizzato all'informazione libraria.
Allo stesso modo in cui molti di noi, attraverso l'esperienza di libri e
biblioteche, hanno acquisito familiarità con i concetti di base
dell'organizzazione delle informazioni, i concetti portanti dell'architettura
dell'informazione (AI) – una disciplina di recente formazione ma già di grande

20 Il tema della metafora ecologica a descrizione dello spazio informazionale è ampiamente


discusso in Davenport T. H., Prusak L. (1997), Information Ecology. Mastering the
Information and Knowledge Environment, Oxford, Oxford University Press; si veda inoltre
Nardi B. A., O'Day V. L. (1999), Information Ecologies. Using Technology with Heart,
Cambridge (MA), MIT Press.
impatto nei circuiti della progettazione web – ha mutuato una serie di
concetti e princìpi biblioteconomici applicandoli con profitto alla
strutturazione dei contenuti sul Web. Vediamo alcune differenze nel paragone
fra libri e siti web:

Concetti AI Libri Siti web


Copertina, titolo, autore, Pagina principale, barra di
capitoli, paragrafi, pagine, navigazione, collegamenti,
Componenti numeri di pagina, sommario, pagine di contenuto, mappa
indice, bibliografia. del sito, indice del sito,
motore di ricerca interno.
Pagine a due dimensioni Spazio informativo
Dimensioni presentate in ordine lineare e multidimensionale con
sequenziale. navigazione ipertestuale.
Tangibili e finiti con un inizio Sfocati, con bordi che
Confini e una fine chiari. rimandano ad informazioni
contenute su altri siti.

Superando il concetto di libro e passando a quello di collezione di libri (ovvero


quello di biblioteca), il paragone si fa ancora più interessante. Una biblioteca
rappresenta un luogo in cui sistemi complessi e professionisti appositamente
addestrati operano al fine di selezionare, valutare, classificare, descrivere,
strutturare ed organizzare la collezione in modo che gli utenti possano trovare
ciò che cercano. In breve, uno dei metodi principali usati in biblioteca per
fornire valore aggiunto ai libri è inserirli in un contesto di architettura
dell'informazione che faciliti l'accesso ai contenuti. L'architetto
dell'informazione svolge un ruolo simile ma in un un contesto di siti web e
informazione digitale:

Concetti AI Biblioteche Siti web


Fornire accesso ad una Fornire accesso a contenuti,
collezione ben definita di vendere prodotti, permettere
Scopo
contenuti formalmente transazioni, facilitare la
pubblicati. collaborazione et c.
Varie collezioni di libri, Enorme diversità di generi, di
Eterogeneità riviste, musica, software, media, documenti e formati
database e file. di file.
Operazioni altamente Operazioni spesso molto
centralizzate, spesso decentralizzate, con siti
Centralizzazione
all'interno di uno o pochi sottostanti mantenuti
edifici fisici. indipendentemente.
Fare architettura dell'informazione significa primariamente avere a che fare
con persone, dati e ambienti da correlare e gestire: in pratica, operare il
concetto di ecologia dell'informazione, composta da utenti, contenuto e
contesto:

In questo ecosistema informativo, ognuno dei tre elementi intersecati ha


precise corrispondenze:

 utenti: pubblici di riferimento, attività, necessità, comportamenti di


ricerca, esperienze;
 contenuto: tipi di documenti, dati, dimensioni, strutture esistenti;
 contesto: obiettivi economici, business, finanziamenti, politiche,
cultura, tecnologia, risorse di vario tipo.

Con un'estrema schematizzazione, possiamo invece dire che, nella pratica


specifica, i componenti che un'architettura dell'informazione dovrà prendere
in esame saranno:

 sistemi di organizzazione: il modo in cui categorizziamo le informazioni


(ad esempio, per argomento o per cronologia);
 sistemi di etichettatura: come rappresentiamo l'informazione (ad
esempio, con terminologie specifiche o con parole d'uso comune);
 sistemi di navigazione: in che modo ci muoviamo attraverso le
informazioni (ad esempio, “cliccando” in una struttura gerarchica o su
una serie di faccette21);
 sistemi di ricerca: come ricerchiamo le informazioni (ad esempio,
utilizzando un motore di ricerca o utilizzando le voci di un indice).

Louis Rosenfeld e Peter Morville – i due maggiori teorici dell'architettura


dell'informazione – si chiedono retoricamente se ci sia bisogno o meno di
figure professionali che si occupino strutturare e organizzare l'informazione; e
rispondono: «ciò che ci sta a cuore è l'esigenza di professionisti con
competenze ed esperienza specializzate, che sappiano come creare sistemi
d'informazione utili ed usabili nel contesto di ambienti estremamente
complessi [...]. Di fatto, poiché i siti e le intranet diventano sempre più
complessi e mission-critical, la domanda di architetti dell'informazione potrà
solo crescere [...]. Riteniamo che gli architetti dell'informazione saranno
certamente molto impegnati almeno per alcune centinaia di anni22.»

2.3 | Progettare per l'utente: l'usabilità e i suoi metodi

La diffusione del World Wide Web ha portato, oltre a molti innegabili


vantaggi, anche alcune specifiche difficoltà: trovare quello che si cerca, avere
un'esperienza soddisfacente, con il pieno controllo delle proprie azioni, è
spesso in Rete un'impresa difficile. Complessivamente, parlare di esperienza
positiva sul Web vuol dire non soltanto raggiungere un obiettivo avendo il

21 Una faccetta (dall'inglese facet) è un particolare aspetto sotto il quale un argomento viene
trattato. Con una classificazione a faccette, il contenuto di un documento può essere
descritto analiticamente nei suoi diversi aspetti; questi sono poi espressi tutti insieme,
secondo una sequenza determinata da regole di funzionalità; cfr. Gnoli C. (2004),
Classificazione a faccette, Roma, Associazione italiana biblioteche, passim.
22 Rosenfeld L., Morville P. (2002), Architettura dell'informazione per il World Wide Web, 2a
ed., trad. it., Milano, Tecniche Nuove, p. 17-18.
pieno controllo delle proprie azioni, ma anche trarne un senso di
soddisfazione, di piacere d'uso. Una certa diffusa difficoltà nell'utilizzo del
personal computer – dovuta principalmente ad una cattiva progettazione delle
interfacce – e una scarsa dimestichezza e naturalezza nell'uso degli ipertesti
sono le cause più frequenti di repulsione nei confronti della tecnologia
informatica. A risolvere questi problemi si è candidata negli ultimi anni una
disciplina derivata dall'ergonomia cognitiva23: l'usabilità.
L'usabilità ha presto trovato una fortunata applicazione nel campo dello
studio di interfacce software ed è stata recentemente definita dalla norma
ISO 9241, secondo cui l'usabilità è «il grado in cui un prodotto può essere
usato da classi di utenti per raggiungere specifici obiettivi con efficacia,
efficienza e soddisfazione in un contesto d'uso determinato24.» Questa
definizione mette in evidenza gli aspetti fondamentali che entrano in gioco
quando si parla di “uso di un prodotto”:

 efficacia: è la capacità del prodotto di portare a termine il compito che


l'utente desidera, in modo completo e accurato;
 efficienza: è la capacità di portare a termine il compito che l'utente
desidera con il minor costo possibile per l'utente stesso (costo non
necessariamente economico, ma in termini di tempo e risorse
cognitive: fatìca, stanchezza, dispendio di risorse attentive et c.);
 soddisfazione: il grado di piacevolezza soggettiva e positività
psicologica dell'esperienza nell'uso di un prodotto.

Non deve inoltre passare inosservato che la definizione dello standard ISO
parli di utenti e contesti d'uso; infatti – come giustamente scrive Maurizio
Boscarol - «sarebbe un errore credere, come fanno in molti, che l'usabilità sia
una proprietà del prodotto (nel nostro caso, del sito). Essa è piuttosto una
proprietà dell'interazione fra un utente e quel sito: perché ogni utente ha
conoscenze, esperienze, obiettivi, idiosincrasie, capacità sensoriali, motorie e

23 L'ergonomia cognitiva è una scienza dedicata allo studio di come l'uomo interagisce con
l'ambiente sulla base di quelli che sono i suoi vincoli fisici e cognitivi; cfr. Di Nocera F.
(2004), Che cos'è l'ergonomia cognitiva, Roma, Carocci, passim.
24 Cfr. ISO 9241 Ergonomic Requirements for Office Work with Visual Display Terminals, part
11, Guidance on specifying and measuring usability, 1995.
cognitive differenti25.»
Perciò, progettare un sito web usabile significa fondare il proprio lavoro su
alcuni princìpi fondamentali:

 realizzare un dialogo semplice e naturale: il sistema deve presentare


un modello che l'utente sia facilmente in grado di capire, apprendere e
utilizzare; il linguaggio utilizzato a livello di interfaccia deve essere
semplice e familiare per l'utente e rispecchiare i concetti e la
terminologia a lui noti; vanno evitati il più possibile un linguaggio
tecnico e orientato al sistema che utenti non esperti di informatica
possono non comprendere;
 semplificare la struttura dei compiti: i compiti o le attività che
l'utente deve svolgere in interazione con il sistema devono avere una
struttura semplice o devono essere semplificati. Donald Norman26
suggerisce quattro diversi approcci per semplificare i compiti, a
seconda del grado di difficoltà incontrata dall'utente:
● mantenere il compito invariato, ma offrire sussidi mentali;
● usare la tecnologia per rendere visibile quello che altrimenti
sarebbe invisibile;
● automatizzare, mantenendo il compito sostanzialmente
inviariato;
● cambiare la natura del compito;
 favorire il riconoscimento piuttosto che il ricordo: osservando
l'interfaccia, l'utente deve poter capire cosa deve fare, come può farlo
e, una volta eseguita un'azione, deve poter capire cosa è successo e
quali sono stati i risultati. Dal momento che è più facile riconoscere
una cosa vedendola direttamente, piuttosto che recuperare
l'informazione dalla memoria, il modo più semplice per agevolare
l'utente è quello di rendergli visibili le cose sull'interfaccia, ovvero
fornirgli dei sussidi esterni che impegnino al minimo il suo ricordo;

25 Cfr. Boscarol M. (2003), Ecologia dei siti web. Come e perché usabilità, accessibilit e fogli
di stile stanno cambiando il modo di realizzare i siti internet, Milano, Tecniche Nuove,
p.29-30.
26 Cfr. Norman D. A. (1988), La caffettiera del masochista. Psicopatologia degli oggetti
quotidiani, trad. it., Firenze, Giunti.
 rendere visibile lo stato del sistema attraverso un feedback: il
feedback rappresenta l'informazione di ritorno, la reazione del sistema
in risposta all'azione che l'utente ha eseguito sulla interfaccia; il
feedback serve a segnalare all'utente lo stato corrente del sistema e
l'esito della propria azione;
 prevenire e limitare gli errori di interazione: commettere errori
nell'interazione con un prodotto è naturale. Ogni azione dell'utente va
concepita come un tentativo verso una giusta direzione. Si tratta di una
componente naturale del dialogo utente-sistema che va tollerata,
garantendo la giusta flessibilità di utilizzo che consente agli utenti di
navigare liberamente senza entrare in vicoli ciechi o in situazioni
critiche;
 essere coerenti: la coerenza permette all'utente di trasferire
agevolmente la conoscenza da un'applicazione all'altra, aumenta la
predicibilità delle azioni e dei comportamenti del sistema favorendone
l'apprendibilità;
 facilitare la flessibilità d'utilizzo e l'efficienza dell'utente: le esigenze
degli utenti variano in relazione al loro livello di esperienza rispetto al
compito e alle tecnologie informatiche. Ne consegue che, in relazione a
questi due aspetti, il livello di supporto richiesto, gli strumenti
utilizzati e le strategie di interazione messe in atto dagli utenti possono
essere diverse. Gli utenti non esperti, ad esempio, amano essere
guidati passo per passo, mentre gli utenti più esperti preferiscono
utilizzare scorciatoie, delle quali anche utenti non esperti, man mano
che aumenta il loro livello di esperienza, possono usufruire.

Tutti questi obiettivi spesso non possono essere conseguiti


contemporaneamente, poiché si tratta sempre di compromessi. Nel caso in cui
il compromesso possa essere trovato senza snaturare alcuna caratteristica del
sistema, si procederà; altrimenti si dovranno scegliere le caratteristiche
dell'usabilità fondamentali in funzione degli obiettivi dello specifico progetto
di usabilità.
2.4 | Il Web alla portata di tutti: l'accessibilità

La questione dell'accessibilità dei siti web si è posta solo di recente


all'attenzione dell'opinione pubblica internazionale. In effetti, fino ad ora
siamo stati immersi nella fase iniziale dello sviluppo di Internet: tecnologia
nascente, possibilità da esplorare et c. In séguito ci si inizia però a porre la
questione delle reali pratiche del mezzo, degli usi utili, facili, di come quella
tecnologia può servirci effettivamente. Se Internet è diventata uno dei
principali mezzi di scambio di notizie, informazioni e risorse di ogni genere,
diventa di conseguenza inevitabile riflettere sui vincoli di accesso al mezzo.
L'accessibilità dei siti web per diversa tipologia di utenti è un problema di
politica e democrazia dell'accesso.
Ad ogni modo, per poter impostare i termini del problema abbiamo bisogno di
capire quali utenti incontrano significative barriere architettoniche nei servizi
web (dove per 'barriera architettonica' si intende un ostacolo alla fruizione di
una certa informazione o di un certo contenuto da parte di una specifica
categoria di utenti). Alcuni utenti possono essere caratterizzati da handicap
specifici. Tipicamente, la classificazione delle disabilità considera le disabilità
sensoriali, quelle motorie e quelle cognitive:

 disabilità sensoriali: si tratta di deficit che riguardano una o più


modalità sensoriali. Gli esempi più comuni sono quelli di non vedenti,
ipovedenti, persone affètte da miopia o presbiopia;
 disabilità motorie: riguarda soggetti che hanno difficoltà a muoversi e
dunque a manovrare strumenti di input come tastiera e mouse;
 disabilità cognitive: interessa persone che hanno capacità cognitive
limitate, ritardi mentali lievi, difficoltà di comprensione e di
apprendimento.

Il World Wide Web Consortium27 (o W3C) – un ente sovranazionale senza scopo

27 <http://www.w3.org/>.
di lucro che ha come scopo istituzionale quello di standardizzare linguaggi e
tecnologie per il Web – ha una specifica sezione che si occupa di accessibilità –
la Web Accessibility Initiative28 (o WAI) – che, a partire dal 1999, ha rilasciato
una serie di documenti contenenti linee-guida vòlte a sistemare e chiarire
l'oggetto e i limiti dell'accessibilità su Web: le Web Content Accessibility
Guidelines29 (o WCAG); le Authoring Tool Accessibility Guidelines30 (o ATAG),
destinate principalmente agli sviluppatori di strumenti software per la
progettazione di siti web (i cosiddetti web authoring tools i cui esempi più
noti sono Microsoft® FrontPage e Adobe® Dreamweaver); le User Agent
Accessibility Guidelines31 (o UAAG), indirizzate ai produttori di browser e
tecnologie assistive. In particolare, il documento contenente le WCAG si
suddivide in 14 punti fondamentali:

1. Fornire alternative equivalenti al contenuto uditivo e visuale.


2. Non contare solo sul colore per fornire informazioni.
3. Separare markup e fogli di stile, e farlo in modo appropriato.
4. Chiarificare il linguaggio utilizzato.
5. Creare tabelle che si trasformino in maniera naturale.
6. Assicurarsi che le pagine che fanno uso di nuove tecnologie si
trasformino in maniera elegante.
7. Assicurare all'utente il controllo dei cambiamenti temporali del
contenuto.
8. Assicurare l'accessibilità diretta di interfacce utente inserite nell'HTML.
9. Progettare per l'indipendenza dal dispositivo.
10.Usare soluzioni “ad interim”.
11.Usare le tecnologie e le linee-guida raccomandate dal W3C.
12.Fornire contesto e informazioni di orientamento.
13.Fornire meccanismi di navigazione chiari.
14.Assicurarsi che i documenti siano chiari e semplici.

28 <http://www.w3.org/WAI/>.
29 <http://www.w3.org/TR/WCAG10/>. Attualmente la sezione WAI del W3C sta lavorando ad
una seconda edizione del documento (WCAG 2.0) che dovrebbe sostituire il precedente.
30 <http://www.w3.org/TR/ATAG10/>.
31 <http://www.w3.org/TR/UAAG10/>.
Un'ultima necessaria considerazione riguarda come l'Italia ha finora affrontato
il tema dell'accessibilità. Il 9 gennaio del 2004 è stata approvata e promulgata
la legge 4/2004, intitolata Disposizioni per favorire l'accesso dei soggetti
disabili agli strumenti informatici, nota anche come “legge Stanca”, dal
nome dell'allora ministro per l'innovazione e le tecnologie Lucio Stanca.
L'Italia si è così dotata fin dal 2004, ponendosi all'avanguardia rispetto alla
maggior parte delle altre nazioni, di uno strumento legislativo pensato per
tutelare il diritto degli utenti con disabilità a fruire degli strumenti
informatici, e in particolare di Internet, senza subire discriminazioni rispetto
ai cosiddetti “normodotati”. Per dare un riferimento alto ai diritti che intende
tutelare, la legge 4/2004 si richiama esplicitamente all'art. 3 della
Costituzione italiana, che stabilisce:

Tutti i cittadini hanno pari dignità sociale e sono eguali davanti alla
legge, senza distinzione di sesso, di razza, di lingua, di religione, di
opinioni politiche, di condizioni personali e sociali.

2.4 | Un linguaggio per i contenuti ed uno per la forma:


(X)HTML e CSS

Una pagina Web è costituita essenzialmente da due componenti: i contenuti


veri e propri della pagina e la formattazione con cui i contenuti saranno
presentati all'utente.
Lo scopo dell'(X)HTML32 è quello di codificare contenuti, specificando la loro
struttura e il ruolo semantico di ogni singola parte. La struttura dei contenuti
indica il ruolo (ovvero la funzione) che ogni oggetto svolge all'interno di una
pagina. L'aspetto assunto da ogni singolo elemento della pagina è di norma
determinato dal browser. Per esempio, i titoli (indicati con i tag <h1>,

32 (X)HTML (eXtensible HyperText Markup Language, <http://www.w3.org/TR/xhtml1/>)


rappresenta un'implementazione strutturale del tradizionale HTML (HyperText Markup
Language, <http://www.w3.org/TR/REC-html40/>) sulla base di XML (eXtensible Markup
Language, <http://www.w3.org/TR/REC-xml/>), un metalinguaggio che permette di
definire la grammatica di diversi linguaggi specifici, a seconda delle proprie esigenze.
<h2>, ..., <h6>) sono in genere rappresentati in grassetto con dimensione
doppia rispetto a quella dei paragrafi (<p>); i titoli di ordine successivo sono
rappresentati in dimensione decrescente. I titoli sono separati dagli altri
elementi della pagina da margini, paragrafi adiacenti sono distanziati da un
margine pari alla dimensione dei caratteri del paragrafo stesso, le liste (<ul>
per liste non ordinate di elementi e <ol> per liste numerate, seguìti dai tag
<li> per i singoli elementi della lista) hanno marcatori alla loro sinistra e
sono spostate verso destra. In pratica, il browser possiede, al suo interno, una
serie di regole predefinite che determinano in che modo rappresentare la
struttura della pagina.
Fino a qualche anno fa, i web designer non potevano modificare i criteri
utilizzati dai browser nella rappresentazione della pagina. Per venire incontro
alle necessità grafiche dei web designer, sono stati introdotti nuovi elementi
(ad esempio, il tag <font> o l'attributo bgcolor) il cui scopo non è quello di
strutturare i contenuti, ma di determinarne l'aspetto.
Per realizzare impaginazioni complete, gli autori di pagine web si sono affidati
a strumenti come le tabelle (il cui scopo effettivo dovrebbe essere quello solo
quello di tabulare dati), a immagini trasparenti e a una serie di “trucchi” che
hanno portato il codice (X)HTML a diventare sempre più pesante, sempre
meno strutturato e leggibile. I diversi elementi sono stati utilizzati senza
alcun rispetto per il loro valore strutturale e semantico, ma con il solo intento
di determinare l'aspetto della pagina.
La coerenza strutturale dei documenti è stata sacrificata in favore della
grafica e il peso delle pagine, anziché dai contenuti e dai tag necessari per
marcarli opportunamente, veniva determinato da elementi inseriti al solo
scopo di controllare l'aspetto finale della pagina.
I Cascading Style Sheets (CSS), o più semplicemente fogli di stile – rilasciati
dal World Wide Web Consortium nel 1996 e rivisti nel 1998 – rappresentano
uno strumento che consente ai web designer di scrivere codice (X)HTML ben
strutturato, leggero, semanticamente valido, separato dall'impaginazione
finale e, al tempo stesso, di controllare tutti gli aspetti formali di una pagina
web.
Dal punto di vista strutturale, i CSS sono semplicemente un insieme di regole
il cui compito è istruire il browser su come debbano essere rappresentati i
contenuti inseriti in un documento (X)HTML. In pratica, i CSS permettono agli
autori di specificare il modo in cui il browser deve rappresentare un oggetto,
o elemento (X)HTML. Con la corretta implementazione dei CSS da parte dei
più comuni browser, oggi finalmente non è più necessario utilizzare le vecchie
tecniche per ottenere pagine web gradevoli dal punto di vista grafico. Oggi è
possibile realizzare siti web secondo standard internazionali quali (X)HTML e
CSS, ottenendo una serie di innegabili vantaggi.
Jeffrey Zeldman, uno dei più celebri e quotati web designer di oggi, riassume
tali vantaggi in una sua recente pubblicazione33:

 ottenere un maggior controllo sul layout, sulla disposizione degli


elementi e sugli aspetti tipografici nei browser grafici, pur consentendo
agli utenti di modificare la presentazione secondo le proprie necessità;
 sviluppare codice che mantenga la propria funzionalità in vari browser
e piattaforme;
 essere conformi a leggi e linee-guida in materia di accessibilità, senza
dover sacrificare estetica e performance;
 riprogettare siti in ore invece che in giorni o mesi, riducendo i costi e il
lavoro ripetitivo e noioso;
 supportare molteplici browser senza la fatica e le spese di dover
progettare versioni separate;
 supportare periferiche non tradizionali (palmari wireless o telefoni
cellulari, screen-reader e terminali Braille) senza dover creare versioni
separate;
 fornire versioni da stampa di ogni pagina, senza doversi affidare a
costosi software proprietari di publishing.

33 Zeldman J. (2007), Progettare siti web standard. Tecniche per il design con XHTML e CSS,
trad. it., Milano, Paravia-Bruno Mondadori, p. 41.
3 | Il Synthema Knowledge Center

Nata nel 1994 per iniziativa di alcuni specialisti del Centro di Ricerca IBM,
Synthema si occupa da quasi quindici anni di consulenza, ricerca applicata e
sviluppo di soluzioni informatiche nel trattamento del linguaggio naturale.
I prodotti realizzati da Synthema spaziano in un nutrito numero di aree
dell'ingegneria dell'informazione:

 traduzione automatica e assistita


 applicazioni linguistiche (trattamento automatico del linguaggio
naturale)
 business intelligence (nello specifico, text data mining)
 intelligenza artificiale (knowledge bases e sistemi di supporto alle
decisioni)
 internet (e-commerce, motori di ricerca e motori di traduzione)
 acquisizione e riconoscimento di testi manoscritti (OCR34 e ICR35)
 applicazioni vocali (riconoscimento e sintesi)
 navigazione strumentale (tramite applicazioni satellitari)

A dimostrazione dell'importanza di Synthema e dei prodotti da essa realizzati,


un rapido elenco dei suoi maggiori clienti: Banca Popolare di Milano, Camera
dei Deputati, IBM, Mondadori, Rai, Reuters, Siemens, Unipol, Università di
Pisa, Università degli Studi di Siena, Università degli studi di Torino.

34 Optical Character Recognition, ovvero un'applicazione dedicata alla conversione di


un'immagine contenente testo – solitamente acquisita tramite scanner – in un testo digitale
modificabile.
35 Intelligent Character Recognition, ovvero un'applicazione OCR avanzata che permette ad
un sistema di intelligenza artificiale di apprendere tipi di caratteri e stili differenti per il
ricoscimento automatico.
3.1 | Il text data mining come analisi esplorativa intelligente di
dati open source

In accordo con le più recenti esigenze di ricerca e di mercato, il settore di


maggior sviluppo per l'azienda è quello del text data mining e della gestione
intelligente dell'informazione.
Occuparsi di text data mining – un giovane àmbito di ricerca in linguistica
computazionale – significa partire dal presupposto che il testo (inteso in un
senso generale) esprima una vasta e ricca gamma di informazioni, ma che le
informazioni siano codificate in una forma assai difficile da decifrare
automaticamente. Il text data mining si differenzia notevolmente dai comuni
processi di recupero delle informazioni (ciò che in linguistica computazionale
è l'information retrieval): lo scopo dell'information retrieval è quello di
aiutare l'utente a reperire documenti che soddisfini il suo bisogno informativo,
ma il fatto che un sistema di recupero delle informazioni possa restituire
come risultato di ricerca un documento che l'utente cercava non implica che il
processo di ricerca abbia condotto a nuove scoperte (scopo che invece il text
data mining si prefigge). Scrive a tal proposito Marti Hearst36:

This search-centric view [il punto di vista che vede il data mining come
un semplice strumento per “rendere le cose più facili da trovare sul
Web”] misses the point that we might actually want to treat the
information in the Web as a large knowledge base from which we can
extract new, never-before encountered information.

Un esempio illuminante di come il text data mining possa rappresentare una


fondamentale risorsa di esplorazione e scoperta informativa, ci è dato da una
ricerca di Don Swanson. In una serie di pubblicazioni37, Swanson ha mostrato

36 Hearst M. A. (2003), “Text Data Mining”, in Mitkov R. (ed.), The Oxford Handbook of
Computational Linguistics, Oxford, Oxford University Press, p. 620.
37 Cfr. Swanson D. (1987), “Two Medical Literatures that are Logically but not
Bibliographically Connected”, in Journal of the American Society for Information Science
(JASIS), vol. 38, n. 4, p. 228-233; Swanson D. (1991), “Complementary Structures in
Disjoint Science Literatures”, in Proceedings of the 14th Annual International ACM/SIGIR
in che modo una catena casuale di implicazioni nell'àmbito della letteratura
medica possa condurre ad alcune ipotesi sulla causa di malattie rare, alcune
delle quali hanno ricevuto il supporto di prove sperimentali. In pratica,
investigando sulle cause dell'emicrania, Swanson ha estratto frammenti di
prove da semplici titoli di articoli della letteratura biomedica; alcune di
queste prove possono essere parafrasate come segue:

✔ lo stress è associato all'emicrania


✔ lo stress può portare a carenza di magnesio
✔ gli isolanti dei canali di conduzione del calcio prevengono alcune forme
di emicrania
✔ il magnesio è un isolante naturale dei canali di conduzione del calcio
✔ la depressione corticale è implicata in alcune forme di emicrania
✔ alti livelli di magnesio inibiscono la depressione corticale
✔ i pazienti che soffrono di emicrania hanno alti livelli di coagulazione
delle piastrine
✔ il magnesio può sopprimere la coagulazione delle piastrine

Tutti questi indizi suggeriscono che la carenza di magnesio può giocare un


ruolo determinante in alcune forme di emicrania: un'ipotesi che non era stata
ufficialmente formulata al tempo in cui Swanson ha trovato queste
correlazioni. Nonostante queste ipotesi siano ancora in via di verifica
sperimentale, il reale punto di interesse risiede nel fatto che una nuova,
potenzialmente plausibile ipotesi medica è stata derivata dalla combinazione
di frammenti di testo e dalla competenza nell'esplorazione della letteratura
medica.
Da un punto di vista ingegneristico, il modello di text data mining elaborato
da Synthema prevede una classificazione di documenti open source analizzati
sulla base dell'argomento trattato, prevedendo due fasi che si succedono l'una
all'altra automaticamente:

Conference, Chicago, p. 280-289; Swanson D., Smalheiser N. R. (1994), “Assessing a Gap in


the Biomedical Literature: Magnesium Deficiency and Neurologic Disease”, in Neuroscience
Research Communications, n. 15, p. 1-9; Swanson D., Smalheiser N. R. (1997), “An
Interactive System for Finding Complementary Literatures: A Stimulus to Scientific
Discovery”, in Artificial Intelligence, n. 91, p. 183-203.
 analisi linguistica
 analisi statistica

L'analisi linguistica permette di cogliere per ogni documento i suoi elementi


chiave, analizzando il testo da un punto di vista morfologico, sintattico e
semantico. La lemmatizzazione del testo permette di rimuovere eventuali
ambiguità lessicali presenti, classificando ogni parola, evidenziandone gli
attributi morfologici (ad esempio, genere e numero per i nomi; modo, tempo
e persona per i verbi; regole di flessione e alterazione) e semantici,
restituendo il lemma di derivazione. Solo i lemmi o le espressioni composte
presenti oltre una certa soglia vengono riconosciuti come significativi per il
documento ed estratti nell'analisi.
La fase di analisi linguistica poggia inoltre sull'utilizzo di un dizionario base
della lingua italiana (circa 45.000 voci espanse in più di un milione di forme
classificate) e su un lemmatizzatore che usa una grammatica contestuale di
circa 600 regole. L'analisi semantica rileva poi eventuali convergenze nel
significato dei termini estratti, utilizzando specifiche knowledge bases di
dominio, che associano ad ogni oggetto lessicale un concetto di riferimento,
indipendente dalla lingua di appartenenza.
Una volta strutturati ed indicizzati da un punto di vista linguistico, i
documenti possono essere inseriti in un database, quindi ricercati, consultati
e classificati tematicamente. L'analisi statistica classifica infatti i documenti
sulla base delle informazioni chiare condivise, utilizzando metodologie di
elaborazione dati tipicamente afferenti al settore del text data mining. Il
motore statistico quindi scopre le categorie tematiche che meglio descrivono
l'insieme dei documenti analizzati, utilizzando sia criteri linguistici38, sia
criteri statistici39.

38 Scegliendo, ad esempio, i descrittori sulla base della loro categoria grammaticale di


appartenenza (i nomi propri dànno sempre una forte indicazione del tema trattato) o del
loro significato.
39 Prendendo come riferimenti la soglia di similarità per i documenti e di significatività per i
valori.
3.2 | Ontologie e basi di conoscenza

Il text data mining consente quindi non soltanto la ricerca e l'estrazione di


dati da corpora linguistici di vario genere e misura (si va da documenti
testuali specificamente caricati nel sistema alla testualità del Web nella sua
sconfinata interezza) ma consente di poter elaborare l'informazione
“intelligentemente” estratta al fine di costruire un'ontologia di riferimento
(ossia una base di conoscenza dedicata: in linguistica computazionale i due
concetti tendono recentemente a sovrapporsi40).
Il termine 'ontologia' – com'è noto – proviene dalla filosofia, dove si riferisce a
quella branca della metafisica che si occupa dello studio dell'essere in quanto
tale e delle sue categorie fondamentali. Quando passiamo dalla filosofia
all'informatica, un'ontologia diventa quindi il mezzo per descrivere e definire
la rappresentazione computazionale di quella parte del mondo che ci
interessa modellare in un programma o in un'applicazione: in particolare,
nell'àmbito dei sistemi di condivisione della conoscenza, gli oggetti che
rappresentano il dominio e costituiscono l'universo del discorso sono a tutti gli
effetti le “cose che esistono” e che quindi necessitano di essere espresse
attraverso un'ontologia.
La più celebre definizione di 'ontologia' è stata data da Thomas Gruber41:

An ontology is a specification of a conceptualization.

Per quanto a prima vista oscura, questa definizione sottolinea due concetti di
estrema importanza. Anzitutto, un'ontologia fa riferimento a una
concettualizzazione: ciò significa che in un'ontologia saranno definiti i
concetti rilevanti alla descrizione del dominio in esame. Una
concettualizzazione, infatti, è una vista astratta e semplificata del mondo o
di quella parte della realtà che ci proponiamo di rappresentare; ogni sistema
40 Cfr. Vossen P. (2003), “Ontologies”, in Mitkov R. (ed.), The Oxford Handbook of
Computational Linguistics, Oxford, Oxford University Press, p. 464-465: «Whenever we
store information to make [...] common-sense-like inferences, we tend to speak of an
ontology or knowledge base.»
41 Gruber T. (1993), What is an Ontology? <http://www-ksl.stanford.edu/kst/what-is-an-
ontology.html>.
di rappresentazione o di gestione della conoscenza, pertanto, avrà sempre
una qualche concettualizzazione, esplicita o implicita del suo dominio. Il
secondo fondamentale concetto fornito da Gruber nella sua definizione di
'ontologia' è che quest'ultima consiste in una specificazione: ciò significa che
tale concettualizzazione è espressa attraverso un'appropriata definizione,
un'indicazione particolareggiata dei concetti e delle relazioni che fra essi
sussistono.

3.3 | Implementazione di una base di conoscenza:


un'esperienza nel campo dell'intelligenza artificiale con il
Synthema Knowledge Center

La particolare base di conoscenza approntata da Synthema è il Synthema


Knowledge Center (SKC), oggetto essenziale della mia esperienza di stage:

Scopo precipuo del SKC è quello di permettere la gestione e


l'implementazione semantica di corpora linguistici (nel mio caso, uno specifico
corpus di riferimento di àmbito economico, bancario e finanziario) al fine di
servire da strumento assistivo e decisionale per una serie di istituti bancari
nazionali.
In particolare, il basilare corpus di riferimento è stato costituito dal glossario
dell'Associazione Bancaria Italiana (ABI), dal glossario della Banca di Credito
Cooperativo di Roma (BCC) e da quello della Banca Commerciale Italiana
(BCI), per un totale di circa 3.000 lemmi di specifico dominio bancario che
sono stati analizzati in prima istanza da un punto di vista strutturale:
Attraverso l'utilizzo di un foglio di calcolo si è proceduto all'analisi dei lemmi
indicandone

 la fonte (in relazione al corpus testuale di riferimento);


 il tipo:
● standard: un lemma che non necessariamente appartiene al dominio
di interesse ma che è applicabile a una varietà di contesti semantici
(ad esempio, locuzioni come “alla giornata” o “allo scoperto”; nomi
comuni come “analista”, “indice” o “maturazione”; verbi come
“eseguire”, “mediare” o “collocare”);
● topic of interest: si tratta di un lemma normalmente specialistico,
afferente al dominio di interesse (ad esempio, “econometria”,
“dollaro”, “autofinanziamento” et c.);
● abbreviation: di norma un acronimo puntato (ad esempio,
“CO.N.SO.B.” o “CO.VI.P.”), che il sistema ha bisogno di riconoscere
come tale per non interpretare i segni di interpunzione come
indicatori testuali di termine frase (ad esempio, “Ieri sono andato in
banca.”);
● named entity: nomi propri di enti, associazioni, banche et c. (ad
esempio, “Federal Reserve Bank” o “Istituto Nazionale per la
Previdenza Sociale”);
 la categoria grammaticale:
● nomi
● nomi propri
● verbi
● aggettivi
● avverbi
 il lemma, la definizione e l'eventuale corrispondente in lingua inglese
(al fine di implementare una possibile base di conoscenza multilingue);
 le eventuali relazioni di sinonimia, espresse mediante il convenzionale
connettore SYNONYM (ad esempio, “giacenza” SYNONYM “rimanenza” o
“North America Free Trade Agreement” SYNONYM “NAFTA”);
 le eventuali relazioni di iperonimia, espresse dal connettore ISA (ad
esempio, “dichiarazione di cessazione” ISA “dichiarazione” per indicare
la posizione gerarchicamente inferiore di un particolare tipo di
concetto linguistico nei confronti della sua generica accezione);
 le eventuali relazioni di astrazione linguistica (ovvero, di vicinanza
grammaticale fra due o più termini), espressa dal connettore ABSTRACT
(ad esempio, “avanzo” ABSTRACT “avanzato” e “avanzare”).

Una volta formattata e strutturata l'informazione, i dati vengono passati alla


base di conoscenza per essere messi in reciproca relazione semantica.
L'interfaccia di interrogazione permette di filtrare la ricerca secondo una
serie di parametri:
e il risultato restituito può essere visto a schermo insieme a tutte le relazioni
semantiche che intrattiene con altri elementi della base di conoscenza:

La disambiguazione dei termini omografi (o word sense disambiguation)


avviene prima di tutto mediante una sintetica ma accurata compilazione del
campo 'definizione', affinché fin dal loro significato ontologico due o più
omografi possano essere distinti:

In seconda istanza, la disambiguazione avviene e si rafforza grazie alla rete di


relazioni semantiche che viene costruita intorno ad ogni lemma.
“Commissione”, nel senso di “gruppo di persone a cui è affidato un incarico
da svolgere collegialmente”, si legherà con relazioni di iperonimia a termini
composti (o multiwords) del tipo “commissione di vigilanza”, “Commissione
Europea”, “Commissione Nazionale per le Società e la Borsa”; a sua volta, il
lemma “commissione”, nel senso di “compenso corrisposto dal fruitore di un
servizio al fornitore”, intesserà legami con “commissione bancaria”,
“commissione di entrata”, “commissione di proroga”.
Il Synthema Knowledge Center prevede anche la possibilità di analizzare le
relazioni fra oggetti linguistici mediante un motore linguistico che suddivide
una frase in parti (ovvero in parts-of-speech). Ad esempio, analizzando una
frase come “La maggior parte dei miei titoli di borsa ha perso valore”, verrà
restituita una scomposizione dell'enunciato suddivisa in singoli termini che
metterà anche in evidenza le relazioni fra i componenti:

Le stesse relazioni potranno inoltre essere visualizzate attraverso una


struttura concettuale a grafo programmata in linguaggio Java:
Riferimenti bibliografici

Alberts D. S., Papp D. S. (eds.) (1997-2001), The Information Age: An


Anthology on Its Impact and Consequences, vol. I-III, Command and
Control Research Program Publications42.

Aliprandi C. et al. (2008), “Online Police Station, a Cutting Edge Service


Against Cybercrime”, in Proceedings of 9th International Conference
on Data Mining, Protection and Security, Cadiz, 26-28/05/2008, p.
325-334.

Berners-Lee T. (1999), L'architettura del nuovo Web. Dall'inventore della rete


il progetto di una comunicazione democratica, interattiva e
intercreativa, trad. it., Milano, Feltrinelli, 2001.

Boscarol M. (2003), Ecologia dei siti web. Come e perché usabilità,


accessibilità e fogli di stile stanno cambiando il modo di realizzare i
siti internet, Milano, Tecniche Nuove.

Cantoni L., Di Blas N., Bolchini D. (2003), Comunicazione, qualità, usabilità,


Milano, Apogeo.

Cascini G., Neri F. (2004), “Natural Language Processing for Patents Analysis
and Classification”, in Proceedings of ETRIA World Conference – TRIZ
Future, Firenze, 3-5/11/2004, p. 199-212.

42 <http://www.dodccrp.org/files/Alberts_Anthology_I.pdf>,
<http://www.dodccrp.org/files/Alberts_Anthology_II.pdf>,
<http://www.dodccrp.org/files/Alberts_Anthology_III.pdf>.
Davenport T. H., Prusak L. (1997), Information Ecology. Mastering the
Information and Knowledge Environment, Oxford, Oxford University
Press.

Deiana A. (2007), Il capitalismo intellettuale, Milano, Sperling & Kupfer.

Della Valle E., Celino I., Cerizza D. (2008), Semantic Web. Modellare e
condividere per innovare, Milano, Pearson-Paravia-Bruno Mondadori.

Di Nocera F. (2004), Che cos'è l'ergonomia cognitiva, Roma, Carocci.

Diodati M. (2007), Accessibilità. Guida completa, Milano, Apogeo.

Gensini S., Cimatti F. (a cura di) (1999), Manuale della comunicazione.


Modelli semiotici, linguaggi, pratiche testuali, Roma, Carocci.

Gnoli C. (2004), Classificazione a faccette, Roma, Associazione italiana


biblioteche.

Holzschlag M. E. (2000), HTML, trad. it., Milano, Mondadori Informatica, 2002.

Horn L., Ward G. (eds.) (2004), Handbook of Pragmatics, Oxford, Basil


Blackwell.

Lenci A., Montemagni S., Pirrelli V. (2005), Testo e computer. Elementi di


linguistica computazionale, Roma, Carocci.

Levinson S. C. (1983), La pragmatica, trad. it., Bologna, Il Mulino, 1985.

Mitkov R. (ed.) (2003), The Oxford Handbook of Computational Linguistics,


Oxford, Oxford University Press.

Nacci G. (2008), “OSINT investigativa. Tecnologie ed analisi delle


informazioni”, in Intelligence & Storia Top Secret, n. 8, p. 83-92.

Nardi B. A., O'Day V. L. (1999), Information Ecologies. Using Technology with


Heart, Cambridge (MA), MIT Press.

Neri F., Pettoni M. (2008), “A Multilingual Text Mining Search Engine for Open
Source Intelligence”, in Proceedings of 12th International Conference
on Information Visualization, IV08: OSINT-WM – Open Source
Intelligence and Web Mining, London, 8-11/07/2008, p. 314-320.

Neri F., Raffaelli R. (2002), “Text Mining, recuperare l'informazione nascosta”,


in Atti del Congresso TIPI (Tecnologie Informatiche nella Promozione
della lingua Italiana), Roma, Ministero delle Comunicazioni,
26/6/2002.

Neri F., Raffaelli R. (2004), “Text Mining Applied to Multilingual Corpora”, in


Knowledge Mining: Proceedings of the NEMIS 2004 Final Conference,
Athens, 25/10/2004.

Norman D. A. (1988), La caffettiera del masochista. Psicopatologia degli


oggetti quotidiani, trad. it., Firenze, Giunti.

Rosenfeld L., Morville P. (20022), Architettura dell'informazione per il World


Wide Web, trad. it., Milano, Tecniche Nuove.

Sbisà M. (a cura di) (1978), Gli atti linguistici. Aspetti e problemi di filosofia
del linguaggio, Milano, Feltrinelli.

Shannon C., Weaver W. (1949), The mathematical theory of communication,


Urbana (IL), University of Illinois Press.

Sperber D., Wilson D. (19952), Relevance: Communication and Cognition,


Oxford, Basil Blackwell.
Swanson D. (1987), “Two Medical Literatures that are Logically but not
Bibliographically Connected”, in Journal of the American Society for
Information Science (JASIS), vol. 38, n. 4, p. 228-233.

Swanson D. (1991), “Complementary Structures in Disjoint Science


Literatures”, in Proceedings of the 14th Annual International
ACM/SIGIR Conference, Chicago, p. 280-289.

Swanson D., Smalheiser N. R. (1994), “Assessing a Gap in the Biomedical


Literature: Magnesium Deficiency and Neurologic Disease”, in
Neuroscience Research Communications, n. 15, p. 1-9.

Swanson D., Smalheiser N. R. (1997), “An Interactive System for Finding


Complementary Literatures: A Stimulus to Scientific Discovery”, in
Artificial Intelligence, n. 91, p. 183-203.

Troiani G. (2005), CSS. Guida completa, Milano, Apogeo.

van der Geest T. M. (2001), Web Site Design is Communication Design,


Amsterdam-Philadelphia, John Benjamins.

Visciola M. (2006), Usabilità dei siti web. Curare l'esperienza d'uso in


Internet, Milano, Apogeo.

Wolf M. (2001), Teorie delle comunicazioni di massa, Milano, Bompiani.

Zeldman J. (2007), Progettare siti web standard. Tecniche per il design con
XHTML e CSS, trad. it., Milano, Paravia-Bruno Mondadori.

Você também pode gostar