La pubblicazione in lingua italiana di Measuring quality, il manuale IFLA per la misurazione della performance nelle biblioteche universitarie1, è un avvenimento scientifico-editoriale importante. Alla Commissione Università ricerca dell'AIB va riconosciuto il grande merito di avere tempestivamente colto e soddisfatto un'esigenza professionale ormai largamente diffusa tra i bibliotecari italiani delle università: l'esigenza di poter disporre di un valido e agevole strumento "ufficiale" di sintesi e di orientamento per le esperienze di misurazione e valutazione della loro attività di servizio. Che si tratti di una pubblicazione tempestiva è evidente. Essa si pone in qualche modo al crocevia di due distinti processi: da un lato la recente, lenta, ma costante penetrazione della cultura e delle tecniche del management nella nostra comunità professionale; dall'altro lato il processo di riforma istituzionale e organizzativa che sta investendo il sistema universitario italiano, chiamato a cimentarsi con le sfide gestionali e di produttività imposte dalla stagione dell'autonomia. Non a caso la Conferenza dei rettori ha manifestato il proprio interesse per il tema della misurazione, fino a produrre propri materiali di indirizzo; non a caso è stato costituito presso il MURST un Osservatorio per la valutazione del sistema universitario; non a caso è in discussione un disegno di legge (n. 5924 del 31 marzo 1999) che obbliga gli atenei a darsi un sistema di valutazione interna per la gestione amministrativa, per la didattica, per la ricerca, per il diritto allo studio. C'è in realtà un passaggio culturale e non solo legislativo in atto: esso caratterizza in modo sempre più marcato l'università come impresa erogatrice di servizi (e del resto la ricerca e la didattica esprimono esse stesse una evidente componente di servizio). Se è così, ai sistemi bibliotecari di ateneo compete un ruolo di primo piano, che ovviamente comporta maggiore responsabilità, grande chiarezza di obiettivi, necessità di valutare le prestazioni erogate (ecco perché lo stesso Osservatorio ha a sua volta istituito un Gruppo di ricerca su misurazione e valutazione delle biblioteche universitarie, che ha recentemente portato a compimento una prima Rilevazione sulle biblioteche delle università italiane2).

Insieme con la tempestività, è parimenti fuori discussione la validità di queste Linee guida se prese come normativa tecnica di riferimento: innanzitutto perché ci permettono di analizzare i nostri processi gestionali sulla base di misure non difformi da quelle accreditate in campo internazionale (le nostre peculiarità vengono troppe volte invocate a mo' di alibi); in secondo luogo perché esse sono il risultato di un lavoro redazionale che non ha mai smarrito il riferimento al nostro contesto quanto ad accuratezza lessicale, esemplificazione, corredo bibliografico: l'obiettivo di licenziare un'edizione italiana e non una semplice traduzione dell'originale è stato pienamente conseguito3.

Il manuale IFLA contempla sette aree di misurazione e diciassette indicatori di prestazione:

Uso generale della biblioteca e servizi
1. Tasso di penetrazione
2. Orario d'apertura in relazione alla domanda

Qualità delle raccolte
3. Liste di controllo
4. Uso delle raccolte
5. Uso delle raccolte per aree tematiche
6. Documenti non utilizzati

Qualità del catalogo
7. Ricerca di un documento noto
8. Ricerca per argomento

Disponibilità dei documenti delle raccolte
9. Velocità di acquisto
10. Velocità nel trattamento del libro
11. Disponibilità
12. Tempo di consegna dei documenti
13. Velocità di prestito interbibliotecario

Servizio di reference
14. Tasso di risposte corrette

Accesso remoto
15. Accessi remoti pro capite

Soddisfazione dell'utente
16. Soddisfazione dell'utente
17. Soddisfazione dell'utente per i servizi ad accesso remoto

Per ogni indicatore si propone una definizione, si formalizzano gli obiettivi, si descrive il metodo di raccolta e calcolo dei dati, si segnalano possibili chiavi interpretative dei risultati e possibili interventi correttivi, si consigliano percorsi bibliografici di approfondimento.

Nella prefazione si spiega con esemplare chiarezza quali sono le finalità del libro: promuovere l'uso della misurazione come uno strumento importante per la gestione efficace; aiutare a ottenere risultati attendibili con un impegno di lavoro ragionevole; offrire strumenti per i raffronti storici nell'ambito di una biblioteca e per i confronti fra biblioteche (p. 15). L'attenzione è concentrata sull'efficacia (rapporto tra risultati e obiettivi) e non sull'efficienza (rapporto tra risultati e costi): «date le enormi differenze economiche e finanziarie fra le biblioteche nei diversi paesi, non potevamo sperare di elaborare degli indicatori validi per tutti. Escludendo il fattore costi, queste linee guida possono diventare accettabili per quei bibliotecari che rischiano di essere valutati in base a parametri del tipo: numero dei volumi movimentati al minor costo» (ibidem)4.

L'introduzione mette a fuoco alcuni presupposti generali e di metodo sul concetto di qualità («la definizione di qualità ha subito un'evoluzione: dal controllo e dalla verifica del prodotto si è passati a una concezione più ampia, rivolta al servizio, che coinvolge l'intera struttura organizzativa», p. 18), sulla mission della biblioteca universitaria («lo scopo di una biblioteca universitaria può essere così riassunto: selezionare, raccogliere, organizzare l'informazione e consentirne l'accesso agli utenti, in primo luogo a quelli istituzionali, vale a dire ai membri dell'istituzione», p. 19), sugli obiettivi che ne discendono in ordine alle raccolte, alle strategie di accesso, alla consultazione in sede, all'istruzione degli utenti, alla conservazione e tutela (v. p. 20-22), sulla corretta individuazione dei soggetti interessati alla biblioteca (utenti istituzionali, altri utenti, personale, amministrazione universitaria, ecc.) (p. 22-23) e sul loro coinvolgimento nell'elaborazione degli scopi e degli obiettivi. A seguire, si fissano le coordinate del lavoro di misurazione: oggetto della misurazione d'efficacia è la prestazione, cioè «il livello raggiunto dalla biblioteca nel conseguimento dei suoi obbiettivi, soprattutto in relazione al bisogno degli utenti» (p. 23). A tal fine si raccolgono, si confrontano, si combinano e si analizzano dati statistici e altri elementi conoscitivi (come i giudizi degli utenti): si elaborano cioè apposite espressioni quantitative (gli indicatori), in base alle quali si valutano le prestazioni. I risultati della misurazione forniscono informazioni preziose a supporto delle decisioni strategico-operative (riorganizzazione del lavoro, ridefinizione delle priorità di servizio) e dell'attività di comunicazione della biblioteca universitaria.

Nel capitolo L'attività di misurazione si aggiungono poi alcune precisazioni, quanto mai opportune, sul carattere selettivo di questo strumento gestionale e oculati suggerimenti sui criteri di scelta degli indicatori da adottare negli specifici contesti di servizio. Infine, si esaminano le tre fasi del ciclo gestionale della misurazione: la preparazione (piano di lavoro, campionamento, test preliminare); la realizzazione (tecniche di raccolta dei dati); l'interpretazione (analisi dei risultati, ipotesi di intervento).

Measuring quality uscì a distanza di sei anni dall'apprezzato lavoro di Van House - Weil - McClure5, primo toolbook appositamente realizzato per la misurazione delle biblioteche universitarie. Nel frattempo erano stati pubblicati altri importanti contributi di settore, come il report del Joint Funding Councils' Ad-hoc Group e gli indicatori ARL6. L'accoglienza fu nel complesso positiva: da più parti si ebbe occasione di segnalare come il volume dell'IFLA offrisse un approccio comunque serio, organico e originale alla materia, tanto da renderne tutt'altro che superflua o tardiva la pubblicazione: «This book belies its appearance. With densely printed text using a small typeface and narrow margins, it looks as if it will be a hard, dull read. On closer inspection , it turns out to be a well-constructed and practical guide to performance measurement, that will be useful to a wide range of libraries, not just those which fit under the "academic" umbrella»7.

Non mancarono tuttavia anche alcuni rilievi critici. Particolarmente mirate e acute appaiono ancora oggi le osservazioni contenute in una recensione pubblicata a firma di Steve Morgan sul «Journal of documentation»8. L'autore accoglieva comunque con soddisfazione l'uscita di Measuring quality, riconoscendone i meriti: buona strutturazione, rigore, equilibrio tra criteri di misurazione basati sulle raccolte e criteri basati sulle politiche di accesso, presenza di indicatori dedicati in modo specifico ai servizi in linea. Subito dopo, però, Morgan rilevava due non trascurabili omissioni: «Firstly, it is generally recognised that the level of integration of the library into the parent organisation and its academic departments is crucial for the provision of a vibrant, dynamic and focused service. The opportunity to reinforce this stance and suggest measurement criteria - as the Funding Councils' document has done - has been lost. These could involve liaison activities, feedback mechanism, course planning arrangements, assessment and review procedures, etc. Secondly, user education gets four mentions throughout the book. There is no specific indicator although it could be subsumed under the "catch all" of the user satisfaction survey»9. Entrambe le omissioni evidenziate da Morgan riguardano rilevanti processi di comunicazione organizzativa della biblioteca universitaria. Sia le modalità con cui si costruisce lo scambio delle informazioni con gli stakeholders istituzionali, sia le attività di addestramento-formazione-orientamento degli utenti (queste ultime soprattutto in funzione di un accesso efficace e consapevole alle risorse disponibili sulle reti telematiche) sono infatti determinanti, oltre che per i contenuti informativi, anche per la qualità della componente immateriale e relazionale del servizio e dunque per le successive intenzioni di comportamento di tutti i soggetti interessati (fiducia-sfiducia, fedeltà-infedeltà, ecc.). È bene allora non sottrarsi all'impegno di individuare, anche per questi aspetti, tecniche pertinenti e non vaghe di monitoraggio qualitativo e quantitativo. Non andrebbero escluse, a tal fine, iniziative di benchmarking statistico ad ampio spettro.


L'edizione italiana di Measuring quality è stata presentata per la prima volta a Salerno il 26 marzo 199910. Si è trattato di un incontro ricco di spunti di riflessione non scontati, e quindi particolarmente stimolanti. Nella sua relazione introduttiva Gabriele Mazzitelli ha giustamente sottolineato l'apporto collettivo della Commissione Università ricerca a questa esperienza redazionale: effettivamente si può scorgere qui un esempio davvero produttivo e vincente di cooperazione tra bibliotecari. I redattori hanno puntato molto sul valore aggiunto rappresentato dall'interazione di più energie e competenze e dalla capacità di affrontare e risolvere insieme i problemi legati alla realizzazione di un progetto non privo di difficoltà. Un modo flessibile e intelligente di "fare gruppo", a valorizzare fattivamente la possibilità dell'impiego esteso di un'altra, importante leva manageriale (il problem solving collettivo), a sua volta indispensabile proprio a una pratica eccellente di misurazione e valutazione. Ancora Mazzitelli ha insistito sul rapporto tra la complessità organizzativa e di servizio della biblioteca universitaria e l'individuazione di misure che permettano di confrontare le sue prestazioni con i suoi obiettivi: il pieno riconoscimento della centralità dell'utente comporta la necessità di un cambiamento, di una crescita professionale che sappia essere all'altezza di una domanda sempre più agguerrita di servizi qualitativamente apprezzabili. È importante, per Mazzitelli, il riferimento ai contesti specifici entro cui questo rapporto prende forma: così, gli indicatori IFLA sono senz'altro utili come standard iniziali di riferimento: conoscerli serve non solo ad accettarli, ma se possibile a migliorarli.

Proprio il desiderio di dar conto in qualche modo dell'ampia rete di relazioni dentro cui la biblioteca universitaria deve necessariamente collocare le proprie strategie gestionali e di misurazione ha spinto gli organizzatori dell'incontro di Salerno a sollecitare il contributo di almeno un rappresentante dell'istituzione universitaria e di uno studente. Vittorio Dini, delegato rettorale alle biblioteche dell'ateneo salernitano, si è detto convinto che conoscenza e formazione universitaria non possano fare a meno di una rinnovata funzione strategica delle biblioteche: esse dovranno però avviare al più presto la propria riforma organizzativa ed essere capaci di rappresentare in maniera credibile le proprie esigenze di finanziamento e di utilizzo delle risorse. Bisogna imparare a farlo attraverso la predisposizione di programmi operativi puntuali, sorretti da un'analisi concreta dei risultati via via raggiunti. L'autonomia costringe gli atenei a una ripartizione mirata delle risorse e obbliga tutti a praticare senza riserve la cultura delle regole, dell'autocontrollo e della valutazione, con uno spostamento di ottica che sappia puntare coraggiosamente alla verifica e al soddisfacimento dei bisogni di ricerca, di studio, anche di lettura, delle diverse fasce di utenza. In sintesi, l'intervento di Dini ha richiamato un aspetto fondamentale della cultura della valutazione, quello che ne considera l'enorme potenziale comunicativo nel rapporto tra strutture di servizio e stakeholders istituzionali. C'è sicuramente molto da lavorare perché un nuovo orientamento al risultato possa sconfiggere una tradizione amministrativa autoreferenziale come quella italiana: da sempre il reale funzionamento dei servizi figura come variabile del tutto trascurata nelle decisioni che presiedono all'allocazione delle risorse (e gli atenei fanno raramente eccezione). Per altro verso, le strutture erogatrici di servizi pubblici non avvertono la particolare esigenza di relazionare periodicamente sulla propria attività e di documentarne i risultati (e le biblioteche universitarie fanno raramente eccezione). Nell'introduzione alle Linee guida si disegna uno scenario di cambiamento in cui «l'affidabilità delle istituzioni che forniscono servizi diventa l'interesse principale delle singole amministrazioni» e in cui «le pubbliche relazioni assumono una sempre maggiore importanza: le biblioteche hanno bisogno di strumenti per pubblicizzare e divulgare le loro attività» (p. 17). Il management dell'efficacia diventa in tal modo funzionale alla comunicazione organizzativa della biblioteca in vista di alcuni dei suoi principali obiettivi (acquistare visibilità e credito, ottenere finanziamenti adeguati, ecc.).

Anche la studentessa Carmela Di Nardo si è interessata ai risvolti relazionali delle attività di misurazione: il pericolo è che esse vengano sottovalutate dagli utenti, presi da altri interessi, e che siano in qualche modo osteggiate dallo stesso personale bibliotecario: quest'ultimo potrebbe avvertire il rischio di diventare facile oggetto di critica. Va detto che il problema esiste sul serio e che va affrontato con adeguate iniziative di comunicazione e di informazione. È indispensabile promuovere l'attività di misurazione presso gli utenti e illustrarne le finalità, soprattutto quando si tratti di distribuire questionari per raccoglierne le opinioni, pena il modesto impatto dell'iniziativa; ancor prima è indispensabile garantirsi la convinta adesione di tutto il management bibliotecario e degli operatori: gli indicatori sono in primo luogo uno strumento messo a disposizione dei bibliotecari, della loro consapevolezza, della loro crescita professionale. Nella seconda parte del suo intervento Carmela Di Nardo ha affrontato "da utente" la lettura critica di alcuni indicatori, apprezzando come un autentico punto di forza del manuale dell'IFLA il fatto che esso riconosca spesso la necessità di raccogliere direttamente le opinioni dei fruitori dei servizi. Dal punto di vista dell'utenza studentesca assume particolare interesse, per esempio, l'indicatore n. 2 delle Linee Guida (Orario di apertura in relazione alla domanda). Troppo spesso le biblioteche universitarie restano aperte solo durante le ore di lezione, con evidente disagio per gli studenti: sarebbe il caso, in molti atenei, di ripensare l'organizzazione dell'orario di apertura, assumendo come punto di partenza un'indagine condotta in base alle indicazioni delle Linee guida. L'indicatore n. 2 mette appunto in relazione «numero e distribuzione delle ore di apertura effettive e numero e distribuzione delle ore di apertura desiderate dagli utenti» (p. 59).

All'incontro di Salerno non ha fatto mancare il proprio contributo Giovanni Solimine, che ha delineato un interessante modello interpretativo: il passaggio dalla statistica (i dati) alla misurazione (gli indicatori) riflette in qualche modo, sul piano delle tecniche di gestione, un trasferimento di valore, dal primato dell'efficienza al primato dell'efficacia. Proprio l'aver nettamente privilegiato la misurazione dell'efficacia rende gli standard IFLA più interessanti e utili di altre norme tecniche di riferimento per le biblioteche. Solimine ha accompagnato questa considerazione con una lucida e dettagliata disamina dei singoli indicatori, della quale è purtroppo impossibile dar conto in questa breve nota. Nel suo intervento si è potuto peraltro cogliere un timore: affiorano qua e là segnali di una lettura "difensiva" dei temi della misurazione, talvolta riduttivamente interpretati come una sorta di scudo protettivo delle competenze dei bibliotecari e un po' meno come una risorsa da spendere nella direzione di un più forte orientamento agli utenti e di un miglior radicamento della biblioteca nel suo ambiente11. La pubblicazione italiana delle Linee guida può servire - e molto - a far compiere importanti progressi alla nostra cultura della valutazione. La preoccupazione di Solimine è senz'altro da condividere: c'è un nesso, irrinunciabile per una struttura erogatrice di servizi come la biblioteca, tra cultura dell'ascolto e cultura della valutazione. Ambedue presuppongono una verifica costante dello scarto esistente tra qualità perseguita (gli scopi, gli obiettivi) e qualità realizzata (le percezioni e il giudizio degli utenti, le prestazioni). Le Linee guida hanno sapientemente mantenuto un fermo ancoraggio a queste premesse.

Molto apprezzato, infine, è stato anche l'intervento di Elisabetta Pilia, che si è sviluppato lungo tre direttrici:
1) i problemi di carattere lessicale, semantico e applicativo connessi al trasferimento nella nostra lingua e nel nostro contesto professionale della terminologia e della pratica anglosassone della valutazione;
2) la definizione di un ciclo gestionale della valutazione stessa, articolato in tre tempi: valutazione ex ante (da quale condizioni operative muove il nostro programma di attivita?); valutazione ex tempore (una fase intermedia: ci stiamo muovendo nella direzione giusta?); valutazione ex post (la fase finale: si analizzano e interpretano i risultati ottenuti);
3) una riflessione sui soggetti della valutazione: gli utenti (per una biblioteca orientata all'efficacia i loro giudizi e le loro opinioni indicano la direzione da prendere); i bibliotecari (devono conoscere il contesto in cui operano e le esigenze degli utenti, formulare adeguati obiettivi di servizio, valutarne i risultati); l'istituzione a cui la biblioteca appartiene (negli atenei dovrebbe essere compito degli uffici di coordinamento delle biblioteche valutare il grado di raggiungimento degli obiettivi del sistema; i nuclei di valutazione dovrebbero inoltre esaminare le biblioteche come servizi di supporto alla didattica e alla ricerca); il ministero (valutazione esterna agli ambiti gestionali, con finalità di controllo).

Il contesto in cui si esplicano le attività di valutazione è dunque segnato da grande complessità e da una pluralità di interessi, che possono causare una certa confusione di ruoli e di obiettivi. Occorre una sintesi valutativa, che è compito, difficile, del bibliotecario.

All'impeccabile ragionamento di Elisabetta Pilia si può solo aggiungere la necessità di individuare al più presto sedi di definizione e negoziazione degli obiettivi in cui possano confrontarsi i diversi soggetti interessati al buon funzionamento delle biblioteche universitarie: l'elaborazione di specifiche carte di servizio, per esempio, appare sempre più opportuna, a dispetto del notevole ritardo accumulato in materia dal nostro settore.


La pubblicazione delle Linee guida in italiano e lo stesso incontro di Salerno reclamano qualche altra riflessione ancora. Intanto - è facile prevederlo - si apre una fase nuova per le nostre le biblioteche universitarie: nei prossimi mesi sarà interessante verificare diffusione, praticabilità e fortuna degli indicatori dell'IFLA, valutarne l'impatto sulla gestione delle strutture, confrontare le diverse esperienze di misurazione. La lettura del libro aiuta a focalizzare l'attenzione sui processi e a vivere la biblioteca universitaria come un'organizzazione pensata per un pubblico determinato e per il soddisfacimento dei suoi specifici bisogni informativi. Ne esce confortata l'idea che quanti vorranno ottenere buoni risultati in termini di efficacia dovranno concentrarsi sui "fattori critici di successo", vale a dire sugli elementi di servizio che in via prioritaria fanno qualità e incontrano la soddisfazione degli utenti. Misurazione e valutazione dovrebbero servire così a scoprire i punti di debolezza della biblioteca, ovvero le situazioni di scostamento significativo tra le prestazioni rese e gli obiettivi primi del servizio. Poche misure, ma buone: ecco una risorsa irrinunciabile per capire se ciò che si sta realizzando corrisponde a ciò che si vuole ottenere e che si ritiene possa assicurare autentici successi alla propria biblioteca universitaria. Il ventaglio degli indicatori dell'IFLA offre in tal senso eccellenti possibilità di scelta e di analisi (dopodiché , come ci ricordano le stesse Linee guida, occorre programmare e attuare interventi innovativi e migliorativi: la misurazione è mezzo e non fine del ciclo gestionale). Il problema della selezione preventiva degli obiettivi rimane però da risolvere, anche perché non sono scontate le componenti che influenzano la mission di una biblioteca universitaria. Su questo versante l'approccio delle Linee guida è ancora un tantino rigido e poco selettivo. Per esempio, gli scopi istituzionali riportati a p. 19 dell'edizione italiana, e già richiamati in questo articolo, mantengono intatto il riferimento esclusivo a un ruolo di mediazione tra risorse e utenti che forse sta entrando in crisi e che andrebbe quindi perlomeno riformulato: soprattutto dove si fa ricerca, e dove si usano postazioni telematiche personali, si sviluppano anche modalità dirette e "anarchiche", o semplicemente commerciali, di accesso alle risorse. Per le biblioteche universitarie sta sorgendo allora la necessità di riposizionarsi rispetto a questi bisogni e di trovare per essi risposte di servizio inedite: l'impressione è che non si tratti più solo di "consentire agli utenti l'accesso all'informazione", quanto di creare valore attorno all'offerta bibliotecaria, possibilmente personalizzata, di informazione. Per questo sono magari necessarie indagini preventive sui bisogni e sulle motivazioni degli utenti (ricerche di marketing) da affiancare alle misure IFLA.

Un'ultima, piccola - e un po' acribiosa - osservazione riguarda gli indicatori n. 16 (Soddisfazione dell'utente) e n. 17 (Soddisfazione dell'utente per i servizi ad accesso remoto). La loro presenza testimonia ancora, sia pure con i limiti di cui si diceva sopra, della coerenza complessiva di impianto delle Linee guida: per misurare e valutare l'efficacia delle prestazioni di servizio non è sufficiente raccogliere e combinare dati, bisogna acquisire anche il parere degli utenti. Tuttavia, qualche riserva sul metodo di indagine e di calcolo prescelto si può forse avanzare. Il criterio della soddisfazione ponderata (cioè la combinazione tra importanza annessa dal campione intervistato al singolo servizio e relativo grado di soddisfazione espresso), messo a punto con buoni esiti in molte ricerche sulla user satisfaction, appare infatti considerato solo in parte e applicato in modo non del tutto convincente. Nello standard IFLA, come in altre indagini del genere, è prevista la somministrazione di un questionario a un campione di utenti. Le domande del questionario si riferiscono al funzionamento di un determinato servizio della biblioteca. In risposta a ciascuna domanda il rispondente può attribuire un punteggio che esprima il suo grado di soddisfazione (da 1 a 5); in alcuni casi può anche disporre in ordine di importanza le stesse voci di servizio sottoposte a indagine; non è però chiamato ad attribuire loro un punteggio (meglio se a somma definita) che rappresenti direttamente il suo punto di vista circa l'importanza che esse rivestono per lui. Alla fine mancherà soprattutto un punteggio complessivo di soddisfazione ponderata (soddisfazione x importanza), che è quasi sempre più attendibile del punteggio riflettente il giudizio di soddisfazione puro e semplice. Questi sono però inconvenienti cui si porrà facilmente rimedio e che non compromettono minimamente la buona qualità scientifica di questo manuale.

1 International Federation of Library Associations and Institutions, Linee guida per la valutazione delle biblioteche universitarie: edizione italiana di Measuring quality, a cura della Commissione nazionale Università ricerca dell'Associazione italiana biblioteche (Mariella Fazio, Gabriele Mazzitelli, Sonia Minetto, Biagio Paradiso, Simonetta Pasqualis, Vanna Pistotti, Serafina Spinelli), Roma: AIB, 1999. L'edizione originale, redatta dalla IFLA Section of University Libraries & other General Research Libraries, è stata pubblicata con il titolo Measuring quality: international guidelines for performance measurement in academic libraries, München: Saur, 1996.

2 Informazioni sul programma di ricerca del gruppo e sui primi esiti ricognitivi sono disponibili all'indirizzo http://www.murst.it/osservatorio/ricbibl.htm.

3 L'edizione italiana si apre con una premessa in cui sono illustrate le ragioni che hanno invogliato la Commissione Università ricerca a realizzarla: «Il nostro intento è quello di offrire ai bibliotecari italiani uno strumento di lavoro che possa servire innanzitutto come modello, come punto di riferimento, ma che possa anche vedere, con gli opportuni adeguamenti, applicazioni pratiche in un numero sempre maggiore di biblioteche» (p. 8). Rispetto all'edizione originale sono stati conservati i riferimenti bibliografici posti a corredo di ciascun indicatore; è stata invece sostituita la ricca ma superata bibliografia finale con un elenco di contributi pubblicati in Italia. Alcuni esempi e tabelle sono stati adeguati al contesto italiano. È stato infine tradotto il glossario (nell'edizione originale proposto anche in francese, tedesco, spagnolo e russo), con l'avvertenza che la traduzione italiana presenta anche varianti sinonimiche in esso non attestate.

4 Ad ogni modo, il volume contiene un capitolo dedicato ai criteri generali di misurazione del rapporto costi/efficacia (p. 44-52).

5 Nancy A. Van House - Bert T. Weil - Charles R. McClure, Measuring academic library performance: a practical approach, Chicago: American Library Association, 1990.

6 Joint Funding Councils' Ad-hoc Group on Performance Indicators for Libraries, The effective academic library: a framework for evaluating the performance of UK academic libraries: a consultative report to HEFCE, SHEFC, HEFCW and DENI, Bristol: HEFCE Publications, 1995; Association of Research Libraries, Developing indicators for academic library performance: ratios from the ARL statistics 1992-93 and 1993-94, [edited by] Martha Kyrillidou, Washington: ARL, 1995. Da menzionare anche Standing Conference of National and University Libraries, Advisory Committee on Performance Indicators, Performance indicators for university libraries: a practical guide, London: SCONUL, 1992; Council of Australian University Librarians, Library performance indicators: client satisfaction, document delivery, availability of sought materials, Richmond: CAVAL, 1995 (3 floppy disk).

7 Sarah MacEwan, Rec. di Measuring quality, «Library management» 18 (1997), n. 1, p. 66. Sostanzialmente positivo fu anche il giudizio di Anna Galluzzi, rec. di Measuring quality, «Bollettino AIB», 37 (1997), n. 3, p. 360-363. Di recente, Anna Galluzzi ha sagacemente recensito anche l'edizione italiana, in «Bibliotime», n.s., 2 (1999), n. 2, http://spbo.unibo.it/bibliotime/num-ii-2/galluzzi.htm (visto il 16 luglio 1999).

8 Steve Morgan, rec. di Measuring quality, «Journal of documentation», 53 (1997), n. 4, p. 434-436.

9 Ivi, p. 435.

10 L'incontro è stato organizzato dal Centro di servizio di ateneo per le biblioteche dell'Università di Salerno e dalla Sezione Campania dell'AIB e si è tenuto nella nuova sede della Biblioteca centrale di ateneo. Hanno partecipato (con Gabriele Mazzitelli, coordinatore della Commissione nazionale Università ricerca dell'AIB) Vittorio Dini, delegato rettorale alle biblioteche dell'Università di Salerno, Carmela Di Nardo, studentessa dell'Istituto universitario orientale di Napoli, Giovanni Solimine, professore dell'Università della Tuscia, Elisabetta Pilia, coordinatrice generale delle biblioteche dell'Università di Sassari. Ha coordinato i lavori l'autore di questo articolo.

11 A Solimine, ma anche a chi scrive, è sembrata in tal senso paradigmatica la discussione che si è sviluppata nel mese di febbraio 1999 sulla lista AIB-CUR a proposito della pubblicazione sulla rivista «Altroconsumo» dei risultati di un'indagine sul funzionamento delle biblioteche italiane.