Bibliograficzne bazy danych : kierunki rozwoju i możliwości współpracy
Ogólnopolska konferencja naukowa z okazji 10-lecia bazy danych BazTech
Bydgoszcz, 27-29 maja 2009

Poprzedni - Spis treści - Następny
            

Ewa Głowacka
Instytut Informacji Naukowej i Bibliologii UMK

Kryteria oceny i wyboru baz danych

Abstrakt

W artykule przedstawiono ustaloną przez autorkę listę kryteriów i wskaźników oceny bibliograficznych baz danych. Scharakteryzowano omawiane mierniki w następujących kategoriach: zawartość bazy danych, wyszukiwanie, usługi, użytkownicy i wykorzystanie baz danych, ich funkcjonalność i użyteczność.

Słowa kluczowe

bibliograficzne bazy danych, kryteria oceny, kryteria selekcji, wskaźniki oceny

Abstract

The article presents author’s list of criteria and measures bibliographic databases assessment. These measures were characterized in five groups: database content, searching, services, users and use of database, its functionality and usability.

Keywords

bibliographic databases assessment, assessment criteria, selection criteria, assessment measures

pdf prezentacja

Wstęp

Podstawy oceny baz danych wywodzą się z ewaluacji tradycyjnych spisów bibliograficznych oraz badań nad zagadnieniami automatyzacji procesów indeksowania i wyszukiwania dokumentów. Ich początek to prace bardzo wielu specjalistów z dziedziny informacji naukowej. Do najważniejszych z omawianego zakresu można zaliczyć m.in. publikacje F.W. Lancastera[1], C. Cleverdona[2] i P.A. Cochrane[3]. W ostatnim czasie, w związku z powszechną obecnością baz danych w środowisku sieciowym, zwiększył się znacznie dostęp do nich i możliwości ich samodzielnego przeszukiwania przez użytkowników. Wzrosły zatem wymagania w zakresie użyteczności i funkcjonalności baz danych. Ogromna podaż i różnorodność źródeł tego rodzaju stwarza też poważne dylematy w kwestii ich wyboru.

Skutkuje to tym, że ocena jest niezbędną częścią procesu gromadzenia i rozwoju kolekcji baz danych. Lista kryteriów i wskaźników ich ewaluacji powinna być jednym z trzech podstawowych elementów profesjonalnego podejścia do omawianego procesu w każdej bibliotece. Pozostałe – równie ważne jego składniki to: ustalenie polityki gromadzenia, czyli określenie zakresu tematycznego gromadzonej kolekcji oraz rozpoznanie oferty wydawców i pośredników oraz doprecyzowanie zasad wyboru i selekcji baz przy uwzględnieniu potrzeb docelowych użytkowników, zawartości baz oraz możliwości budżetowych biblioteki[4].

Cel analizy i stan badań

W artykule przedstawiono przegląd podstawowych kryteriów i wskaźników oceny bibliograficznych baz danych. Przygotowany przez autorkę materiał wskazuje główne płaszczyzny i punkty analizy cech treściowych, formalnych i funkcjonalnych omawianego rodzaju źródeł informacji. Może stanowić podstawę do wyboru kryteriów oceny jakości baz danych prowadzonej metodą jakościowo-heurystyczną (ekspercką). Przygotowana lista wydaje się zatem potencjalnie przydatna do wykorzystania w bibliotekach w procesie ustalania polityki gromadzenia i rozwoju kolekcji baz danych. Z pewnością może również pełnić rolę narzędzia do tworzenia kwestionariuszy ewaluacji baz danych przez użytkowników. Takie ankiety zamieszcza się często na stronie WWW biblioteki w celu zbierania opinii na temat funkcjonalności proponowanych baz danych, co jest szczególnie ważne w przypadku udostępniania testowych wersji baz.

Literatura przedmiotu koncentrująca się na opisywanej problematyce nie jest jeszcze wystarczająca, ponieważ brakuje prac obejmujących szczegółowo wszystkie aspekty oceny jakości baz danych. Ze względu na szeroki zakres wart odnotowania jest raport Database Quality Assessment/Quality Control Mechanism[5], opracowany w Monachium w 2008 r., który pokazuje najważniejsze aspekty prowadzonych w omawianym zakresie badań. Proponowane w nim kryteria i wskaźniki mogą być punktem wyjścia do budowania całej kafeterii mierników oceny baz danych. Omawiana inicjatywa jest zresztą w fazie rozwoju i z pewnością proponowane podejście będzie się pogłębiać. Bardzo dobrym narzędziem do oceny platform dostarczających bazy danych i e-booki jest Academic Database Assessment Tool (ADAT, http://www.jisc-adat.com), bezpłatnie udostępniony projekt Joint Information Systems Committee. Zastosowane w nim kryteria ewaluacji mogą również służyć do ewaluacji baz danych.

Najczęściej przedmiotem opracowań są jednak wybrane grupy kryteriów oceny. Znaczącą publikacją odnoszącą się do kryteriów oceny zawartości różnego rodzaju baz danych jest praca P. Jacsó i C. Tenopir[6]. Ważne z omawianego punktu widzenia są też publikacje omawiające kryteria oceny specjalistycznych dziedzinowych baz danych. Dobrym przykładem są opracowania dla baz chemicznych[7]. Warto również przyjrzeć się badaniom dotyczącym oceny bibliotek cyfrowych[8]. Bardzo przydatna okazała się też analiza raportów z badań baz danych, jak również kwestionariuszy badawczych pokazujących praktyki stosowane w omawianym zakresie w bibliotekach[9]. Najwięcej materiałów tego ostatniego rodzaju zawierają strony WWW bibliotek, szczególnie amerykańskich. Są nimi kwestionariusze ewaluacji baz danych przygotowane dla kształtowania polityki gromadzenia, kwestionariusze oceny baz przez użytkowników oraz zalecenia dotyczące edukacji informacyjnej z omawianego zakresu[10].

Trudno jest utworzyć przejrzystą i rozłączną typologię omawianych kryteriów i wskaźników. W analizowanych opracowaniach i źródłach (stronach internetowych) zastosowano różne sposoby ich podziału, a nawet odmienne nazwy kryteriów zawierających te same wskaźniki. Autorka starała się je zestawić i uporządkować, jednak niewątpliwie proponowana typologia jest dość subiektywna i arbitralna. Taka klasyfikacja z pewnością będzie wymagała jeszcze dyskusji i przemyśleń. Jednak ze względu na brak wypracowanych wzorców należało przyjąć jeszcze tymczasowe i niedoskonałe rozwiązanie.

Aspekty, kryteria i wskaźniki oceny baz danych

a.Zawartość bazy danych

Bardzo ważnym aspektem oceny jest zawartość i wiarygodność analizowanej bazy danych. Dlatego dużą wagę przywiązuje się do sprawdzenia jej zakresu i zasięgu. Precyzyjne zbadanie zakresu tematycznego bazy umożliwia określenie stopnia jej dopasowania do polityki gromadzenia i potrzeb użytkowników biblioteki. Pozwala też na porównanie z podobnymi źródłami. Istotne jest również badanie podstawy źródłowej, czyli cytowań. Równie ważne jest sprawdzenie zasięgu chronologicznego, językowego oraz wydawniczego badanego zasobu. Narzędziem ułatwiającym taką analizę jest dostarczony przez producenta lub wydawcę opis bazy danych. Dlatego jego dostępność i stopień dokładności jest w tym miejscu również elementem oceny.

Kolejnym działaniem w ramach omawianego aspektu oceny jest przyjrzenie się liście indeksowanych czasopism, sprawdzenie częstotliwości aktualizacji danych, liczby rekordów w bazie, a także przejrzystości informacji o wydawcy bazy i pochodzeniu danych oraz stosowanych metadanych. Zebranie takich informacji i ustalenie wymienionych wskaźników pozwoli na wnikliwą ocenę wiarygodności zasobu oraz jakości źródeł danych. Ważnym elementem dla podjęcia późniejszej decyzji o subskrypcji jest też testowanie bazy – istotne jest zatem zapewnienie do niej dostępu przez wydawcę.

b. Wyszukiwanie

Dobór efektywnych strategii wyszukiwawczych to jeden z kluczowych obszarów badawczych w dziedzinie wyszukiwania informacji w źródłach elektronicznych. Badania te od wielu lat koncentrują się na dwóch obszarach: obserwacji zachowań i strategii użytkowników oraz tworzeniu automatycznych modeli wyszukiwania. Dorobek teoretyczny i metodologiczny w tym zakresie rozwija się od lat 60. XX wieku i jest bardzo bogaty. Należy w tym miejscu przypomnieć prace G. Saltona i eksperyment SMART, ważne badania C.J. van Rijsbergena, C.W. Cleverdona, P.L. Garvina oraz eksperymenty i prace innych autorów, np. D. Harmana, T. Saracevica, A. Spink[11].

Oddanie do dyspozycji użytkowników baz danych charakteryzujących się efektywnymi i funkcjonalnymi narzędziami wyszukiwania rekordów to zadanie bardzo ważne. Dlatego też w ocenie każdej bazy istotna jest wieloaspektowa analiza możliwości i funkcjonalności ich przeszukiwania. W omawianym zakresie proponuje się analizę elementów wyszukiwania według trzech głównych kryteriów: wyszukiwania prostego, złożonego oraz badań interfejsu wyszukiwania i zastosowanych w systemie dodatkowych narzędzi. W ramach pierwszego kryterium analizuje się główne rodzaje terminów wyszukiwawczych (słowa kluczowe, hasła autorskie i przedmiotowe, frazy). Sprawdza się też obecność opcji wyszukiwania złożonego, głównie operatorów Boole’a i operatorów położenia. Kontroluje się strategie obcinania terminów wyszukiwawczych, stemmingu (tworzenia rdzenia), opcje ograniczania wyszukiwania (np. ze względu na język publikacji, format, rodzaj) oraz możliwości ustalania pól wyszukiwawczych w rekordach. Ważnym elementem jest też opcja szukania przy wykorzystaniu klasyfikacyjnych języków informacyjnych oraz ułatwienia dla social bookmarkingu.

Główne wskaźniki oceny interfejsu wyszukiwania i dodatkowych narzędzi to z jednej strony ustalenie rodzajów dostępnych indeksów, obecności tezaurusa i słowników kontrolowanych, sprawdzenie łatwości przetwarzania rezultatów wyszukiwania i logowania. Z drugiej strony bada się opcje po wyszukiwaniu – możliwość modyfikacji strategii, wyszukiwania równoległego w różnych bazach i eliminacji duplikatów oraz obecność historii wyszukiwania.

c. Usługi

Z analizą funkcji i strategii wyszukiwawczych oferowanych przez badane bazy danych ściśle wiąże się sfera usług dostępnych po otrzymaniu wyników. Tutaj analizy wymagają opcje pobierania i zachowywania rezultatów wyszukiwania, możliwości współpracy z narzędziami do tworzenia bibliografii, np. EndNote, Reference Manager oraz limity pobierania i zachowywania rekordów. Ważnym wskaźnikiem oceny jest też obecność funkcji zachowywania wyników pomiędzy sesjami oraz w trakcie przeszukiwania poszczególnych części serwisu. Istotna cecha dla użytkowników to aktywność hiperłączy od rekordów w bazie oraz opcja dostarczania tekstów wyszukanych dokumentów. Sprawdza się również możliwości systemu w zakresie różnych sposobów porządkowania wyników wyszukiwania.

d. Użytkownicy i wykorzystanie bazy danych

Kolejna bardzo ważna płaszczyzna oceny to analiza użytkowników i wykorzystania bazy danych. Tego rodzaju badania są bogato reprezentowane w nauce o informacji naukowej. W odniesieniu do wykorzystania elektronicznych źródeł informacji dostępnych on-line, zarówno witryn WWW, bibliotek cyfrowych, narzędzi wyszukiwania zasobów sieciowych, jak i baz danych, prace takie trwają od lat 90.[12] Z omawianego punktu widzenia najważniejsze, obecne w literaturze przedmiotu elementy oceny baz danych, to kryterium liczby i statusu użytkowników. Miernikami w tym zakresie są: liczba użytkowników, nazwiska zarejestrowanych, ich kategoria i specjalność. Ważnym wskaźnikiem jest też liczba nowych użytkowników i zmiany w zakresie wykorzystywania baz w określonych przedziałach czasowych, np. ich analiza w każdym miesiącu (o ile się da zidentyfikować).

Kolejnym kryterium jest wykorzystanie bazy. Tutaj przede wszystkim ustala się dzienną liczbę użytkowników bazy, dzienną liczbę jednoczesnego jej wykorzystania, liczbę różnych wejść do bazy na dzień, ogólną liczbę sesji od zaprenumerowania bazy oraz średni czas sesji. Ważnym elementem oceny są również wykorzystane zasoby z bazy i ich użytkownicy. Planując subskrypcję bazy danych, należy przyjrzeć się dostępnym w niej narzędziom do prowadzenia statystyk.

Trzecim kryterium związanym z przedstawianym aspektem oceny są koszty wykorzystania: w przeliczeniu na użytkownika, na sesję oraz na minutę wykorzystania.

e. Funkcjonalność i użyteczność bazy danych

Ostatnia płaszczyzna, na której autorka umieściła kryteria i wskaźniki oceny baz danych, to funkcjonalność i użyteczność. Niewątpliwie ta kategoria nie jest precyzyjna i charakteryzuje się dużym zróżnicowaniem kryteriów pod względem rodzaju analizowanych dla ich ustalenia informacji i sposobu ich zbierania. Jednak łączy je aspekt badań – interakcja systemu z użytkownikiem.

W omawianym zakresie ocenia się przede wszystkim system nawigacji oraz interfejs bazy danych pod względem stopnia przejrzystości i uporządkowania, możliwości personalizacji, bada się jego wizualną atrakcyjność, intuicyjność oraz ustala się stopień intensywności koniecznego szkolenia w zakresie poruszania się po bazie.

Kolejny element oceny to pomoc. Ustala się, czy jest ona łatwa do zlokalizowania, czy zawiera przejrzyste i łatwe do wykonania instrukcje. Sprawdza się, czy informacje w niej zawarte są prezentowane na dobrych przykładach, czy pomoc otwiera się w osobnym oknie. Kontroluje się również, czy system daje wskazówki w trakcie korzystania z bazy oraz czy komunikaty o błędach są zrozumiałe.

Ostatnie kryterium to ocena systemu. Bada się tutaj szybkość dostarczania wyników, dostępność systemu (tzn. czy zdarzają się okresy braku dostępu) oraz jego ograniczenia. Ustala się limit jednoczesnego dostępu użytkowników oraz sprawdza, jak system działa, gdy osiąga limit jednoczesnych użytkowników. Ważnym miernikiem jest też sposób identyfikacji użytkowników. Kolejne, ważne dla bibliotekarzy i użytkowników cechy systemu, to formaty dostępnych w nim danych, poprawność wydruku wyników oraz obecność i przejrzystość dokumentacji technicznej, a także funkcje raportowania i prowadzenia statystyk.

Dodatkowe narzędzie – ADAT

Celem projektu JISC Academic Database Assessment Tool (ADAT) jest udzielenie pomocy bibliotekom w podejmowaniu decyzji dotyczących przyszłych subskrypcji bibliograficznych baz danych. Utworzony projekt i jego strona internetowa dostarcza szczegółowej informacji o bazach i platformach ich dostępu. Wersja testowa ADAT powstała w 2006 r. jako rezultat raportu z badań Study Evaluating Bibliographic and Citation Databases in use by the UK Higher Education Community. Witryna projektu ADAT udostępniana jest na licencji Creative Commons. Obecną wersję utworzono w 2007 r. Pozwala porównywać automatycznie bazy danych pod względem ISSN, wydawcy, zasięgu wydawniczego, geograficznego, językowego i chronologicznego, obecności abstraktów, cytowań i pełnych tekstów dokumentów. Projekt pozwala na porównanie baz danych dostępnych na następujących platformach (zob. rys. 1.).



Rys. 1. ADAT. Platformy dostępu do baz danych
Źródło: Academic Database Assessment Tool (ADAT) [on-line], [dostęp 27 marca 2009]. Dostępny w World Wide Web:
http://www.jisc-adat.com/adat/adat_plat.pl.

Projekt umożliwia również porównanie e-booków dostępnych na następujących platformach (zob. rys. 2.).



Rys. 2. ADAT. Platformy dostępu do e-booków
Źródło: Academic Database Assessment Tool (ADAT) [on-line], [dostęp 27 marca 2009]. Dostępny w World Wide Web:
http://www.jisc-adat.com/adat/adat_ebooks.pl.

Zakończenie

Ewaluacja prenumerowanych i udostępnianych przez biblioteki baz danych to zadanie bardzo ważne z punktu widzenia odpowiedniego kształtowania polityki ich gromadzenia i utrzymywania. Ważnym elementem tej oceny jest też badanie opinii użytkowników biblioteki korzystających z omawianych źródeł informacji. Dla prowadzenia takich badań celowe jest opracowanie w każdej instytucji biblioteczno-informacyjnej kwestionariuszy oceny baz. Powinny być one dostosowane do potrzeb i specyfiki działalności informacyjnej oraz do zakresu udostępnianych materiałów elektronicznych. Kwestionariusze zawierające ważne dla danej biblioteki aspekty, kryteria i wskaźniki oceny pozwolą na ujednolicenie polityki/i wyboru i selekcji baz danych, a także sprawią, że stanie się ona bardziej przejrzysta. Warto też ustalić kwestionariusz oceny baz przez użytkowników, co pozwoli zbierać informacje o ich opiniach na temat dopasowania oferowanych zasobów do ich potrzeb i wymagań. Przedstawiona w artykule lista kryteriów i wskaźników z pewnością będzie wymagała jeszcze uzupełnień. Będzie również modyfikowana w miarę rozwoju baz danych oraz technologii ich udostępniania. Jednak wydaje się, że już w takiej postaci może posłużyć jako narzędzie do kształtowania metodyki oceny i selekcji baz danych.

Załącznik 1. Lista kryteriów i wskaźników oceny baz danych

A. Ogólne: zakres, zasięg, wydawca, pochodzenie danych

  1. Dostępność opisu bazy danych
  2. Zawartość bazy
  3. Porównanie zawartości z innymi
  4. Zasięg chronologiczny
  5. Częstotliwość aktualizacji
  6. Zasięg wydawniczy (czasopisma, raporty...)
  7. Lista indeksowanych czasopism
  8. Metadane
  9. Liczba rekordów
  10. Przejrzystość informacji o wydawcy bazy i/lub pochodzeniu danych
  11. Wiarygodność
  12. Obecność wersji testowej bazy

B. Wyszukiwanie

  1. Wyszukiwanie proste:
    a) słowa kluczowe
    b) hasła przedmiotowe
    c) przez frazy, cytowania
    d) przez różne elementy hasła autorskiego i obcięcie terminów w tym haśle, wildcards
  2. Opcje wyszukiwania złożonego:
    a) operatory Boole’a i operatory położenia
    b) możliwości obcinania terminów wyszukiwawczych, stemmingu (tworzenia trzonu – wspólnej części słów)
    c) możliwości ograniczania wyszukiwania (np. ze względu na język publikacji, format, rodzaj)
    d) możliwości ustalania pól wyszukiwawczych w rekordach
    e) przez klasyfikacje i inne języki informacyjno-wyszukiwawcze, bookmarking
  3. Interfejs wyszukiwania i dodatkowe narzędzia:
    a) ocena interfejsu wyszukiwawczego
    b) rodzaje dostępnych indeksów
    c) obecność tezaurusa i słowników kontrolowanych, łatwość przetwarzania rezultatów wyszukiwania
    d) opcje po wyszukiwaniu – możliwość modyfikacji strategii
    e) wyszukiwanie równoległe w różnych bazach, eliminacja duplikatów
    f) historia wyszukiwania
    g) łatwość logowania

C. Usługi

  1. Opcje pobierania i zachowywania rezultatów wyszukiwania (download):
    a) także możliwości współpracy z narzędziami do tworzenia bibliografii, np. EndNote, Reference Manager
    b) także limity pobierania i zachowywania rekordów
    c) zachowywanie wyników pomiędzy sesjami
    d) zachowywanie wyników w trakcie przeszukiwania poszczególnych części serwisu
    e) możliwości, funkcjonalność i poprawność drukowania oraz wysyłania wyników e-mailem
  2. Aktywność hiperłączy od rekordów w bazie
  3. Możliwości dostarczania tekstów wyszukanych dokumentów
  4. Opcje porządkowania wyników

D. Użytkownicy i wykorzystanie bazy

  1. Liczba i status użytkowników:
    a) liczba użytkowników
    b) nazwiska zarejestrowanych użytkowników
    c) ich kategoria i specjalność
    d) liczba nowych użytkowników
  2. Wykorzystanie bazy:
    a) dzienna liczba użytkowników bazy
    b) dzienna liczba jednoczesnego wykorzystania
    c) liczba różnych wejść do bazy na dzień
    d) ogólna liczba sesji od zaprenumerowania bazy
    e) średni czas sesji, wykorzystane zasoby z bazy wraz z informacją, kim jest użytkownik
    f) obecność narzędzi do prowadzenia statystyk wykorzystania bazy
  3. Koszty wykorzystania:
    a) w przeliczeniu na użytkownika
    b) na sesję
  4. c) na minutę wykorzystania

E. Funkcjonalność i użyteczność

  1. System nawigacji
  2. Obecność wersji testowych
  3. Interfejs:
    a) przejrzysty
    b) uporządkowany i bezbłędny
    c) wizualnie atrakcyjny
    d) intuicyjny
    e) jak intensywnego szkolenia wymaga
  4. Pomoc:
    a) łatwa do zlokalizowania
    b) przejrzyste i łatwe do wykonania instrukcje
    c) prezentuje informacje na dobrych przykładach
    d) czy otwiera się w osobnym oknie?
    e) czy inne informacje instruktażowe są użyteczne?
    f) czy są wskazówki w trakcie korzystania z bazy?
    g) czy komunikaty o błędach są zrozumiałe?
  5. Ocena systemu:
    a) szybkość dostarczania wyników
    b) dostępność systemu (czy zdarzają się okresy braku dostępu?)
    c) limit jednoczesnego dostępu użytkowników, jak system działa, gdy osiąga limit jednoczesnych użytkowników?
    d) ograniczenia dostępu
    e) sposób identyfikacji użytkowników
    f) formaty dostępnych danych
    g) poprawność wydruku wyników
    h) dokumentacja techniczna
    i) funkcje raportowania i prowadzenia statystyk

Załącznik 2. Formularze oceny na stronach WWW bibliotek

  1. Alabama University Library: http://www.lib.ua.edu/content/databases/
  2. Bond University Library – Electronic Resources Evaluation Form: http://www.bond.edu.au/Library/forms/trialsurvey.htm
  3. Claude Moore Health Sciences Library. Collection Development Policy Guidelines
  4. Cuyamaca College: http://www.cuyamaca.edu
  5. Harvard University: http://hul.Harvard.edu/digacq/steward/eval_criteria.doc
  6. Medline (via Science Direct): http://hairuliza.wikispaces/com/file/view/Database+Search+Capabilities_9+Sep_C.4.doc
  7. Murphy Library: http://www.uwlax.edu/murphylibrary/databases/trials/evaluation.htm
  8. Nothern Kentucky University: http://www.hsl.virginia.edu/admin/policy/collection-dbevaluation.cfm
  9. Oregon State University: http://osulibrary.orst.edu/collection_development/electronicresources/evalpub.htm
  10. University of Newcastle Library: http://www.newcastle.edu.au/service/library/database/trial-evaluation.html
  11. University of Tennessee: http://www.lib.utk.edu/~elecserv/dbeval/criteriaDATABASE.doc
  12. University of Wisconsin-Milwaukee Library: http://www.uwm.edu/Libraries/databases/trials/eval.pdf
  13. University Sydney Library: http://www.zoomerang.com/Survey/survey.zgi?p=WEB227SMEDFPQV

Przypisy

[1] LANCASTER, F.W. Evaluation of published indexes and abstract journals – criteria and possible procedures. Bulletin Of The Medical Library Association 1971, Vol. 59, No. 3, s. 479–490. ISSN 0025-7338.

[2] CLEVERDON, C. Optimizing convenient online access to bibliographic databases. Information Service and Use 1984, Vol. 4, No. 1–2, s. 37–47.

[3] COCHRANE, P.A. Librarians and Online Services. White Plains. N.Y. : Knowledge Industry Publications,1977. ISBN 091423613X.

[4] DuBOSE, S., THOMAS, J. Database evaluation: policy and process. W: STRAUCH, K. (red.) Charlston Conference Proceedings. Santa Barbara: Libraries Unlimited, 2006, s. 29. ISBN 159158339X, 9781591583394.

[5] Meeting Report – MünichRe [on-line]. Münich, 29 February 2008 [Dostęp 27 marca 2009]. Dostępny w World Wide Web: http://www.gripweb.org/files/implementation/reportmunichremeetingfeb292008.doc.

[6] Academic Database Assessment Tool (ADAT) [on-line]. [Dostęp 27 marca 2009]. Dostępny w World Wide Web: http://www.jisc-adat.com.

[7] Content Evaluation of Textual CD-ROM and Web Databases. Englewood: Libraries Unlimitied, 2001. ISBN 1563087375, 9781563087370.

[8] Zob. VOIGT, K., WELZL, G. Chemical databases: an overview of selected databases and evaluation methods. Online Information Review 2002, Vol. 26, No. 3, s. 172–192. ISSN 1353-2642.

[9] Zob. JASCO, P. Analyzing the Journal Coverage of Abstracting/Indexing Databases at Variable Aggregate and Analytic Levels. Library & Information Science Research 1998, No. 2, s. 133–135. ISSN 0164-0763; SAMSON, S. i in. Networked Resources, Assessment and Collection Development. The Journal of Academic Librarianship 2004, Vol. 30, No. 6, s. 476–481. ISSN 0099-1333; BLANFORD, A. Interacting with information resources: designing libraries for learning. International Journal of Learning Technologies 2006, Vol. 2, No. 2–3, s. 185–202. ISSN 1477-8386; FUHR N. [i in.] Digital libraries: A generic classification and evaluation scheme [on-line]. 2001 [Dostęp 19 marca 2009]. Dostępny w World Wide Web: http://www.sics.se/~preben/papers/ecdl-2001.pdf; XIE, H.I. Users’ evaluation of digital libraries (DLs): Their uses, their criteria, and their assessment. Information Processing and Management 2008, Vol. 44, s. 1346–1373. ISSN 0306-4573; XIE, H.I., COOL, C. Ease of use versus user control: an evaluation of Web and non-Web interfaces of online databases. Online Information Review 2000, Vol. 24, No. 2, s. 102–115. ISSN 1353-2642.

[10] Zob. DuBOSE, S., THOMAS, J., dz. cyt.; SÓJKOWSKA, I., PODGÓRSKI, F. Kryteria oceny elektronicznych źródeł informacji decydujące o ich zakupie. Zagadnienia Informacji Naukowej 2007, nr 2, s. 79–90. ISSN 0324-8194; BOYKENS, S., NEUKERMANS, H. A database of architectural repositories: criteria for selection and evaluation [on-line]. [Dostęp 19 marca 2009]. Dostępny w World Wide Web: https://lirias.kuleuven.be/bitstream/123456789/202330/1/mace_25b.pdf.

[11] Zob. Załącznik 2.

[12] Zob. szerzej: SPINK, A. Term relevance feedback and mediated database searching: implications for information retrieval practice and systems design. Information Processing & Management 1995, Vol. 31, No. 2, s. 161–171. ISSN 0306-4573.

[13] DIETMAR, W. Search characteristics in different types of Web-based IR environments: Are they the same? Information Processing and Management 2008, Vol. 44, s. 1279–1292. ISSN 0306-4573.

Bibliografia

  • Academic Database Assessment Tool (ADAT) [on-line]. [Dostęp 27 marca 2009]. Dostępny w World Wide Web: http://www.jisc-adat.com.
  • BLANFORD, A. Interacting with information resources: designing libraries for learning. International Journal of Learning Technologies 2006, Vol. 2, Number 2–3, s. 185–202. ISSN 1477-8386.
  • BOYKENS, S., NEUKERMANS, H. A database of architectural repositories: criteria for selection and evaluation [on-line]. [Dostęp 19 marca 2009]. Dostępny w World Wide Web: https://lirias.kuleuven.be/bitstream/123456789/202330/1/mace_25b.pdf.
  • CLEVERDON, C. Optimizing convenient online access to bibliographic databases. Information Service and Use 1984, Vol. 4, nr 1–2, s. 37–47.
  • COCHRANE, P.A. Librarians and Online Services. White Plains, N.Y. : Knowledge Industry Publications,1977. ISBN 091423613X.
  • Content Evaluation of Textual CD-ROM and Web Databases. Englewood: Libraries Unlimitied, 2001. ISBN 1563087375, 9781563087370.
  • DuBOSE, S., THOMAS, J. Database evaluation: policy and process. W: STRAUCH, K. (red.) Charlston Conference Proceedings. Santa Barbara: Libraries Unlimited, 2006. ISBN 159158339X, 9781591583394.
  • FUHR N. i in. Digital libraries: A generic classification and evaluation scheme [on-line]. 2001 [Dostęp 19 marca 2009]. Dostępny w World Wide Web: http://www.sics.se/~preben/papers/ecdl-2001.pdf.
  • JASCO, P. Analyzing the Journal Coverage of Abstracting/Indexing Databases at Variable Aggregate and Analytic Levels. Library & Information Science Research 1998, No. 2, s. 133–135. ISSN 0164-0763.
  • LANCASTER, F.W. Evaluation of published indexes and abstract journals – criteria and possible procedures. Bulletin Of The Medical Library Association 1971, Vol. 59, No. 3, s. 479–490. ISSN 0025-7338.
  • Meeting Report – MünichRe [on-line]. Münich, 29 February 2008 [Dostęp 27 marca 2009]. Dostępny w World Wide Web: http://www.gripweb.org/files/implementation/reportmunichremeetingfeb292008.doc.
  • SAMSON, S. i in. Networked Resources, Assessment and Collection Development. The Journal of Academic Librarianship 2004, Vol. 30, No. 6, s. 476–481. ISSN 0099-1333.
  • SÓJKOWSKA, I., PODGÓRSKI, F. Kryteria oceny elektronicznych źródeł informacji decydujące o ich zakupie. Zagadnienia Informacji Naukowej 2007, nr 2, s. 79–90. ISSN 0324-8194.
  • SPINK, A. Term relevance feedback and mediated database searching: implications for information retrieval practice and systems design. Information Processing & Management 1995, Vol. 31, No. 2, s. 161–171. ISSN 0306-4573.
  • VOIGT, K., WELZL, G. Chemical databases: an overview of selected databases and evaluation methods. Online Information Review 2002, Vol. 26, No. 3, s. 172–192. ISSN 1353-2642.
  • XIE, H.I., COOL, C. Ease of use versus user control: an evaluation of Web and non-Web interfaces of online databases. Online Information Review 2000, Vol. 24, No. 2, s. 102–115. ISSN 1353-2642.
  • XIE, H.I. Users’ evaluation of digital libraries (DLs): Their uses, their criteria, and their assessment. Information Processing and Management 2008, Vol. 44, s. 1346–1373. ISSN 0306-4573.
            

Poprzedni - Spis treści - Następny

(C) 2009 EBIB

            Kryteria oceny i wyboru baz danych / Ewa Głowacka, // W: Bibliograficzne bazy danych : kierunki rozwoju i możliwości współpracy. Bydgoszcz, 27-29 maja 2006. - [Warszawa] : Stowarzyszenie Bibliotekarzy Polskich, K[omisja] W[ydawnictw] E[lektronicznych], Redakcja "Elektronicznej Biblioteki", 2009. - (EBIB Materiały konferencyjne nr 19). - ISBN: 83-921757-5-1. -Tryb dostępu : http://www.ebib.pl/publikacje/matkonf/mat19/glowacka.php