Spis treści

3 System

Motto:
Ważną własnością systemów jest ich zdolność do odpowiedzi na zmiany, do dostosowania samych siebie do swego otoczenia i zapewnienia sobie stabilności, wystarczającej do przetrwania. Cechy usług bibliotecznych zdają się zaprzeczać tej własności. Upatruje się w nich niemoc do adaptacji i słabą stabilność. Oddźwięk na wszystko, co zdarza się w bibliotece, jest ogólnie mówiąc, lichy, niekompletny, lub wogóle go nie ma; cele usług bibliotecznych są mgliste; same usługi są często krytykowane za brak reakcji, a bibliotekarze - za brak kontroli nad otoczeniem.

Michael K. Buckland, “Library Services in Theory and Context”, 1988, strona 28.

Wstęp

Zgodnie z przyjętą w tej książce linią prezentacji, pojęcie systemu będzie ograniczone do tych elementów budowy systemu cyfrowego, których znajomość może się okazać pożyteczna dla bibliotekarzy zarówno w pracy codziennej, jak i w planowaniu zachowań strategicznych.

Środowisko cyfrowe systemu nowoczesnej biblioteki, podobnie jak i innych instytucji pełniących służbę publiczną, jest - czy to nam się podoba, czy nie, komputero-centryczne. Wokół komputera organizowane jest pewne otoczenie sprzętowo – programowe, pozwalające na komunikację między człowiekiem i maszyną [Zorkoczy, Heap 1995]. Bogactwo czy ubóstwo takiego systemu zależy z pewnością od pieniędzy, ale chyba w jeszcze większej mierze od wykształcenia i organizacyjnych umiejętności jego zarządców. Obecne wyposażenie bibliotek jest w tej materii nad wyraz skromne i tylko najbogatsze z nich będą mogły zdobyć się na niektóre z urządzeń opisanych poniżej. Jak dotąd do najdroższych elementów systemu należą duże firmowe serwery, szybkie sieciowe systemy archiwizacyjne dużej pojemności oraz praktycznie całe oprogramowanie. Tylko rozwiązania o charakterze konsorcjum dają szansę mniejszym bibliotekom na podjęcie pracy w nowoczesnych, bezpiecznych systemach. Na szczęście świadomość wagi tego problemu stała się w Polsce wystarczająco powszechna, by zapewnić stabilność na poziomie regionalnym. Ciągle pozostaje problemem integracja techniczna różnych platform i harmonizacja prac na poziomie międzysystemowym. Ale przełamanie tego impasu jest zapewne kwestią niedługiego już czasu.

Na całość systemu składają zasoby ludzkie, sprzętowe, programowe oraz wszelkiego rodzaju dane. Zasobem systemu jest każdy jego element, który może być przydzielony określonej części systemu lub programowi użytkowemu [Iszkowski et al. 1987 strona 16]. Zasobami systemu cyfrowego (ang. system resources) zarządza system operacyjny. W niniejszym rozdziale postaramy się omówić ważniejsze aspekty, związane z funkcjonowaniem systemów cyfrowych w organizacyjnym otoczeniu bibliotek.

Zasoby systemu

System cyfrowy zawsze może korzystać z zasobów własnych, ale w określonych sytuacjach może być również autoryzowany do korzystania z zasobów innych systemów. Zasoby dzielimy na sprzętowe (komputery, urządzenia peryferyjne, sprzęt sieciowy) oraz programowe (oprogramowanie systemowe, oprogramowanie użytkowe, dane przechowywane w pamięciach masowych).

Podstawowym składnikiem nowoczesnego środowiska cyfrowego jest sprzęt komputerowy. Głównymi elementami komputera są:

Płyta główna i jej elementy

Przechodząc do płyt głównych warto na wstępie zwrócić uwagę na pewien detal nomenklaturowy. W handlu płyty główne komputerów występują pod dwoma nazwami: jako płyty główne oraz jako platformy serwerowe. Ta druga wersja (tj. platformy serwerowe), to znacznie lepsze (i droższe) wykonanie płyty głównej, na bazie której można zbudować samodzielnie bardzo dobry komputer składany z części, nadający się do pracy nie tylko jako serwer, ale również doskonała stacja robocza. Do takiego lepszego wyposażenia należy często na platformach serwerowych kontroler pamięci, pozwalający na korektę błędów (typ ECC - ang. Error Correction Code.). Taka pamięć np. zamiast słów 64-bitowych jest zorganizowana w banki słów 72-bitowych, gdzie dodatkowe bity używane są do przechowania kodu nadmiarowego, pozwalającego na korektę 1 uszkodzonego bitu i sygnalizację 2 uszkodzonych bitów [11] . System operacyjny oraz oprogramowanie użytkowe zainstalowane na komputerze z pamięcią ECC zachowują się znacznie bardziej stabilnie, niż na komputerach z pamięcią zwykłą.

Oprócz kontrolera pamięci ECC, płyta główna może mieć pewną liczbę wbudowanych na stałe, dedykowanych kontrolerów. W pierwszym rzędzie należy tu wymienić kontrolery twardych dysków (tu do najpopularniejszych należą standardy przemysłowe IDE i SCSI), kontrolery stacji dyskietek oraz kontrolery zarządzające magistralami systemowymi. Tych ostatnich może być więcej niż jedna. Płyta zapewnia komputerowi tym większą wydajność, im szersze (w znaczeniu bitowym) są magistrale systemowe, oraz im wyższa jest na nich szybkość taktowania zegarowego. Dawniejsze typy architektury płyty głównej nadawały najwyższą przepustowość krótkiej magistrali, na której lokowano tylko procesor i pamięć, natomiast wszystkie urządzenia wejścia-wyjścia umieszczano na znacznie wolniejszej magistrali wejścia/wyjścia. Rozbudzenie masowego zapotrzebowania na zaawansowaną grafikę, a zwłaszcza film, oraz potrzeba szybkiego dostępu do sieci znacznie zmieniło typ architektury płyt głównych. Żartobliwie można by powiedzieć, że technologiczna demokracja przestała tolerować elitarne magistrale dla VIP-ów. Specjalnie dla notebooków opracowano specyfikację magistrali ZV (Zoomed Video), a dla desktopów – magistrali AGP. Na początku XXI wieku trudno już dostać karty graficzne PCI – przestawienie nowych kart graficznych na standard AGP jest właściwie całkowite. Tej demokratyzacji bynajmniej nie wymusiły badania naukowe. To pojawienie się szybkich gier sieciowych (Quake) zażądało od producentów zmian technologicznych w płycie głównej i zwiększenia przepustowości magistral wejścia – wyjścia, na których przecież instalowane są adaptery sieciowe. Ale i te niedawne nowinki błyskawicznie tracą na aktualności. Na areną wchodzi nowy standard – magistrala 3GIO (podsystem wejścia/wyjścia trzeciej generacji) obecnie nazwana PCI-Express (teraz nawet nazwa długo nie pożyje). Nowa magistrala w odróżnieniu od „klasycznej” równoległej magistrali PCI jest magistralą szeregową, nieporównanie szybszą od swej poprzedniczki (Leśniorowski [2002]).

„Przesiadkowanie” komputerów na nowe standardy odbywa się jednak stopniowo. Na płytach głównych od dawna współistnieją koło siebie starsze i nowsze wersje standardów przemysłowych. W starszych wersjach komputerów obok starych gniazd ISA producenci dostawiali gniazda VESA Local Bus. Potem obok gniazd ISA wbudowywano gniazda PCI, teraz obok gniazd PCI montowane są gniazda AGP. Płyty główne popularnych komputerów cierpią na chroniczne rozdojenie. Polimorfizm rozszerzającego gniazda wprowadza nieuchronne konflikty. Kontroler SCSI-2 osadzony w gnieździe ISA kłócił się z kontrolerem VESA Local Bus, brak karty graficznej w gnieździe AGP (starszego typu karta jest w gnieździe PCI) powoduje wadliwe zachowanie kontrolera USB, itp.

Ostatnio ujawniony został pewien problem, który może wzrosnąć się do niepokojących rozmiarów. Microsoft opublikował na sieci ( http://www.microsoft.com/hcl/results.asp) listę zgodności rynkowego sprzętu z platformami Windows. Przeglądając tą listę spostrzega się zastanawiające zjawisko. W klasie płyt głównych na 6 porównywanych systemów operacyjnych (XP, 2000, Me, XP 64 bity, NT 4.0, 98) do rzadkości należą płyty, które mają mikrosoftowski atest zgodności z trzema różnymi systemami. Zdumienie budzi fakt, że np. dla popularnych płyt ASUS A7M266-D [ ], A7N266 [ ], A7N266-E [ ], A7V266-EX [ ], czy P4B266-E [USB], wydany został atest na zgodność z Windows XP, ale taki atest nie został wydany na zgodność z dawniejszymi systemami: Windows 2000, Windows NT 4.0 i Windows 98. Wydawać by się mogło, że najnowsza mutacja rodziny systemów Windows jest najbardziej wymagająca pod względem sprzętowym i sprzęt mający atest zgodności z Win XP bez najmniejszych problemów powinien spełniać wymagania starszych systemów. Cytowany dokument zdaje się przeczyć takiej wizji. Jednak na wymienionej liście istnieje szereg pozycji, posiadających atest dla wszystkich trzech najnowszych, 32-bitowych systemów operacyjnych. Tak np. należą do nich dwie płyty firmy ABIT: ABIT-TH711 [ ] oraz BL7 [ ], czy też dwie płyty firmy AOpen: MX36LE-U [ ] oraz MX36LE-UN [ ]. Brak jest szczegółowych danych o okolicznościach zestawienia prezentowanej przez Microsoft listy zgodności sprzętowej i prawdziwej naturze braków pewnych atestów. Jeśli atest jest odpłatną usługą świadczoną przez Microsoft producentom sprzętu (tak, jak np. homologacja urządzeń telekomunikacyjnych), to wówczas trudno by się dziwić, że producenci sprzętu testują przede wszystkim swoje najnowsze płyty i to głównie pod kątem zgodności z najnowszym systemem (XP). Jeśli jednak Microsoft testował wszystkie punkty tabeli (prawdziwie ogromna praca), to brak wydanych atestów w ponad 50% testowanych płyt nie wróży nic dobrego nieświadomemu użytkownikowi. Z powyższego wynika, że w licznych przypadkach (dla 100 pierwszych płyt na liście 75% pozycji nie ma atestu) instalacja nowego oprogramowania na starych komputerach może pociągać za sobą niestabilność pracy systemów operacyjnych i zawieszanie się aplikacji. Przyczyną tego typu defektu jest dychotomia konfiguracyjna kompletnego systemu: producent oprogramowania nie produkuje sprzętu, producent sprzętu nie produkuje oprogramowania. Brak należytego przepływu know how pomiędzy tymi dwoma grupami producentów wytwarza niejednoznaczności i przewidywalność zachowania się systemu staje pod znakiem zapytania.

Procesor

Procesor to główny i najbardziej obciążony zadaniami element komputera. Praktycznie tu realizowane są wszystkie operacje na danych cyfrowych. To od mocy przetwarzania procesora zależy komfort pracy użytkownika. Elementami charakteryzującymi procesor są:

Pamięć

Pamięć komputera dzieli się na pamięć operacyjną, służącą do pomieszczenia aktualnie wykonywanego programu i pewnej ilości potrzebnych do jego pracy danych, oraz pamięć masową, która jest stosowana jako przechowalnia zarówno danych, jak i oprogramowania.
Pamięć operacyjna to pamięć z dostępem swobodnym (ang. Random Access Memory, RAM). Czas dostępu nie zależy w niej od adresu komórki pamięci, do której program aktualnie się odwołuje. W stosowanej obecnie technologii pamięć operacyjna komputera wykonywana jest w technologii półprzewodnikowej (nieporównanie tańszej od stosowanej dawniej pamięci magnetycznej na rdzeniach ferrytowych). Od strony technologicznej dzieli się ona na dwa typy: pamięci stałej przeznaczonej wyłącznie do odczytu (ang. Read-Only-Memory, ROM) oraz pamięci Pisz/Czytaj, używanej zarówno do odczytywania, jak i do powtarzalnego zapisu (ang. Read/Write, R/W RAM).

Obecnie pamięci ROM zapisane wyłącznie przez producenta zanikają na rzecz pamięci programowalnych przez użytkownika (ang. Field Programmable ROM). Ważną klasą pamięci PROM są pamięci reprogramowalne EPROM [13] , których zawartość można wymazać, a po wymazaniu ponownie zapisać. Pamięci EPROM dzielą się z kolei na dwie podklasy. W pierwszej podklasie wymazywana może być tylko całość zapisanej informacji przez naświetlenie półprzewodnikowej struktury światłem ultrafioletowym przez wbudowane okienko kwarcowe (UV-EPROM). W drugiej podklasie wymazywanie realizowane jest elektrycznie, ale i tu występuje znaczna rozmaitość produktów. Firma Atmel [1998], jeden z czołowych producentów tych pamięci, wyróżnia następujące linie wymazywalnych elektrycznie pamięci: Flash, DataFlash oraz EEPROM. Te pierwsze zalecane do przechowywania modyfikowalnych w systemie programów, drugie – do modyfikowalnych w systemie danych i trzecie do często modyfikowalnych programów i danych. Te ostatnie dodatkowo występują w dwóch wersjach: z interfejsem równoległym i szeregowym. Oprócz typu interfejsu i dostrojenia struktury półprzewodnikowej do częstotliwości odwracalnych cykli zapisywania/wymazywania, pamięci te różnią się między sobą organizacją dostępu: od operacji na poszczególnych bajtach (EEPROM) do operacji na blokach (Flash). Popularne już już nazwy Compact Flash lub Flash Disk anonsują odbiorcy użytkowe cechy dysku, przy fizycznym produkcie nie przypominającym dysku ani geometrycznie, ani też nie mającym żadnych wirujących elementów, jak ma to miejsce w twardym dysku. Otóż mamy tu coś, co można by nazwać Lingua Technologiae Imperii (trawestując Klemperera [1983]). Imperium chce podwładnemu oszczędzić uczenia się nowej terminologii. Z istniejących pojęć tworzy zlepki o częściowo zmienionej semantyce, która faktycznie jest semantyką zasocjowaną, wektorową. W tym wektorze semantycznym jest składowa użytkowa i jest składowa technologiczna.

Pamięć ROM jest wolniejsza od pamięci RAM, ale informacja w niej przechowywana nie znika po wyłączeniu zasilania. Dzięki temu jest używana do przechowywania standardowych programów obsługi danego komputera takich, jak podstawowy program obsługi urządzeń wejścia/wyjścia (ang, Basic Input/Output System, BIOS). Dla użytkownika ważną informacją jest to, że zarówno dane, jak i programy zapisane w pamięci stałej, czynią obsługiwany przez nią podsystem całkowicie odpornym na destrukcje pochodzenia wirusowego. Zastąpienie pamięci PROM pamięcią zapisywalną na ogół wprowadza do systemu czynnik niekontrolowany, który w pewnych okolicznościach może się okazać zgubny dla systemu. W szczególności odnosi się to do współcześnie stosowanych płyt z BIOS-em zapisanym w wymazywalnych elektrycznie pamięciach flash. Niestety, znane są wirusy atakujące BIOS komputerów osobistych. Jeśli BIOS jest zapisany w niewymazywalnym PROMie lub UV-EPROMie, to jest on praktycznie w 100% odporny na zawirusowanie. W przypadku ważnych serwerów tego rodzaju architektura winna posiadać na wyposażeniu dodatkowy komplet pierwotnie zainstalowanych modułów BIOS-u, ale wykonany w wersji PROM, stanowiąc tzw. Master BIOS, przechowywany w archiwum i używany tylko do wykonania replik w przypadku przestępczego, lub nieostrożnego uszkodzenia zapisu. W większości przypadków BIOS dla danej płyty głównej można ściągnąć z sieci, jednak nie jest to prawdziwe we wszystkich przypadkach. Jednak często się zdarza, że komputery przeżywają swych twórców (to spotkało wiele maszyn zrobionych przez Digital Equipment Corporation, DEC, – prawdziwego potentata światowego jeszcze na początku lat 90-tych), a wtedy dotarcie do podobnej dokumentacji może być coraz bardziej problematyczne. Pamięci reprogramowalne elektrycznie (flash) to klasa podzespołów, których produkcja przybrała charakter burzliwy na skutek masowego ich użycia w przenośnym sprzęcie osobistym (dyktafony cyfrowe, kamery i aparaty cyfrowe) i należy spodziewać się korzystnego dla użytkownika końcowego rozwoju tej technologii, powiązanego z postępującą miniaturyzacją i obniżką ceny.

W odróżnieniu od pamięci stałej, pamięć RAM jest szybka. Ma ona jednak tę wadę, że w obecnie stosowanej technologii jest to pamięć ulotna (po wyłączenia zasilania wpisana informacja bardzo szybko znika z pamięci). Nie wchodząc w detale technologiczne rozlicznych rodzin pamięci RAM dobrze jest wiedzieć, że rozrzut styku i własności tych pamięci jest bardzo znaczny i nieustannie się zmienia. Przenaszalność modułów pamięci między komputerami różnych generacji jest zatem więcej niż ograniczona. Wart uwagi jest też fakt, że pewien typ pamięci RAM (statyczny CMOS) bywa wyposażany w niewielką litową baterię elektrochemiczną, co czyni z niego całkiem niezły EPROM, cechami przypominający EEPROM. Ten typ pamięci jest używany do przechowywania informacji o wyjściowej konfiguracji sprzętowej komputera (tzw. SETUP CMOS). Rozładowanie baterii tej pamięci (co następuje po kilku latach) objawia się dla użytkownika dość niemile, sprawiając wrażenie prawdziwej katastrofy. W gruncie rzeczy całość naprawy sprowadza się w takim przypadku do zakupu nowej baterii za kilka złotych i ponownej definicji ustawień systemu. Ten element wprowadza do systemu okresowość zachowań, niekiedy anonsowaną przez osobny kanał sygnalizacyjny.

Pamięć masowa zwykle jest znacznie większa od pamięci operacyjnej, nieulotna (zapis jest trwały) ale oferuje znacznie wolniejszy dostęp do zapisanej informacji. Wpisywanie do pamięci na ogół ma charakter blokami sekwencyjny, a czas pozyskania zapisanej informacji zwykle zależy od lokalizacji bloków na poszczególnych talerzach dysku. W znakomitej większości przypadków pamięć masowa zbudowana jest z dysków magnetycznych. Do celów archiwizacji zapisu dokonuje się również na taśmach magnetycznych lub dyskach optycznych, czy też magneto-optycznych. Pamięć masowa jest jednak tylko rozszerzającym dodatkiem do systemu i zostanie omówiona w dalszej części niniejszego rozdziału (dyski, archiwizacja).

Urządzenia wejścia – wyjścia

Wybrane standardy i technologie

Urządzenia wejścia – wyjścia to niezmiernie ważny element systemu cyfrowego. Niezmiernie ważny – bo chyba najbardziej zawodny. W kręgach związanych z technologią cyfrową panuje zresztą opinia, że w wielkich firmach produkujących sprzęt funkcjonują specjalne zespoły, zajmujące się projektowaniem akceptowalnego tempa zużycia poszczególnych elementów systemów cyfrowych, a szczególnie urządzeń wejścia – wyjścia. Zadaniem tych zespołów bynajmniej nie jest projektowanie urządzeń trwałych – wręcz odwrotnie. [14]

Gdzie szukać tych słabych punktów? W zasadzie prawie każdy współczesny system komputerowy jest kompozycją elementów elektronicznych i elektrycznych z mechanicznymi. Z tych trzech grup elementów najbardziej zawodne i wymagające najczęstszej wymiany i serwisu są elementy mechaniczne. Zaliczamy do nich: dyski magnetyczne, napędy dyskietek i dysków optycznych, klawiatury, urządzenia pozycjonujące (mysz, trackball) oraz wentylatory.

Urządzenia wejścia – wyjścia dołącza się do komputera przez dedykowane gniazda komunikacyjne. Z ważniejszych należy wymienić szeregowe w standardzie RS 232C (lub wyższe), szeregowe w standardzie USB, szeregowe w standardzie IrDA (transmisja bezprzewodowa), szeregowe w standardzie IDE (nowy standard do przyłączania twardych dysków), równoległe drukarkowe (Centronics), równoległe aparaturowe (IEC 625, HP-IB, IEEE-488), równoległe w kilku klasach standardu SCSI. Prognozy technologiczne przewidują zmniejszanie się udziału transmisji w standardach równoległych na rzecz standardów szeregowych (zmniejszenie ilości kabli usprawnia wydatnie wentylację i odprowadzanie ciepła, a zarazem poprawia dostęp do podzespołów komputera w czasie serwisu).

Urządzenia wejścia – wyjścia mają swoją drogę ewolucyjną i warto trochę ją prześledzić, ma ona bowiem swoje ważne implikacje dla życia społecznego. Rozwój tych urządzeń z jednej strony jest stymulowany oczekiwaniami społecznymi, z drugiej – sam wpływa na postawy konsumentów w taki sposób, by domagali się oni dalszych zmian i innowacji. Jednym słowem w zamierzeniach jej reżyserów ma to być samonapędzająca się maszyna, samograj. Poniższy zarys rozwojowy jest swego rodzaju swobodną układanką trzech ciągów technologicznych. Realia są takie, że w praktyce ciągle współpracują ze sobą urządzenia bardzo stare (np. stare terminale znakowe Wyse 50) z najnowocześniejszymi serwerami.

Pierwsza generacja sprzętu do wprowadzania i prezentacji: klawiatura, papier, czytnik i perforator papierowego nośnika przyłączone przez interfejs szeregowy.

Okazuje się, że wczesny okres komputeryzacji miał swoje techniczne ograniczenia, które zaważyły na tempie rozwoju standardów koniecznych do minimalizacji efektu Wieży Babel. Jak wcześniej wspomniano, pierwszym etapem komunikacji człowieka z komputerem były terminale znakowe, będące w stanie przesyłać w trybie dalekopisowym bardzo ograniczoną liczbę znaków. Pierwszym typem terminala znakowego był dalekopis (np. typ ASR-33) - urządzenie powolne, mające standardową klawiaturę, rolkę papieru przesuwanego mechanicznie, na który wyprowadzana była tekstowa informacja, czytnik i perforator 5-cio lub 8-mio kanałowej taśmy papierowej, oraz interfejs komunikacyjny (na ogół szeregowy w standardzie RS-232). Repertuar drukowanych znaków ograniczony był standardową czcionką maszyny do pisania, lub metalowego, kulistego elementu drukującego - obejmował zatem skromny zestaw znaków narodowych. Ostatnie wcielenie sprzętowe tego typu terminala było znaczne szybsze w pracy i bardziej niezawodne od wersji mechanicznej. Na swym wyposażeniu posiadało monitor ekranowy, optyczny czytnik medium perforowanego i drukarkę mozaikową: obydwa elementy miały możliwość ograniczonego sprzętowego dostosowania repertuaru drukowanych znaków do potrzeb użytkownika (wymiana generatora znaków zapisanego w pamięci ROM). Był to wstęp do zbudowania terminala graficznego. Wprowadzanie znaków narodowych spoza repertuaru używanego w USA nastręczało ogromne problemy. W gronie 5 różnych modeli wprowadzania do komputera znaków tekstowych alfabetu chińskiego, Tucker [1987] referuje dawną, zarzuconą koncepcję budowy wielkiej multipleksowanej klawiatury o 256 klawiszach z 14 znakami przypisanymi każdemu z klawiszy. Technologia terminali znakowych ograniczona była w swym rozwoju praktycznie tylko ceną i gabarytami urządzenia. Ta generacja systemu wejścia – wyjścia cechowała się podwyższonym poziomem głośności pracy, znaczną zawodnością wnoszoną przez odczyt perforowanego medium papierowego (zwłaszcza taśmy) oraz powolnym przesyłaniem informacji.

Druga generacja sprzętu do wprowadzania i prezentacji: kablowe (galwaniczne) przyłączenie klawiatury, myszy i sieci, ekran CRT, dyskietka.

Klawiatura drugiej generacji nie musi już przełączać tak dużych prądów, jakie są potrzebne do obsługi dawnego dalekopisu. Jednak wyżej klawiatura wymieniona była w grupie elementów mechanicznych o podwyższonej zawodności i to cały czas obowiązuje. W klawiaturze są dwa miejsca szczególnie wrażliwe: styk elektryczny, zwierający kombinację linii poziomych i ukośnych matrycy klawiszy, oraz ścieżki przewodzące. Styk elektryczny najpowszechniej realizowany jest poprzez zwieranie dwóch sprężynujących płytek kontaktronu przez miniaturowy, stały magnes, poruszany klawiszem. Zawodność tej funkcji klawiatury wywołana jest zmęczeniem materiałowym styków kontaktronu, choć najczęściej przyczyną jej uszkodzenia jest zalanie jej kawą przez niechlujnego użytkownika. Przez jakiś czas w dystrybucji znajdowały się znakomite klawiatury bezstykowe oparte na halotronach (element półprzewodnikowy wchodzący w stan przewodzenia pod wpływem pola magnetycznego), ale najwyraźniej z powodu wysokiej ceny zupełnie znikły z rynku. W rachubę wchodzi pojawienie się tanich, bezstykowych modeli z własną logiką dekodującą, opartych na filozofii detekcji przesłaniania wiązek niskoenergetycznego promieniowania. W przypadku zniszczenia ścieżek przewodzących, klawisze łatwo można przełożyć z jednej klawiatury do drugiej (klawisz wyjmuje się przez zwykłe podważenie go, np. pilniczkiem do paznokci) – może to zrobić osobiście osoba zupełnie niewykwalifikowana. Jeśli uszkodzeniu uległa trudna do kupienia w Polsce klawiatura z podwójnym opisem klawiszy (np. łacina + cyrylica), to klawisze zawierające podwójny opis można przenieść na sprawną klawiaturę z pojedynczym opisem, a jej cechy funkcjonalne pozostaną bez zmiany. Interpretacja położenia klawisza zawarta jest nie w klawiaturze, a w oprogramowaniu komputera.

Jeśli nie uwzględniać faktu, że klawiatura bywa wykonana w wersji ergonomicznej, mającej dość wyszukany kształt dobrany tak, by zminimalizować napięcie mięśni i ścięgien osoby piszącej, to jest to ta część komputera, która na przestrzeni lat zmieniła się najmniej.

Drugim etapem rozwoju prezentacji wyników przetwarzania było pojawienie się monitora graficznego. Najwcześniejsza mutacja realizowała wyłącznie zadania terminala znakowego, a nad dalekopisem miała tą przewagę, że była nie tylko cichsza, ale również znacznie szybsza. Natomiast repertuar prezentowanych na monitorze znaków był ograniczony do zestawu znajdującego się w generatorze znaków. Następną mutacją był terminal graficzny, dający możliwość prezentacji grafiki komputerowej. Ale i terminal graficzny miał swój osobny rozwój. Ze zrozumiałych powodów przyjmował on (i nadal przyjmuje) zlecenia pracy w dwóch przełączalnych programowo trybach: graficznym i znakowym. Tryb graficzny pozwala na swobodne alokowanie fizycznej przestrzeni pikseli ekranowych dowolną grafiką. Tryb znakowy posługuje się podziałem ekranu na kolumny oraz wiersze wraz ze związanymi z nimi interliniami, przydzielając każdemu miejscu przeznaczonemu na wyświetlanie znaku matrycę pikseli zgodną z przyjętymi standardami. Ilość możliwych do zapamiętania znaków zależała tylko od wielkości przestrzeni adresowej generatora znaków. Konieczność szybkiego rozwoju terminali graficznych dla potrzeb obsługi tekstu wielojęzycznego w bibliotekach dyskutował już Miller [1982]. Jednak nie w wizualizacji znaków na ekranie monitora CRT (ang. Cathode Ray Tube) widział on główne trudności w kompleksowym rozwiązaniu tego zagadnienia, a w klawiaturze; a to z uwagi na jej fizyczne ograniczenia.

Kolejnym etapem rozwoju terminali znakowych stały się terminale z ładowalnym generatorem znaków. W tym miejscu dodamy istotne rozszerzenie dyskutowanych pojęć: to co przed chwilą zostało powiedziane o terminalach graficznych, dotyczy też adapterów graficznych w komputerach osobistych. Ładowalne generatory znaków stały się kamieniem milowym na drodze rozszerzenia obsługi wielojęzycznej poza granice wyznaczone wąskim horyzontem projektantów sprzętu komputerowego. To one umożliwiły Młodzianowskiemu [1994] opracowanie pierwszego na świecie terminala [15], umożliwiającego sklejanie znaków diakrytycznych z literami alfabetu angielskiego. Terminal ten był pierwszym krokiem do przyszłego terminala unikodowego, obsługującego ekranowo nie tylko sklejanie znaków diakrytycznych z literami, ale i obsługę ligatur. Warto dodać, że terminal ISO 6937 rozwiązał jeszcze jeden bardzo ważny aspekt techniczny: sposób wprowadzania diakrytycznych znaków narodowych ze standardowej klawiatury przez przedefiniowanie klawiatury numerycznej.
Rozwój i powszechna akceptacja standardu okienkowego (Apple, Microsoft) stworzyły nową możliwość oferowania przez aplikację dodatkowych usług niezwykle upraszczających proces edycyjny i proces komunikacyjny. Mysz, jako pierwsze urządzenie wskazująco – pozycjonujące, wniosła ze sobą jakościowo coś zupełnie nowego: jak gdyby prawzór kartoteki haseł wzorcowych ze skończoną liczbą dobrze zdefiniowanych, systemowych napisów, lub ikon, które należało wskazać, zamiast wpisywać z klawiatury odpowiednie komendy. Wskazanie predefiniowanego obiektu miało znacznie zmniejszyć liczbę błędów literowych. Tego rodzaju technologia miała znacznie ułatwić komunikację człowieka z komputerem. Połączona z kolejnymi innowacjami, takimi jak funkcja „przeciągnij i upuść”, przesunęła ciężar komunikacji tekstowej w kierunku operacji graficznych, szybko stając się światowym przebojem. Mysz jednak nie wyeliminowała klawiatury, ograniczyła tylko liczbę błędów na poziomie komunikacji systemowej. Klawiatura nadal pozostaje niezastąpiona przy wprowadzaniu danych.

Monitor oparty na lampie kineskopowej (CRT) to ciągle bardzo popularne rozwiązanie techniczne. W stosunku do pierwszych modeli nastąpiła znaczna poprawa jakości. Obecnie praktycznie nie używa się już wersji monochromatycznej i powszechnie króluje monitor kolorowy. W życie weszły drastyczne normy dotyczące emisji pola elektromagnetycznego i szkodliwego promieniowania. Spadło napięcie przyspieszające wiązkę elektronów, poprawiono odprowadzanie ładunku z powierzchni ekranu. Ekran przestał "strzelać" i nie przyciąga już tak bardzo brudnego pyłu. Spłaszczyła się znacznie jego powierzchnia. Niejednokrotnie współczesny monitor wygląda tak, jak gdyby był wklęsły. Nowe modele są też często sterowane cyfrowo. Z pewnością jest to jeszcze stosunkowo ciężki mebel, zajmujący sporo miejsca. Nie ma też wątpliwości, że długotrwała praca przy takim wyświetlaczu ani nie należy do przyjemności, ani nie jest zdrowa - nawet jeśli dysponuje się modelem z wysoką częstotliwością odchylania. Nie ma też wątpliwości, że w takim rozwiązaniu technicznym nikt nie widzi przyszłości i jest kwestią niezbyt długiego czasu, gdy stary typ monitora zostanie zastąpiony przez następcę lżejszego, zajmującego znacznie mniej miejsca i przyjemniejszego w użyciu. Jednak w roku 2002 wciąż aktualne jest stwierdzenie, że odwzorowanie 24-bitowej palety kolorów na ekranach CRT bije na głowę odwzorowanie barw na ekranach LCD TFT. Wadą monitorów CRT są ciągle gabaryty i nic nie wskazuje na to, by coś się tu mogło zmienić.

Dyskietka jako medium przenośne sukcesywnie zmniejszała swe rozmiary od 11” , przez 8”, i 5,25” do 3,5” (efemeryczny standard 3” nie będąc zaakceptowany przez największych producentów, szybko zniknął z rynku) stając się coraz bardziej niezawodną aż do bezterminowej gwarancji, z której producenci szybko się wycofali. Obecnie jest to jedno z najbardziej niepewnych mediów i należy przewidywać rychłe odejście klasycznej dyskietki 3.5”.

Sieć stała się standardem. Ciągle funkcjonuje bardzo duża liczba sieci lokalnych o szybkości transmisji 10 Mbps, nowe buduje się prawie wyłącznie w standardzie 100 Mbps, gigabitowe sieci są u nas bardzo rzadko spotykane.

Trzecia generacja sprzętu do wprowadzania i prezentacji: technologia bezprzewodowa (klawiatura, mysz, drukarka, sieć), ekran LCD /TFT, dyski wymienne w technologii EEPROM.

Rozpowszechniają się standardy bezprzewodowej komunikacji. Pierwszą powszechnie stosowaną technologią jest transmisja w podczerwieni. Początkowo jest stosowana głównie do wyprowadzania danych na drukarkę, potem do komunikacji pomiędzy palmtopami i komputerami stacjonarnymi. Od strony ogólnej koncepcji pomysł to niezbyt nowy: do celów telefonii bezprzewodowej wykorzystywany był już w czasie II Wojny Światowej w Afryce przez armię Rommla, mimo bardzo trudnych technologicznie warunków (silne promieniowanie termiczne tła). Obecnie wydaje się zwolna ustępować miejsca bezprzewodowym połączeniom w paśmie fal radiowych wysokiej częstotliwości. Tak np. w notebooku Siemensa-Fujitsu klawiatura komunikuje się z płytą główną w standardzie Bluetooth [Notebooki, 2002].

W zakresie prezentacji wizualnej na trzecim poziomie rozwoju pojawił się ekran wykorzystujących ciekłe kryształy (LCD) w kilku różnych mutacjach. W stosunku do ekranów CRT wniósł znacznie większy komfort pracy, redukując zmęczenie wzroku oraz – co ważniejsze – obniżając ogromnie konsumowaną moc. Znacznie zmniejszone gabaryty ekranu umożliwiły prawdziwą eksplozję produkcji ręcznych zegarków elektronicznych, przenośnych urządzeń diagnostycznych (glukometry, mierniki ciśnienia krwi), komputerów podręcznych, kieszonkowych, palmtopów, telefonów komórkowych. Kolejne mutacje technologii ciekłokrystalicznej są coraz lepsze – wydatnie zmniejszyło się smużenie; skrócił się czas odpowiedzi ekranu, ale odwzorowanie ciągłej palety barwnej na ekranach CRT nadal charakteryzuje się wyższą jakością.

Pojawia się zewnętrzna pamięć masowa ze zmienioną technologią zapisu: następuje odejście od zapisu magnetycznego na rzecz nieulotnego zapisu elektrycznego w pamięciach reprogramowalnych elektrycznie (EEPROM). Zniknięcie czynnika mechanicznego znacznie podwyższa niezawodność zapisu. Styk tej pamięci z komputerem realizowany jest galwanicznie, kabel transmisyjny jest zarazem kablem zasilającym (USB). Nowa technologia zauważalnie obniża gabaryty przyłączanego urządzenia.
Masowa produkcja komputerów przenośnych i rozwój telefonii komórkowej doprowadziły do konwergencji tych dwóch technologii. Komputery przenośne włącza się do Internetu za pośrednictwem telefonii komórkowej, a w telefonach komórkowych zaczyna się wprowadzać przesyłanie krótkich wiadomości w wersji tekstowej (SMS) – pierwszą usługę cyfrową, oraz WAP – bezprzewodowy protokół obsługi aplikacji sieciowych. Pojawiają się komunikatory - pierwsze konstrukcje będące wynikiem integracji przetwarzania cyfrowego i komunikacji bezprzewodowej; obecnie jeszcze bardzo drogie, ale wróży im się świetlaną przyszłość.


W oczekiwaniu na czwartą generację sprzętu wprowadzania i prezentacji: głos i prezentacja bezpośrednia (siatkówka, stymulacja pracy chorych organów, protetyka cyfrowa)
Spośród wymienionych charakterystyk wiele problemów technicznych jest już rozwiązanych, choć nie wszystko jest dostępne obecnie dla wszystkich i nie wszystko jest już doskonałe. Moduł rozpoznawania głosu dla języka angielskiego można uznać nawet za bardzo udany. Tak też należy ocenić jakość funkcji sterowania głosem w systemie MS Windows 2000. W najbardziej rozwiniętych technologicznie krajach (USA, Francja, Japonia) moduły rozpoznawania języka narodowego są w zasadzie już niezłe, a niekiedy wręcz znakomite. Szkoda, że Polska wciąż jeszcze nie osiągnęłą tego poziomu; syntezatory polskiej mowy pozostawiają jeszcze życzenia.

W pewnych warunkach, na przykład w bibliotecznych czytelniach czy konferencjach prasowych, używanie głosu do wprowadzania informacji czy sterowania komputerem jest niewskazane. Na podobne okoliczności firma Senseboard Technologies AB zaproponowała ostatnio interesujące rozwiązanie nazwane przez twórców wirtualną klawiaturą. Służy ona do obsługi miniaturowego sprzętu osobistego. Składa się ona z nakładek na dłonie, bezprzewodowego systemu transmisyjnego w paśmie wysokich częstotliwości oraz oprogramowania. Nakładki zawierają czujniki przemieszczeń palców tak, że pisać można dosłownie na narysowanej na papierze klawiaturze nie połączonej fizycznie z komputerem, do którego informację się wpisuje.
Rysunek 1. Wirtualna klawiatura. Dzięki uprzejmości Senseboard Technologies AB.

Dwie dłonie spoczywające obok palmtopa, na śródręczu każdej urządzenia przypominające ręczny zegarek

W zaawansowaną fazę rozwoju wchodzi obrazowanie bezpośrednie na siatkówce oka. Za przykład realizacji takiego rozwiązania posłużą tu produkty firmy Microvision, które w chwili obecnej pozwalają sprawnie sumować na siatkówce dwa obrazy: jeden rzeczywisty, drugi generowany przez komputer.

Rysunek 2. Składanie na siatkówce oka obrazów rzeczywistych z obrazami generowanymi przez komputer w systemie Nomad.

 
(opis rysunku dla niewidomych)

Rysunek 3. Testowanie punktu kontrolnego układu elektrycznego. Z lewej strony rysunku, również na tle elementów mechanicznych, widoczny jest w postaci czerwonych linii obraz panelu oscyloskopu cyfrowego, podający analogowy przebieg sygnału (sinusoida) oraz wartości cyfrowe napięcia i częstotliwości. Rysunek publikowany jest dzięki uprzejmości firmy Microvision Incorporated.

 
(opis rysunku dla niewidomych)

Firma Microvision twierdzi, że poziom energii wiązki laserowej skierowanej na siatkówkę oka jest bardzo niski i nie szkodzi wzrokowi. Przy tej okazji warto jednak przypomnieć, że już wiele lat temu firma Barco, produkująca trójstrumieniowe projektory graficzne, w których źródła światła stanowiły przysłonięte filtrami RGB lampy kineskopowe, znalazła ciekawe i proste rozwiązanie, zapobiegające wypalaniu luminoforu lamp przez niezwykle silną wiązkę elektronów. Polegało ono na programowej, powolnej, mimośrodowej rotacji środka obrazu (nazwanej przez producenta orbiting software) z okresem około 5 minut. Microvision nic nie pisze o podobnym rozwiązaniu, choć wydaje się, że można by je tu zastosować z doskonałym skutkiem.


Rozpoczęto pierwsze próby z bezpośrednim wprowadzeniem sygnału elektrycznego z kamery wprost do mózgu osoby niewidzącej z zamiarem utworzenia substytutu wzroku ( http://www.dobelle.com/asaio1.html). Celem ich jest doprowadzenie do rozróżnienia na poziomie centralnego układu nerwowego obszarów jasnych i ciemnych. Metoda wykroczyła już dalece za laboratoryjne eksperymenty i nieproduktywne teoretyzowanie. Dobelle [2000] referuje zbiorcze wyniki świetnie zaprojektowanych dwustopniowych badań z udziałem ochotników widzących, którzy z różnych względów musieli być poddani operacjom oczu, oraz osób całkowicie niewidomych. Tak dobrane, podlegające badaniom zbiorowości, gwarantowały wysoki stopień wiarygodności wyników. Idea metody polega na wprowadzeniu specjalnie uformowanych sygnałów elektrycznych, otrzymywanych z miniaturowej kamery telewizyjnej, bezpośrednio do odpowiedzialnej za widzenie części kory mózgowej. Kanał transmisyjny wyposażono dodatkowo w splitter, pozwalający przełączyć sygnał z kamery na sygnał wysyłany wprost z komputera. To rozwiązanie miało umożliwić rehabilitowanemu ochotnikowi wykonywanie ćwiczeń w środowisku sprzętu komputerowego, tak niezbędnego obecnie w prowadzeniu pracy zawodowej. Stymulujące impulsy były odbierane przez ochotników jako prostokątna siatka plam białych i czarnych, które autor nazywa fosfenami (ang. phosphenes). Wnioski płynące z trwającego 20 lat eksperymentu są ze wszech miar pozytywne. Po przełamaniu trudności wstępnego okresu rozpoznawanie kształtu testowych znaków przez niewidomego stało się rutynowe. Należy jednak pamiętać, że ciągle jest to jeszcze etap badań i rozwoju metody. Zdolność rozdzielcza matrycy stymulowanych punktów jest ciągle niska, obraz jest płaski bez jakichkolwiek cech przestrzenności, brak koloru, brak półtonów. Istnieją podejrzenia, że stymulację należy rozpoczynać możliwie szybko, by nie dopuścić do zaniku zdolności recepcji. Wydaje się, że naukowcy ciągle jeszcze mają zbyt mało rozpoznane protokoły transmisji między receptorami a centralnym systemem nerwowym. Z pewnością też za słabo zbadana została biofizyka pola recepcyjnego. Problemem jest zarówno poziom, jak i charakter sygnału (Chemiczny? Elektryczny? Mieszany?). Bardzo potrzebne są nieinterwencyjne metody pomiarowe.

Program satelitarnej telewizji francuskiej PLANET wyemitował w maju 2002 film „Koniec tajemnic” (La fin des secrets) w reżyserii Marie Arnaud i Delphine Morel. Film prezentował szereg współczesnych osiągnięć w zakresie sztucznej inteligencji. Jednak to nie systemy inteligentnego rozpoznawania twarzy były warte utrwalenia w pamięci. Także nie widok szczura z implantem mózgowym, niosącego na głowie moduł elektroniczny z zasilaczem, upiększony radiatorem niczym koroną – szczura sterowanego pilotem! – pozostawiał na widzu wstrząsające wrażenie. To wrażenie (niekoniecznie pozytywne) pozostawił profesor uniwersytecki pracujący nad sztuczną inteligencją, który demonstrował, jak funkcjonuje na terenie budynku zaprojektowany przez niego system lokalizacji człowieka, mającego wszczepiony implant chipowy. Człowiek ów dzielił się wrażeniami, jakie wywiera na nim integracja z budynkiem. Dialog „Cześć budynek! ” – „Witaj profesorze XY” oddaje już pewną poufałość, zażyłość. Fascynacja człowieka własnymi wynalazkami i konsekwencje tej fascynacji nieraz były przedmiotem twórczości artystycznej. Film „Koniec tajemnic” ma jednak w podtekście świeżo zrealizowane projekty lokalizacji więźniów w więzieniach amerykańskich, że wspomnieć tak niedawno popularny film Matrix. Widok plamki, lokalizującej żywego człowieka na wyświetlonym na ekranie planie budynku skłania do zadania pytania, czy w tym schemacie czystej nauki znajdzie się miejsce na jakąś intymność i prywatność; czy zostanie zachowane choć jedno pomieszczenie w budynku z którego do zarządcy systemu nie dochodzi informacja czy pracownik siedzi, czy też stoi, i z którego nie transmituje się odgłosów online?

Foliowy ekran zwijany i ładowalna książka

Już w tej chwili mamy przedsmak nadchodzącej przyszłości w zakresie prezentacji: firma Lucent Technologies we współpracy z E-Ink opracowała elestyczny foliowy ekran, który można zwijać i wkładać między karty książek i zeszytów. To już tylko krok do ładowalnej książki! Być może zakup książki przez Internet nie będzie już wymagał istnienia księgarń. Książkę będzie się ładować z sieci wprost z serwera domu wydawniczego. Dzieci uczęszczające do szkół odbiorą ładowalną książkę jako prawdziwą rewolucję. Skończy się noszenie ciężkich tornistrów z domu do szkoły. Zasób pomocy dydaktycznych (książki, mapy, zbiory zadań) na cały rok będzie się mieścił na jednym tanim i niewielkim CD-ROMie. Jedna książka ładowalna będzie stanowić chwilową kompozycję materiału dydaktycznego ze wszystkich przedmiotów np. na jeden tydzień. Zestaw potrzebnego na lekcje materiału uczeń będzie mógł sobie załadować w domu pod opieką rodziców, a w szkole pod opieką nauczyciela - lub - bibliotekarza. Po pierwszym okresie sprzętowych inwestycji ceny materiałów edukacyjnych gwałtownie się obniżą. Można przypuszczać, że poziom konsumpcji tej książki przez światowe systemy edukacyjne może być ogromny i to właśnie będzie stanowić źródło obniżki kosztów produkcji. Kartki książki ładowalnej prezentować się będą znacznie lepiej niż wiele książek współczesnych. Będą one wykonane z tworzywa sztucznego o znacznej większej odporności na działanie wody, poplamienie i rozdarcie, niż papier tradycyjny. Czytać ją będzie można w tramwajach i kolejce elektrycznej. Jeśli zaczną zanikać księgarnie to "w powietrzu wisi" gwałtowny spadek zapotrzebowania na tradycyjną poligrafię. Tak jak niedawno zniknęły linotypy, tak niedługo znikną naświetlarki folii i nikt już więcej nie będzie robił wyciągów barwnych. Znikną profesjonalne drukarki termodyfuzyjne i inne podobne im urządzenia. Powoli zaczną znikać stołowe skanery. Z pewnością od tej chwili dzieli nas jeszcze kilka lat, jednak nie jest to rozważanie abstrakcyjne lecz wyciąganie wniosków z perspektyw rozwojowych aktualnie opanowanej technologii, która jest udoskonalana. Zatem wszelka dyskusja na powyższy temat nie powinna być prowadzona w kategoriach „czy?”, lecz „kiedy?”.

Rysunek 4. Wyświetlacz foliowy. Dzięki uprzejmości Lucent Technology.


Materiałem wyświetlacza jest folia z tworzywa sztucznego, w której zdyspergowano mikrokapsułki zawierające pigment zawieszony w cieczy przypominającej atrament. Na razie zapis jest jednobarwny, ale trwają intensywne prace badawcze nad realizacją wyświetlacza kolorowego. Wyświetlacze te obecnie wykonuje się zarówno w postaci przezroczystej folii, jak i na podłożu nieprzezroczystym. Ze względu na możliwość realizacji trwałego zapisu nowa technologia stwarza realne perspektywy masowej produkcji tanich, elektronicznych, wielokrotnie zapisywalnych przez użytkownika książek, do złudzenia przypominających książki drukowane. W chwili obecnej technologia ta cechuje się niezbyt wysoką zdolnością rozdzielczą szczegółów – jest ona rzędu 200 dpi (a więc znacznie lepszą, niż obraz uzyskany z tzw. zrzutu ekranu monitora komputerowego), ale ta granica niustannie się podnosi.

Monitor brajlowski.

Godne uwagi jest to, że w przypadku użytkownika niewidomego monitor wcale nie jest potrzebny (chyba, że stanowisko jest współużytkowane przez osoby widzące). Dobitnie dał temu wyraz Raman [1997], odwołując się do czynnika technicznego. Wyłączenie wyświetlacza w jego notebooku pozwalało na dłuższą pracę z zasilaniem bateryjnym [16]. Problem dedykowanego, taniego komputera bez drogiego monitora po dzień dzisiejszy w ogóle nie został na świecie rozwiązany. Konsekwencją tego są niezmiennie wysokie koszty ponoszone zarówno przez rodziny niewidomych, jak i sponsorów [Czermiński 2000-2]. Byłoby rzeczą niesłychanie wartościową opracowanie oszczędnościowej wersji komputera osobistego dla osób niewidzących, wyposażonego w mały i tani panel ciekłokrystaliczny dla prac instalacyjno - diagnostycznych prowadzonych przez osoby widzące. Problem ten nie jest trywialny, bo w zasadzie wiąże się z odejściem od powszechnie używanego interfejsu graficznego użytkownika (ang. Graphical User Interface, GUI) na rzecz interfejsu znakowego oraz z opracowaniem od nowa całej koncepcji klienta dla osób niewidzących. Obecnie stosowane rozwiązania nakładają się na istniejące oprogramowanie użytkowe, mają wiele wad i są bardzo kosztowne. Obszerny przegląd technologii alternatywnych dla inwalidów można znaleźć w doskonałej monografii Barbary Mates [2000], wydanej staraniem Amerykańskiego Stowarzyszenia Bibliotekarzy. Na Rysunku 5 przedstawiony jest tzw. 45 - cio znakowy monitor brajlowski (zwany też linijką brajlowską), odwzorowujący dynamicznie w 8-punktowym zapisie Braille'a połowę jednego wiersza ekranu (40 znaków). Odwzorowanie obejmuje jedynie część znakową ekranu (bez grafiki). Podłużne przyciski pomiędzy matrycą brajlowską a klawiaturą pozwalają na błyskawiczne przestawienie kursora na pozycję odpowiadającą danemu znakowi. Pięć nadwyżkowych, wydzielonych pozycji z lewej strony to blok sterujący (służy między innymi do odczytywania drugiej połówki wiersza ekranu). Jak widać, monitor brajlowski jest podkładką umieszczaną pod zwykłą klawiaturą, co znakomicie integruje niewidomemu cały system. Dodać tu należy, że niewidomi z zasady mają doskonale opanowany rozkład klawiszy zwykłej klawiatury, tak jak profesjonalne maszynistki (które przecież też nie patrzą na klawisze) i piszą bardzo szybko. Ze zrozumiałych powodów powierzchnia klawiszy w klawiaturach używanych przez niewidomych jest gładka - brajlowskie wypukłości odczuwało by się bardzo niemile podczas pisania.

Rysunek 5. Piezoelektryczny monitor brajlowski. Dzięki uprzejmości firmy Tieman.


Dyski i macierze dyskowe.

Dyski magnetyczne, wymienione wyżej na pierwszym miejscu listy głównych elementów komputera, mają relatywnie wysoką podatność na awarię. Awaria może być spowodowana szeregiem różnych czynników: uderzeniem lub wstrząsem, Z całą mocą należy tu podkreślić, że awaria dysku głównego serwera biblioteki może mieć pełne cechy prawdziwej katastrofy, powodującej przepadek dorobku wielu lat pracy; katastrofy prawdziwie trudnej do zniesienia. Do takiej katastrofy nie wolno dopuszczać, ale na jej nadejście trzeba się przygotować. Ona kiedyś nadejdzie, choć nie wiadomo kiedy. Si vis pacem para bellum. Biblioteka dysponująca własnym serwerem i nie mogąca sobie pozwolić na tydzień przestoju, absolutnie powinna dysponować zapasowymi dyskami systemowymi, co pewien czas włączanymi do pracy i testowanymi w pełnym ruchu usług. Temat ten szerzej poruszymy przy okazji omawiania bezpieczeństwa i archiwizacji.

Macierze dysków zewnętrznych z interfejsem sieciowym to coraz popularniejszy element najbliższego otoczenia współczesnych serwerów. W zgrabny sposób pozwalają one współdzielić zasoby takiej pamięci masowej przez kilka serwerów (nawet o różnych systemach operacyjnych), charakteryzując się zarazem prostą administracją. Zwykle wykonywane są w konfiguracji RAID (ang. Redundant Array of Inexpensive Disks) z możliwością odtworzenia uszkodzonego bloku danych. Nowe modele mają możliwość wymiany uszkodzonych dysków w czasie pracy systemu bez wyłączania zasilania (ang. Hot Swap, HS). Do niedawna strukturę RAID realizowało się wyłącznie na drogim interfejsie SCSI. Ostatnio pojawiły się kontrolery RAID obsługujące interfejs IDE, a zatem umożliwiające korzystanie ze znacznie tańszych dysków. Ten typ urządzenia zdecydowanie winien się znaleźć w obszarze zainteresowania bibliotek, od których w szczególnej mierze oczekuje się bezawaryjności systemu.

Półprzewodnikowe pamięci wymienne (dyski wymienne).

Szybko rozwija się produkcja pamięci półprzewodnikowych, które nie zawierają żadnych części ruchomych i być może już wkrótce zastąpią dyski magnetyczne. Można przypuścić, że za jakiś czas ten typ pamięci zacznie dominować nad dyskami, a to z uwagi na brak części ruchomych, co gwarantuje znacznie większą niezawodność. Już teraz można zakupić taką pamięć w wersji Disk-On-Chip, którą można włożyć do pustej podstawki układu scalonego, ale na razie zarówno pojemność, jak i cena nie stanowią konkurencji dla dysków. Jest rzeczą interesującą, że już w obfitości pojawiły się w handlu przenośne pamięci masowe wykorzystujące technologię flash, pod handlową nazwą Pen Drive (Rysunek 6) – wielkością swą rzeczywiście nie większe od kciuka dorosłego mężczyzny, łączone z komputerem poprzez port USB (na razie w standardzie 1.1).

Rysunek 6. Pamięć masowa Pen Drive. Dzięki uprzejmości QART Serwis s.c.



W chwili przygotowywania do druku niniejszej książki pamięci te wykonywane są w pojemnościach od 8 MB do 1 GB. Doświadczenie kilku miesięcy pracy z 32 MB Pen Drive’m pozwala autorowi wystawić tej technologii wysoką ocenę, aczkolwiek pojawiły się pierwsze zachowania wskazujące problemy z kontaktem elektrycznym. Pamięć ta ma małe gabaryty (można ją nosić jak długopis w kieszonce) i dużą pojemność przy akceptowalnej (na poziomie 32 MB) cenie. Brak ruchomych części sprawia, że w stosunku do dysków i dyskietek zapisywanie na niej będzie się cechowowało podwyższoną niezawodnością. Jest ona nadto wyposażona w przełącznik blokady zapisu. Model, który kupił autor wymagał sformatowania jak zwykły dysk. Pracuje bez zarzutu pod Win 98 i 2000; po wetknięciu w gniazdo USB sam zgłasza się systemowi jako „Wymienny dysk”. Osobliwość pod Win 2000: choć nie potrzeba go instalować tak jak w UNIX-ie, to przed wyjęciem należy go odinstalować poprzez ikonę, która pojawia się w pasku zadań w momencie wetknięcia urządzenia do portu USB. Co ciekawe: producent oferuje opcjonalną dostawę pamięci z ładowalnym systemem operacyjnym i ochroną dostępu na poziomie hasła. Fakt ten nasuwa uwagę, że być może jest to pierwszy krok do realizacji miniaturowych komputerów modularnych. Jednak problemy ze stykiem zdają się wskazywać, że również i ta konstrukcja jest formą przejściową, a prawdziwą przyszłość należy widzieć w urządzeniach połączonych bezprzewodowo. Opisany tu model bez problemu instaluje się bezpośrednio w gniazdku USB, ale w przypadku wykorzystywania obydwu bardzo blisko koło siebie położonych gniazdek USB naeleży posłużyć się przedłużaczem. Warto odnotować, że już na rynku pojawiły się modele o znacznie bardziej zminiaturyzowanych gabarytach, które nie mają powyższego ograniczenia.

Pen Drive’a można używać jako doskonałego medium do przechowywania klucza prywatnego oraz kluczy publicznych osób posługujących się podpisem elektronicznym. W związku z wykryciem w marcu 2001 braku ochrony zarówno publicznych parametrów jak i klucza publicznego w pakiecie klucza prywatnego (plik secring.skr) zarówno odkrywcy nieszczelności, czescy kryptolodzy Vlastimil Klima i Tomáš Rosa [2001], jak i twórca Pretty Good Privacy (PGP) Phil Zimmerman ( http://news.zdnet.co.uk/story/0,,t269-s2085201,00.html), zwrócili uwagę, że podstawą do przejęcia klucza prywatnego jest uzyskanie przez włamywacza kontroli nad plikiem, w którym jest on przechowywany. Pen Drive jest już urządzeniem niezbyt drogim i daje daleko większe poczucie prywatności niż zwykła dyskietka. Tego rodzaju rozwiązania (tzw. klucz USB) są już sprzedawane przez firmy oferujące sprzęt, oprogramowanie i usługi z zakresu zarządzania bezpieczeństwem systemów komputerowych.

Archiwizatory.

Archiwizatory to urządzenia do sporządzania kopii bezpieczeństwa oprogramowania oraz danych. Wykonuje się je w trzech dominujących technologiach: z zapisem magnetycznym, optycznym, lub hybrydowym - magnetooptycznym. Archiwizator powinien oferować możliwość oddzielenia medium zapisu od urządzenia zapisującego i przechowywania archiwum z dala od archiwizowanego oryginału. Do archiwizatorów nie należy zaliczać systemów sporządzania kopii na 'lustrzanych' dyskach (ang. mirror disk), ponieważ zwykle nie spełniają one wymagania przenośności medium. Przy okazji warto sobie uświadomić, że struktura RAID jest znacznie bardziej ekonomiczna od lustrzanego dublowania dysków. Klasyczną formą archiwizacji była, i ciągle pozostaje, archiwizacja na kasetkach magnetycznych DAT z sekwencyjnym dostępem do danych. Pojemność tych kasetek w przeciągu ostatniego dziesięciolecia zwiększyła się rzędy wielkości razy. W niedawno wprowadzonej technologii LTO Ultrium pojedynczy napęd HP SureStore Ultrium 230 oferuje archiwizację 200 GB przy szybkości transferu 30 MB/s (Rzeźnicki [2001]). Szybki wzrost pojemności dysków w dużych serwerach sprawia jednak, że kolejne generacje rozwojowe Ultrium zapowiadają archiwizację 1.4 TB na pojedynczym nośniku. Trzeba jednak pamiętać, że urządzenia te są bardzo drogie. Duże systemy mają wbudowaną dedykowaną robotykę, prowadzącą całą obsługę wymiany kaset. Rysunek 8 przedstawia zdjęcie dużego taśmowego archiwizatora z wbudowaną robotyką. Prezentowana jednostka jest jednym z elementów systemu archiwizacji w Centrum Informatycznym Trójmiejskiej Akademickiej Sieci Komputerowej.

Rysunek 7. Karuzelowy zmieniacz dysków optycznych na 240 dysków (Kubik 240 M Jukebox). Odczyt równoległy poprzez 4 napędy CD. Interfejs SCSI-2. Zdjęcie autora.
Rysunek 8. Archiwizator taśmowy. Centrum Informatyczne Trójmiejskiej Akademickiej Sieci Komputerowej. Zdjęcie autora.




Serwery i stacje robocze.

Komputery sprzedaje się w kilku różnych wykonaniach, w zależności od potrzeb odbiorcy. Spośród nich wymienimy serwery baz danych i stacje robocze. Serwer baz danych jest przeznaczony do przetwarzania znacznych ilości danych o ustalonej programowo strukturze. Aby serwer spełniał pokładane w nim oczekiwania, jego czas odpowiedzi na zlecane mu zadania musi być jak najkrótszy. Jest naiwnością przypuszczać, że pierwszy-lepszy szybki współczesny komputer osobisty nadaje się do pełnienia roli serwera bibliotecznego. Szybkość przetwarzania transakcyjnego bardzo zależy od zegara systemowego, wewnętrznej architektury procesora (zwłaszcza wielkości oraz cech funkcjonalnych pamięci podręcznej), wreszcie od szybkości twardych dysków i rodzaju kontrolera, jakie te dyski obsługuje. Last but not least – ogromnie ważna jest pamięć, od której bardzo zależy moc przetwarzania serwera. Od rodzaju obsługiwanych protokołów w fundamentalny sposób zależą wymagania nakładane na budowę serwera. W przypadku serwerów FTP lub pocztowych, krytyczna jest wydajność dysków serwera, natomiast w przypadku np. serwerów Z39.50 – bardzo dużą rolę zaczyna odgrywać wielkość pamięci RAM i zegara systemowego.

Na przełomie lat 2000/2001 w klasie serwerów zaczynają dominować jednostki wieloprocesorowe, ciągle wykorzystujące technologię krzemową, za to już z wyraźnie obniżonym napięciem zasilania i wysoką częstotliwością taktowania procesora. Bogatsze instytucje konfigurują tego rodzaju wieloprocesorowe moduły w klastry posiadające bardzo dobre parametry użytkowe.

Stacja robocza to stanowisko komputerowe końcowego użytkownika wyposażone w dostęp do sieci. W odróżnieniu od serwera, gdzie całkowite koszty inwestycyjne są zdominowane przez licencję aplikacji, uzależnioną od złożonych czynników (dawniej była to liczba użytkowników, obecnie ogólna wydajność serwera) – koszt stacji roboczej determinują urządzenia dostępowe sprofilowane ze względu na użytkownika. Im mniej spotykane na rynku wymagania ma użytkownik, tym wyposażenie jego stacji roboczej jest droższe. Najlepiej to widać na przykładzie stanowiska roboczego osoby niewidomej, w którym to przypadku sprzęt brajlowski niebywale podwyższa koszt całej inwestycji. Można nawet wypowiedzieć bardzo ogólną opinię, że sprzęt rehabilitacyjny pozwalający na korzystanie inwalidów z systemu komputerowego jest bardzo drogi.
Ze sprzętem komputerowym immanentnie związane jest oprogramowanie. W ogólności dzielimy je na systemowe i użytkowe (aplikacyjne). Oprogramowanie często przygotowywane jest pod odpowiedniego producenta sprzętu. Samodzielne składanie komputera i dostrojenie do niego całego osprzętu i oprogramowania wymaga sporej wprawy, a wiele problemów wychodzi na jaw dopiero przy instalacji oprogramowania.

Architektura systemu

Rola, jaką w nowoczesnym systemie cyfrowym odgrywa jego architektura, była kilkakrotnie prezentowana przez autora na forum bibliotek polskich [Czermiński 1994, 1996, 2000], swoją pracę poświęcił jej też Radwański [1996]. Nowa wizja technologiczna systemów masowej obsługi rozdziela przestrzennie odbiorcę od zasobów. W technologii cyfrowej jest to aż nadto widoczne. Wymieńmy zatem podstawowe bloki morfologiczne takiego systemu:

Stajnia serwerów

1.1. Strefa produkcyjna (strefa zasobów chroniona przed użytkownikiem)
1.1.1. Serwer produkcyjny
1.1.2. Serwer dokumentów elektronicznych wysokiej wierności
1.1.3. Serwer archiwizacyjny (por. Składniki systemu)
1.1.4. Serwer weryfikacyjny [por. Atkins et al., 1997:359]
1.1.5. Podsystem bezpieczeństwa (ochrona systemów operacyjnych oraz zasobów składowanych na serwerach)
1.2. Strefa prezentacyjna (zdemilitaryzowana strefa dla użytkownika)
1.2.1. OPAC (replika katalogu produkcyjnego)
1.2.2. Serwer FTP
1.2.3. Dokumenty elektroniczne prezentacyjnej jakości
1.2.4. Serwer pocztowy
1.2.5. Serwer WWW ogólnego przeznaczenia

2. Stanowiska klienta systemu
2.1. Moduł wprowadzania informacji
2.1.1. Dotykowy (klawiatura, mysz, czytnik pisma brajlowskiego)
2.1.2. Akustyczny (mikrofon, ultradźwiękowy skaner linii papilarnych)
2.1.3. Optyczny (video kamera, czytnik kodu paskowego)
2.1.4. Magnetyczny (dyskietki, przenośne dyski, czytniki kart)
2.1.5. Elektryczny (czytniki pamięci flash, PenDrive)
2.2. Moduł wyprowadzania informacji
2.2.1. Optyczny (monitor, nagrywarka dysków optycznych)
2.2.2. Akustyczny (głośnik, słuchawki)
2.2.3. Dotykowy (monitor brajlowski)
2.2.4. Magnetyczny (dyskietki, wymienne dyski, taśmy)
2.2.5. Elektryczny (czytniki pamięci flash, PenDrive)

3. Infrastruktura komunikacyjna
3.1. Sprzęt
3.1.1. Sprzęt przełączający (przełączniki, routery, huby)
3.1.2. Ściany ogniowe
3.1.3. Sprzęt publicznego dostępu do sieci (moduły integracji z telefonią analogową i cyfrową, telewizją kablową, cyfrowej sieci radiowej)
3.2. Okablowanie

Z powyższego wynika, że model systemu ma charakter zatomizowany. Usługi są podzielone na poszczególne serwery. To niekoniecznie musi oznaczać fizyczne rozbicie oprogramowania na różne komputery: dwa serwery mogą być zainstalowane na jednym komputerze. Jednakże fizyczna rozdzielność poszczególnych modułów zwiększa szansę obecności instytucjonalnej na sieci w przypadku uszkodzenia jednego modułu. Warunkiem takiej obecności jest zarezerwowanie pewnej przestrzeni informacyjnej w ramach każdego modułu na monitorowanie aktywności pozostałych modułów systemu. Takie redundancyjne rozwiązanie byłoby organizacyjną realizacją tworzenia kodu nadmiarowego korekcji błędu w systemach pamięci. Oczywiście w dyskutowanym tu wypadku na ogół nie ma możliwości odtworzenia brakującej funkcjonalności uszkodzonego modułu, ale stworzone zostają warunki do przyspieszenia procesu usunięcia awarii. W korzystnym przypadku możliwe jest również obudzenie “śpiącego” serwera awaryjnego sygnałem z sieci (maszyna musi mieć zainstalowaną funkcję Wake-On-LAN). Szczególnie proste jest zorganizowanie tego dla usług opartych o darmowe oprogramowanie dostępne na platformie Linuxa (serwery FTP, WWW, poczty elektronicznej). Takie rozwiązanie okaże się natomiast znacznie kosztowniejsze w stosunku do firmowych zintegrowanych systemów informatycznych (systemy zarządzania bazami danych, aplikacje biblioteczne). Właściwym rozwiązaniem wydaje się być realizacja serwerów strefy prezentacyjnej z systemem operacyjnym posadowionym w pamięci stałej, lub ze sprzętową blokadą zapisu na twardych dyskach. Już w tej chwili można kupić takie pamięci w modułach wysokiej poj emności z preinstalowanym systemem plików (Disk-On-Chip). Tego rodzaju konstrukcja pozwala na bezpieczną realizację procesów komunikacyjnych pomiędzy serwerami strefy produkcyjnej, a serwerami strefy prezentacyjnej. Fizyczne wyniesienie prezentacji OPAC-u do strefy nie chronionej jest jednak pewnym wyzwaniem technicznym. Ochrona zasobów głównych nie powinna bowiem zauważalnie obniżać czasu obsługi, ale też nie powinna ułatwiać wprowadzenia potencjalnego “konia trojańskiego” przez dedykowany kanał transmisyjny. A przecież moduł prezentacyjny musi mieć możliwość przyjmowania od anonimowego użytkownika zleceń on-line i retransmisji ich do serwera produkcyjnego. Znalezienie skutecznego rozwiązania jest tu ciągle wyzwaniem technologicznym oraz intelektualnym. Wydaje się, że bezpiecznym rozwiązaniem byłaby tutaj limitowana translacja skryptowa przy całkowitym pozbawieniu serwera prezentacyjnego typowego oprogramowania środowiska unixowego.
Zaproponowana tu architektura korzysta w pewnym stopniu z filozofii ścian ogniowych (wydzielenia nie chronionej “strefy zdemilitaryzowanej”, ang. De-Militarized Zone, DMZ).

Problem dublowania serwera katalogu głównego jest już od jakiegoś czasu rozwijany na świecie, znamy go na przykład z Biblioteki Kongresu. Ostatnio szczególny gest wsparcia dla tej idei okazała jedna z najnowocześniejszych i najbardziej aktywnych bibliotek świata - Narodowa Biblioteka Norwegii [Brygfield 2001]. Rdzeniem systemu tej biblioteki są dwa czteroprocesorowe serwery Hewlett-Packarda klasy N z 8 GB RAM, zintegrowane z systemami macierzy dyskowych i archiwizatorów taśmowych poprzez strukturę sieci SAN w technologii Fiber Channel. Bez najmniejszych wahań można podać powyższy przykład jako zasługujący na szczególne wyróżnienie i naśladowanie.

Bezpieczeństwo

Współczesne informacyjne systemy cyfrowe należą do systemów masowej obsługi społeczeństwa (takich, jak np. liczne usługi komunalne), ale wyróżniają się spomiędzy nich swoją pełną dostępnością w skali globalnej (a nie lokalnej) przez 7 dni w tygodniu i 24 godziny na dobę. Są podobne do stabilizowanego na poziomie narodowym zaopatrzenia w elektryczność, bez którego niesposób wyobrazić sobie funkcjonowanie przemysłowych cywilizacji XXI wieku. Jednak w odróżnieniu od narodowych systemów energetycznych o scentralizowanym zarządzaniu, systemy cyfrowe na ogół nie mają tak dobrej ochrony, a to ze względu na cechującą je integrację systemu zarządzania z systemem użytkowym (aplikacją). Wyposażone przez ich twórców w odpowiednią porcję sztucznej, lecz mocno niedoskonałej inteligencji, stały się w jakimś sensie odbiciem obecnej epoki, cech i potrzeb tego społeczeństwa, które je wytworzyło. Reakcja systemów cyfrowych jest bardzo szybka, choć niekoniecznie zgodna z oczekiwaniami indywidualnymi czy społecznymi. Jak powszechnie wiadomo, interwencja pojedynczego szaleńca, mającego uprawnienia administratora systemu, może prowadzić do katastrofy o niewyobrażalnej skali. O ile jednak szaleniec obejmujący czołowe stanowisko w administracji państwowej jest w stanie doprowadzić do końcowej katastrofy dopiero po kilku latach od chwili przejęcia uprawnień, o tyle w systemach cyfrowych po jednej minucie ze wspaniałej konstrukcji będą już ruiny. Toteż do najważniejszych składników cyfrowego systemu należą podsystemy nadzoru:

Zagadnienie bezpieczeństwa jest niezmiernie szerokie i dotyczy praktycznie wszystkich aspektów funkcjonowania każdego systemu. Było ono przedmiotem troski właścicieli, projektantów i administratorów systemów cyfrowych już ponad ćwierć wieku temu. Mimo że wiele głównych problemów nic nie straciło na swej aktualności, to jednak specyfikacje niektórych niebezpieczeństw grożących systemom informacyjnym z epoki przed-internetowej brzmią niekiedy zabawnie. Znakomity Peter Naur (ten od notacji BNF) pisze: "Można rozróżnić kilka rodzajów wrogów systemu. Konkurenci mogą próbować wydostać tajemnice systemu. Malwersanci mogą dążyć do zmodyfikowania działania systemu w taki sposób, aby uzyskać nie należące się im korzyści, na przykład wysokie kwoty na swoich rachunkach pieniężnych. Wandale mogą podejmować próby fizycznego uszkodzenia systemu choćby przez podłożenie bomby, ale i przez subtelniejsze metody, na przykład przez poddanie taśm działaniu przypadkowych pól magnetycznych". [Naur 1979 strona 316]. Federalne Biuro Śledcze (FBI) opracowało czteropoziomową charakterystykę przestępców komputerowych, która stanowi swojego rodzaju wzorzec odniesienia (Machnacz [2000]). Wyróżnione w niej zostały:

Świadomość wagi, jaką należy przypisywać bezpieczeństwu systemów operacyjnych, bardzo powoli torowała sobie drogę do należnego jej miejsca. Już w 1976 roku na polskim rynku dostępna była książka [Colin 1976], poruszająca w ograniczonym aspekcie sprawę bezpieczeństwa systemu operacyjnego. Znaczący wkład w uporządkowanie spraw związanych z bezpieczeństwem systemów operacyjnych wniósł Olszewski [1981]. Prawdziwy przełom w tej sprawie nastąpił jednak w 1983 r., gdy to staraniem Departmentu Obrony USA wydany został w postaci książkowej spis kryteriów oceny wiarygodności systemów komputerowych [DoD Trusted Computer System Evaluation Criteria, 1983]. Obecnie książka ta (znana jako Orange Book z tzw. tęczowej serii) jest dostępna na sieci pod adresem:

http://www.radium.ncsc.mil/tpep/library/rainbow/5200.28-STD.html.

Waga, jaką rząd USA przywiązywał do sprawy bezpieczeństwa systemów komputerowych, otrzymała pełną oprawę prawną po wejściu w życie w 1987 roku Computer Security Act. Obecnie, również u nas, mamy już sporo opracowań na temat bezpieczeństwa systemów komputerowych. W obszarze systemu operacyjnego UNIX można polecić lekturę piątego rozdziału książki UNIX. Administracja systemu [Frisch 1996]. Prawdziwym kompendium jest przede wszystkim Computer Security Basics [Russel, Gangemi 1991]. Przez jakiś czas dostępny był na sieci interesujący dokument zatytułowany US Military and Government Security Guides and Information. Samemu tylko bezpieczeństwu systemu, wystawionemu na publiczny dostęp w sieci, poświęcona została znakomita, prawie 900 stron licząca, praca zbiorowa "Bezpieczeństwo Internetu" [Atkins et al. 1997], którą bezwzględnie należy polecić wszystkim władzom, odpowiadającym za bezpieczeństwo danych. W odniesieniu do bezpieczeństwa różnych mutacji UNIXa można odesłać Czytelnika do 17 rozdziału sumiennie udokumentowanej książki Warhole [1999]. Z polskich opracowań warto wymienić bardzo pożyteczne książki Kutyłowskiego i Strothmana [1999], Lidermana [2000] oraz Wrony [2000]. Pocieszający jest fakt podejmowania ambitnych prac magisterskich na polskich uczelniach w tematyce dotyczącej szeroko rozumianego bezpieczeństwa. Dobrym przykładem może tu służyć dokument sieciowy: http://dyplomy.sk-kari.put.poznan.pl/Tematy/Tematy00.html .
Dla ułatwienia Czytelnikowi poruszania się w obszernej terminologii zagadnień bezpieczeństwa systemów cyfrowych warto zasygnalizować, że Orange Book definiuje 7 klas bezpieczeństwa:

Od kilku lat istnieją już na rynku systemy operacyjne o podwyższonym bezpieczeństwie. W roku 1992 firma Hewlett-Packard ujawniła swoim dystrybutorom, że dysponuje systemem operacyjnym o nazwie HP-UX B-Level Security Operating System, spełniającym kryteria bezpieczeństwa na poziomie B1. Produkt ten jest wymieniany m.in. w cytowanej wyżej książce Warhole[1999:139]. Mimo zapytań kierownictwa Zespołu Koordynacyjnego ds. Wdrażania VTLS o cenę i dostępność produktu na polskim rynku, producent nie udzielił wówczas żadnej odpowiedzi. Pytania te powtórzono jeszcze dwukrotnie: w 1994 oraz 2001, za każdym razem z tym samym skutkiem. Należy z tego wnioskować, że produkt ten nie jest dostępny dla polskiego odbiorcy, mimo formalnej przynależności Polski do NATO. Czyżby członkowstwo NATO mało ukryte kategorie zaufania? Na szczęście firma Hewlett – Packard nie jest już jedynym dostawcą sprzętu komputerowego, posiadającego system operacyjny o wysokim poziomie bezpieczeństwa. Obecnie sytuacja jest znacznie lepsza. Firma SUN Microsystems oferuje Trusted Solaris 8, który od listopada 2000 poddawany jest testowaniu na spełnianie wymogów klasy B1. Specyfikację techniczną tego systemu można otrzymać od dystrybutorów komputerów SUN w postaci pliku w formacie PDF. Dla wielu użytkowników jednak znacznie ważniejszy jest fakt przeprojektowania Linuxa (kernel 2.2.12 na procesory Intela x86) przez laboratoria National Security Agency, pod kątem podwyższenia jego bezpieczeństwa. Podrasowany Linux został wytestowany na dystrybucji Red Hat 6.1 i można go wraz z dokumentacją pobrać z serwera NSA na warunkach GNU General Public License (http://www.nsa.gov/selinux). Są też poprawione wersje Linuxa pochodzące od innych producentów. Można je znaleźć na sieci pod adresami: http://www.trustix.net//  oraz http://www.bastille-linux.org/. Pożyteczną może się też okazać lektura artykułu Malinowskiego [2002], strony 162-166, omawiającego zabezpieczanie Linuxa poprzez dodanie odpowiednich łatek.

W tym miejscu warto zachęcić biblioteki do zainteresowania się systemami operacyjnymi o podwyższonym bezpieczeństwie. Popularny obecnie na serwerach bibliotecznych UNIX w swej klasycznej postaci nie jest bezpieczny. Doskonale świadczy o tym przytaczany przez Bacha [1995:32] diagram blokowy jądra systemu. Na tym diagramie nie widać obrysu stref bezpieczeństwa i sprawa bezpieczeństwa jeśli jest dyskutowana w tej książce, to w zakresie minimalnym. Oczywiście można winić za to autora, jednak prawdziwą przyczyną tego jest nie uwzględnienie spraw bezpieczeństwa funkcjonowaniania systemu przez jego pierwszych twórców. Jeżeli więc można by niewielkim kosztem podwyższyć stopień jego bezpieczeństwa, to czemu tego nie zrobić? Doprawdy trudny do przyjęcia jest brak bezpiecznego systemu operacyjnego. Z tej pozycji pozostaje tylko apel do zarządców zainstalowanych w Polsce komputerowych systemów bibliotecznych oraz dyrektorów bibliotek o wszczęcie uporczywych starań mających na celu posadowienie oprogramowania na systemach o podwyższonym poziomie bezpieczeństwa. Mimo że administratorzy tych systemów są bardzo kompetentnymi i zaangażowanymi w swą pracę osobami, użytkowane przez nich systemy operacyjne są platformami stosunkowo prymitywnymi i obsługa ich wymaga znacznej uwagi. Administratorom należy dostarczyć wszelkich dostępnych nowoczesnych narzędzi pracy. Cieszyć się należy, że do chwili obecnej nie zdarzył się żaden poważniejszy przypadek. Jednak długotrwała sytuacja bezawaryjna zawsze podwyższa pewność siebie i obniża poziom samokontroli. Tak upadały wszystkie wielkie imperia.

Reprezentacja obiektów w systemach cyfrowej pamięci elektronicznej

W systemie cyfrowym operujemy pewnymi obiektami mającymi wyłącznie postać cyfrową. Na przełomie XX i XXI wieku powszechnie realizowanym fizycznie wewnętrznym zapisem liczb w systemach komputerowych jest zapis dwójkowy (binarny), a to ze względu na jego techniczną prostotę. Do niedawna były poważne trudności z uzyskaniem stabilnych, leżących blisko siebie, ale zarazem rozróżnialnych i licznych (więcej niż 2) fizycznych stanów materii. Zapis dwójkowy natomiast daje się stosunkowo prosto zrealizować od strony technicznej. Rozumieć jednak należy, że w pamięci maszyny nie rezydują prawdziwe "jedynki" i "zera". Tam w procesie zapisu i wymazywania informacji wytwarzane są dwa w miarę dobrze wyróżnione stany materii, które symbolicznie utożsamiamy z "jedynką”, czy też "zerem". Dla przykładu podamy, że w serii standardowej cyfrowych układów scalonych TTL (ang. Transistor-Transistor Logic) przyjmuje się [17], że na wyjściu bramki logicznej jest stan "zero", jeśli napięcie na nim mieści się w granicach 0,0 - 0,4 V, a stan "jeden" - jeśli mieści się ono w przedziale 2,4 - 5,0 V. Obydwa stany przedzielone są 2 - woltową "przestrzenią niczyją", swojego rodzaju strefą zdemilitaryzowaną. Ten nadmiarowy, redundancyjny obszar bezpieczeństwa zajmuje w układach TTL 40% całego operacyjnego interwału napięciowego. To niemała wartość. W najnowszych systemach cyfrowych z zasilaniem 1,2 V przestrzeń redundancyjna rozdzielająca "jedynkę" od "zera" została już zmniejszona do 17% całego przedziału napięciowego, co wyraża swego rodzaju podwyższone zaufanie projektantów do stosowanej technologii.. Owa przedziałowa definicja stanów logicznych może ułatwi czytelnikowi zrozumienie, jak trudnym musi być fizyczna realizacja zapisu cyfrowego i jak ważnym czynnikiem jest stabilizacja warunków jego pracy (w tym chłodzenia). Wreszcie jak niedaleko stąd do sytuacji, kiedy komputer będzie realizował paranoiczne operacje na zniekształconych danych. Mamy tu przecież do czynienia z sytuacją, w której jednemu poziomowi logicznemu ("zero") przypisane jest continuum liczb rzeczywistych z pierwszego cytowanego przedziału, a stanowi logicznemu "jeden" - continuum liczb z przedziału drugiego. Realistycznie rzecz biorąc, jest tu jakaś forma konwersji logiki rozmytej (ang. fuzzy logic) do logiki dwuwartościowej - boolowskiej. Grozą zieje wizja potencjalnego zachowania się półprzewodnikowych, cyfrowych układów scalonych w warunkach wysokiej radiacji, gdy większość złącz p-n wchodzi w stan przewodzenia. W tych warunkach jest rzeczą całkowicie zrozumiałą, że do tej chwili nie udało się zaprojektować żadnego robota, który był by w stanie wjechać do wnętrza osławionego czernobylskiego "sarkofagu" celem rozpoczęcia usuwania zeń paliwa reaktorowego. O wojnie jądrowej lepiej już nie myśleć. Mimo tych kasandrycznych rozważań faktem jest, że systemy oparte na takich rozwiązaniach technologicznych działają w normalnych warunkach - i to na ogół znakomicie.

Kończąc komentarze na temat reprezentacji obiektów cyfrowych w systemach pamięci elektronicznej, poruszymy jeszcze jeden ważny aspekt stosowania wewnętrznej, dwójkowej reprezentacji liczb. W zapisie dwójkowym mamy tylko 4 reguły mnożenia. Tabliczka mnożenia w systemie dziesiętnym (zmora matematyczna uczniów szkół podstawowych) dla bezdusznych maszyn została ograniczona w systemie dwójkowym do strawnego minimum. Pojedyncze quantum informacji nazywa się tu bitem. W konwencji liczbowej bit może przyjmować wartość 0 lub 1. Najmniejszą, adresowalną porcję informacji nazywa się bajtem (ang. byte). Zwykle bajt utożsamia się z uporządkowanym ciągiem 8 bitów.

Czy jednak arytmetyka binarna jest nieuchronnie związana z systemami cyfrowymi? Z pewnością nie. Nie można wykluczyć pojawienia się w przyszłości systemów wykorzystujących więcej niż dwa stabilne stany materii i migracji obecnych systemów dwójkowych do trójkowych, a nawet jeszcze wyższego rzędu. Od czasu słynnego eksperymentu Barta J. Van Weesa z 1987 r., w którym określił on warunki kwantowania prądu elektrycznego w nanobwodach, zaistniały technologiczne okoliczności realizacji arytmetyki ponad-binarnej w układach scalonych. Dlatego nie należy uważać, że "cyfrowość" jest immanentnie związana z arytmetyką binarną, jak to niekiedy się sądzi.

Digitalizacja

Wielu polskim bibliotekarzom digitalizacja często kojarzy się z procesem retrokonwersji katalogu kartkowego. Pojęcie to jest jednak znacznie szersze. Pragnienie umieszczenia czegokolwiek w systemie cyfrowym musi prowadzić do utworzenia c yfrowego obrazu obiektu rzeczywistego. Proces taki odnosimy do obiektów nie-cyfrowych i nazywamy digitalizacją (cyfryzacją). Posługując się programem graficznym kolorowy rysunek możemy wytworzyć na komputerze od razu w postaci cyfrowej. Przerobienie do postaci cyfrowej podobnego obrazka, który został namalowany ręcznie, wymaga posłużenia się skanerem, albo kamerą cyfrową.

Głównym elementem dokonującym tej konwersji jest przetwornik analogowo-cyfrowy (ang, Analog-to-Digital converter, ADC, A/D converter). Wzorcowy obraz w czasie skaningu oryginału jest rozłożony na swego rodzaju tabelę prostokątną składającą się z punktów (pikseli). Zagęszczenie tych punktów zależy od rodzaju wykorzystywanej matrycy fotodetekcyjnej, serwomechanizmu skanera oraz życzenia użytkownika, a zewnętrznie jest reprezentowane rozdzielczością skanowania, wyrażaną w liczbie punktów przypadającej na jeden cal linii skanowanego oryginału (ang. dots per inch, dpi). Żeby odczuć skalę tych wartości podamy, że typowy zrzut ekranu w postaci pliku komputerowego waha się od 72 dpi do 95 dpi, zalecana rozdzielczość do skanowania tekstu, który ma być rozpoznawany optycznie programem OCR wynosi 300 dpi, typowy wydruk z drukarki laserowej charakteryzuje się zdolnością rozdzielczą 300 dpi, natomiast do celów poligraficznych zdolność rozdzielcza nie powinna być niższa od 600 dpi.

Jeśli skanowaniu podlega obraz barwny, i barwy nie mają być konwertowane do głębi szarości, to w prostych urządzeniach każdemu punktowi system będzie przypisywał trzy składowe barwne: czerwoną (ang. Red), zieloną (ang. Green) i niebieską (ang, Blue) [19]. W uproszczeniu, wg powyższego schematu RGB, polega to na trzykrotnym odczytaniu wielkości sygnału przechodzącego przez wymienione barwne filtry i skonwertowaniu go przetwornikiem A/D do postaci cyfrowej. Im przetwornik ma lepszą zdolność rozdzielczą, tym skaner pozwala na uzyskanie większej głębi koloru. Do prostych zastosowań, jak np. ilustracje do stron internetowych, całkowicie wystarczy przypisanie każdej składowej czterech bitów. Na czterech bitach można reprezentować szesnaście poziomów nasycenia każdej komponenty barwnej. Przynajmniej raz popatrzmy jakie są to układy bitów:

Tabela 1. Lista poziomów nasycenia komponenty barwnej (4 bity). Opracowanie autora.

0000 0001 0010 0011 0100 0101 0110 0111 1000 1001 1010 1011 1100 1101 1110 1111


Razem daje to możliwość przybliżenia skanowanego oryginału paletą wykorzystującą 16*16*16= 4096 różnych kolorów. Mówimy, że taka digitalizacja daje 4+4+4=12 bitową głębię koloru. Analogicznie rzecz wygląda przy skanowaniu z większą głębią kolorów. Jeśli jesteśmy w stanie rozpoznać nasycenie każdej składowej w zmieniającej się od 0 do 255 (8-bitowa skala), to będziemy mówić o 24-bitowej głębi koloru (nazywanej po angielsku true color /”prawdziwy kolor”), w której system ma formalne możliwości rozróżnienia 256*256*256 = 16 777 216 różnych kolorów.

W powyższym myślowym doświadczeniu przeprowadzaliśmy próbkowanie obiektu (ang. sampling) i każdemu punktowi płaszczyzny oryginału przypisywaliśmy pewną liczbę (tutaj był to uporządkowany ciąg trzech liczb). Z jednej strony próbkowanie przeprowadzane było poprzez lokalizację geometryczną analizowanego punktu – możemy więc powiedzieć, że w tym konkretnym eksperymencie próbkowaliśmy najpierw przestrzeń [20] kartezjańską. Wynikiem tego pierwszego próbkowania było przypisanie każdemu punktowi digitalizowanego oryginału uporządkowanej pary dwóch liczb – jego współrzędnych kartezjańskich (skanowanym oryginałem był obiekt płaski, 2-wymiarowy).

W każdym punkcie przeprowadzaliśmy dodatkowe, nowe próbkowanie. Dodatkowemu egzaminowaniu podlegały jego cechy kolorystyczne, a więc zdolność do selektywnej absorbcji pewnych długości fal, należących do zakresu widzialnego fal elektromagnetycznych. Powiemy, że dla każdego punktu przestrzeni kartezjańskiej próbkowaliśmy przestrzeń częstotliwości promieniowania odbitego od oryginału (w przypadku skanowania refleksyjnego) dla trzech standardowych częstotliwości światła.

Podobne próbkowanie dla dźwięku możemy przeprowadzić w przestrzeni czasu. Znakomitą monografię poświęconą digitalizacji dźwięku wydał ostatnio Czyżewski [1998].

Za wynik digitalizacji oryginału uznajemy superpozycję (złożenie) procesów próbkowania ze wszystkich przestrzeni, wraz ze sprzężoną z tymi próbkowaniami konwersją sygnału analogowego do wartości cyfrowej. Do każdej próbki (punktu próbkowanej przestrzeni) „dowieszamy” wektor atrybutów. To właśnie na składowych tego wektora atrybutów dokonuje się algorytmicznych manipulacji, mających na celu kompresję cyfrowego obrazu, - a więc tak pożądanego zmniejszenia fizycznej objętości wynikowego zbioru cyfrowego.

Produktem końcowym nie są jednak same dane binarne, ale plik (ang. file) komputerowy obejmujący oprócz cyfrowej reprezentacji obrazu również inne elementy, takie jak oznaczenie początku zbioru cyfrowego, liczbę jego elementów oraz oznaczenie zakończenia. Od razu trzeba jednak uczynić zastrzeżenie. Do chwili obecnej na świecie pojawiło się już bardzo wiele najrozmaitszych standardów formatowania danych. Z faktu, że posiadamy jakiś plik cyfrowy wcale nie wynika, że będziemy potrafili go odczytać. Do ponurych żartów należy to, że wielcy producenci oprogramowania wcale się nie wstydzą, że w rodzinie ich własnych produktów nie obowiązuje wcale zasada "zgodności wstecz" (ang. backward compatibility). Typowy dokument - plik cyfrowy napisany pod edytorem Word 97 bez dodatkowej konwersji był nie do odczytania przez jego protoplastę Worda 6.0, choćby zawierał najprostszy tekst.

Należy pamiętać, że wygórowany apetyt na wysoką jakość cyfrowego obrazu ma równie wysoką cenę: gwałtownie rośnie rozmiar pamięci potrzebnej do jego przechowania. Dotyczy to zarówno zdolności rozdzielczej, jak i głębi kolorów. Zagadnienie to było przedmiotem poważnych rozważań już stosunkowo dawno temu, gdy pamięci komputerów w stosunku do dzisiejszych były niewielkie [Wintz 1972], ale – o dziwo – rozważania te nic a nic nie straciły na swej aktualności. Utworzone w trakcie digitalizacji duże pliki powodują problemy w przenoszeniu pomiędzy komputerami, oraz między komputerami a urządzeniami peryferyjnymi (monitor, drukarka etc.). Z pomocą przychodzi w takich momentach opanowanie apetytów, kompresja plików oraz ulepszenie sprzętowe systemu prezentacyjnego - w tym możliwość zapisu i odczytu na przenośnym medium wysokiej pojemności, takim jak np. dyskietki Iomega ZIP 250 MB, dyski Iomega JAZ 2 GB, a obecnie różnego rodzaju wymienne dyski półprzewodnikowe oparte na pamięciach EEPROM.

Na marginesie konwersji analogowego oryginału do postaci cyfrowej warto poruszyć sprawę przygotowania materiału do digitalizacji. Podobnie jak to ma miejsce przy reprodukcji (zwłaszcza starodruków i rękopisów) proces digitalizacji musi być prowadzony z wielką ostrożnością. Niejednokrotnie zdarza się, że fizyczny stan obiektu wymaga podjęcia poważnych prac studialnych a następnie konserwatorskich jeszcze przed rozpoczęciem procesu digitalizacji. Nie zawsze są na to pieniądze, sprzyjające okoliczności, i nie zawsze jest dostępna odpowiednia technologia. Niekiedy utworzenie analogowej repliki oryginału poprzedza proces digitalizacji.

Być albo nie być archiwalnego materiału często leży w kompetencji dwóch osób. Pierwszą jest ta, która wstrzymuje przedwczesne prace, nie mające jeszcze szans powodzenia. Drugą jest osoba inicjująca i doprowadzająca do końca rozpoczęte dzieło. Poznajmy dwa takie przykłady z własnego podwórka: jeden pozytywny i jeden negatywny. Obydwa te przykłady będą dotyczyć nagrań fonograficznych (więcej danych na temat tej technologii można znaleźć u Kaczmarka [1953], Janczewskiej-Sołomko [2000] oraz w Internecie, patrz Schoenherr [2000]).

Świetnym pozytywnym przykładem służyć tu może historia odczytu i wykonania replik wałków fonograficznych nagranych przez Bronisława Piłsudskiego w czasie pobytu na zesłaniu na Sachalinie [ICRAP 1985, Ogonowska 1993, Czermiński 1999].

Wałki Piłsudskiego zostały odnalezione po II Wojnie Światowej na Uniwersytecie Adama Mickiewicza w Poznaniu i pierwsze próby przegrania ich zawartości na taśmę magnetofonową podjął Kaczmarek około 1953 r. Prace te nie zostały dokończone i dziesięć lat później Bańczerowski podjął kolejną próbę odczytu i przepisania zawartości wałków na taśmę magnetofonową. Brak zadawalających efektów skłonił go do wstrzymania prac, a racje dla których to uczynił są godne uwagi (fragment wystąpienia na konferencji w Sapporo):

“[...] jakość zapisów na taśmie nie była zadawalająca. (...) Niemożność reprodukcji zapisów oraz dalsze dyskusje z chemikami potwierdziły moje wewnętrzne przeświadczenie, że przepisanie zawartości wałków nie może być przeprowadzone w wyniku zastosowania konwencjonalnych procedur, i że mniej lub bardziej odległa przyszłość powinna się zająć tą sprawą. Pomimo tego smutnego wniosku nie popadłem w rozpacz. Jakiś wewnętrzny głos obiecywał mi końcowy sukces, chociaż nie wiedziałem, kiedy to się urzeczywistni. Ale byłem całkowicie pewien, że tak się stanie. Tym niemniej, doskonale zdawałem sobie sprawę z tego, że dla wałków rozpoczęło się odliczanie wsteczne i, konsekwentnie, że one nie mogą w nieskończoność czekać na efektywną interwencję. Co pewien czas, któryś wałek, tak sam z siebie, rozpadał się na kawałki. W miarę, jak kolekcja stopniowo się kurczyła, moje rozdrażnienie narastało. Możecie sobie wyobrazić, światli naukowcy, jakie męki Tantala przechodziłem na widok rozpadającego się wałka, którego zawartość bezpowrotnie znikała w przeszłości”
[Bańczerowski 1985].

Tym drugim człowiekiem, który z niezwykłą energią uruchomił kompleksowy, międzynarodowy projekt zbadania, konserwacji i odtworzenia zawartości wałków a następnie ich opracowania pod względem naukowym był Alfred F. Majewicz. Jego pierwsza zagraniczna publikacja na temat wałków Piłsudskiego [Majewicz 1977] spotkała się z żywym odzewem, ale szczegółowa organizacja projektu zajęła ponad trzy lata. W efekcie powstała konieczność dokonania niezwykłego wyczynu: wysłania kompletu bezcennych wałków do Japonii, dokładnie w czasie trwania stanu wojennego. Determinacja Majewicza zaowocowała w sposób wręcz niezwykły. Wałki zostały wysłane, przebadane z pełnym japońskim pietyzmem, poddane naprawie oraz konserwacji, wykonano ich wierne kopie w żywicy epoksydowej i odtworzona została ich zawartość. Dzięki temu projektowi powstała, i ciągle narasta, długa lista znakomitych prac naukowych, a próbkę cyfrowej wersji nagrania wykonanego 100 lat temu na Sachalinie przez Bronisława Piłsudskiego można dzisiaj przesłuchać odwiedzając prototyp internetowej strony informacyjnej projektu ICRAP.

Z kolei przejdźmy do przykładu, którego zakończenie trudno nazwać optymistycznym. Świadomość zagrożeń płynących z miękkości wałków woskowych istniała od samego początku. Na szczęście dla oświeconych i bogatych, już od 1900 roku znana była, znakomita jak na owe czasy, technologia zabezpieczania informacji zapisanej na wałkach fonograficznych. Ta technologia polegała na galwanoplastycznym wykonaniu negatywowej matrycy wałka [21]. Woskowy wałek srebrzy się, tak jak srebrzy się szkło, by uzyskać lustro. Nie przewodząca powierzchnia wałka staje się przewodząca. Taki wałek wkłada się do cyjankowej kąpieli galwanicznej zawierającej sole miedzi, podłącza do niego biegun ujemny źródła prądu stałego i prowadzi elektrolizę z anodą miedzianą. Na wałku odkłada się spójna warstwa miedzi, nieporównanie twardsza i trwalsza od wosku. Takie negatywy wałków nazywane są popularnie galvanos. Wykonanie miedzianej kopii negatywowej doskonale zabezpieczało zapisany na wałku dźwięk. Po dzień dzisiejszy zachowała się znaczna liczba galvanos, ale bezpośrednie odtworzenie z nich dźwięku stało się możliwe dopiero obecnie [22]. Jeśli negatyw został wykonany wkrótce po nagraniu, to w rowkach wałka nie zdążyły zajść procesy degradacyjne (krystalizacja niektórych składników wosku, wżery zrobione przez pleśń, uszkodzenia mechaniczne w czasie transportu, “golenie” zapisu przez igłę w trakcie odtwarzania) i jakość odtwarzanego dziś dźwięku jest znakomita.

Reprodukcję negatywu takiego wałka przedstawia Rysunek 9.

Rysunek 9. Miedziane negatywy wałków fonograficznych (galvanos). Berliner Phonogramm Archiv. Reprodukcja dzięki uprzejmości kierownictwa projektu SpuBito.

Dwa culindy miedziane o średnicy wewnętrznej ok 5 cm i długości ok. 10 cm. Jeden stoi na denku, drugi leży na boku

Rysunek 10. Mikroskopowe zdjęcie powierzchni wałka negatywowego z widocznymi ścieżkami dźwiękowymi. Berliner Phonogramm Archiv. Reprodukcja dzięki uprzejmości kierownictwa projektu SpuBito.

Ścieżki poziome, równoległe. Jedne ciągłem inne przypominają linię ułożoną z uciętych na połowę kulek położonych w jednej linii.

Rysunek 11. Szczegół bezpośredniego odtwarzacza wałków negatywowych. Berliner Phonogramm Archiv. Reprodukcja dzięki uprzejmości kierownictwa projektu SpuBito.

Na zdjęciu widać wprowdzoną do wnętrza miedzianego cylindra, współosiowo umieszczoną w nim głowicę pozwalającą na odczyt porzeźbionego wnętrza cylindra w czasie jego obracania się

Rysunek 12. Spektrogram cyfrowo zrekonstruowanego (FFT) zapisu dźwięku. Pieśń weddyjska. Ceylon 1907. Berliner Phonogramm Archiv. Reprodukcja dzięki uprzejmości kierownictwa projektu SpuBito.

Obraz jest rodziną poziomo położonych pod sobą wykresów. Najwyższy wykres to bezpośredni zapis sygnału dźwiękowego dla zadanego wycinka czasum Pod nim kolejno odtworzone poszczególne harmoniczne tego przebiegu odtworzone z cyfrowej analizy oryginalnego sygnału

Świadomość tych faktów miał również Bronisław Piłsudski po swym powrocie do Polski. Ale okazało się, że świadomości tego nie mieli inni – jak na ironię naukowcy – wśród nich również Sekretarz Akademii Umiejętności w Krakowie. W zapiskach późniejszego, wieloletniego Dyrektora Muzeum Tatrzańskiego znajdujemy co następuje: “Skarżył się właściciel (B. Piłsudski - przyp. aut.) cennego zbioru fonogramów, jak nietrwały jest materiał przeznaczony do wyrobu wałków. Nieodzownym warunkiem utrwalenia delikatnych rowków, które wyżłobił rylec pod membraną, jest wykonanie matrycy drogą galwanoplastyczną. Za granicą, np. w Wiedniu, w Ameryce powstają z tych matryc całe archiwa pieśni ludowych i gwarowych tekstów najrozmaitszych narodów. Jego wałki, starannie chronione, i tak dziwnym zbiegiem okoliczności trzymają się świetnie: zahartowały je nadspodziewanie swędzące dymy w ajnuskich jurtach; wprost uwędziły się w pobliżu ogniska. Ale to nie jest rozwiązanie sprawy; potrzeba matrycy metalowej, aby praca nie poszła na marne; a na to pieniędzy nie ma i niepospolitemu zbiorowi grozi zniszczenie.” [Zborowski 1972 strona 310].

Sachalińska kolekcja Piłsudskiego oraz jego entuzjazm okazały się zaraźliwe, ale też trafiły na nieprzeciętny grunt. Zborowski, nie mogąc zdobyć pieniędzy z Akademii Umiejętności [23] kupił z własnej pensji (był zastępcą c.k. nauczyciela gimnazjalnego) fonograf oraz 100 wałków i z zapałem rozpoczął nagrania w terenie: "[...] a na pierwszy ogień szedł grajek nad grajki, boży talent muzyki Podhala, Bartuś Obrochta. Trzeba go było widzieć, jak z całą satysfakcją przysłuchiwał się nagranym przez siebie wałkom, jak co chwila przygadywał "dobrze, dobrze" - i jak, przytupując nogą do taktu, wygłosił swoją opinię: "Wiécie, panie profesórze, to niegłupio tromba!". Ale problem był tylko do połowy rozwiązany. Wspólną uciechę rozpoczęcia fonograficznych notowań zwarzył rychło Bronisław Piłsudski, sam zaniepokojony o trwałość wałków z pieśniami Ajnosów. Bez utrwalenia zdjęć galwanoplastyczną metodą cała praca może pójść na marne. Zarówno przy reprodukowaniu oryginalnych wałków z miękkiego materiału, jak i pod wpływem działania powietrza delikatne rowki, wyryte rylcem przy nagrywaniu, mogą się zetrzeć, popsuć, a nawet na pewno im takie zniszczenie grozi. Byliśmy bezradni. Mowy nie było ani o kupieniu potrzebnej aparatury, ani choćby o posłaniu wałków do Wiednia i zamawianiu metalowych matryc z własnej kieszeni. Nawet i ten stosunkowo niewielki wydatek nie znalazł łaski tam, gdzie się znowu o zasiłek kołatało. Niestety, wkrótce przyszło to, czego się spodziewano. Znany lwowski muzykolog, prof. Adolf Chybiński, zgłosił się listownie do Muzeum Tatrzańskiego i ówczesny wiceprezes wydał mu wałki do opracowania muzycznego. Finał całego naukowego zapału Chybińskiego, bez jego najmniejszej pomocy finansowej dla dobra sprawy, gorzko kwituje Zborowski: "Wałki były w nienagannym stanie i dały się świetnie reprodukować. Cały zbiór znalazł się wkrótce w nutowym zeszycie prof. Chybińskiego. Ale niedługo potem rozpoczął się proces rozkładu. Reprodukowanie fonogramów zniszczyło znacznie subtelne rowki w miękkim materiale, a dostęp powietrza zrobił swoje. Przeniesienie zdjęć na metalowe podłoże byłoby bezcelowym wyrzuceniem pieniędzy. Z cennego zbioru został dosłownie szmelc".

Marnie zrehabilitowała się za całą Akademię jej Komisja Językowa kupując wkrótce fonograf i 10 razy mniej wałków niż zastępca c.k. nauczyciela gimnazjalnego za jedną swoją pensję. Gdyby akademicy krakowscy okazali się innego formatu, inny los spotkałby moje fonogramy i to, co już nie wróci: nagrania Bartusia Obrochty i zamierające pieśni ze staroświeckiej epoki. - kończy ze smutkiem Zborowski.

Zestawienie tak odmiennych postaw dwóch profesorów na przestrzeni półwiecza winno być przestrogą, że żaden pośpiech w realizowaniu swoich marzeń naukowych nie powinien odbywać się kosztem zagrożenia istnienia dokumentu. Dziś moglibyśmy słuchać bajecznych gęślicek Bartusia w wersji cyfrowej - wprost z Internetu - ale na próżno o tym marzyć.

Archiwizacja, konserwacja i składowanie materiału cyfrowego

Archiwizacja jest zespołem czynności, które w przyszłości umożliwią odtworzenie pewnego stanu przeszłości, jeśli zaszła by taka konieczność. W stosunku do środowiska cyfrowego w tej sekcji na pierwszy plan wysuwają się trzy podstawowe zagadnienia:

Co do konieczności archiwizacji systemowych wraz ze wszystkimi aplikacjami w zasadzie nie ma żadnych nieporozumień. Zarówno informatycy, jak i bibliotekarze są zgodni, że jest to konieczność i nikt nie kwestionuje potrzeby ponoszenia odpowiednich kosztów. Jednak w stosunku do dokumentów elektronicznych o charakterze statycznym daje się słyszeć zapytania, czy jest to rzeczywiście konieczne. Takie wątpliwości wynikają z faktu, że sam proces digitalizacji jest często zaliczany do czynności archiwizacyjnych i wielu osobom trudno jest pojąć, po co archiwizować archiwum. Aby ułatwić zrozumienie konieczności takiego postępowania British Library wydała, przygotowane przez National Preservation Office, syntetyczne studium poświęcone zabezpieczaniu elektronicznych materiałów (Feeney [1999]). Autorzy studium uważają błyskawiczne starzenie się sprzętu komputerowego oraz oprogramowania za podstawowy problem, który zmusza do szybkiego zajęcia się archiwizacją materiałów cyfrowych i proponują trzy podstawowe podejścia:

  1. Zachować oryginalne oprogramowanie (i możliwie sprzęt), które zostały użyte do wytworzenia i dostępu do informacji (strategia zachowania technologii)
  2. Oprogramować przyszły, silny komputer tak, by mógł emulować stare, wyszłe z użycia platformy sprzętowe (strategia emulacji technologii)
  3. Zapewnić przeniesienie informacji cyfrowej do nowych technologii, zanim stare technologie wyjdą z użycia (strategia migracji informacji cyfrowej), w tym:
    • Zmianę nośnika zapisu z mniej stabilnego na bardziej stabilny
    • Oparcie się na aplikacjach mających "zgodność wstecz": dokumenty tworzone przez nowe oprogramowanie dadzą się otworzyć przez starsze wersje oprogramowania
    • Oparcie się na rozwiązaniach mających między sobą wspólne formaty wymienne

Jest rzeczą ciekawą, że szczegółowa analiza znacznego materiału porównawczego doprowadziła do konkluzji, iż na 10 omawianych kategorii zasobów cyfrowych aż w 9 przypadkach (zbiory danych, teksty strukturalizowane, dokumenty biurowe, dokumentacja komputerowego wspomagania projektowania (CAD), grafika prezentacyjna, obrazy statyczne, zapisy mowy i dźwięku, materiały video oraz materiały geograficzne) rekomendowana jest strategia migracji informacji cyfrowej. Jedyna kategoria, dla której zalecono strategie zachowania i emulacji technologii, to interakcyjne materiały dydaktyczne i instruktażowe.

Wielką uwagę do zagadnienia archiwizacji zasobów cyfrowych przywiązuje się również w Wspólnocie Europejskiej. Staraniem DLM Forum w roku 1997 wydane zostały Wytyczne co do najlepszych praktyk wykorzystania informacji w postaci elektronicznej (Guidelines [1997]), poprzedzone przedmową pióra Martina Bangemanna, który określił w niej usługi archiwizacji jako istotny składnik społeczeństwa informacyjnego. Cyfrowa wersja Wytycznych dostępna jest pod URL: http://europa.eu.int/ISPO/dlm/monitoring/tenpoints.html. Godny uwagi i naśladowania jest nagłówek cytowanego dokumentu: This website has been archived, świadczący o zorganizowanej formie archiwizacji cyfrowych dokumentów elektronicznych we Wspólnocie Europejskiej.

Rysunek 13. Tekstowa wersja archiwizowanego systemu cyfrowych dokumentów elektronicznych.


This website has been archived
Please visit the new site at:
http://europa.eu.int/information_society
DLM Forum
European citizens and electronic information : the
memory of the Information Society
Cooperation Europe-wide

[DLM Forum '99] [ Become a DLM Correspondent ] [Contacts]


After the successful first DLM-Forum which was held in Brussels from 18th to 20th December 1996 the European Commission organised the second multidisciplinary DLM-Forum in the framework of the Community on the problems of the management, storage, conservation and retrieval of machine-readable data on the 18th and 19th of October 1999. Public administrations and national archives services, as well as representatives of industry and research, took part in the Forum.

DLM Forum '99


Some further photographic impressions
Results of the DLM-Forum '99

Treść dokumentu w jego istotnej części zawiera pewną skromną (i zdaniem autora niezbyt udaną) próbę zdefiniowania niezbędnej terminologii (informacja, dane, dokument), analizę cyklu życia informacji elektronicznej, jej projektowania, tworzenia, obsługi i klasyfikacji. Ostatnie rozdziały poświęcone są formatom plików i dostępowi do nich. Całość uzupełniają obszerne aneksy. Dokument powstał najwyraźniej pod wpływem lobby tworzącego wizję społeczeństwa informacyjnego. Prezentowana tam terminologia jest utrzymana w stylu urzędniczym i być może została stworzona na potrzeby szkolenia średnich warstw unijnej administracji. Stosowana terminologia musiała zapewne spotkać się z jakąś formą krytyki, skoro zawarte w punkcie 8.1 definicje opatrzono następującym komentarzem: Poniższe definicje zostały użyte na potrzeby niniejszych Wytycznych. Regulacje prawne różnych krajów również zawierają definicje, które powinny być wzięte pod uwagę.

Na gruncie polskim godzi się odnotować zapowiedź Wydawnictwa DiG druku książki Archiwa elektroniczne – dokumenty elektroniczne [Wajs 2002].

Uwagi godne są pierwsze próby rozszerzenia egzemplarza obowiązkowego na dokumenty publikowane w Internecie wraz z ich obowiązkową archiwizacją. Wbrew początkowym obawom rozmiar takich archiwów w skali państwowej nie okazał się porażający: w końcu 1998 r. fiński Web zamknął się w granicach ok. 200 GB z przewidywaniem osiągnięcia 1 TB jesienią 2000. W Szwecji archiwum krajowego Web'a zajęło wiosną 2000 roku zaledwie 400 GB przestrzeni dyskowej [Hakala 2000 strona 20].

Z pewnością nierozwiązanym w Polsce problemem jest problem miejsca składowania i rotacji cyfrowych zapisów archiwalnych. Utrzymywanie się koncepcji archiwizacji na poziomie lokalnym, bez terytorialnej wymiany kopii jest wyjątkowo niefortunne. Ciągle jeszcze brak jest instytucji (rządowych, samorządowych lub komercyjnych), które mogły by oferować takie usługi, jak przechowywanie cyfrowych materiałów archiwalnych (dobre pole do zrobienia interesu). Wymaga to oczywiście sporej wiedzy z zakresu konserwacji takich materiałów, no i nienajgorszej organizacji.

Użytkownik systemu. Karbowy, kucharz, czytelnik, słuchacz, dotykacz, czy widz?

System cyfrowy pracujący na potrzeby masowej obsługi nie jest i nie będzie systemem demokratycznym. Jak większość podobnych systemów cechuje się dychotomią zasobów: są w nim zasoby konsumpcyjne, są i administracyjne. Trudno więc się dziwić, że będzie występować i dychotomia użytkowników. Przeciwko temu principium walczyli, walczą i zapewne będą walczyć światowe ugrupowania anarchistów i wandali sieciowych. System taki jest systemem autokratycznym o dobrze ustalonej hierarchii uprawnień różnych kategorii użytkowników.

W hierarchii tej najwyższe uprawnienia ma administrator systemu (ang. root, superuser, supervisor). Administrator może, od strony dostępnych dla niego funkcji, zrobić niemal wszystko. To właśnie on ma niczym nieograniczony dostęp do zasobów administracyjnych. W przeszłości administrator systemów kupionych na indywidualne wnioski o import sprzętu wysokiej technologii (embargo) nie miał prawa wglądu do urządzeń archiwizujących informacje o przebiegu uruchamianych procesów. Czego administrator nie może teraz zrobić? Jeśli system cyfrowy jest firmowy, bez posiadania kodu źródłowego i możliwości jego modyfikacji, administrator nie może rozszerzyć podstawowych jego funkcji (choć na ogół może je zubożyć). Nie ma też do dyspozycji administracyjnych narzędzi do odszyfrowania hasła użytkownika, ani treści zaszyfrowanych przez użytkownika plików. Może natomiast wywłaszczyć dowolny proces systemowy zainicjowany przez użytkownika, zmienić jego uprawnienia dostępu do plików, zlikwidować konto użytkownika. I te niezwykle wysokie uprawnienia są przedmiotem apetytów hackerów całego świata.

Administratorem w żadnym wypadku nie powinna być jedna osoba. Taka sytuacja mogłaby się okazać fatalna dla systemu. Od samego początku należy stworzyć i utrzymywać grupę administratorów, rozumiejąc potrzebę konieczności specjalizacji w ramach tej grupy, ale też i posiadania możliwości zamiany ról poszczególnych specjalistów w sytuacjach awaryjnych. Należy pamiętać, że każda wiedza starzeje się i trzeba koniecznie przewidywać fundusze na szkolenia administratorów. O administratorów trzeba dbać niesłychanie, bo to w ich rękach tkwią klucze do pełnej operacyjności systemu. Są to ludzie o bardzo wysokich kwalifikacjach i wykształceniu, na ogół bardzo skromni i taktowni, bo pokory uczy ich poziom złożoności systemu, którym administrują. Jednak rola ich jest podobna do kontrolerów ruchu powietrznego na lotniskach, bo muszą być przygotowani do podejmowania błyskawicznych decyzji o strategicznym znaczeniu.

Inaczej sprawa się ma z pozostałymi użytkownikami systemu cyfrowego. To dla nich przeznaczone są konsumpcyjne zasoby systemu. Ale i w tej grupie nie ma równouprawnienia. Nawet i w stołówce, gdzie serwuje się typowy produkt konsumpcyjny, jest podział na tych, co przygotowują posiłki i na tych, którzy je konsumują. I trudno się dziwić, że kucharze nie wpuszczają do kuchni zwykłych konsumentów. W grupie konsumenckiej [24] będziemy wyróżniać administratorów aplikacji o bardzo urozmaiconych funkcjach, często bardzo różniących się odpowiedzialnością - jednak mających w mniejszej, czy większej skali uprawnienia do modyfikacji zasobów cyfrowych. W bibliotekach należeć do nich będą specjaliści od zarządzania oprogramowaniem bibliotecznym, ale też katalogerzy, bibliotekarze sporządzający opis egzemplarza, czy mający dyżur w wypożyczalni. Przyjrzyjmy się fragmentowi takiego opisu, korzystając z danych obowiązujących w systemie VTLS zainstalowanym w Bibliotece Głównej UG i przytoczonych przez Misiewicza (2000):

Tabela 2. Typy użytkowników. Źródło: Misiewicz [2000].

Nazwa użytkownika
Uprawnienia
user
Przeglądanie katalogu, bez dostępu do powłoki [25]systemu operacyjnego
epac
mutacja typu „user” - przeglądanie katalogu, bez dostępu do powłoki systemu operacyjnego. Specyficzny dla programu - klienta VTLS Windows® EasyPac.
cat
Kataloger - użytkownik z uprawnieniami do wprowadzania, modyfikacji i usuwania rekordów:¨ książki,¨ autora,¨ egzemplarza.Bez dostępu do powłoki systemu operacyjnego.
circ
pracownik Wypożyczalni posiadający w systemie możliwość ingerencji w informację o Czytelniku.Może:· wypożyczyć książkę;· usunąć informację o stanie konta Czytelnika;· usunąć informację o Czytelniku;· wprowadzić informację o nowym Czytelniku.
admin
użytkownik o uprawnieniach wyższych od katalogera, np. bibliotekarz systemowy - poprawiający błędy we wprowadzonych rekordach. W zależności od potrzeb ma możliwość uruchamiania programów zewnętrznych. Posiada dostęp do powłoki systemu operacyjnego MPE/XL, może również uruchamiać programy zewnętrzne, również pisane przez siebie.
manager
superużytkownik - ma prawo do ingerencji w system na każdym poziomie. Poza dostępem do wszystkich komend samego systemu, posiada dostęp do powłoki systemu operacyjnego MPE/XL, może również uruchamiać programy zewnętrzne, również pisane przez siebie.

Oczywiście w ramach aplikacji na ogół zawsze można zdefiniować znaczną liczbę różnych grup użytkowników - zdecydowanie więcej niż to zapewniają współczesne, wielodostępne systemy operacyjne. Bardziej szczegółowy opis sugerowanych przez VTLS funkcji i odpowiedzialności różnych użytkowników można znaleźć w cytowanej wyżej pracy Misiewicza.

Bardzo sensowne ustawienie kontroli sieciowego dostępu do zasobów bibliotecznych i sklepowych w oparciu o zalecenia POSIX zaproponował niedawno Gladney [1997]. Według jego propozycji uprawnienia są reprezentowane przez wektory boolowskie stwarzające nadzieję na sprawną obsługę przez systemy zarządzania relacyjnymi bazami danych.

Przejdźmy wreszcie do ostatniej kategorii użytkownika systemu - tego 'czystego konsumenta'. Tak jak i w życiu, prawdziwa demokracja dotyczy tylko tych, którzy nie mają już nic do powiedzenia. To dla nich (pewnie na osłodę losu) otoczenie sprzętowe nowoczesnej biblioteki musi stawać się uniwersalne. Takie są współczesne tendencje i tego oczekuje rynek odbiorcy. Jest to wizja demokratycznej biblioteki, dostępnej dla wszystkich, bez dzielenia na kategorie lepszych i gorszych. O swobodnym, nieograniczonym dostępie do zasobów bibliotek bardzo silnie wyraża się amerykańska ustawa biblioteczna o prawach (patrz http://www.ala.org/work/freedom/lbr.html) [26]. To głośne hasło równości, ponad dwa stulecia szerzące się w swych rozlicznych odmianach, szczególnie silnie daje swój wyraz na niwie dostępu do cyfrowych zasobów bibliotecznych. Nie ma i nie będzie osobnej "profesorskiej czytelni" dokumentów cyfrowych. W równym stopniu nie powinno się tworzyć gett dla “sprawnych inaczej” - gdyż w świecie cyfrowym nie ma miejsca na cyfrowe biblioteki specjalne. To już nie czytelnik: to uogólniony odbiorca. To słuchacz, to czytelnik, to widz – stosownie do swoich możliwości, potrzeb, oraz wyposażenia osobistego i czytelni (czy też publicznego, sieciowego punktu dostępu do systemu). Warunkiem tego, że takiego odbiorcę biblioteka pozyska w przyszłości, jest odpowiednie jej przygotowanie na jego przyszłą obecność. Mamy tu na myśli przygotowanie całej instytucji: obiektu, jego wyposażenia, regulaminu i personelu.

Przyjrzyjmy się niewidomym. Mało który bibliotekarz wie, że współczesny niewidomy, mimo że w ogóle nie widzi ekranu komputera, znakomicie surfuje po Internecie posługując się syntezatorem mowy (rozwiązanie tanie) i/lub linijką brajlowską (rozwiązanie drogie). Można nawet wyrazić uzasadnione przekonanie, że niewidomi znacznie częściej korzystają z serwerów FTP oraz grup dyskusyjnych, niż bibliotekarze. Nie tylko zresztą bibliotekarz ma bardzo ograniczoną wiedzę na ten temat. Gdy wiosną 2000 roku autor wprowadzał niewidomego magistranta anglistyki (wraz z towarzyszącym mu psem-przewodnikiem) do sąsiadującej z wydziałowym laboratorium komputerowym pracowni wyposażonej w sprzęt przygotowany do obsługi osób niewidzących [27], na twarzy pracującego przy stacji roboczej studenta pojawiło się coś w rodzaju wyrazu politowania. Po kilku minutach można było zobaczyć niepomierne zdumienie odmalowujące się na tej samej twarzy, gdy z otoczenia sprzętu brajlowskiego zaczęły dochodzić głosy profesjonalnej dyskusji na temat Sieci. Taki właśnie niewidomy, przy minimalnym instruktażu, znakomicie potrafi przeglądać OPAC. Autor sprawdził to osobiście. A nie mówimy tu o pojedynczej osobie. Obecne programy wsparcia niewidomych na skalę masową otworzyły bramy internetowej edukacji dla setek niewidomych w całej Polsce i to od poziomu szkoły podstawowej. Na zapotrzebowanie tej grupy społecznej trzeba koniecznie się otworzyć.

Zapytajmy jednak, po co niewidomemu taki OPAC, jaki można obecnie powszechnie spotkać? Czy znajdzie tam skatalogowaną jakąś pozycję w brajlu i jak w tym tłumie czarnodruku ma takie pozycje prosto wyselekcjonować? A może książkę mówioną? Czy znajdzie tam choć kilka "podpiętych" pełnotekstowych monografii? A tak choćby jak tą wspomnianą poprzednio, cyfrową Bibliotekę arcydzieł polskiej literatury, na które wygasły już prawa przedruku? Nasz niewidomy raczej nie używa telnetu. To oprogramowanie nie jest popularne w tej grupie inwalidztwa z różnych względów. A który z istniejących w Polsce interfejsów WWW do katalogu publicznego oferuje wybór względem materiału publikacji, nie odwołując się do pustych rekordów?

Pewnie, że można niewidomego odesłać z biblioteki akademickiej do specjalnej, ale tam z pewnością nie zdobędzie materiałów do studiowania. Zapewne są i ważniejsze sprawy. Niejednokrotnie przewijające się zapytanie: “A ilu tych niepełnosprawnych macie?” budzi jednak smutek. Aż nazbyt kojarzy się ono z Konferencją Poczdamską. Poszukajmy więc bardziej pozytwnego przykładu. Warto więc wspomnieć, że w Amsterdamie niewidomy student czy uczeń otrzymuje potrzebną książkę w postaci cyfrowej w ciągu 24 godzin! Podobnie jest to zorganizowane na Uniwersytecie Warszawskim. Jest to wynik połączenia szlachetnego i mądrego ustawodawstwa o prawach przedruku z dobrą, przemyślaną organizacją – w tym również zachętą i wsparciem dla wolontariatu. Przynajmniej w jednej swej lokalizacji każda większa biblioteka powinna być wyposażona w sprzęt usuwający bariery komunikacyjne, będące wynikiem różnego rodzaju niepełnosprawności. W 2000 roku praktycznie tylko Biblioteka Uniwersytecka w Warszawie przekroczyła pod tym względem poziom "masy krytycznej" w nasyceniu takim sprzętem. Prowincji pozostaje tylko dużo mówiące westchnienie. Te znaki zapytania to namiętny apel autora do bibliotek, do ich P.T. Dyrektorów i do samych bibliotekarzy. Już teraz można tak dużo zrobić dla niepełnosprawnych: wystarczy dodać 'w czynie społecznym' choćby kilka hiperłączy do opisu bibliograficznego, rozszerzyć indeksowanie na materiał publikacji i poszerzyć opcje filtracyjne w OPACu. Oszczędzi to niewidomym trudów komunikacyjnych i pomoże im zintegrować się z resztą społeczeństwa. Trzeba uczynić wszystko, co możliwe, by i oni mogli być partnerami osób widzących w rozmowie na temat przeszukiwania katalogu biblioteki.

Nie należy się dziwić, że w niniejszym opracowaniu mówimy nieproporcjonalnie więcej na temat dostępu do informacji osób niewidomych, niż na przykład głuchych. Niewiedza społeczna na temat inwalidztwa jest ogromna. Bardzo mało osób wie, że niewidzący, lecz słyszący człowiek, jest pod względem możliwości zdobywania wiedzy w znacznie lepszej sytuacji niż inwalida widzący, ale głuchy od urodzenia. Osoba głucha od urodzenia praktycznie w ogóle nie zna swego ojczystego języka! Dla takiej osoby pełnotekstowy dokument cyfrowy wyświetlony na ekranie komputera może mówić mniej, niż kolorowe obrazki. Pierwszym językiem, który polskie dziecko otrzymuje od niesłyszących rodziców (nawet, jeśli samo jest słyszące) to PJM - język migowy [Świdziński, 2000], a nie język ojczysty. W Polsce niewielki ułamek osób głuchych posługuje się polskim językiem fonicznym w odmianie pisanej, a spośród tej grupy tylko niektórzy i w mówionej. Zacytujmy wyjątki z artykułu Świdzińskiego: "Języki migowe spełniają definicję języka naturalnego. Są wyrafinowanym narzędziem komunikacji uniwersalnej, systemem dwuklasowym znaków, ze słownikiem i gramatyką. Od języków brzmiących różni je natura fizyczna znaków, które przekazywane są kanałem wizualno-przestrzennym, a nie wokalno-audytywnym. W języku migowym "mówi się" rękami. Ale do produkcji tekstu wykorzystywane są nie tylko ręce; także tułów, głowa, twarz i jej mimika, czasem - całe ciało; i często owe znaki niemanualne wyrażają treści, które w języku fonicznym obsługiwane są przez osobne słowa lub konstrukcje. (...) Język migowy populacji zamieszkującej obszar danego języka fonicznego (angielskiego, polskiego, szwedzkiego) nie jest językiem angielskim, polskim, szwedzkim. To język drastycznie odmienny pod każdym względem od języka słyszącej populacji. PJM nie ma nic wspólnego z polszczyzną. Pewnie dlatego słyszącemu tak trudno tekst migowy zrozumieć. Trudno mu się tego języka nauczyć. Bardzo trudno język migowy opisać".

Z pewnością stało się niedobrze, że rozwój języków migowych na świecie nie uwzględnił potrzeb komunikacji międzynarodowej i nie doprowadził do unifikacji bazowego słownictwa i gramatyki. Dziś trudno przewidzieć, czy można tu liczyć na jakąkolwiek poprawę. W każdym razie na dzień dzisiejszy z pewnością prawdziwe są słowa autorów artykułu "INTERNET - szansa dla osób niepełnosprawnych" [Sońta, Markiewicz 2000]: "Również język może być barierą. Dla osoby głuchej, której językiem ojczystym jest język migowy, dostęp do informacji głównie po angielsku i to na całkiem wysokim poziomie złożoności, może okazać się problemem".

Użytkownik systemu informacyjnego może mieć i inne cechy. Polska stała się krajem otwartym, odwiedzanym przez licznych gości z całego świata. Naturą gościa jest ciekawość – gość wypróbowuje wizytowany kraj gdzie się tylko da, łatwiej mu bowiem zapamiętać różnice, niż ogarnąć całokształt nowego obrazu. Systemy informacyjne o kraju są szczególnym obiektem zainteresowania. Naukowiec z Chin przebywający na kilkumiesięcznym stażu za granicą nie tylko w Polsce miał problemy z dostępem do własnej literatury w związku ze stosowaną lokalnie transkrypcją. Wprowadzona w 1950 r. w USA romanizacja języka chińskiego wg. schematu Wade-Giles (WG) okazała się nie do przyjęcia dla Chińczyków i po prawie półwieczu kosztem wielkich nakładów zmieniana jest na pinyin (PY). To wszystko jednak było zbędne. Gdyby tylko pół wieku temu pamiętano, dla kogo jest dzieło pisane po chińsku, nie byłoby dziś tych wielkich kosztów i przysłowiowego zamętu. A w wersji oryginalnej dzieło takie z pewnością nie jest adresowane do osoby nie znającej chińskiego. Uświadomienie sobie tego faktu doprowadziło do zapoczątkowania znaczącego (i kosztownego) w swej skali procesu uzupełniania opisu bibliograficznego o opis w języku oryginału, dla uniknięcia wszelkich nieporozumień związanych z nieznajomością lokalnych zasad transkrypcji i transliteracji u obcokrajowców. Do szczegółów tej sprawy powrócimy szerzej przy omawianiu dokumentu elektronicznego.

Identyfikacja użytkownika oraz uwierzytelnienie dokumentów, podpisów i oświadczeń

Obecnie dysponujemy już szeregiem metod, przy pomocy których użytkownik może uwiarygodnić swoją obecność w wielodostępnym systemie cyfrowym. Ma on w nim administracyjnie przypisane sobie dwie cechy identyfikacyjne: nazwę konta systemowego (ang. login name) oraz hasło dostępu do konta (ang. password). Nazwa konta systemowego jest trwała i może ją usunąć tylko administrator. Hasło może być zmienione przez użytkownika w każdej chwili, a większość systemów ze względów bezpieczeństwa wymusza nawet na użytkownikach okresowe zmiany hasła. Hasło można wpisywać ręcznie na klawiaturze, wczytywać z karty magnetycznej, karty z wydrukowanym kodem paskowym, czy też karty chipowej (elektronicznej). Hasło jest szyfrowane na poziomie systemu, a w czasie wpisywania go z klawiatury nie jest widoczne na ekranie. Ze względu na procedurę szyfrowania administrator systemu nie jest w stanie odczytać hasła użytkownika, ale może je zmienić na żądanie użytkownika, gdy ten je zapomni. Nazwa konta jest częścią publiczną (jawną) systemu identyfikacji użytkownika, hasło – jego częścią prywatną (tajną). Aby przesłać pocztą elektroniczną do kogoś wiadomość, nadawca musi się posłużyć adresem tej osoby. Składa się nań nazwa konta adresata skojarzona przy pomocy znaku @ z adresem serwera, na którym założono to konto (np. kali@macumba.gov.gh). Jednak tak przesłaną wiadomość, mimo, że zwykle nie jest ona szyfrowana, odczytać tylko ta osoba, która zna hasło (a więc część prywatną systemu identyfikacji) [30].

Nazwa konta, jest jak nazwisko adresata na kartce pocztowej, a hasło - jak kluczyk do jego skrzynki na listy. Natomiast treść kartki może być odczytana przez każdego urzędnika poczty, jakkolwiek nie jest on upoważniony do czynienia tego. Aby treść uczynić niewidoczną nawet dla przygodnego inspektora, trzeba ją zaszyfrować. Czytelnik zechce zapamiętać następujące spostrzeżenie: podobnie, jak w przypadku nadawania i odczytu poczty elektronicznej, współczesne algorytmy szyfrowania (tzw. asymetryczne) będą oparte na koncepcji istnienia i używania dwóch kluczy: klucza publicznego i klucza prywatnego (Robling Denning [1992]). Bezpieczeństwo szyfrowania jest w zasadniczy sposób uzależnione od długości klucza szyfrującego: im dłuższy jest klucz, tym jest on trudniejszy do złamania [31]. Ale trzeba pamiętać o sprawie głównej: bezpieczeństwo prywatnych interesów użytkownika będzie zachowane wtedy, gdy nie będzie on udostępniał swego klucza prywatnego osobom trzecim.

Niestety, obecna struktura systemów szyfrujących nie jest dopasowana do poczucia bezpieczeństwa instytucji finansowych; w związku z tym powołano instytucje autoryzujące sieciową obecność użytkownika systemu chronionego. Mówiąc oględnie taka sytuacja wprowadza nowy element rozproszony i nie wzmacnia odporności szyfru na złamanie - wręcz odwrotnie - zmniejsza ją. A któż jest w stanie zapewnić, że system komputerowy instytucji autoryzującej będzie szczelny? Ależ to jest najbardziej interesujące miejsce ataku dla przestępców! Czy jakikolwiek rząd, z rządem USA na czele, czuje się na siłach udzielić gwarancji finansowych autoryzującym agencjom w stosunku do ewentualnych roszczeń osób, które poniosły stratę wynikłą z nieszczelności ich systemów? Trudno w coś takiego uwierzyć.

Jedynym remedium jakie przychodzi tu na myśl w związku z podpisem elektronicznym, może być złamanie paradygmatu dwu-kluczowego modelu szyfrowania i zastąpienie go modelem trój-kluczowym. Taki model musiałby uwzględniać istnienie wszystkich trzech stron zainteresowanych tą sprawą. Zatem mielibyśmy trzy klucze: klucz publiczny, klucz autoryzujący oraz klucz prywatny. Jedno jest pewne: taki system nie został jeszcze stworzony (przynajmniej oficjalnie) i trudności intelektualne, jakie mogą powstać przy poszukiwaniu takiego modelu, mogą przypominać znany z fizyki problem trzech ciał. Wydaje się, że istnieje pilna potrzeba opracowania nowego modelu szyfrowania uwzględniającego istnienie czynnika autoryzującego.

W ostatnich latach coraz bardziej istotnym staje się problem potwierdzenia autentyczności nadawcy dokumentu elektronicznego. Podstawy normatywne do wprowadzenia tej ustawy dało przyjęcie pewnej liczby norm, spośród których należy wymienić PN-ISO/IEC 9798-3 [1996] oraz PN-ISO/IEC 9798-3 [1996]. Po raz pierwszy chyba w historii powojennej Polska idzie niemal równo ze Stanami Zjednoczonymi. W Załączniku A-1 na końcu książki przytoczone są wyjątki z ustawy `Electronic Signatures in Global and National Commerce Act' (dostępna pod URL:

http://thomas.loc.gov/home/c106query.html

poprzez Senate bills ustawa S 761) podpisanej przez prezydenta Clintona 30 czerwca 2000. W tekście widać wyraźnie, na jak bardzo wstępnym etapie rozwoju znajdują się amerykańskie prace legislacyjne, upoważniające Dyrektora Narodowego Instytutu Standardów i Technologii do podjęcia kroków wykonawczych w zakresie przyjęcia i wdrożenia podpisu elektronicznego na poziomie agencji federalnych i do zachęcenia prywatnego sektora gospodarki, by posługiwać się podpisem cyfrowym w transakcjach elektronicznych. Uwagi godne jest zarówno użycie w Akcie terminu zachęta, jak i status samej instytucji, która ma sprawować pieczę nad procesem wdrożenia tej ustawy.

Jeszcze przed wejściem w życie polskiej ustawy o podpisie elektronicznym jej przyszły kształt stał się przedmiotem zażartych dyskusji i alternatywnych projektów rządu i Sejmu. Warto zacytować z tamtego okresu wypowiedź ówczesnego wiceministra gospodarki Wojciecha Katnera, jednego ze współtwórców projektu rządowego, które przedstawił w wywiadzie dla “Teleinfo” [Katner, 2000]: “ /.../ Poza samą ustawą, która ma charakter bardziej techniczny, istotną rzeczą są zmiany w kodeksie cywilnym, równoważące złożenie oświadczenia woli z podpisem elektronicznym ze złożeniem oświadczenia woli z podpisem własnoręcznym. /.../ Ustawa ma charakter techniczny, ponieważ dotyczy przede wszystkim tego, w jaki sposób podpis ma być złożony, aby zachować jego integralność, ażeby nie można było oświadczenia woli podrobić, aby się nie mógł wedrzeć do tego oświadczenia woli nikt w trakcie jego przekazywania [32] i dokonać zmiany przy samym podpisie, bo jednak w formie elektronicznej można manewrować tekstem przy zachowaniu podpisu. Poza tym, zależy nam, żeby nie mogły podpisu odkodować osoby, które nie mają do tego prawa, czyli żeby składający taki podpis czuł się bezpiecznie. Podpis elektroniczny będzie można uzyskać za określoną sumę w organie certyfikującym [33]. Wyobrażamy sobie, że instytucjami certyfikującymi e-podpisy mogłyby być organizacje prywatne, działające na podstawie zezwolenia. Kontrolować je będzie państwowy organ autoryzujący. Sądzę, że na początek wystarczy kilkadziesiąt organów certyfikujących.. Stosownie do nowych przepisów, jakie będą obowiązywać od 1 stycznia 2001 r., każdy, kto spełni warunki zezwolenia, będzie mógł uzyskać możliwość wykonywania tego typu działalności gospodarczej.

W tym samym czasopiśmie obiekcje merytorycznych krytyków rządowego projektu ustawy przedstawił Kutyłowski (2001). Wskazuje on na niebezpieczeństwo sprawowania zbyt daleko posuniętego nadzoru przez Ministerstwo SWiA nad procedurą certyfikacyjną, w patologicznych okolicznościach grożące podrabianiem certyfikatów przez MSWiA. Ale jest i sprawa poważniejsza. Po drugie, klucze prywatne generowane na potrzeby klientów też nie są bezpieczne. Ponieważ klucze generowane są przez generatory pseudolosowe, znajomość wykorzystywanych przez nie zarodków właściwie owe klucze zdradza. Elementarnym działaniem zgodnym z zasadmi bezpieczeństwa byłoby niszczenie zarodka natychmiast po wygenerowaniu klucza. Niestety, nie jest to możliwe. Ustawa nakłada obowiązek przechowywania zarodka przez 50 lat (opcjonalnie minister może ten okres skrócić, ale musi on wynosić co najmniej 20 lat). /.../ Autorzy projektu rządowego dają bardzo silne kompetencje w ręce jednego ministerstwa i nie ustanawiają kontroli nad nim. (ibid). Kutyłowski dalej pokazuje na przykładzie algorytmu szyfrowania RSA, że projekt zawiera prawną możliwość obejścia zakazu przechowywania klucza prywatnego przez przechowywanie równoważnego mu w sensie kryptologicznym substytutu.

Szczytne marzenia rządu o przyjęciu ustawy o podpisie elektronicznym przed 1 stycznia 2001 r. nie ziściły się i ustawa weszła w życie dopiero 18 września 2001 (Dz.U. 2001, Nr 130, poz. 1450). Warto przytoczyć wyjątki z tej ustawy, które mogą być interesujące dla Czytelnika.
Rozdział II, Art. 3.:
1 ) „podpis elektroniczny” – dane w formie elektronicznej, które wraz z innymi danymi służą do potwierdzenia tożsamości osoby fizycznej składającej podpis, które spełniają następujące wymogi:
a) określają jednoznacznie osobę fizyczną składającą podpis
b) umożliwiają identyfikację osoby składającej podpis
c) są sporządzone za pomocą środków technicznych i informacji, które składający podpis ma pod swoją wyłączną kontrolą
d) jakakolwiek zmiana danych podpisanych jest rozpoznawalna
/.../
7) „kwalifikowany certyfikat” – certyfikat wydawany przez podmiot świadczący akredytowane usługi certyfikacyjne
/.../
Rozdział III, Art. 4:
/.../
3. Podpis elektroniczny może być znakowany czasem
4. Domniemuje się, że podpis elektroniczny znakowany czasem został złożony w czasie określonym za pomocą usługi znakowania czasem
5. Dokument opatrzony podpisem elektronicznym złożonym na podstawie ważnego kwalifikowanego certyfikatu jest równoważny pod względem skutków prawnych dokumentom opatrzonym podpisami własnoręcznymi

Jak widać z powyższego, zamiar operowania podpisem elektronicznym ważnym w sensie prawa wymaga zakupienia kwalifikowanego certyfikatu od podmiotu świadczącego usługi certyfikacyjne (na podobieństwo aktu notarialnego). W tym sensie ściągniętym z sieci freeware’owym pakietem do składania podpisu elektronicznego można się bawić w gronie przyjaciół, a nie podpisywać urzędowe dokumenty. Trudno wierzyć w to, że znajdzie się choćby jedna instytucja skłonna świadczyć za darmo akredytowane usługi certyfikacyjne. W centrum spraw związanych z podpisem elektronicznym znajduje się bezpieczeństwo przeprowadzanych operacji. W marcu 2001 dwóch czeskich kryptologów, Klima i Rosa [2001] opublikowało informację o znalezieniu nieszczelności w popularnym formacie Open PGP i odtworzeniu klucza prywatnego zakodowanego w pliku secring.skr. Istnienie tej nieszczelności potwierdziły źródła niezależne, łącznie z Philem Zimmermanem, twórcą PGP. Uwagi godne jest to, że skuteczność ataku na niezmodyfikowany format jest duża tylko w przypadku dostępu do pliku secring.skr (na przykład współużytkowanie komputera, w którym na twardym dysku przechowuje się klucze). Aktualne wersje Open PGP są już „załatane”. Przypadek ten jednak powinien przestrzec użytkowników przed innymi, ciągle ukrytymi nieszczelnościami, przypomina też on o konieczności uważnego nadzorowania medium, na którym klucze są przechowywane.
Wprowadzenie w miarę bezpiecznej technologii podpisu elektronicznego stwarza solidne podstawy do realizacji ciągle nie spełnionego marzenia z wczesnej epoki wprowadzania komputerów: redukcji obrotu papierem. Na sieci znajduje się już znaczna liczba dokumentów, które można odszukać poprzez dwie niezależne frazy wyszukiwawcze:

i. Paperwork reduction act of 1995 (PRA)
ii. Government paperwork elimination act of 1998 (GPEA)

Powyższe akty odwołują się do wcześniejszego rozporządzenia o nazwie:

iii. Computer Security Act of 1987 (CSA)

Podstawową filozofią rządu USA jest w tej materii zmuszenie państwowych urzędników do wprowadzenia elektronicznych form wysyłki, przyjmowania i archiwizacji dokumentów, oraz zachęcenie obywateli a także instytucji prywatnych do nadsyłania dokumentacji w postaci elektronicznej. Rząd nałożył rygory czasowe na zakończenie tego procesu (23 października 2003), domagając się od agencji rządowych przedstawienia swych planów odnośnie implementacji tego rozporządzenia jeszcze w roku podatkowym 2000.
W tym miejscu warto zacytować fragment naszej ustawy o podpisie elektronicznym, który głosi: W terminie 4 lat od wejścia w życie ustawy organy władzy publicznej umożliwią odbiorcom usług certyfikacyjnych wnoszenie podań i wniosków oraz innych czynności w postaci elektronicznej, w przypadkach gdy przepisy prawa wymagają składania ich w określonej formie lub według określonego wzoru. (Art. 58, pkt. 2). I wreszcie bardzo ważny zapis dotyczący finansów: Minister właściwy do spraw finansów publicznych, w terminie roku od dnia wejścia w życie ustawy, dostosuje przepisy regulujące sposób wnoszenia opłat za czynności administracyyjne do wymogów obrotu prawnego z wykorzystaniem podpisu elektronicznego.(Art. 58, pkt. 4). Pierwszy rok już minął. Odnotujmy te zapisy – wszakże dotyczą one również bibliotek! Ustawa nie zna litości.
Można by powiedzieć, że Polska tym razem jest niezbyt z tyłu za USA. Z nadzieją należy patrzyć na perspektywę wydania brakujących u nas rozporządzeń rządowych, natomiast z troską śledzić poczynania władz w zakresie zmuszania obywateli i instytucji prywatnych do bezwarunkowego akceptowania nałożonego na państwowe instytucje obligatorium stosowania obrotu dokumentem elektronicznym. Przedsmak tego już dał się u nas odczuć w niedawnej przeszłości. Warto też zwrócić uwagę na pewne wytyczne Biura Zarządzania i Budżetu (Office of Management and Budget) co do interpretacji GPEA ( http://www.whitehouse.gov/omb/fedreg/gpea.html):
(Section 4)

a. Elektroniczne uwierzytelnienie winno być używane tylko wtedy, gdy jest potrzebne. Wiele transakcji nie potrzebuje i nie powinno domagać się detalicznej informacji o osobie

b. Gdy elektroniczne uwierzytelnienie jest wymagane do pewnej transakcji, nie należy gromadzić więcej informacji od użytkownika, niż wymaga tego aplikacja.

Jak z tego widać, biuro Prezydenta USA zachęca swą administrację do oszczędności informacyjnej. Przykład jakże wart promocji!

Nadejście pierwszego, podpisanego elektronicznie (termin wg. brzmienia Ustawy) listu może wprawić adresata we niejaką frustrację. Oto stan ekranu ostrzeżenia w pakiecie MS Outlook Express 6.0 poprzedzającego moment otwarcia listu:

Rysunek 14. Ekran poprzedzający pierwsze otwarcie podpisanego elektronicznie listu, w stosunku do którego nie została jeszcze podjęta decyzja adresata o wiarygodności podmiotu uwierzytelniającego podpis.



Od:
  
                          Wojciech Wojcik
Data:                         5 lipca 2002 08:10
Do:                           Czerminski Jurand
Temat:                     Witaj Jurand
Zabezpieczenia:   Cyfrowo podpisana - podpisujący identyfikator cyfrowy nie jest godny zaufania

Wystąpiły problemy zabezpieczeń tej wiadomości.
Przejrzyj wyróżnione elementy wymienione poniżej

 
Wiadomość nie została zmieniona przez niepowołane osoby
? Decyzja o tym, czy identyfikator cyfrowy jest godny zaufania, nie została jeszcze przez Ciebie podjęta
Identyfikator cyfrowy nie wygasł
Nadawca i identyfikator cyfrowy mają ten sam adres e-mail
Identyfikator cyfrowy nie został odwołany lub nie można określić informacji o odwołaniu tego certyfikatu.
Nie ma innych problemów z identyfikatorem cyfrowym

     Nie pytaj mnie więcej o tą wiadomość

  
Otwórz wiadomość
Przeglądaj identyfikator cyfrowy
Edytuj zaufanie

Po uważnym przyjrzeniu się wyświetlonym komunikatom, sformułowanie „Wystąpiły problemy zabezpieczeń tej wiadomości” okazuje się mało istotne. Należy wybrać opcję „Przeglądaj identyfikator cyfrowy”, co daje dostępi do następujących informacji o nadawcy:

Rysunek 15. Właściwości podpisującego identyfikatora cyfrowego. Część I.

Własności podpisującego identyfikatora cyfrowego
?
krzyżyk
Zakładka "Ogólne" (pasywna)
Zakładka "Szczegóły" (aktywna)
Zakładka "Ścieżka certyfikacji" (pasywna)
Zakładka "Zaufanie" (pasywna)
Pole
Wartość
Wersja
V3
Numer seryjny
024C
Algorytm podpisu
md5RSA
Wystawca
CNRS Standard, CNRS, FR
Ważny od
21 maja, 2002 15:42:20
Ważny do
21 maja, 2003 15:42:20
Temat
wojcik@in2p3.fr , Wojciech Woj.
Klucz publiczny (podgląd poniżej)
RSA [1024 Bits ]
Podgląd aktywnego pola (klucza publicznego)
3081 8902 8181 00F6 CA8A AED7 6A4B 9821 C9D4
8947 2E8C 12F5 0B16 E9E6 0B11 8292 37DF 1724
97E0 C942 D2C9 FFC5 9D21 AA10 4923 AB27 6729
AD24 3C0A EDAD 8709 0234 6BF5 C57B CADC 21A9
65F2 92E5 D903 9579 001B 59AF 9BA0 C431 4E58
3E38 3731 6A1A E887 606F 14F2 9FA1 9487 6B33
9FFB 67C4 84FE A014 39A4 C44E 5BE9 AD86 6CDF
8146 5C3D 78F2 B54B 1502 0301 0001

Edytuj właściwości
Kopiuj do pliku
OK


Rysunek 16. Właściwości podpisującego identyfikatora cyfrowego. Część II.
Jeśli przytoczone dane identyfikujące nadawcę nie wydają się podejrzane, to należy uznać, że podmiot uwierzytelniający jest godny zaufania (opcja „Edytuj zaufanie”). Od tej chwili, aż do momentu naruszenia zasad bezpieczeństwa korespondencji, wszystkie listy od tego nadawcy będą odczytywane bez pokazywania ekranu ostrzeżenia.

Własności podpisującego identyfikatora cyfrowego
?
krzyżyk
Załadka "Ogólne" (pasywna)
Zakładka "Szczegóły" (aktywna)
Zakładka "Ścieżka certyfikacji" (pasywna)
Zakładka "Zaufanie" (pasywna)
Pole
Wartość
Alternatywna nazwa tematu
Nazwa RFC 822=wojcik@in2p3.fr
Punkty dystrybucji (podgląd poniżej)
[Punkt dystrybucji
Netscape Revocational URL
http://igc.services.cnrs.fr/cgi-bin
Netscape Cert Renewal URL
https://igc.services.cnrs.fr/cgi-
Podstawowe warunki ogranic.
Typ tematu =J. Maksymalna dł...
Użycie klucza
Podpis cyfrowy. Bez odrzucani...
Algorytm odcisku palca
sha1
Odcisk palca
7BB0 8669 C795 15CB 6A53 3...
Podgląd aktywnego pola (punkty dystrybucji)
[1]Punkt dystrybucji CRL
Nazwa punktu dystrybucji:
Pełna nazwa:
Adres URL=http://igc.services.cnrs.fr/cgi-bin/loadcrl?CA=CNRS-Standard&format=DER

Edytuj właściwości
Kopiuj do pliku
OK

Nie ma wątpliwości, że tempo narastania liczby serwerów zawierających autoryzacyjne bazy danych, pozwalające na identyfikację posiadacza konta systemowego, sukcesywnie będzie się zwiększać. Od sporego czasu narastała też świadomość niedoskonałości systemu otwierania sesji na serwerze przez dwa składniki: znany publicznie (nazwa konta) oraz znany prywatnie (hasło dostępu). Szybki wzrost mocy przetwarzania komputerów przyczynił się w ostatnich latach do rozwoju biometrycznych metod identyfikacji użytkownika systemów komputerowych [34] . Celem, jaki stawiają sobie te metody, jest obiektywizacja identyfikacji. Zakres obejmowanych technologii jest bardzo szeroki: mamy tu metody optyczne analizy obrazu (tęczówka oka, siatkówka oka, kształt dłoni, kształt twarzy, linie papilarne), metody akustyczne (głos, ultradźwięki do rozpoznawania linii papilarnych), metody mechaniczne analizy ruchu (sposób pisania, gesty, ruchy warg). W trakcie opracowań jest rozpoznawanie zapachu. A zatem do konta użytkownika i jego nazwy oprócz samego znakowego hasła dostępu do konta można dodać również pewne atrybuty hasła - np. atrybuty biometryczne. W tak rozszerzonym systemie podsystem nadzoru dostępu powinien być w stanie przeprowadzić analizę spójności wprowadzanych danych identyfikacyjnych w oparciu o wagi statystyczne, przypisywane poszczególnym atrybutom identyfikacyjnym. W obawie, że identyfikacja może być jeszcze nie dość precyzyjna w obliczu zmian fizycznych, które pojawiły się na skutek choroby, czy zmęczenia, wprowadza się metody hybrydowe, będące superpozycją kilku metod.

Rysunek 17. Karta elektroniczna i token USB. Dzięki uprzejmości firmy Cryptotech.

Na zdjęciu karta chipowa, token USB przypominający pen-drive i kluczyk plastikowy

Rysunek 18. Skaner linii papilarnych zintegrowany z czytnikiem kart magnetycznych. Dzięki uprzejmości firmy Cryptotech.


Rysunek 19. Skaner linii papilarnych. Dzięki uprzejmości firmy Cryptotech.

Podłączona do komputera mała podstawka wielkości połowy dłoni z okienkiem do czytania linii papilarnych

Rysunek 20. Rozpoznawanie kształtu dłoni. Dzięki uprzejmości firmy ASTRONTECH.

Naścienna szufladka do rozpoznawania kształtu wsuniętej dłoni

Tak np. program BioID opiera identyfikację o porównanie wyników trzech metod biometrycznych w czasie ustnego podawania hasła do mikrofonu i ruchów mięśni twarzy, głosu i ruchu warg. Stopień wiarygodności jest w tym wypadku bardzo wysoki. W czasie testów w Instytucie Fraunhofera system ten pozwalał rozróżnić jednojajowe bliźniaki.
W tym miejscu autor chciał wyrazić swój krytycyzm w związku ze spontanicznym wykorzystaniem przez wynalazczość wszelkich możliwych cech osobniczych do celów identyfikacyjnych, bez względu na istnienie dostatecznie obszernej dokumentacji, pokazującej skorelowanie tych cech ze stanami emocjonalnymi czy chorobowymi człowieka. W przeszłości nienajlepszą sławą cieszył się osławiony amerykański "wykrywacz kłamstw", oparty o koncepcję podwyższonej potliwości człowieka kłamiącego w ogniu krzyżowych pytań. Obecnie proponuje się rozpoznawanie tęczówki do identyfikacji człowieka. Tymczasem od dawna znane są środki farmakologiczne, pozwalające zmieniać jej barwę. Co ważniejsze - od długiego już czasu tęczówka wykorzystywana jest do diagnostyki bardzo wielu chorób (irydodiagnostyka). Skoro obraz bardzo wielu chorób jest w tęczówce odwracalny, to bazowanie na tego rodzaju wyróżniku wydaje się być co najmniej wątpliwe. Bardzo dobrą pracę z irydodiagnostyki, opartą o szerokie badania kliniczne opublikowała grupa rosyjskich klinicystów [Velhover, 1988].

Identyfikator radiowy

Identyfikator radiowy zwany też metką radiową (ang. RFID tag - Radio Frequency Identication tag) jest urządzeniem hybrydowym na którego minimalną konfigurację składają się trzy elementy:
  1. Antena wysokiej częstotliwości (w.cz.)
  2. Zespół nadajnik/odbiornik (ang. transceiver=transmitter+receiver) wraz z dekoderem
  3. Transponder (ang. transmitter+responder) wraz z oprogramowaniem
Metka radiowa produkowana jest w dwóch odmianach:
Historycznie rzecz biorąc współczesny identyfikator radiowy należy wyprowadzać z boi radarowej (ang. beacon) używanej od dawna w radionawigacji. W odróżnieniu od radiolatarni - boi radarowej zaprojektowano żywot pasywny. Miała milczeć tak długo, dopóki nie padła na nią wysłana przez radarową antenę statku wiązka mikrofal. Po odebraniu takiej wiązki, boja powinna - również w paśmie mikrofalowym - wyemitować  odpowiedź w postaci swego unikalnego identyfikatora, zakodowanego w konwencji powszechnie na morzach stosowanego alfabetu Morse'a. Taki sygnał pozwala nawigatorowi odróżnić w ciemności na ekranie radaru boję radarową na przykład od niewielkiego jachtu. Podobny system identyfikacji "swój" -"wróg" ("hasło" - "odzew") oparty na odpytywaniu zbliżającego się obiektu od dawna stosowany jest przez wszystkie nowoczesne armie świata.

W świadomości społecznej dzisiejszego dnia metka radiowa funkcjonuje jako "chip", który można wszczepić zwierzęciu celem identyfikacji (takie zarządzenie obowiązuje np. w Gdańsku).
Po raz  pierwszy metkę radiową wszczepiono koniowi wyścigowemu w USA w roku 1979  Obecnie ten typ zastosowań (śledzenie zwierząt) jest jedynym, dla którego ISO ustanowiło standardy (ISO 11784 i 11785). Ten typ zastosowań nigdy nie budził żadnych protestów, stąd łatwość osiągnięcia porozumienia. Natomiast, gdy w USA po raz pierwszy wszczepiono chipy więźniom, celem nazorowania ich poruszania się (np. w czasie pobytu na przepustce) - to już wywołało gwałtowne reakcje środowisk obrony praw obywatelskich. Akcja obrońców prywatności w roku 2003 znalazła swoiste apogeum w wystąpieniu senator Debry Bowen na sesji senatu kalifornijskiego, która z iście amerykańską troską sprowadziła zagadnienie do poziomu metkowanej bielizny osobistej zdającej współmałżonkowi  raport po powrocie do domu. Jak widać z powyższego, brak dobrego smaku u  parlamentarzystów nie jest wyłącznie cechą narodową Polaków.

Jeszcze większy niepokój wzbudziły pierwsze eksperymenty wszczepiania takich układów człowiekowi i sprzęgania ich z jego systemem neurologicznym.  Nie pora i miejsce, by dyskutować tu szczegóły szeregu nowatorskich projektów które są w trakcie realizacji. W drugiej połowie 2004 roku metka radiowa postrzegana jest przez przedsiębiorców jako obiecujący identyfikator towarowy, spełniający większość wymagań stawianych wobec elementów realizujących masową obsługę towarów i usług.

Identyfikator ten, uważany obecnie za godnego następcę popularnego kodu paskowego,
szybko został doceniony przez biblioteki oraz producentów i dostawców sprzętu oraz oprogramowania im dedykowanego. W jego to technicznych możliwościach należy upatrywać nadziei na efektywne  przezwyciężenie zarówno błedów obsługi jak i nowych patologii, które pojawiły się w bibliotekach oferujących czytelnikowi  swobodny dostęp do półki (takich jak  "chomikowanie"  poszukiwanych książek w miejscach niezgodnych z ich klasyfikacją). Na podobieństwo systemów identyfikacji opartych  o kod paskowy, partnerem komunikacyjnym metki radiowej jest czytnik: urządzenie większe, lepiej wyposażone/oprogramowane - i oczywiście droższe.

Szybko postępująca miniaturyzacja metek radiowych, przy równoczesnym rozszerzeniu ich możliwości zarówno pod względem pojemności informacyjnej, jak i możliwości komunikacyjnych wzbudziły w ruchach obrony prywatności ostrą reakcję przeciw masowemu ich wprowadzeniu jeszcze  przed ustawowym wymuszeniem rozszerzenia ich funkcji o opcję możliwości dezaktywacji metki po dokonaniu zakupu towaru.  Autor hasła RFID w Wikipedii twierdzi, że obecnie największy niepokój budzą trzy potencjalne kategorie nadużyć tej technologii:
Warto wreszcie uprzytomnić sobie kilkoma innych, potencjalnie zamierzonych i niezamierzoych nadużyć identyfikatora radiowego.
  1. Niepokój budzi z pewnością tendencja do prowadzenia masowych transakcji finansowych w paśmie radiowym w trybie automatycznym bez wizualnej kontroli zakupujcego towar, czy też usługę
  2. Metki fizycznie zintegrowane z towarem mogą przejawiać w pewnych okolicznościach swoje specyficzne fizyczne cechy, prowadzące do zmiany własności użytkowych towaru, a nawet  jego uszkodzenia czy też zniszczenia. (vide banknoty w mikrofalówce).
  3. Masowe użycie technologii identyfikatorów radiowych po wcześniejszych wdrożeniach radia, telewizji i telefonii komórkowej obciąży żywe organizmy kolejną dawką promieniowania  przyczyniając się szerszej skali czasowej do zwiększenia populacji osobników cierpiących na coraz to nowe odmiany "chorób cywilizacyjnych"

Metoda morfologiczna zapytuje o idealną wydajność systemu w całęj jego złożoności. Odpowiedź jest prosta w stosunku do relacji człowiek – maszyna. Człowiek korzystający z usług lub zasobów systemu cyfrowego powinien być obsłużony w czasie niezauważalnie dla niego krótkim, natychmiast. Odbiorca nie powinien odczuwać opóźnienia odpowiedzi systemu w stosunku do zleconego zadania. Jednak realne możliwości szybkiej odpowiedzi na zadany problem zależą od rodzaju zadania. Nawet po zbudowaniu komputerów kwantowych, których wydajność przetwarzania będzie kilka rzędów wielkości wyższa od komputerów dzisiejszych, będą istnieć zadania, których realizacja wymaga długiego czasu. Taką klasą zadań zajmuje się obecnie np. kryptografia kwantowa. Dla relacji maszyna – maszyna w większości przypadków progowa wartość dopuszczalnego czasu odpowiedzi systemu cyfrowego jest już dzisiaj na ogół dużo niższa, niż dla relacji człowiek – maszyna. Tak jest np. w mechanice, a już zwłaszcza w sterowaniu mocą reaktora jądrowego. Ale i od tego są wyjątki, np. w zakresie sterowania procesami chemicznymi.

[11] Uszkodzenie bitu w pamięci z dostępem swobodnym (RAM) na ogół powoduje szczątkowa promieniotwórczość podłoża układu scalonego pamięci.

[13] prefiks E jest tu skrótem od angielskiego słowa Earasable (wycieralne, wymazywalne).

[14] Oczywiście na specjalne zamówienia (np. dla wojska) produkowane są podzespoły bardzo trwałe.

[15] formalnie jest to rozszerzenie emulacji klasycznego terminala VT100 na komputerach PC w oparciu o pakiet NCSA Telnet i obsługę wielobajtowej transmisji narodowych znaków diakrytycznych, zgodnie z przyjętym przez biblioteki VTLS standardem ISO 6937-2

[16] Polska wersja tekstu Ramana, opublikowana w majowym numerze „Świata Nauki” z roku 1997, została opatrzona długim i bardzo niefortunnym komentarzem tłumacza. Z komentarza tego wynika, że kompletnie nie zrozumiał on co miał na myśli Raman pisząc: "But it is no good to have the computer simply recite the page from top to bottom, as conventional screen-reading programs do". Dla zrozumienia zamysłu Ramana należy uważnie przeczytać cytowaną w bibliografii jego książkę pt. Audio System for Technical Readings oraz przesłuchać przygotowane przez niego pliki w formacie AU. Pewną pomocą w tej materii mogą być komentarze zamieszczone w paragrafie Formatowanie hipertekstu niniejszego opracowania.

[17] Por. Pieńkos,Turczyński [1980], s. 95.

[19] W profesjonalnych systemach poligraficznych kolor rozkłada się na cztery składowe wg. schematu CMYK (Cyan, Magenta, Yellow, blacK), umożliwiając użycie czerni zamiast pełnego nasycenia pozostałych trzech barwnych komponentów.

[20] W inżynierii zamiast terminu przestrzeń używa się w tym kontekście pojęcia dziedzina.

[21] Thomas Lambert, Patent No. 645 920

[22] Odczytanie galvanos zrealizowane zostało w dwóch technologiach: optycznej (Uozumi [2000]) oraz mechanicznej (Kessler)

[23] Zborowski tak wspomina to wydarzenie:' Beznogi dyktator Akademii (Bolesław Ulanowski - przyp. aut., por. Nitsch[1960:210-216]) wpadł w pasję i tłukł laską o podłogę, wykrzykując, że na "głupstwa" pieniędzy nie da. Wyszedłem jak niepyszny. "Dobrze, że pana nie obił" - pocieszał mnie dyrektor biura'.

[24] w systemach cyfrowych będziemy mówić o grupie użytkowników pakietów aplikacji (oprogramowania użytkowego)

[25]ang. shell

[26] jest rzeczą ciekawą, że ani sama Ustawa (18.01.1948) ani jej późniejsze nowele (02.02.1961, 23.01, 1980) i dopisek z 23 stycznia 1996 nie wymieniają explicite niepełnosprawności jako potencjalnego ograniczenia dostępu do informacji. Być może wynika to z nadrzędności ustawy Americans with Disabilities Act (ADA).

[27] monitor brajlowski, drukarka brajlowska, czytnik ekranu oraz syntezator mowy

[30] Wiosną 2002 roku Uniwersytet Marii Curie-Skłodowskiej wyszedł z inicjatywą rozszerzenia na wszystkie polskie uniwersytety lokalnego projektu Systemu Elektronicznej Karty Studenckiej, wzorowanego na podobnych systemach funkcjonujących w różnych uczelniach USA i Europy. Oprócz funkcji identyfikacji osobistej ma ona służyć jako karta biblioteczna, karta wstępu do budynków i pracowni (klucz elektroniczny), lokalna portmonetka, bilet komunikacji miejskiej, karta stołówkowa, uprawnienie dostępu do danych dziekanatu.

[31] Warto przy okazji nadmienić, że rząd USA klasyfikuje systemy szyfrowania jako uzbrojenie [Atkins et al. 1997:633] i reguluje dostęp oprogramowania szyfrującego na rynek światowy ograniczając licencję na długość klucza szyfrującego. Na rynek amerykański dopuszczone są dłuższe klucze szyfrujące, niż na rynek poza-amerykański. Autorzy tej samej książki (Amerykanie) publikują nie potwierdzoną, ale i nie zdementowaną opinię, że amerykańska Agencja Bezpieczeństwa Narodowego (ang. National Security Agency, NSA) celowo umieściła w popularnym na świecie algorytmie szyfrującym DES sobie tylko znane nieszczelności zwane „zapadniami”, pozwalające na szybsze złamanie szyfru (ibid.:550). Niestety, mówi się już właściwie bez ogródek, że służby wywiadowcze wszystkich wielkich mocarstw (USA, Wielka Brytania, Rosja) inwigilują od dawna informację przelewającą się przez łącza internetowe. Projekt odpowiedniego rozporządzenia przygotowało też Ministerstwo Spraw Wewnetrznych i Administracji (por. http://ipsec.pl/podsluch) wywołując natychmiast falę protestów. W tej sytuacji mówienie o poufności korespondencji, zwłaszcza po wydarzeniach 11 września 2001 w USA (Nowy York, Pennsylwania), jest po prostu bezpodstawne

[32] Już w tej chwili mamy pakiety oprogramowania pozwalające na zdalną pracę w trybie graficznym na cudzym komputerze (np. system klient-serwer o nazwie VNC pracujący w środowisku Windows, pozwalający oglądać ekran cudzego komputera i realizować na nim zdalne operacje). To bardzo pożyteczne oprogramowanie, dzisiaj jakże pomocne w instruktażu na odległość, może stanowić znakomitą platformę dla nieoczekiwanych nadużyć o dowolnym charakterze (technicznym, prawnym, obyczajowym, ekonomicznym).

[33] Wykaz międzynarodowych centrów autoryzacyjnych można znaleźć np. w publikacji Roszczyka [1999]. Tamże dobre, popularne wprowadzenie do kryptografii ze szczególnym uwzględnieniem popularnego i bardzo dobrego pakietu szyfrującego PGP (Pretty Good Privacy). Porównaj także artykuł Ochaba [2000].

[34] Polecenia godny jest bardzo dobry, syntetyczny artykuł opracowany przez Nowaka [1999].