[ Pobierz całość w formacie PDF ] .W wyniku tego wiele osób się zniechęciło i uważa się za kompletnych analfabetów komputerowych.To się zmieni.OdysejaW 1968 roku nominację do Oscara dostali autor Artur C.Clarke i reżyser Stanley Kubrick za film 2001: Odyseja kosmiczna.Co dziwniejsze, film ukazał się wcześniej niż książka.Clarke zmienił rękopis po obejrzeniu pierwszych scen (opartych na wcześniejszej wersji historii).W tym sensie autor potrafił zasymilować akcję i ulepszyć koncepcję.Miał nawet szansę zobaczyć i usłyszeć swe idee przed posłaniem książki do druku.Wyjaśnia to, dlaczego HAL, komputerowa gwiazda filmu, ma taką błyskotliwą (chociaż zabójczą) wizję przyszłego interfejsu człowiek-maszyna.HAL (którego nazwa nie pochodzi od liter poprzedzających odpowiednie litery w skrócie IBM) potrafi doskonale rozpoznawać ludzką mowę i wypowiadać się, ma znakomity wzrok i humor - co jest najwyższą oznaką inteligencji.Minęło prawie ćwierć wieku nim pojawił się równie znakomity przykład interfejsu: The Knowledge Navigator.Taśma wideo, a także przedstawienie teatralne jako prototyp wideo zostały zamówione przez dyrektora firmy Apple Johna Sculley’a, którego własna książka także miała tytuł Odyseja.Książkę kończącą się ideami „nawigatora wiedzy” nagrano w postaci wideo.Nagranie ilustrowało interfejs przyszłości, wykraczający poza mysz i menu.I była to znakomita ilustracja idei.The Knowledge Navigator opisuje płaskie jak książka urządzenie leżące na biurku szanowanego profesora.W jednym rogu wskaźnika znajduje się zdjęcie człowieka w muszce, obrazującego ducha (tzw.agenta) maszyny.Profesor prosi agenta o wspomożenie go w przygotowaniu wykładu, zleca mu wiele zadań, a przy różnych okazjach agent przypomina o różnych sprawach.Agent widzi, słyszy i inteligentnie odpowiada, podobnie jak prawdziwy ludzki asystent.HAL i Knowledge Nawigator mają wspólną cechę - wykazują na tyle dużą inteligencję, iż sam interfejs fizyczny jest niewidoczny.I w tym leży sekret dobrego projektu interfejsu - powinien być niewidoczny.Gdy spotykamy się z kimś po raz pierwszy, zwracamy uwagę tylko na jego wygląd, sposób mówienia i gesty.Ale wkrótce dominuje wartość informacyjna komunikacji, nawet jeśli w znacznejczęści jest wyrażana przez ton głosu lub mimikę.Dobry interfejs komputerowy powinien zachowywać się podobnie.Problem jest bliższy projektowaniu ludzkiej osobowości niż tablicy wskaźników.Jednakże większość projektantów interfejsu uparcie próbuje ułatwić użytkowanie bezmyślnych maszyn przez inteligentnych ludzi.Projektanci zaczerpnęli pomysły z takich dziedzin jak „czynniki ludzkie” (w USA) lub „ergonomia” (w Europie), pokazująca, jak człowiek używa swych zmysłów i części ciała, korzystając z narzędzi w najbliższym otoczeniu.Słuchawka telefonu jest prawdopodobnie najczęściej projektowanym i przeprojektowywanym urządzeniem na ziemi, mimo to nadal nikt nie jest z niej zadowolony.Trudny do użycia interfejs magnetowidu blednie przy interfejsie telefonu komórkowego.Telefon firmy Bang & Olufsen to rzeźba nie telefon, jest trudniejszy do użycia niż dawny telefon z tarczą obrotową.Co gorsza, telefony wyposażono w zbyt wiele różnych „właściwości”.Pamiętanie numerów, automatyczne łączenie z ostatnim numerem, dostęp za pomocą karty kredytowej, oczekujące połączenia, przekazywanie połączenia na inny numer, automatyczne odpowiadanie, dostęp tylko z ograniczonej liczby numerów itp., itd.Coraz więcej tych właściwości znajduje się w aparacie mieszczącym się w dłoni, czyniąc go praktycznie nieużywalnym.Ja nie tylko nie potrzebuję tych wszystkich cech - ja nie chcę wcale dzwonić.Dlaczego projektanci telefonów nie rozumieją, że nikt z nas nie chce dzwonić! My chcemy łączyć się przez telefon z ludźmi!Gdy tylko nadarza się sposobność, zlecamy tę pracę (urządzeniu), co wyraźnie znaczy, że nie interesuje nas projekt telefonu, ale projekt robota-sekretarki, pasującej do naszej kieszonki.Wyjść poza prymitywny interfejsProjektowanie interfejsu komputerowego rozpoczęło się w marcu 1960 roku, gdy J.C.R.Licklider opublikował artykuł „Man-Computer Symbiosis”.Lick (bo tak skracano jego nazwisko) byłz wykształcenia psychologiem i akustykiem, stał się zaś mesjaszem komputerów, kierującym początkowym etapem projektu komputerowego ARPA.W połowie lat sześćdziesiątych poproszono go o napisanie dodatku do raportu na temat przyszłości telewizji, opracowanego przez komisję z Uniwersytetu Carnegie-Mellon.Stworzył on w tym dodatku termin narrowcasting na oznaczenie ukierunkowanego rozgłaszania.W owym czasie nie wiedział, że jego dwa przyczynki do rozwoju informatyki - ukierunkowane rozgłaszanie i symbioza człowieka z komputerem - zbiegną się dopiero w latach dziewięćdziesiątych.Już od samego początku badania nad interfejsem rozdzieliły się na dwa nurty, które spotkały się dopiero dwadzieścia lat później.Jeden zajmował się interaktywnością, drugi - bogactwem odczuwania zmysłowego.Do problemów interaktywności przystępowano przez rozwiązanie problemu wspólnego dostępu do komputera - w owym czasie monolitycznego i kosztownego narzędzia.W latach pięćdziesiątych i sześćdziesiątych komputer był tak cenny, że robiło się wszystko, aby działał bez przerwy.Nie do pomyślenia było, aby użytkownik - nim udzieli odpowiedzi na pytanie wydrukowane przez komputer - mógł siedzieć bezczynnie, zastanawiać się lub czytać.Pomysł zwany pracą z podziałem czasu (time sharing) umożliwiał przydzielanie czasu komputera różnym użytkownikom z różnych miejsc.Jeżeli rozdzieliło się zasoby komputera na dziesięć osób, to oznaczało to nie tyle, że jedna osoba miała dostęp do jednej dziesiątej czasu pracy maszyny, ile że chwila namysłu jednej osoby była jednocześnie chwilą intensywnej pracy drugiej z komputerem.Taki podział cyfrowego cacka działał pod warunkiem, że żaden z użytkowników nie zabierał znacznej części zasobów komputera lub jego pasma.Ówczesne terminale działały z szybkością stu dziesięciu bodów.Przypominam sobie, że gdy uzyskały szybkość trzystu bodów, wydawały się niesłychanie szybkie.W przeciwieństwie do powyższego problem wzbogacenia odczuwania zmysłowego próbowano rozwiązać przez szerokopasmową współpracę graficzną.Początkowo grafika komputerowa wymagała komputera przeznaczonego do tworzenia obrazu.Nie różnił się on specjalnie od dzisiejszego komputera osobistego, z wyjątkiem tego, że zajmował cały pokój i kosztował miliony dolarów.Grafika komputerowa narodziła się w postaci wektorowej (rysowania linii), wymagającej dużej mocy obliczeniowej do bezpośredniej kontroli strumienia elektronów, kreślącego obraz na ekranie monitora.Dopiero dziesięć lat później w grafice komputerowej zaczęto odchodzić od wektorów na korzyść grafiki złożonej z kształtów i obrazów.Nowe monitory, zwane monitorami rastrowymi, wymagały wielkiej pamięci do zapamiętywania obrazów punkt po punkcie.Są one obecnie tak popularne, że mało kto zdaje sobie sprawę, iż kiedyś uważano to za rozwiązanie heretyckie
[ Pobierz całość w formacie PDF ] zanotowane.pldoc.pisz.plpdf.pisz.plmikr.xlx.pl
|