Sztuczna Inteligencja 9788328309128 [PDF]

Czy można zbudować świadomą maszynę, sztuczny mózg? Czy też w naszych umysłach tkwi jakiś element, którego nie da się uc

144 59 6MB

Polish Pages [245] Year 2003

Report DMCA / Copyright

DOWNLOAD PDF FILE

Table of contents :
Spis treści
Kilka słów od Autora
Kontakt z Autorem
Przedmowa
Wstęp
Rozdział 1. Wczoraj
1.1. Mit Golema. Maszyna jak człowiek?
1.1.1. Maszyna myśląca?
1.2. Pionierskie pomysły na temat maszyn myślących
Rozdział 2. Dzisiaj
2.1. Współczesność. Początki
2.2. Test Turinga
2.2.1. Test Turinga — zarzuty przez niego samego wyszukane i przezeń rozważone
2.2.2. Test Turinga — zarzuty przez krytyków postawione i obrona przez Autora tej pracy czyniona
2.2.3. Test Turinga — konsekwencje
2.3. Testament Turinga. Drogi rozwoju Sztucznej Inteligencji (1950 – 2000)
2.3.1. W poszukiwaniu inteligencji. Szachy, warcaby i gry współczesne
2.3.2. Dowodzenie twierdzeń logiki i matematyki
2.3.3. Rozpoznawanie obrazów
2.3.4. Uczenie maszyn (machine learning)
2.3.5. Analiza mowy i języka. Problemy z rozumieniem
2.4. Sztuczny mózg — sztuczne sieci neuronowe (Neural Network). Ku metaforze komputerowej
2.4.1. Od sztucznych sieci neuronowych do sztucznego mózgu. Maszyna typu B w świetle projektu CAM-Brain
2.4.2. Cog, Aibo… Problem intencjonalności i problem ciała
Rozdział 3. Jutro
3.1. Zmierzch klasycznych komputerów?
3.1.1. Alternatywne modele maszyn informatycznych
3.2. Wybrane implikacje SI
3.2.1. Korzyści
3.2.1. Zagrożenia
Bibliografia
Monografie
Czasopisma
Zasoby Internetu
Pozycje zasadnicze
Skorowidz osobowy
Skorowidz rzeczowy
Papiere empfehlen

Sztuczna Inteligencja
 9788328309128 [PDF]

  • 0 0 0
  • Gefällt Ihnen dieses papier und der download? Sie können Ihre eigene PDF-Datei in wenigen Minuten kostenlos online veröffentlichen! Anmelden
Datei wird geladen, bitte warten...
Zitiervorschau

Wszelkie prawa zastrzeżone. Nieautoryzowane rozpowszechnianie całości lub fragmentu niniejszej publikacji w jakiejkolwiek postaci jest zabronione. Wykonywanie kopii metodą kserograficzną, fotograficzną, a także kopiowanie książki na nośniku filmowym, magnetycznym lub innym powoduje naruszenie praw autorskich niniejszej publikacji. Wszystkie znaki występujące w tekście są zastrzeżonymi znakami firmowymi bądź towarowymi ich właścicieli. Autor oraz Wydawnictwo HELION dołożyli wszelkich starań, by zawarte w tej książce informacje były kompletne i rzetelne. Nie biorą jednak żadnej odpowiedzialności ani za ich wykorzystanie, ani za związane z tym ewentualne naruszenie praw patentowych lub autorskich. Autor oraz Wydawnictwo HELION nie ponoszą również żadnej odpowiedzialności za ewentualne szkody wynikłe z wykorzystania informacji zawartych w książce. Wydawnictwo HELION ul. Kościuszki 1c, 44-100 GLIWICE tel. (32) 231-22-19, (32) 230-98-63 e-mail: [email protected] WWW: http://helion.pl (księgarnia internetowa, katalog książek) Drogi Czytelniku! Jeżeli chcesz ocenić tę książkę, zajrzyj pod adres http://helion.pl/user/opinie?sztuin_ebook Możesz tam wpisać swoje uwagi, spostrzeżenia, recenzję. ISBN: 978-83-283-0912-8 Copyright © Helion 2003, 2015

  

Poleć książkę na Facebook.com Kup w wersji papierowej Oceń książkę

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\!!!2str.doc

 

Księgarnia internetowa Lubię to! » Nasza społeczność

(14-12-22/14:48)

2

Motto To, co się wyłoniło z mroków jaskiniowych, z głębin tysiącleci, my pragniemy w jednym krótkim zwarciu przekazać maszynom, ażeby z nich wykrzesać rozum. Ponieważ jednak w końcu Prometeuszowi udało się, co zamierzył, ośmielę się przyznać, że jestem z obozu tych, którzy wierzą, że inteligencję jako zdolne do rozwoju ziarno uda się nam w końcu i w maszynach zasadzić. Zdaje mi się bowiem, że nie wierzyć i w taką możliwość jest łatwiej, a właściwością ludzką chwalebną raczej jest poszukiwanie trudności, które po żmudnych klęskach umiemy wreszcie zwyciężyć. Stanisław Lem, Bomba megabitowa, ss. 78 – 79 (wytłuszczenie M. J. K.)

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\!! dedykacja.doc

(14-12-22)

3

4

4 (14-12-22)

Sztuczna Inteligencja

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\!! dedykacja.doc

Spis treści Kilka słów od Autora. ........................................................................ 7 Przedmowa. .................................................................................... 11 Wstęp . ........................................................................................... 13 Rozdział 1. Wczoraj . ......................................................................................... 23

1.1. Mit Golema. Maszyna jak człowiek? . ...........................................................................23 1.1.1. Maszyna myśląca? ........................................................................................... 24 1.2. Pionierskie pomysły na temat maszyn myślących..........................................................32

Rozdział 2. Dzisiaj . ........................................................................................... 41

2.1. Współczesność. Początki. .............................................................................................41 2.2. Test Turinga .................................................................................................................47 2.2.1. Test Turinga — zarzuty przez niego samego wyszukane i przezeń rozważone ........................................................................................ 51 2.2.2. Test Turinga — zarzuty przez krytyków postawione i obrona przez Autora tej pracy czyniona . ...................................................... 69 2.2.3. Test Turinga — konsekwencje. ....................................................................... 78 2.3. Testament Turinga. Drogi rozwoju Sztucznej Inteligencji (1950 – 2000) . ......................84 2.3.1. W poszukiwaniu inteligencji. Szachy, warcaby i gry współczesne ................. 87 2.3.2. Dowodzenie twierdzeń logiki i matematyki . ................................................. 100 2.3.3. Rozpoznawanie obrazów. .............................................................................. 121 2.3.4. Uczenie maszyn (machine learning). ............................................................. 138 2.3.5. Analiza mowy i języka. Problemy z rozumieniem . ....................................... 140 2.4. Sztuczny mózg — sztuczne sieci neuronowe (Neural Network). Ku metaforze komputerowej . .....................................................................................166 2.4.1. Od sztucznych sieci neuronowych do sztucznego mózgu. Maszyna typu B w świetle projektu CAM-Brain . ......................................... 177 2.4.2. Cog, Aibo… Problem intencjonalności i problem ciała ................................ 183

Rozdział 3. Jutro . ........................................................................................... 201

3.1. Zmierzch klasycznych komputerów?. .........................................................................201 3.1.1. Alternatywne modele maszyn informatycznych. ........................................... 204 3.2. Wybrane implikacje SI ...............................................................................................209 3.2.1. Korzyści ......................................................................................................... 210 3.2.1. Zagrożenia...................................................................................................... 212

Podsumowanie . ............................................................................ 217 Bibliografia . .................................................................................. 223 Skorowidz osobowy. ...................................................................... 237 Skorowidz rzeczowy . ..................................................................... 239

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\!spis treści.doc

(14-12-22) 5

6

6 (14-12-22)

Sztuczna Inteligencja

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\!spis treści.doc

Kilka słów od Autora Maszynom, które być może w przyszłości pomyślą: kiedyś dedykowano nam książkę. Szanowny Czytelniku! Książka, którą trzymasz teraz w swoich dłoniach, drogi Czytelniku, została napisana z myślą o tym, by mogła stanowić w miarę kompetentne źródło wiedzy z zakresu prehistorii, historii i przewidywanej przyszłości Sztucznej Inteligencji. Sztucznej Inteligencji uchwyconej nie tyle w aspekcie technicznym czy technologicznym — choć także i tych — ale przede wszystkim w kontekście filozoficznym i kognitywnym (poznawczym). Całość powstała na bazie mojej pracy magisterskiej napisanej na Uniwersytecie Mikołaja Kopernika w Toruniu, a konsultowanej z prof. dr hab. Jerzym Perzanowskim oraz z prof. dr hab. Włodzisławem Duchem. Za główne założenia przy jej pisaniu przyjąłem następujące wyznaczniki:  by stanowiła źródło kompetentnej wiedzy z zakresu SI (stąd wynikła jej

interdyscyplinarność);  by stanowiła w miarę obiektywne źródło wiedzy (stąd spora liczba cytatów,

które się w niej znalazły);  by ukazała problematykę w szerszym — niż tylko techniczny — kontekście

poznawczym i stanowiła próbę odpowiedzi na jedno z podstawowych pytań egzystencjalnych człowieka: „Na ile — jako ludzie — jesteśmy niepowtarzalni” (stąd wynika konieczność wprowadzenia szerokiego kontekstu historycznego). W rezultacie też moim zamiarem było stworzenie czegoś na wzór kompendium informacji o „myślących maszynach”. Mam nadzieję, że udało mi się zrealizować to chociaż po części. Choć z drugiej strony — Sztuczna Inteligencja jest tak prężnie rozwijającą się współcześnie dziedziną, że biorąc pod uwagę, że książką ta została napisana w latach 2000 – 2001, a później już tylko — w miarę możliwości — uzupełniana, zdaję sobie sprawę, że nie zawiera kompletnego materiału. Sam odczuwam brak jeszcze szerszego opracowania tematu na przykład: gry komputerowej Sims, pokazującej możliwości współczesnych symulacji życia (dziedziny, zwanej z angielska Artificial Life), czy szerszego omówienia programów typu bot, zdolnych do prowadzenia dialogu z człowiekiem i analizy możliwości ich komercyjnego wykorzystania na przykład w postaci

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r00-04a.doc

(14-12-22)

7

8

Sztuczna Inteligencja

Wirtualnych Asystentów (sam obecnie zawodowo zajmuję się tą technologią, o czym można się przekonać odwiedzając stronę firmy A.I.-bot Software — http://www. ai-bot.net). Brakuje także szczegółów dotyczących oprogramowania agenckiego czy powiązanych z nimi inteligentnych wyszukiwarek internetowych. Zatem jest jeszcze kilka spraw dodatkowych do poruszenia, których w niniejszej publikacji bardziej szczegółowo nie omawiałem. Z drugiej jednakże strony, mam nadzieję, iż wady te stanowić będą bodziec do dalszych poszukiwań Czytelnika, prowadzonych już na władną rękę i w miarę indywidualnych potrzeb i zainteresowań oscylować wokół wybranego zagadnienia. W tym miejscu też chciałbym wyrazić swoje podziękowanie ludziom, którzy wspierali mnie i pomagali przy pisaniu niniejszej książki. I tak:  Rodzicom, a zwłaszcza mamie, za dogodne, a nawet wygodne, warunki pracy

nad książką;  Kamili Gawrońskiej, która wspierała mnie wciąż dobrym słowem i potrafiła

zrozumieć fakt, iż zamiast być z nią, większość czasu spędzałem z komputerem;  Prof. dr hab. Jerzemu Perzanowskiemu — za liczne wskazówki natury

merytorycznej, a także cenne uwagi z zakresu filozofii i języka;  Prof. dr hab. Włodzisławowi Duchowi — za bezinteresowne służenie

kompetentną wiedzą z zakresu SI;  Prof. dr hab. Maksowi Urchsowi, obecnie przebywającemu w Niemczech

(Universität Konstanz) — za gościnne wykłady na UMK, które odbyły się w marcu 2000 roku, a których to treść zasadniczo wpłynęła na zawartość rozdziału „Wczoraj”;  Prof. dr hab. Adamowi Groblerowi — za uwagi dotyczące języka i tłumaczeń

(za pozostałe usterki odpowiedzialność ponoszę już tylko ja);  Wydawnictwu Helion, a zwłaszcza redaktorowi Michałowi Mrowcowi,

za godzenie interesów firmy z interesami Autora.  Pani Rebece Heyl, konsultantce do spraw nauki przy Neurosciences Institute

(Kalifornia, USA), za użyczenie zdjęcia projektu Nomad, kierowanego przez noblistę prof. Geralda Edelmana.  Oraz: Pani Annie Horczyczak z polskiego Oddziału firmy Sony, Pani

Katarzynie Śmietance z polskiego oddziału LEGO i Pani Monice Kisielewskiej z polskiego oddziału firmy Hasbro — za możliwość przedrukowania w książce zdjęć produktów — w kolejności — pieska Aibo, klocków serii MindStorms i Furby'ego. Nim jeszcze Czytelnik przejdzie do lektury tekstu zasadniczego, pozwolę sobie zamieścić krótki fragment historii, która choć nie wydarzyła się w moim życiu, wydarzyć się jak najbardziej mogła. A jest to historia, która wydaje mi się, świetnie ilustrować sens zadawania sobie pytania dotyczącego maszyn myślących — sens pytania „co to znaczy myśleć?”.

8 (14-12-22)

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r00-04a.doc

Kilka słów od Autora

9

Na początku lat osiemdziesiątych, kiedy czasy były zupełnie inne, i w Polsce żeby dostać kawę, trzeba było swoje odstać w często kilkudziesięciometrowych kolejkach, zdarzyła się taka oto historia. Stojąca kilka osób przede mną, jeszcze jako dzieckiem, widocznie znudzona całą historią z kawą córka wraz z swoją mamą, próbowała zająć czymś interesującym swoje myśli. W pewnym momencie rzekła: — Mamo, czy ja nie myślę? Nie specjalnie rozumiejący pytanie rodzic, odpowiedział: — Nie, skądże znowu. Skąd ci takie rzeczy przychodzą do głowy? — Bo jeden z kolegów z klasy mówi, że ja nie myślę. Na to najwidoczniej lekko oburzona zachowaniem rówieśników córki mama odrzekła: — A skąd on wie, czy ty nie myślisz? Córka zaś odparła: — To prawda — by po chwili dodać — ale skąd ty wiesz, że ja myślę? Niestety na to pytanie odpowiedzi już nie usłyszałem — jeśli ona w ogóle kiedyś padła z ust rodzicielki — gdyż akurat kolejka posunęła się na tyle, że obie przedstawicielki płci pięknej kupowały właśnie kawę. Lecz problem wydał mi się tak doniosły, że postanowiłem się nie zajmować niczym innym, tylko jego roztrząsaniem. Marek Jan Kasperski Głogów, V/VI 2002

Kontakt z Autorem Tematyczna strona Autora: http://kognitywistyka.net Kontakt mailowy z Autorem: [email protected]

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r00-04a.doc

(14-12-22)

9

10

10 (14-12-22)

Sztuczna Inteligencja

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r00-04a.doc

Przedmowa Sztuczna Inteligencja jest marzeniem i zmorą ludzkości od swojego powstania w połowie XX wieku. Początkowe nadzieje na stworzenie myślących maszyn okazały się naiwne, ale próby budowania ambitnych systemów nauczyły nas wiele o złożoności naszych własnych procesów poznawczych. Nie ma prostej drogi do stworzenia inteligentnych programów, konieczna jest ogromna złożoność i odpowiednia szybkość przetwarzania informacji — nasze mózgi dysponują pod tym względem znacznie większymi możliwościami niż komputery. Przegrana Kasparowa z prymitywnym systemem komputerowym pokazała jednak wyraźnie, że maszyny nawet na obecnym etapie mogą w pewnych dziedzinach osiągnąć poziom przewyższający możliwości człowieka. Na początku XXI wieku wyniki badań z zakresu Sztucznej Inteligencji znalazły powszechne zastosowanie w urządzeniach automatyki przemysłowej, w systemach doradczych budowanych dla potrzeb medycyny, wojska czy zarządzania finansami, stosowane są też na szeroką skalę w grach komputerowych. Zarówno złożoność samych programów komputerowych, wykorzystanie technik uczenia się maszyn, jak i same możliwości sprzętowe rozwijają się w niespotykanym dotychczas tempie. Dalszy rozwój wielu działów nauki opierać się będzie na inżynierii wiedzy i rozumowaniu maszynowym. Powstają na przykład systemy doradcze budujące teorie procesów biologicznych zbyt złożone, by ludzki umysł mógł je pojąć. Czy proces ten w pewnym momencie się zatrzyma? Czy w naszych umysłach tkwi jakiś element, który nie da się uchwycić w programach komputerowych? Czy takim nieuchwytnym elementem jest ludzka świadomość? Czy można zbudować świadomą maszynę, sztuczny mózg? Potrzeba refleksji nad tymi zagadnieniami staje się coraz pilniejsza, gdyż systemy komputerowe wykazujące zdrowy rozsądek i dysponujące ogromną wiedzą, zdolne do dialogu z człowiekiem w języku naturalnym, mogą się pojawić jeszcze w tym dziesięcioleciu. Roboty zdolne do analizy ludzkich emocji i wyrażania własnych stanów wewnętrznych w podobny do emocji sposób już pojawiły się w laboratoriach. Sztuczna inteligencja wkrótce wkroczy w nasze życie, czy się nam to podoba czy nie. Książka Marka Jana Kasperskiego przedstawia historyczny rozwój badań związanych ze Sztuczną Inteligencją omawiając jej prekursorów, test Turinga i dyskusje z nim związane, ale przede wszystkim współczesne zagadnienia, którymi się ta dziedzina zajmuje, problem budowy sztucznych mózgów, zagadnienie intencjonalności w sztucznych systemach, kwestię roli ciała w rozwoju poznawczym, alternatywne rodzaje komputerów

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r00-04b.doc

(14-12-22)

11

12

Sztuczna Inteligencja

i ich przyszły rozwój, kończąc rozważaniami nad korzyściami i zagrożeniami Sztucznej Inteligencji. Rozważane w niej kwestie sprowadzają się do kilku kluczowych zagadnień — „czy maszyna może myśleć, czy maszyna myśląca będzie człowiekiem, czy będzie podlegać prawom moralnym i prawnym”. Znajdziemy tu poglądy wielu filozofów i ekspertów z dziedziny Sztucznej Inteligencji na temat możliwości budowy myślących maszyn, jak też i własne rozważania Autora. W literaturze polskiej jest to pierwsza tak obszerna praca. Przyszłość na pewno nas zaskoczy, ale po lekturze tej książki będziemy na nią nieco lepiej przygotowani. Prof. dr hab. Włodzisław Duch Toruń, kwiecień 2002

12 (14-12-22)

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r00-04b.doc

Wstęp Książka niniejsza ma wymiar interdyscyplinarny, gdyż tematycznie obejmuje problemy z zakresu ogólnie nazwanego Sztuczną Inteligencją, które, dzięki źródłowym inspiracjom, powiązać można z logiką, informatyką, lingwistyką, psychologią, a nawet naukami o mózgu (neuroscience) czy też naukami o umyśle (cognitive science). Dodatkowo starałem się uzyskać w miarę spójne i całościowe spojrzenie zestawiając poszczególne zdobycze nauk szczegółowych z propozycjami z zakresu filozofii. Za główny cel postawiłem sobie próbę odpowiedzi na wymienione poniżej pytania. 1. Pytanie pierwsze: „Czy maszyna1 może myśleć?”. 1.1. Pytanie jest podwójnie abstrakcyjnie: po pierwsze — nie pytam się, czy

konkretna maszyna może myśleć (choć dzisiaj dyskusja koncentruje się na komputerach, czyli ogólnie rzecz biorąc, modelu zwanym maszyną Turinga (o której dalej)) i... 1.2. ...po drugie — nie pytam się, czy maszyna może myśleć jak jakiś konkretny

człowiek, na przykład jak Stanisław Lem, tylko pewien abstrakcyjny obiekt zwany człowiekiem. 2. Drugie, bardziej ogólne pytanie, jakie nasuwa się w kolejności, brzmi: „Czy

myśląca maszyna będzie równoznaczna ze sztucznym człowiekiem?”. 2.1. Jest to o tyle istotne pytanie, iż pozwala kolejny raz spytać się o istotę

człowieczeństwa. 2.2. Istnieje odpowiedź, która niejednoznacznie wskazuje TAK. Ukazuje to

test Turinga (o którym dalej), stanowiący propozycję rozwiązania problemu postawionego w punkcie 1. 2.2.1. Ponieważ, jeżeli dokonać dalszego rozróżnienia na ideę

człowieczeństwa funkcjonalnego i ideę człowieczeństwa strukturalnego, okazuje się że: 2.2.1.1. ...myśląca maszyna, spełniająca warunek funkcjonalnego

podobieństwa z człowiekiem, będzie w części (psychologicznej) nim samym, a w części (strukturalnej) 1

Pisząc „maszyna” mam na myśli dowolne urządzenie (bądź zestaw urządzeń), służące do wykonywania określonej pracy — w tym wypadku operowania informacją. Por. cyt. z tekstu A. Turinga, s. 32 – 33.

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r00-04c.doc

(14-12-22)

13

14

Sztuczna Inteligencja

czymś innym (taką idę wyraża test Turinga, w którym dzięki serii pytań i odpowiedzi — dialogu między człowiekiem a maszyną — następuje taki rodzaj oszustwa, iż człowiek stwierdza: „Mój współrozmówca — czyli maszyna, co do której osądzający nie wie, że jest maszyną w istocie — jest człowiekiem!”); 2.2.1.2. ...myśląca maszyna, spełniająca warunek strukturalnego

podobieństwa z człowiekiem, jest z oczywistych względów nim samym; do takiej rodziny można zaliczyć klony (wynik klonowania), z których każdy jest artefaktem, ale dzięki jego naturalnej strukturze, chciałoby się powiedzieć naturalnym artefaktem (takiego rodzaju „maszyną” w pracy nie będę się zajmować). 3. Powyższego rodzaju pytania generują następne, także zasadnym wydaje się

zapytać dalej: „Dlaczego budujemy maszyny myślące?”. 3.1. Jedną z odpowiedzi jest: 3.1.1. ...w węższym znaczeniu — aby uchwycić sens i być może

zrozumieć istotę myślenia. Na miejscu jest tu cytat: making computers intelligent helps us understand intelligence.2 Co oddamy jako: gdy komputer czynimy inteligentnym, pomaga nam to zrozumieć, na czym polega inteligencja.3 3.1.2. ...w szerszym znaczeniu — aby uchwycić sens i być może

zrozumieć istotę człowieczeństwa (por. punkt 2.1). 3.2. Inna odpowiedź związana jest z niewysłowioną, lecz widoczną już

gołym okiem, nadzieją: 3.2.1. ...jeśli maszyny będą myśleć, to być może rozwiążą problemy,

których my rozwiązać nie jesteśmy zdolni. Co — w pytaniu o inteligencję — można żartobliwie wyrazić: lepsza własna niż sztuczna, lepsza sztuczna niż żadna.4 3.2.2. Inteligentne maszyny zastąpią nas tam, gdzie nie tylko ludzka

myśl stała się za wolną, ale i ludzkie oko zbyt słabym, a ludzka dłoń zbyt wielką. Mowa o tu skomplikowanych operacjach chirurgicznych wymagających coraz większej precyzji od chirurga czy kosmicznych ekspedycjach i związanej z nimi gałęzi robotyki kognitywnej.

2

P. H. Winston, Artificial Intelligence, Addison-Wesley Pub. Co., 3rd Edition, 1992.

3

Przekład za: Marciszewski 1998, s. 11.

4

Tadeusiewicz 1995, s. 59.

14 (14-12-22)

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r00-04c.doc

Wstęp

15 3.3. Najbardziej prozaiczną odpowiedzią jest odwołanie się do naszych

potrzeb oraz wytwarzania ich przez międzynarodowe korporacje nastawione na zyski płynące z konsumpcji. 3.3.1. Na przykład: masowo produkowane i sprzedawane systemy

inteligentne, spełniające funkcje praktyczne, takie jak zawiadywanie (inteligentnym) domem — począwszy od podtrzymywania stałej, ulubionej przez lokatora temperatury otoczenia, a skończywszy na informowaniu go o przeterminowanej żywności i o zbliżających się okazjach urodzinowych, na których być powinien i to najlepiej z prezentem (który to prezent system taki będzie potrafił swemu administratorowi doradzić i odpowiednio zamówić, na przykład dzięki dostępowi do sklepów w Internecie). 3.3.2. Innym regionem wytworzonym, ale nie zdobytym, jest przemysł

rozrywkowy. Zatem możemy się spodziewać, że będą produkowane i sprzedawane kolejne przedmioty bądź usługi, zaspokajające wybrany rodzaj naszych potrzeb, na przykład sztuczne, inteligentne, zawsze chcące się bawić, ale nie brudzące w domu… psy, koty, myszy, etc. (por. dalej podrozdział 2.4.2). A z czasem (czemu nie?!) „syntetyczne nałożnice”5. 4. Nie bezzasadnym jest kolejne nasuwające się pytanie: „Czy maszyna myśląca

będzie posiadać prawa istoty myślącej?”. Krótko mówiąc, czy w ogóle będą przysługiwać jej jakieś prawa? 4.1. S. Lem na przykład zapytywał o wymiar moralny wyrzucanych na śmietnik

wyeksploatowanych maszyn, które wcześniej przysłużyły się człowiekowi i sprawie człowieka6. 4.2. Pojawia się tu również wymiar zniewolenia maszyn i przymuszania ich

do pracochłonnej, mrówczej eksploatacji lub wykorzystywania w dziedzinach wątpliwych moralnie. W tym wypadku również powstaje pytanie o wolną wolę maszyn, lecz w większości przypadków odwołuje się ono do problemu przedstawionego w punkcie 4. 5. Z powyższych zagadnień wynika kolejne (ontologiczne): „Czy maszyna

myśląca będzie należeć do porządku bytów żywych?”. W tym pytaniu, a także w odpowiedzi na nie, z pewnością kryją się odpowiedzi na problemy zarysowane w punktach 2. i 4., gdyż: 5.1. ...jeśli maszyna myśląca będzie należeć do porządku bytów żywych, to

powinna posiadać prawa jej przysługujące, a w tym możliwość odmowy pracy (!) ze względu na jej poglądy; 5.2. ...jeśli zaś maszyna myśląca nie będzie należeć do tego porządku, to żadne

takie prawa jej nie będą obowiązywać. 5

Por. Lem 1999, s. 19.

6

Por. Lekiewicz 1985, s. 170. Choć można dzisiaj śmiało przyjąć, że wystarczyłoby tylko, że byłyby one przestarzałe technologicznie. Analogicznie jak na rynku współczesnych komputerów sprzęt nowej generacji wypiera ten starszy.

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r00-04c.doc

(14-12-22)

15

16

Sztuczna Inteligencja 6. I tu pojawia się właśnie problem zwany w pracy mitem buntu robotów:

„Co będzie, jeśli maszyny myślące, zaklasyfikowane do bytów nieżyjących i przez to pozbawione jakichkolwiek praw, myśląc, zaczną się tych praw domagać?” *** W dalszej części książki podejmując zasadnicze zagadnienie, które wyżej zostało wyszczególnione w punkcie 1., dokonuję rozróżnienia na pewne typy maszyn, które warunkują to, co powoduje, iż jesteśmy skorzy przypisać im funkcję myślenia. W rezultacie nie zadaję pytania ogólnego: „Czy każda maszyna może myśleć?”, a szczegółowo: „Jaka możliwa maszyna może myśleć?” (jeśli jakaś w ogóle może) dla poszczególnych typów maszyn z osobna. Przy czym rozróżniam następujące rodzaje maszyn, które zostaną zdefiniowane w kolejnych rozdziałach:  calculemus — maszyna myśląca w sensie Leibniza;  maszyna myśląca w sensie Turinga;  sztuczny mózg, który czasem pokrywa się z wymienionymi wcześniej typami,

a czasem nie, o czym będzie mowa później;  artilekt (sztuczny umysł) — ogólna maszyna myśląca, w odniesieniu do której

trzy pierwsze są szczególnymi maszynami myślącymi. Rysunek W.1. Schemat ukazujący listę stawianych pytań i przypuszczalnych odpowiedzi na nie

Metoda, którą obrałem przy pisaniu niniejszej książki, polega na historycznym przedstawieniu badań dziedziny zajmującej się konstruowaniem maszyn myślących, Artificial Intelligence (AI), począwszy jeszcze od czasów sprzed zdefiniowania powyższej dziedziny wiedzy (rozdział 1. — „Wczoraj”) przez zdefiniowanie jej i wyznaczenie problematyki wraz z zaprezentowaniem wyników ostatnich 50 lat (rozdział 2. — „Dzisiaj”) i przedstawieniem najbardziej możliwych, z teraźniejszego punktu widzenia, dróg jej

16 (14-12-22)

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r00-04c.doc

Wstęp

17

dalszego rozwoju (rozdział 3. — „Jutro”). Przy czym za każdym razem, prócz przedstawienia faktów z zakresu inżynierii tej dziedziny (dla zwiększenia obiektywizmu mych rozważań oddawanych często przez cytaty), starałem się skonfrontować je z założeniami i trudnościami natury teoretycznej, przechodząc systematycznie do filozofii Sztucznej Inteligencji (meta-Sztucznej Inteligencji). Wędrówkę po tych dziedzinach zacznę od zaprezentowania definicji pojęć podstawowych. W kolejności będą to: „Sztuczna Inteligencja”, „sztuczna inteligencja”, „filozofia Sztucznej Inteligencji”.

Sztuczna Inteligencja Najkrócej mówiąc — Sztuczna Inteligencja jest dziedziną wiedzy, która postawiła sobie za cel i przedmiot badań maszyny, które potrafiłyby rozwiązywać zadania, przy rozwiązywaniu których człowiek korzysta ze swojej inteligencji7. Zadaniami takimi mogą być na przykład rozumowanie czy podejmowanie decyzji. Przy czym:  dziedzina ta odgrywa olbrzymią rolę przy zrozumieniu tego, jak mając do

czynienia z takim zadaniami funkcjonuje ludzki mózg (na niższym poziomie) i umysł (na poziomie wyższym), a przez to niejednokrotnie jest zależna od innych dziedzin (patrz: rysunek W.2); Rysunek W.2. Podstawowy skład dziedzin wiedzy silnie związanych z AI  Sami badacze AI dzielą się na dwa obozy, wedle propozycji i charakterystyki

Johna Searle’a8: 

Obóz 1. — silna Sztuczna Inteligencja (strong AI);



Obóz 2. — słaba Sztuczna Inteligencja (weak AI).

A: Żeby dobrać dla potrzeb polskiej terminologii słowa, które będą coś mówiły na temat treści wchodzących w grę pojęć, proponuję jako nazwę dla wyznawców strong AI termin algorytmiści. Niech oznacza on rzeczników poglądu, że klasa problemów stojących przed nauką i rozwiązywalnych metodami naukowymi pokrywa się z klasą problemów rozstrzygalnych algorytmicznie, czyli rozwiązywalnych dla maszyny Turinga.9

7

Jest to definicja wzorowana na definicji autorstwa Marvina Minsky’ego.

8

Zob. m.in. Searle, 1995a, s. 25, gdzie stanowisko strong AI utożsamione jest z komputacjonizmem, a następnie: Tamże, ss. 34, 36 39 oraz Penrose 1995, s. 45. Przy czym Penrose zaznacza, że stanowisko zwane strong AI określane jest także jako funkcjonalizm.

9

W. Marciszewski, Co sądziłby Leibniz o sztucznej inteligencji gdyby znał Cantora i Turinga, Internet.

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r00-04c.doc

(14-12-22)

17

18

Sztuczna Inteligencja

Zaś: Przeciwników algorytmizmu można określić mianem umiarkowanych intuicjonistów. Potrzebny jest tu przymiotnik w rodzaju „umiarkowani”, gdyż autorzy, których tak byśmy nazwali nie negują jej wyłączności. W tym kontekście termin „intuicja” oznacza tyle, co rodzaj poznania w pełni wiarygodny, lecz nieczerpiący tej wiarygodności z procedur algorytmicznych.10 Takiemu zestawieniu hołduje również inny znawca problematyki, Roger Penrose, wprowadzając odpowiednio podział na następujące stanowiska11: Myślenie zawsze polega na obliczeniach, a w szczególności świadome doznania powstają wskutek realizacji odpowiedniego procesu obliczeniowego. Świadomość jest cechą fizyczną działającego mózgu; wprawdzie wszystkie fizyczne procesy można symulować obliczeniowo, symulacjom obliczeniowym nie towarzyszy jednak świadomość. Odpowiednie procesy fizyczne w mózgu powodują powstanie świadomości, ale tych procesów nie można nawet symulować obliczeniowo. Świadomości nie można wyjaśnić w żaden fizyczny, obliczeniowy czy inny naukowy sposób. pokrywa się z silną wersją AI12; stanowisko określane W ramach tego: stanowisko jest mianem symulacji (tak, że każdy objaw myślenia maszyny jest tylko symulacją myślenia, a nie przejawem myślenia samego w sobie) i łączone z operacjonizmem13; stanowisko jest najbardziej tutaj kłopotliwe i z jednej strony można je utożsamić ze słabą wersją AI, zaś z drugiej z poszukiwaniami nowej fizyki, jak czyni to sam Penrose, gorący jej zwolennik14; stanowisko zaś w literaturze sygnuje się mianem mistycyzmu15. 10

Tamże.

11

Por. również: Penrose 1997, ss. 105 – 107, 116 – 117. Opracowania: Marciszewski 1998, ss. 15 – 23; Heller 1995, s. 190.

12

Por. Heller 1995, s. 190.

13

„Idea symulacji może się łączyć z podejściem operacjonistycznym. Operacjonizm, kierunek metodologiczny obejmujący teorię definiowania, postuluje określanie badanego obiektu nie jako „rzeczy samej w sobie”, lecz poprzez sposób działania (operacje). Jeśli uda się wytworzyć robota, który pod każdym względem będzie się zachowywał jak istota, której zachowania tłumaczymy posiadaniem przez nią świadomości, to nie pozostanie nic innego, jak przypisać temu robotowi świadomość.” [Marciszewski 1998, s. 18] Należy tutaj nadmienić, iż M. Heller proponuje, żeby „różnicę pomiędzy określał tzw. test Turinga”, w którym: „Według stanowiska stanowiskiem i stanowiskiem robotowi, który pomyślnie przeszedł test Turinga, należy przypisać świadomość. Według stanowiska fakt, że robot pomyślnie przeszedł test Turinga nie oznacza, że ma on świadomość.” [Heller 1995, s. 190] Jednakże można zadać tu pytanie o to, jak autor tych słów rozumie pojęcie świadomości i czy traktuje je na równi z pojęciem myślenia. Jeżeli tak, to wprowadzona zależność między stanowiskami i rzeczywiście będzie uzasadniona; jeżeli nie, to wyżej nakreślona zależność nie będzie zachodzić.

14

W pracy Makroświat, mikroświat i ludzki umysł stanowisko zostaje rozwarstwione na: słabe , według którego „wystarczy starannie zbadać znane prawa fizyczne, żeby znaleźć pewne procesy, które są nieobliczalne (…) zgodnie z tym stanowiskiem nie musimy wychodzić poza znaną fizykę, by znaleźć jakieś nieobliczalne procesy” i silne , według którego „nasza znajomość fizyki nie wystarcza do wyjaśnienia świadomości, a zatem musimy wyjść poza znane prawa fizyczne.” [Penrose 1997, s. 106]

18 (14-12-22)

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r00-04c.doc

Wstęp

19

Termin Artificial Intelligence został wprowadzony w 1956 roku przez Johna McCarthy’ego. Stanowił on na początku nazwę dwumiesięcznej konferencji, która odbyła się w Darmouth College w New Hampshire, a następnie przerodził się w nazwę pełnej, dojrzałej dyscypliny naukowej. W 1969 roku w Waszyngtonie odbyła się już pierwsza konferencja zrzeszająca grono ludzi zainteresowanych ideą maszyn myślących. Bardzo szybko, bo już w latach 1950 – 1960, została powołana Międzynarodowa Rada do Spraw Sztucznej Inteligencji (International Joint Council on Artificial Intelligence), której zadaniem było przekazywanie informacji i ułatwianie kontaktów między zainteresowanymi problematyką naukowcami. Z początkiem lat 70. powstało fachowe pismo „Artificial Intelligence”, wydawane do dziś przez North-Holland Publishing Company z siedzibą w Amsterdamie. Współcześnie, prócz wymienionego, wydaje się między innymi następujące tytuły prasowe:  „American Association for Artificial Intelligence” (AAAI);  „AI Communications: The European Journal on Artificial Intelligence”;  „International Journal of Approximate Reasoning”;  „Journal of Artificial Intelligence Research”;  „Journal of machine Learning Research”;  „Neural Networks Journals”;  „PC AI” i inne16.

Czołowymi ośrodkami, które uczestniczą w badaniach nad Sztuczną Inteligencją są między innymi:

15

Oczywiście powołanie się na mistycyzm nie jest najtrafniejszym określeniem stanowiska D. Lepszym byłoby nazwanie tego stanowiska wprost: albo 1) agnostycyzmem, albo 2) dualizmem wraz z wypływającymi z niego trudnościami (przy czym 1) ≠ 2)!), ew. modyfikacjami tych stanowisk (na przykład interakcjonizmem). Więc nie pojawia się ów termin w ramach doświadczenia religijnego, ani w ramach sposobu poznania świata przez wizje czy ejdetyczne olśnienia, tak jak ma to miejsce w przypadku określania terminu „mistycyzm”, ale jako stanowisko uznające to, że: „świadomości nie da się wyjaśnić w kategoriach ani algorytmicznych, ani fizykalnych (w tym objawia się agnostycyzm — przyp. M. J. K.). (…) Niezależnie od związku z religią i teologią pogląd ten, począwszy od wieku XVIII, cieszy się też żywotnością i wzięciem filozoficznym za sprawą René Descartesa, który dał atrakcyjną filozoficznie wizję stosunku między materią i umysłem (stąd dualizm — przyp. M. J. K.). Podpisuje się pod nią obecnie tak wpływowy obóz filozoficzny jak fenomenologia, a z innych jeszcze pozycji dostrzegają w niej racjonalne jądro (…) Popper i Eccles (interakcjonizm — przyp. M. J. K.).” [Marciszewski 1998, ss. 20 – 21] Por. również: M. Heller 1995, s. 190. Stąd też uważam, że pojawiający się w polskiej literaturze termin „mistycyzm” w związku z wyżej zaprezentowanym stanowiskiem, jest terminem bezzasadnym! I prędzej czy później powinien ulec metodologicznej modyfikacji.

16

Por. stronę internetową Włodzisława Ducha, a tam zbiór hiperlinków do czasopism, laboratoriów oraz placówek naukowych zajmujących się problematyką AI: http://www.phys.uni.torun.pl/~duch/.

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r00-04c.doc

(14-12-22)

19

20

Sztuczna Inteligencja  ośrodki akademickie w Stanach Zjednoczonych: Massachusetts Institute

of Technology (MIT), Stanford University, Stanford Research Institute;  ośrodki prywatne w Stanach Zjednoczonych: International Business Machines

(IBM), Rank Xerox — pionier metody fotokopiowania, firma iRobot;  ośrodki w Japonii: Advanced Telecommunications Research (ATR), czyli

japoński odpowiednik amerykańskich Laboratoriów Bella, Institute for New Generation Computer Technology (ICOT), zajmujący się do niedawna projektem komputerów piątej generacji17;  ośrodki prywatne w Japonii: Fujitsu, Hitachi, NEC, Mitsubishi, Oki, Toshiba,

czyli grono firm współfinansująych wyżej wymieniony projekt komputerów piątej generacji, Sony (z projektem Aibo), Honda (z projektem Asimo (w prototypowej nazwie P3);  cieszący się do niedawna sporym rozgłosem, a obecnie (od czerwca 2001 roku)

zamknięty ośrodek Starlab, z siedzibą w Brukseli (Belgia).

Sztuczna Inteligencja Termin użyteczny ze względu na rozważania zawarte w książce. Będę go używał zamiennie w stosunku do terminu maszyna myśląca18. Zatem — w myśl tego, co wyżej już wyłożyłem — termin pisany wielką literą (Sztuczna Inteligencja) określać będzie dziedzinę badań (patrz wyżej), a oddany małymi literami, tak jak tutaj — przedmiot jej badań. To podstawowe i z punktu widzenia metodologicznego nienaganne rozróżnienie, tak często (niestety!) pomijane w literaturze specjalistycznej.

Filozofia Sztucznej Inteligencji Filozofia Sztucznej Inteligencji jest terminem, który jest już używany w fachowej literaturze, choć, co należy podkreślić, często tam nie jest definiowany19. Proponuję jednak oddać jego sens przez poniższą definicję: filozofia SI jest niejako meta-Sztuczną Inteligencją, jest dziedziną zajmującą się teoretycznymi problemami i filozoficznym aspektami problemów SI20. Ważne z tego punktu widzenia jest dopowiedzenie tego, że jeżeli Sztuczna Inteligencja bada myślący sztuczny system poznawczy, to w oparciu 17

Por. chociażby W. Duch, Raport: Piąta generacja komputerów, Internet.

18

Takie zaznaczenie staje się ważne, gdy na przykład pisze się następujące rzeczy: „Dociekania i spekulacje nad możliwością sztucznej inteligencji mogą mieć sens bardziej praktyczny i życiowy — pod warunkiem, że nie zapomnimy, iż określnik „sztuczna” nie może mieć innego znaczenia niż „alternatywna”. Ale w takim razie po co szukać tej „alternatywności” w technoelektronicznej mitologii czy też w kosmosie kosmitów (sic! M. J. K.), skoro można ją znaleźć w gotowej już postaci na Ziemi. Dla człowieka białego alternatywną inteligencją jest człowiek żółty, Murzyn oraz przedstawiciel innych ras.” [Szumakowicz 2000, s. 148.] Oczywiście cytat ten, w którym twierdzi się, że „sztuczna inteligencja” to tyle, co Murzyn, należy pozostawić bez komentarza — i tak też uczynię. Nadmienię tylko, że tym podobnymi „rewelacjami” w książce zajmować się nie będę!

19

Por. numer tematyczny czasopisma „Znak”, 9(484)/1995 zatytułowany: Filozofia Sztucznej Inteligencji, a poświęcony powyższej tematyce.

20

Por. też J. McCarthy, Some Philosophical Problems from the Standpoint of Artificial Intelligence, Internet, http://www-formal.stanford.edu/jmc/mcchay69/mcchay69.html.

20 (14-12-22)

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r00-04c.doc

Wstęp

21

o znajomość systemu naturalnego. W ten sposób bliska jest naukom kognitywnym (cognitive science). Na rzecz tej tezy proponuję porównać kolejne definicje. Termin „nauki kognitywne” odnosi się do interdyscyplinarnego studium dotyczącego nabywania i użycia wiedzy. W studium to wkład wnoszą: Sztuczna Inteligencja, psychologia, lingwistyka, filozofia, antropologia, nauki o mózgu i pedagogika. (…) Nauki kognitywne rozwinęły się dzięki trzem osiągnięciom: wynalazkowi komputera i próbach stworzenia programów wykonujących zadania, które właściwe są ludziom; rozwojowi psychologii kognitywnej (psychologii poznania) (…) oraz dziedzinie lingwistyki gramatyki generatywnej i teorii jej pochodnych. Nauki kognitywne stanowią syntezę wiedzy istotowej, na jakiej opiera się ludzkie poznanie, zajmując się procesami przetwarzania informacji przez człowieka i komputerowym modelowaniem tychże procesów. Istnieje pięć głównych pól badawczych w naukach kognitywnych: reprezentacja wiedzy, język, uczenie się, myślenie i percepcja.21 Nauki kognitywne są studium inteligencji i systemów inteligentnych (intelligent systems) ze szczególnym odniesieniem się do zachowania inteligentnego jako procesu dającego się obliczyć (computation).22 Ja jednak będę rozróżniał filozofię Sztucznej Inteligencji od nauk kognitywnych. Według tego rozróżnienia powiadam, że: podstawowym przedmiotem badań nauk kognitywnych są naturalne systemy poznawcze ze szczególnym uwzględnieniem roli człowieka, zaś Sztuczna Inteligencja zajmuje się li tylko modelowaniem tych systemów. Natomiast filozofia Sztucznej Inteligencji zajmuje się przede wszystkim problemami teoretycznymi natury filozoficznej (metaproblemami) z zakresu Sztucznej Inteligencji. Ze względu na swój przedmiot filozofia SI opiera się na dokonaniach z takich dziedzin, jak widać na poniższym rysunku W.3. Przy czym korzyści tego płyną obustronne — ze strony nauk szczegółowych do filozofii SI i na odwrót (na przykład dzięki pojęciu symulacji komputerowej). Rysunek W.3. Blok przedmiotów składających się na filozofię Sztucznej Inteligencji

21

The Blackwell Dictionary of Cognitive Psychology, red. M. Eysenck, Basil Blackwell, Cambridge 1990.

22

H. Simon, C. Kaplan, Fundations of Cognitive Science, w: Fundations of Cognitive Science, red. M. Posner, Bradford Books/MIT Press, Cambridge 1990.

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r00-04c.doc

(14-12-22)

21

22

22 (14-12-22)

Sztuczna Inteligencja

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r00-04c.doc

Rozdział 1.

Wczoraj Problem (...) nie będzie w pełni określony dotąd, aż podamy znaczenie słowa „maszyna”. Turing 1972, s. 76.

1.1. Mit Golema. Maszyna jak człowiek? W bogatej literaturze światowej, która świadczy o bogactwie kultur starożytnych, można już dopatrzyć się odważnie stawianego pytania: Czy człowiek jest zdolny skonstruować maszynę na wzór i podobieństwo swoje? Na przykład w starożytnej Grecji próby odpowiedzi na owo pytanie wywodziły się z mitów dotyczących powstania człowieka. Mity te bardzo często wiązały człowieka z majestatem Boga1 i ziemią jako substancją, z której człowiek miał powstać2. Jak ogólnie wiadomo, Grecy (zwłaszcza przed etapem demitologizacji — procesu zapoczątkowanego przez pierwszych filozofów, przede wszystkim Talesa, a mającym na celu racjonalne wyjaśnianie świata) opisywali świat za pomocą metafor i postrzegali go przez pryzmat mitów. W przypadku interesującego nas pytania — Czy człowiek może skonstruować maszynę, która doścignie (a dalej, prześcignie) go we wszystkim? — powstały między innymi wymienione poniżej mity.  Mit o stworzeniu Pandory (). W micie tym możliwość skonstruowania

człowieka z ziemi (życia z materii nieożywionej) przejawia się poprzez moc jednego z bogów, Hefajstosa. On to za namową innego boga — Zeusa, ulepił z gliny kobietę nie dość, że żywą, to na dodatek tak piękną, iż później poślubił ją jeden z bohaterów — Epimeteus, co w ostateczności doprowadzić miało do wielu nieszczęść.

1

W starożytnej Grecji, z jednym z wielu Bogów.

2

Por. chociażby M. Eliade, Historia wierzeń i idei religijnych, tłum. S. Tokarski, Warszawa 1997, t. 1/3, ss. 107, 108, t. 3/3, ss. 11 – 13.

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r01-04.doc

(14-12-22)

23

24

Sztuczna Inteligencja  Mit o Laodamii (). To mit nie tylko o utworzeniu sztucznego

człowieka, ale i przykład opowieści ukazującej to, jak miłość potrafi być silna. Jeden z bogów, pod wpływem płaczu Laodamii nad swoim zmarłym mężem, nie posiadając mocy wskrzeszania, ulepił z gliny jego „duplikat” (jakby klon).

 Mit o Pygmalionie (). To historia bardzo nieszczęśliwego króla-

-technika, który całe swe życie (jak niejednokrotnie współcześni badacze SI) poświęcił na stworzenie „żywej rzeźby”, w tym wypadku kobiety doskonałej. Gdy w końcu udało mu się ją wyrzeźbić w kamieniu — odłupując to, co nie potrzebne — porażony widokiem swojego dzieła i poruszony pięknem posągu, dokonał rzeczy niesłychanej — zakochał się. W odpowiedzi na jego modły, Afrodyta ożywiła kamienną kobietę, która odtąd nosiła imię Galatea. Historia ta, choć nieco naiwna w swej treści, do dziś skrzętnie wykorzystywana jest w psychologii jako ilustracja zjawiska personifikowania przedmiotów (na przykład myślących komputerów). W rozdziale 3. — „Jutro” jeszcze wrócę do tej nazwy.

 Talos (T) i Dedal (. W bardziej znanej wersji mitu Dedal

przy swoim boku ma syna, Ikara, w innej zaś — glinianego (bądź z brązu jak inne źródła donoszą) robota — Talosa. O historii tej pisał między innymi Platon w Menonie3. To oczywiście tylko niektóre historie starożytnych, które poruszają temat możności stworzenia przez człowieka istoty, która by mu dorównywała. W innych tradycjach również można znaleźć podobne opowieści. Na przykład w tradycji żydowskiej tzw. mit Golema — postaci ulepionej z gliny przez astronoma, alchemika i kabalistę, rabbiego Liwę ben Becalela, który żył w XVI wieku w czeskiej Pradze. Pojęcie „Golema” może wydawać się w swej treści sprzeczne przez to, że określa żywą maszynę — zestawienie pojęć co najmniej zastanawiające. Współcześnie stało się ono podstawą, na której powstała książka Stanisława Lema, Golem XIV — opowieść o inteligentnej ze wszech miar maszynie. Czy żywej? Sprawa otwarta. Można teraz — albo nawet nieco wcześniej — zadać pytanie: jak mają się powyższe historyczne wtrącenia do tytułu całej prezentowanej rozprawy? Odpowiem! Jeśli potraktujemy tematykę Sztucznej Inteligencji jako problem natury li tylko technicznej, to w zasadzie nie mają się w żaden sposób. Jednakże sprawa przedstawia się inaczej, jeśli potraktujemy wyróżnione pytanie w sposób ontologiczny — jako pytanie o możliwość istnienia sztucznej inteligencji — wówczas widoczna stanie się tradycja tego pytania, którego ważność objawia się poprzez historyczność zagadnienia.

1.1.1. Maszyna myśląca? Główny problem książki — Czy maszyna może myśleć? — jest współczesną odmianą pytania: Jaka relacja zachodzi pomiędzy umysłem i ciałem? Albo — ze względów czysto medycznych — umysłem a mózgiem. Jeśli stwierdzimy, że relacja ta nie jest 3

Za: P. Grimal, Słownik mitologii greckiej i rzymskiej, Zakład Narodowy im. Ossolińskich, Wyd. II, Wrocław 1990, s. 69; Platon, Menon, PWN, Warszawa 1991, s. 97, paginacja 2.

24 (14-12-22)

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r01-04.doc

Rozdział 1.  Wczoraj

25

możliwa do uchwycenia (jak czynią to niektóre prądy filozofii), to wówczas jasnym stanie się, że maszyny myślącej żaden z ludzi nie skonstruuje. Jeśli zaś podczas rozważań okazałoby się, iż relacja ta jest możliwa do uchwycenia i jest odwzorowywalna, wówczas na nasze pytanie odpowiemy pozytywnie.

René Descartes (1596 – 1650) W XVII wieku francuski filozof, René Descartes, postawił pytanie o relację między ciałem a umysłem. W literaturze przyjął on nazwę „problem umysłu i ciała” (z ang. mind-body problem). Jego efektem stało się przyznanie przez samego autora odmiennych jakości poszczególnych, wyróżnionych już w samej nazwie, członów relacji4. Chociaż może (…) posiadam ciało, które ze mną jest bardzo ściśle złączone, niemniej jednak jest rzeczą pewną, że zaiste ja jestem czymś różnym od mego ciała i bez niego mogę istnieć — ponieważ z jednej strony posiadam jasną i wyraźną ideę siebie samego jako rzeczy myślącej (Res cogitans, przyp. M. J. K.) tylko, a nie rozciągłej, a z drugiej strony wyraźną ideę ciała jako rzeczy rozciągłej (Res extensa, przyp. M. J. K.) tylko, a nie myślącej.5 To właśnie odmienność res cogitans i res extensa powodują dualizm substancji, jak zwykło się nazywać powyższą postawę. Materii, jak wnosił Kartezjusz i inni za nim, dana jest rozciągłość jako jej główny atrybut. Inaczej z umysłem; jemu — res cogitans — przynależy atrybut myślenia. I tu pojawia się dusza — równoważna w tamtych czasach pojęciu umysłu — która zbudowana jest z samej substancji myślącej. W rezultacie też odpowiedź, której udzieliłby Kartezjusz na pytanie o możliwość zrealizowania maszyny myślącej, brzmiałaby najprawdopodobniej: Realizacja taka jest niemożliwa!6 Dlaczego? Bo nasza maszyna (komputerowy hardware) — jako ciało z materii — należy do innego porządku niż niematerialne res cogitans (w komputerowej metaforze przybierający postać software). 4

Jak to trafnie wyraził David Hume w Badaniach dotyczących rozumu ludzkiego: „Czy istnieje w całej przyrodzie zasada bardziej tajemnicza niż połączenie duszy z ciałem, dzięki któremu domniemana sybstancya duchowa zyskuje taki wpływ na materyalną, że najsubtelniejsza myśl może wprawić w ruch najgrubszą materyę.” [D. Hume, 2001, s. 66]

5

R. Descartes1989, s. 261.

6

To znaczy — w zasadzie w myśl tego, co napisał Kartezjusz — nie do końca. Descartes nie uznawał w ogóle możliwości, by zaprogramowana maszyna mogła mówić w sensie generowania nowego zdania, które nie zostałoby doń wpisane wcześniej (por. Descartes 1980, ss. 64 – 65). Gdyby jednak udało się tego dokonać (oczywiście przy innych założeniach metafizycznych niż samego Kartezjusza), co niechybnie zakłada koncepcja maszyny myślącej w sensie Turinga (patrz: rozdział 2. „Dzisiaj”, s. 83), wówczas najprawdopodobniej stwierdziłby, iż maszyna ta niczym nie różni się od człowieka (w sensie funkcjonalnym, w dodatku tylko w sferze językowej). Należy tutaj pamiętać, iż Kartezjusz wypracował sobie bardzo oryginalną koncepcję zwierząt-maszyn, wedle której, w świecie realnym tylko człowiek — dzięki darowi umysłu — nie jest istotą mechaniczną, zaś cały świat przyrody jak najbardziej podlegał mechanicystycznym prawom. Duży wpływ na takie, a nie inne poglądy Descartesa w sprawie problemu mind-body miały pionierskie prace inżynierów, zdolnych już w tamtych czasach konstruować pierwsze „żywe” lalki. Mistrzostwo w tym zakresie osiągnięto dopiero znacznie później, za czasów omawianego dalej La Mettriego. A niedoścignionym mistrzem tamtej epoki był Francuz, Jacques de Vaucanson (1709 – 1782), który skonstruował między innymi model kaczki, zdolnej imitować funkcje jelitowe.

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r01-04.doc

(14-12-22)

25

26

Sztuczna Inteligencja

Tabela 1.1. Atrybuty materii i umysłu powodujące, iż tworzą one odmienny porządek — podstawę dualizmu substancji (cyfry rzymskie w nawiasach kwadratowych wskazują stosowny numer Medytacji Descartesa świadczący za źródłem kolejnych twierdzeń) Ciało

Umysł

Res extensa [I, VI]

Res cogitans [II, VI]

Ciało nie może istnieć bez umysłu [VI]

Umysł może istnieć bez ciała [II, VI]

Koniec ciała, to nie koniec umysłu [II]

Koniec myślenia, to koniec Ego [II]

Ciało związane jest ze zmysłami, czyli jest źródłem niepewnego poznania [I, VI]

Tylko umysł daje pewne poznanie [V, VI]

Ciało musi należeć do sfery innej niż umysł, przecież jedyne, czego jestem pewien to to, że myślę [VI]

Umysł należy do innego porządku niż ciało. Umysł to „Ja myślące” (Res cogitans), ciało zaś należy do sfery świata — tego, co niepewne [VI] Ja = umysł (mens) = duch = (animus) = intelekt (intellectus) = istota myśląca (Res cogitans) [II, IV] „Jest to rzecz, która wątpi, pojmuje, twierdzi, przeczy, chce, nie chce, a także wyobraża sobie i czuje.” [II]

U podstaw samego problemu umysłu i ciała, leży pytanie o relację między tymi odmiennymi substancjami. Pytanie o to, jak dwa porządki mogą na siebie wzajemnie oddziaływać, jak mogą tworzyć jedność — „Ja”. Odpowiedź Kartezjusza — poprzez interakcje. Jak miałyby się one odbywać? Poprzez zmysł wspólny. Zmysł wspólny (grec. koine aisthesis, łac. sensus communis) — zdolność polegająca na łączeniu i zawieraniu w sobie wszystkich zaludniających psychikę wrażeń. Stanowi centralny zmysł nadrzędny, ogólny, któremu podporządkowane są wszystkie zmysły jednostkowe. Podczas gdy te ostatnie dostarczają informacji o szczegółowych cechach ciał, zmysł wspólny wytwarza przedstawienia ich cech ogólnych, jak na przykład rozciągłości, liczby, kształtu, ruchu, spoczynku, wielkości. Właściwa jest mu zdolność sprawiająca, że postrzeżenie ma charakter całościowy i ogólny, wrażenia zmysłów jednostkowych są odnoszone do tego samego przedmiotu i powstaje z nich jego całościowe postrzeżenie. W zmyśle wspólnym przejawia się zarówno jedność podmiotu postrzegającego, jak i jedność postrzeganego przedmiotu oraz ma źródło świadomość dokonującego się spostrzeżenia. Podobnie jak inne zmysły, zmysł wspólny ma swoje siedlisko w określonym narządzie ciała, zwanym (wraz z owym narządem) sensorium commune (grec. kyrion aistherion) bądź — krótko — sensorium (grec. aistheterion). „Sensorium commune bądź siedlisko sensus communis stanowi owa część mózgu, w której kończą swój bieg nerwy wychodzące ze wszystkich narządów zmysłowych, a jest nią początek rdzenia przedłużonego (Bolancard, The physical dictionary, London 1963, s. 185). Arystoteles, który pierwszy rozwinął koncepcję zmysłu wspólnego w dziele O duszy, lokalizował go w sercu. W czasach późniejszych sensorium nazywano siedzibą duszy i był nią mózg, w nim zaś — wedle Kartezjusza — szyszynka7. 7

Descartes 1989, przyp. 53 A. Bednarczyka, s. 165. Należy zwrócić uwagę, że, jak pisze A. Bednarczyk, ani w rozprawie Człowiek, ani w Opis ciała ludzkiego, które należą do prac Kartezjusza z zakresu fizjologii, nie pada wprost stwierdzenie, iż miejscem duszy jest szyszynka („mały gruczoł”, „gruczoł H”, conarium — według oznaczeń stosowanych przez samego Descartesa). „Dowiadujemy się o tym dopiero z listów pisanych wiele lat po powstaniu pierwszej rozprawy i — jak można przypuszczać — w tym

26 (14-12-22)

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r01-04.doc

Rozdział 1.  Wczoraj

27

Współcześnie pogląd dotyczący tego, że jakieś miejsce w mózgu stanowić by miało o tym, że coś się nam jawi całościowo (jak w wyżej zarysowanej koncepcji zmysłu wspólnego) zwany jest teatrem kartezjańskim8. A samo mniemanie o tym, iż dusza należąca do jednego porządku rzeczy znajdować by się miała jakąś tajemną mocą w ciele — przypominam, należącym do innego porządku rzeczy — sygnowana jest ideą ducha w maszynie (ang. the ghost in the machine)9. Zaś oddziaływanie na siebie tych poszczególnych elementów odmiennej natury — interakcjonizmem10. Oczywiście dzisiaj, w dobie zaawansowanych badań z zakresu nauk o mózgu, można postawić pytanie o to, czy dualistyczny pogląd Kartezjusza jest uzasadniony? I od razu odpowiedzieć, że raczej nie. Dlaczego? Bo niby jak mielibyśmy mówić o umyśle bez ciała (o czym przecież myślał Descartes)? Jak taki umysł (zdrowy umysł!) zostałby wytworzony? Mózgi wyosobniczone z ciała i (powiedzmy) pływające w jakiejś cieczy odżywczej11, zdolne do myślenia, aczkolwiek wyzbyte wszelkiej zmysłowej łączności ze swym ciałem, a przez zmysły ciała i ze światem, to są bajki, ponieważ uległyby tak totalnej „deprywacji sensorycznej” i łączności zarówno z rdzeniem kręgowym, jak przezeń i przez sploty plexus solaris („mózg brzuszny”) — z ciałem, że mózg zapadnie w stan typowy dla śpiączki (coma) i najwyżej można by, być może, drażnieniem chemiczno-elektrycznym wzbudzać w nim „odłamki świadomości”, niby w dziwacznym śnie.12

samym okresie, z którego pochodzi tekst rozprawy drugiej. Pogląd ten Kartezjusz po raz pierwszy wyraził publicznie w Les Passions de L’âme (1649) — zob. Descartes, Namiętności duszy, 1958, ss. 51, 53, 61. Myśl o szyszynce jako miejscu przebywania duszy sformułował w sposób pośredni w rozprawie La Dioptique (1637): „szyszynka jest siedliskiem zmysłu wspólnego, ten zaś — siedliskiem duszy (Descartes, Oeuvres, t. I – VI, Paris 1956, VI, ss. 109, 129).” [Cyt. za A. Bednarczyk, przyp. 56, s. 166 do: Descartes, Człowiek] Por. również: Descartes, Człowiek, fragment ss. 47 – 67. O lokalizacji zmysłu wspólnego (commum) jest również wzmianka w: Descartes 1970, s. 64. 8

Taką nazwą ochrzcił ów pogląd D. C. Dennett; por. chociażby: P. Czarnecki, Koncepcja umysłu w filozofii D. C. Dennetta, Internet; Damasio 1999, s. 116. Koncepcja ta również występowała pod nazwą homunculus (z łac. mały człowieczek), co zostało ukute na potrzeby poglądu, że „Ja” to taki mały człowieczek, który siedzi w głowie pod czaszką za sterami i stamtąd kieruje wszystkimi poczynaniami ciała. Koncepcję homunculusa wprowadzili średniowieczni alchemicy. Dziś już tylko pozostała sam termin, który w naukach o mózgu sygnuje korowe reprezentacje poczucia ciała, na przykład zmysłu dotyku.

9

Pojęcie takie upowszechniło się za Gilbertem Ryle’em (1900 – 1976); por.: Tenże, Czym jest umysł?, tłum. W. Marciszewski, Warszawa 1970.

10

Współczesnymi wyznawcami stanowiska określanego mianem interakcjonizmu byli: Karl Popper (1902 – 1994) i John Eccles (1903 – 1997). Pogląd ten zaprezentowali w bardzo głośnej książce The self and its brain. An Argument for interactionism (Springer International, London — N.Y. — Heidelberg 1977). W polskiej literaturze pisał o tym szerzej m.in. Jan Trąbka 1983.

11

Jest to wyraźna aluzja do eksperymentu myślowego współczesnego filozofa, Hilarego Putnama; eksperyment tzw. mózgu w kadzi [naczyniu]. Na jego temat zobacz: H. Putnam 1998, ss. 295, 302 – 316, 483 – 485, 516.

12

Lem 1999, s. 19.

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r01-04.doc

(14-12-22)

27

28

Sztuczna Inteligencja

Wielu autorów podziela pogląd Lema13 (w tym Autor niniejszej rozprawy), streszczający niejako tezy głoszone we współczesnych naukach o mózgu, wedle których nadanie substancjalnej odrębności ciału i umysłowi, a przez to ukształtowanie się dualizmu substancjalnego, zwane jest błędem Kartezjusza14. W czasach Descartesa jednak nie posiadano tak wielkiej wiedzy o mózgu. Jednakże próbowano problem umysłu i ciała rozwiązać inaczej, rozważając go, na przykład, na kanwie panpsychizmu czy też materializmu.

Julien Offray de La Mettrie (1709 – 1751) Powszechnie uważany za twórcę i największego zwolennika idei mechanicyzmu15, u podstaw której leży materializm, przez jeszcze innych za panpsychistę16. Julien O. De La Mettrie, francuski lekarz i myśliciel, należący do grupy filozofów, o których nie mówi się zbyt wiele17, choć pozostawił po sobie bardzo interesującą koncepcję. Doktryna, którą rozwijał La Mettrie, znana jest głównie z jego dzieła — L’Homme-machine (Człowiek-maszyna). Samo zestawienie terminów „człowiek” i „maszyna” w jedną całość, musiało wzbudzać w swoim czasie spore kontrowersje. Powód? Dusza, o którą tak walczył Kartezjusz, została zredukowana do ciała (fizjologii organizmu). Skoro (…) wszystkie zdolności duszy zależą tak bardzo od swoistej budowy mózgu i całego ciała, że najwidoczniej są tej budowy wynikiem, mamy do czynienia z maszyną wielce oświeconą. (…) 13

Por.: W. Marciszewski 1995; również: Lem 1999, ss. 19, 79, 115, 136, 168. Sam zaś bardziej wnikliwie zajmę się powyższym problemem (nadając mu nazwę „problemu ciała”) nieco później (por. ss. 183 – 200).

14

Por. chociażby tytuł jednej książki A. R. Damasio, Błąd Kartezjusza, która poświęcona jest omówieniu powyższego problemu.

15

Mechanicystycznej interpretacji dzieł La Mettriego sprzeciwia się między innymi Andrzej Bednarczyk twierdząc, że obraz „działania” człowieka, przedstawiony i rozwijany przez La Mettriego, nie spełnia podstawowego warunku mechanicyzmu biologicznego: „Wedle tego schematu, układ biologiczny powinien być układem biernym, który zaczyna działać dopiero za sprawą środowiska i podtrzymuje owo działanie dzięki różnorodności panującej w jego otoczeniu. Przeciwnie — w koncepcji La Mettriego organizm jest pierwotnie aktywny (nie zaś reaktywny), to właśnie w nim (nie zaś w otoczeniu) znajduje się źródło owej aktywności przejawiającej się w postaci wrażliwości, która z kolei przybiera formę ruchu. Ruch ten, a wraz z nim wrażliwość, jest cechą należącą do substancjalnej natury ciał ożywionych. (…) W obrazie organizmu żywego, nakreślonym przez La Mettriego, brak także drugiego składnika mechanicyzmu biologicznego. Lekarz francuski nie jest mianowicie skłonny do wyjaśnienia specyficznych cech tego, co żywe i tego, co myślące, właściwościami struktury morfologicznej ciał, które są tymi cechami obdarzone. Innymi słowy, La Mettrie daleki był od myśli, by o swoistości biologicznej i psychicznej decydowała statyczna, przestrzenna struktura, która wypełnia się życiem i myśleniem wszędzie tam, gdzie się ona pojawia.” [Bednarczyk 1984, ss. 100 – 101] Por.: Tamże, ss. 100 – 105. Innym przedstawicielem mechanicyzmu w tamtych czasach był Albrecht von Heller (1708 – 1777). Wspominam o tym, dlatego że jeśli przyjmiemy za Bednarczykiem, że La Mettrie nie był mechanicystą mimo często przywoływanych przez niego samego zwrotów świadczących o tym, to doktryna Hallera z pewnością w każdym punkcie zasługuje na miano mechanicyzmu. Por. A. Bednarczyk 1984, ss. 284 – 373.

16

Por. Bednarczyk 1984, s. 84; Tatarkiewicz 1990, t. 2/3, s. 134.

17

„Spuścizna piśmiennicza La Mettriego przez długi czas nie przyciągała uwagi ani historyków medycyny, ani historyków filozofii.” [Bednarczyk 1984, s. 65]

28 (14-12-22)

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r01-04.doc

Rozdział 1.  Wczoraj

29

Dusza jest więc tylko pustą nazwą niezwiązaną z żadnym określonym pojęciem, nazwą, której człowiek rozumny powinien używać jedynie dla oznaczenia tej części nas samych, która myśli.18 A argumenty? Przede wszystkim czerpał je z badań z zakresu fizjologii, które i Kartezjuszowi przecież nie były zupełnie obce, a i wielu innym, wcześniejszym filozofom, w tym greckim19. Do podstawowych należały wymienione poniżej. 1. Związek przyczynowy między umysłem i ciałem.

Jeżeli bowiem to, co myśli w moim mózgu, nie jest częścią tego narządu, a zatem i całego ciała, czemuż krew moja rozpala się, podczas gdy leżę spokojnie w łóżku i układam plan jakiegoś dzieła lub oddaję się abstrakcyjnym rozumowaniom? Czemuż gorączka trawiąca mój umysł przechodzi do żył?20 2. Związek przyczynowy między ciałem i umysłem.

Jeśli bowiem napięcie nerwów nie tylko sprawia ból, ale również wywołuje gorączkę, która może zamroczyć umysł i pozbawić go woli, (…) jeśli łaskotanie zmusza mnie, abym gorąco pożądał tego, co było mi przed chwilą całkiem obojętne (…) — to po cóż przyjmować istnienie dwóch przyczyn, skoro najwidoczniej istnieje tylko jedna?21 3. Ruchy mimowolne mięśni z odciętych kończyn.

Z doświadczenia wiemy tylko tyle, że póki pozostaje nieznaczny choćby ruch w jednym włóknie czy też w kilku, wystarcza je podrażnić, aby ów ruch prawie zatrzymany obudzić i ożywić na nowo. Można się było o tym przekonać z licznych doświadczeń (…)22 Pierwsze dwa argumenty dotyczą duszy pojętej psychologicznie — istoty myślącej — w której myśli wpływają na organizm, organizm zaś na myśli. Argument trzeci związany jest z biologiczną koncepcją duszy jako substancji posiadającej moc wprowadzania w ruch materię, a przejętą w schedzie po starożytnych Grekach. Dowodząc przeto istnienia tych obu form duszy w ciele, a szerzej w materii, La Mettrie podejmuje kolejny krok. Znosi różnicę między duszą zwierzęcą i duszą człowieczą. Już Descartes wskazywał, iż zwierzę jest jak maszyna.

18

La Mettrie 1984, ss. 63, 64.

19

O znajomości fizjologii i prowadzonych badaniach Kartezjusza z tamtego zakresu świadczą między innymi pisma: Człowiek i Opis ciała ludzkiego. Do wspomnianych wyżej „innych wcześniejszych filozofów” zajmujących się takimi badaniami należał między innymi Epikur, którego tak badania, jak i system La Mettrie bardzo dobrze znał i cenił (por. La Mettrie, Le système d’Epicure). Szersze omówienie w: Bednarczyk 1984, ss. 105 – 116.

20

La Mettrie 1984, s. 71.

21

Tamże, ss. 71, 72.

22

Tamże, ss. 63, 64.

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r01-04.doc

(14-12-22)

29

30

Sztuczna Inteligencja

Znał (…) doskonale naturę zwierzęcą i pierwszy przekonująco dowiódł, że zwierzęta są po prostu maszynami.23 A o samej koncepcji pisał: Nie wyda się to zgoła dziwne tym, którzy wiedząc, ile rozmaitych automatów, czyli poruszających się maszyn, przemyślność ludzka umie wykonać24 używając niewielu jeno części w porównaniu do wielkiej ilości kości, mięśni, nerwów, tętnic, żył i wszystkich innych składników, jakie są w ciele każdego zwierzęcia, uważać będą to ciało za maszynę, która, jako uczyniona rękami Boga, jest bez porównania lepiej obmyślona i zawiera w sobie ruchy bardziej godne podziwiania niż jakakolwiek stworzona przez człowieka. Zatrzymałem się też tu umyślnie dla wykazania, że gdyby istniały takie maszyny, które by miały narządy i zewnętrzną postać małpy lub innego jakiego bezrozumnego zwierzęcia, nie mielibyśmy sposobu rozpoznać, że nie są one we wszystkim tej samej natury co owe zwierzęta.25 I dalej: Podczas gdyby istniały maszyny, podobne do naszych ciał i naśladujące nasze uczynki na tyle, ile byłoby to w zasadzie samej możliwe, mielibyśmy zawsze (…) bardzo pewne sposoby rozpoznania, że jeszcze dzięki temu nie byłyby one prawdziwymi ludźmi.26 Ten powód już poznaliśmy. Są to metafizyczne podstawy filozofii Descartesa — podział na odmienne substancje res cogitans i res extensa. Inaczej u La Mettriego, u którego mamy do czynienia z inną metafizyką — materialistyczną. Wciąż w podobny, oderwany sposób traktując materię, La Mettrie odkrywa w niej dwie grupy właściwości mających swe źródło w całkowitej niezmiennej istocie materii. Są to: „1° własność przybierania różnych form pojawiających się w samej materii, dzięki którym materia może nabyć siły poruszającej i zdolności czucia; 2° aktualna rozciągłość, traktowana przez (…) [filozofów] (…) jako atrybut, nie zaś jako istota materii”. (…)27 Istotnymi właściwościami materii jako tworzywa ciał są więc: ruch, czucie i rozciągłość, nie zaś sama tylko rozciągłość, jak błędnie wedle La Mettriego, sądził Kartezjusz.28 23

Tamże, s. 83.

24

Jest to wyraźna aluzja do możliwości współcześnie dla Kartezjusza żyjących inżynierów (por. s. 25, przyp. 6). Na uwagę tutaj zasługuje pewna historia, która wydarzyć się miała na dworze królowej Szwecji, Krystyny. Kartezjusz przekonany o słuszności swojej koncepcji głoszącej, że zwierzęta to li tylko bardziej skomplikowane maszyny, bliższe mechanizmom zegara niźli człowiekowi, począł przekonywać do tego poglądu królową. Ta jednak, niezwiedziona argumentami Descartesa, miała ponoć wskazać na stojący obok zegar i powiedzieć: „Dopilnuj, żeby miał potomstwo”.

25

Descartes 1980, s. 64.

26

Tamże, s. 64.

27

La Mettrie, cyt. za: Bednarczyk 1984, s. 72.

28

Tamże, s. 72.

30 (14-12-22)

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r01-04.doc

Rozdział 1.  Wczoraj

31

W rezultacie więc stwierdza: Można być maszyną, a zarazem czuć, myśleć, odróżniać dobro od zła równie jak barwę niebieską od żółtej — innymi słowy, posiadać wrodzoną inteligencję wraz z nieomylnym poczuciem moralnym. (…)29 Postawą jest tu, wspomniane już w przedostatnim cytacie, metafizyczne uposażenie materii, prowadzące do panpsychizmu. Jeśli bowiem myślenie traktuje on, na równi z rozciągłością, jako atrybut (materii, przyp. M. J. K.), to wszelką materię obdarzy w konsekwencji zdolnością myślenia, i koncepcja jego przybierze postać panpsychizmu.30 Moim zdaniem myślenie jest tak dalece nieodłączne od materii zorganizowanej, że wydaje się ono jej właściwością w równym stopniu jak elektryczność, zdolność ruchu, nieprzenikliwość, rozciągłość itd.31 A tak pisał o sobie i swoim panpsychizmie sam La Mettrie: Autor ten — pisze La Mettrie o sobie — podjął się na początku przekonania nas, że materia nie tylko nie jest podatna na oddziaływanie, a nawet że nie tylko jest nośnikiem ruchu, lecz — co więcej — wydaje się on utrzymywać, że materia ma siłę poruszającą bądź możliwość poruszania się sama przez się. Otóż jeśli go zapytać, jak ta zdolność przechodzi w akt, jak materia znajdująca się w spoczynku zaczyna się poruszać, to odpowie on bez wahania, że sprawia to nie wiadomo jaka aktywna forma substancjalna, dzięki której zdolność poruszania się staje się rzeczywistym ruchem materii. Skąd pochodzi jednak ta forma substancjalna? — Od innej materii, która już przybrała tę formę i która w rezultacie otrzymała ruch od innej substancji równie aktywnej.32 Na koniec omawiania idei La Mettriego należy wspomnieć o bardzo istotnej dla naszego tematu rzeczy. La Mettrie, mimo dowodzenia, że człowiek jest w istocie taką samą maszyną, jak według kartezjańskich poglądów zwierzę, nie ustrzegł się od przemożnego wpływu Arystotelesa. Z sobie tylko znanych przyczyn pisał o pewnej różnicy między zwierzęciem i maszyną. Stanowił ją język, a raczej zdolność wytworzenia go i posługiwania się nim przez ludzi. Prawdziwi filozofowie zgodzą się, że przejście od zwierząt do człowieka nie jest gwałtowne. Czymże był człowiek przed wynalezieniem wyrazów i zdobyciem umiejętności mowy? Swego rodzaju zwierzęciem, posiadającym znacznie mniej niż inne zwierzęta instynktu wrodzonego i nieuważającym się jeszcze za pana stworzenia.33

29

La Mettrie 1984, s. 84.

30

Bednarczyk 1984, s. 84.

31

La Mettrie 1984, s. 84.

32

La Mettrie, L’homme plante, Potsdam 1748; za: Bednarczyk 1984, s. 92.

33

La Mettrie 1984, s. 35.

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r01-04.doc

(14-12-22)

31

32

Sztuczna Inteligencja

Jest to w zasadzie podobna idea do tej prezentowanej przez Kartezjusza34 i bardzo znacząca dla badań z zakresu Sztucznej Inteligencji, zwłaszcza dla testu Turinga, o którym będzie mowa w rozdziale 2. — „Dzisiaj”. Jeżeli przyjąć za tą zasadą, że język jest tym, i tylko tym, co różni świat zwierząt od świata ludzi, to nawet Kartezjusz powinien się był zgodzić35, że jeżeli maszyna potrafiłaby mówić, to wszystkie mury tworzące świątynię wyjątkowości człowieka w świecie ożywionym upadłyby. Choć sam oczywiście w to nie wierzył. La Mettrie tę różnicę, między światem zwierząt a światem ludzi, tłumaczył poprzez bardzo interesującą koncepcję organizacji materii, związaną z większym skomplikowaniem mózgu człowieka w porównaniu ze zwierzęcym! Podobnie jak na mocy praw fizyki nie jest możliwe, by nie zachodziły przypływy i odpływy morza, dokładnie w taki sam sposób dzięki określonym prawom ruchu powstały oczy, które widzą, uszy, które słyszą, nerwy, które czują (…); w końcu te same prawa stworzyły narządy myśli.36 Czyżby więc organizacja wystarczała dla wyjaśnienia wszystkiego? Tak i jeszcze raz tak. Skoro zdolność myślenia rozwija się najwidoczniej razem z narządami cielesnymi, czemuż materia, z której one są utworzone, uzyskawszy z czasem zdolność odczuwania, nie miałaby również doznawać wyrzutów sumienia?37 W ostateczności Czegóż jeszcze więcej trzeba (…), aby dowieść, że człowiek jest tylko zwierzęciem lub mechanizmem złożonym z nakręcających się wzajemnie sprężyn, tak iż niepodobna orzec, w którym punkcie koła ludzkiego rozpoczęła natura swą działalność.38

1.2. Pionierskie pomysły na temat maszyn myślących Do tej pory rozważałem i przetaczałem tylko teoretyczne poglądy — przyczyny możliwości i wątpliwości w stosunku do idei maszyny myślącej. Najwyższa pora przejść więc do konkretnych poglądów na konkretne maszyny, gdyż Problem (…) nie będzie w pełni określony dotąd, aż podamy znaczenie słowa „maszyna”. Naturalne jest, że powinniśmy pozwolić na zastosowanie w naszych maszynach każdego rodzaju techniki inżynierskiej. Pragniemy również dopuścić możliwość skonstruowania przez inżyniera lub zespół inżynierów maszyny, która pracuje, ale której sposobu działania konstruktorzy nie mogą wystarczająco opisać, 34

Por. Descartes, Rozprawa o metodzie, tłum. T. Żeleński (Boy), ss. 64 – 65.

35

Por. Tamże.

36

La Mettrie, Oevres, Londres 1751; za: Bednarczyk 1984, s. 108.

37

La Mettrie 1984, s. 63.

38

Tamże, s. 73.

32 (14-12-22)

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r01-04.doc

Rozdział 1.  Wczoraj

33

ponieważ przy jej konstrukcji zastosowali metodę w dużym stopniu eksperymentalną. W końcu chcemy, aby, do maszyn nie byli zaliczani ludzie urodzeni w zwykły sposób (ani sklonowani! Por. punkt 2.2.1.2, s. 13).39

Blaise Pascal (1623 – 1662) Przywołanie w tej rozprawie Pascala może wydawać się „nie po drodze” tematu, którym zająłem się w niniejszej książce. Przesłanką za tym może być pewien zasadniczy fakt, to znaczy to, iż Pascal nie roztrząsał problemu Czy maszyna może, czy też nie może myśleć? Pokażę go jednak z zupełnie innego powodu. W XVII wieku przekonanie, że wszelka autentyczna wiedza może zostać sformalizowana, zdominowało zachodnią myśl intelektualną. Thomas Hobbes, największy filozof angielski tych czasów, pisał: „Kiedy człowiek rozumuje, nie czyni nic innego, jak tylko pojmuje całość przez dodawanie części, gdyż rozumowanie (…) jest jedynie obliczaniem (…)”. W twierdzeniu tym Hobbes jedynie formułuje jasno pogląd, który już od dawna zakorzenił się w intelektualnym języku świata zachodniego. W Arystotelesowej definicji człowieka, dzóïn lógon échon, czyli zwierzę wyposażone w logos, słowo logos mogło znaczyć tyle co mówienie albo pojmowanie całych sytuacji, a także myślenie logiczne. Kiedy jednak uczeni przełożyli greckie logos na łacińskie ratio, znaczące tyle co obliczanie, zakres Arystotelesowej definicji stał się znacznie węższy i wyraźnie matematyczny. Zgodnie ze swym łacińskim rodowodem, zwrot „człowiek rozumny” jest bardzo bliski znaczeniowo zwrotowi „człowiek obliczający”.40 Przywołanie Pascala przeto wydaje się jak najbardziej na miejscu. On to bowiem skonstruował tzw. sumator mechaniczny, nazywany również pascaliną, urządzenie, którym posługiwali się później księgowi do zliczania podatków. Kalkulator ten potrafił dodawać, odejmować, a nawet posiadał coś na kształt mechanicznej pamięci. Był to ważny krok ku współczesnym komputerom.

Gottfried Wilhelm Leibniz (1646 – 1716) Zasługa Leibniza jest już znacznie poważniejszym krokiem ku maszynie myślącej — w tym wypadku maszynie kalkulującej (calculemus). Już jako 19 letni student uniwersytetu w Lipsku, Leibniz opublikował pracę Ars Combinatoria… (Sztuka kombinatoryczna…), w której zawarł myśl przewodnią swojego projektu mającego za cel skonstruowanie maszyny myślącej tak, że „rozważając” podane zdania w sensie tezy dotyczącej pojęć, sprawdzałaby ich prawdziwość (niczym logik dowodzący prawdziwości twierdzeń). Podstawą dla niej miał być specyficzny język. Lecz nim do tego miało dojść, prace Leibniza podążały ku bardziej namacalnemu celowi — ku Maszynie Arytmetycznej41.

39

Turing 1972, s. 26.

40

Devlin 1999, ss. 201 – 202.

41

Sformułowania „Maszyna Arytmetyczna” używał sam Leibniz. Por. Leibniz 1998, s. 77.

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r01-04.doc

(14-12-22)

33

34

Sztuczna Inteligencja

Nie jest (…) rzeczą godną wykształconego człowieka, by tracić godziny pracując jak niewolnik nad obliczeniami, które wykonać mógłby każdy, gdyby użyto w tym celu maszyny.42 Tak brzmiała przesłanka za tym, aby rozpocząć pracę nad swoją maszyną liczącą, wyposażoną w znacznie bogatszy zestaw funkcji niż maszyna Pascala. W swoich planach budowy maszyny liczącej (określanej jako „żywa ława do liczenia”) Leibniz wprowadził ruchomą część pozwalającą na automatyzację wielokrotnego dodawania, koniecznego do wykonywania mnożenia lub dzielenia — wystarczyło pociągnąć za rączkę, by uruchomić zębate kółka. Chociaż kalkulator Leibniza zdobył znaczny rozgłos, demonstrowany był między innymi na spotkaniu Królewskiego Towarzystwa Naukowego w Londynie i Francuskiej Akademii Nauk, jego twórca nie zdołał znaleźć nikogo chętnego do jego budowy.43 Maszynę jednak skonstruowano, choć o wiele później. Do dziś stoi w Muzeum Techniki w Hanowerze44, a rozwiązania techniczne wprowadzone przez Leibniza na tyle wyprzedzały swoją epokę, iż maszyna (oczywiście nie w wersji prototypowej, ale wykorzystująca jej zasady) była używana jeszcze w XX wieku45. Kolejne przedsięwzięcie Leibniza związane ze zmechanizowaniem operacji matematycznych stanowił ambitny projekt maszyny kalkulującej (calculemus), czyli myślącej na sposób, w jaki widział to Hobbes (por. cytat z Devlina na stronie poprzedniej). I ta właśnie idea istotna jest dla prowadzonych tu rozważań. W 1675 roku Leibniz odkrył rachunek różniczkowy46, co spowodowało, że jeszcze bardziej uwierzył w wyznaczony przez siebie cel. U podstaw idei miał stanąć specjalnie do tego przygotowany system językowy — characteristica universalis — który całkowicie podlegałby zasadom arytmetyki. W wyniku przeprowadzanych na nim operacji arytmetycznych — wykonywanych przez maszynę zwaną calculus universalis — miałaby zajść możliwość weryfikacji prawdziwości sądów, w tym prawdziwości semantycznej. 42

Leibniz, za: Duch 1997. W książce W. Ducha brak źródła, z którego pochodzą cytowane słowa Leibniza. Należy się tutaj też pewne wyjaśnienie odnośnie podania źródła cytatów z książki W. Ducha, Fascynujący świat komputerów (1997). Złożyło się tak, że posiadałem ją w formacie Acrobat Reader, który został umieszczony w Internecie na stronie domowej prof. Ducha (w Bibliografii podaję jej adres) i w momencie, gdy przetaczam z niej cytaty, pozbawione są one odnośników do stron, z których pochodzą. Lecz na pewno ten, kto będzie chciał dotrzeć do ich źródła, nie będzie miał przy ich identyfikacji większych problemów.

43

Duch 1997.

44

Informacja dzięki rozmowom z prof. Maxem Urchsem (Universität Konstanz, Niemcy), który gościł w marcu 1999 r. na Uniwersytecie Mikołaja Kopernika (Toruń), gdzie jeszcze wówczas studiowałem.

45

Por. Marciszewski 1998, s. 60. Zresztą maszyny oparte n projekcie Leibniza jeszcze do lat 80-tych stały w niektórych zakładach pracy. Po reformie z 1989 r., która objęła swym zasięgiem również unowocześnianie (komputeryzację) zakładów pracy, jedna z nich trafiła do mego domu, gdzie na honorowym miejscu wciąż stoi.

46

W tym samym czasie, co Leibniz, lecz niezależnie od niego rachunek różniczkowy opracował Isaac Newton (1642-1727). Z czasem narosły więc spory o to, kto jest ojcem rachunku różniczkowego. Nie mogąc je rozwiązać przyjęło się twierdzić, iż rachunek różniczkowy jest rachunkiem Leibniza-Newtona.

34 (14-12-22)

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r01-04.doc

Rozdział 1.  Wczoraj

35

Maszyna taka dawać miała nieograniczone możliwości — kiedy dwu filozofów prowadziłoby zaciekły bój o znaczenie jakiegoś pojęcia, mogliby rozstrzygnąć go przez użycie maszyny działającej w całości na powyższej idei, wołając przy tym: Calculemus!, co znaczy: Porachujmy. Na pomysł stworzenia characteristica universalis wpadł Leibniz najprawdopodobniej pod wpływem lektury sławnego na ten czas traktatu Ars signorum vulgo character universalis et lingue philosophica… (Sztuka znaków, czyli pospolicie alfabet uniwersalny i język filozoficzny) George’a Dalgarna (1626 – 1687).47 Próba jego (Dalgarna, przyp. M. J. K.) była typowym projektem języka apriorycznego, tj. języka nieopartego na żadnym znanym języku, zwłaszcza języku naturalnym. Konstrukcję swego języka uniwersalnego oparł Dalgarno na logiczno-algebraicznej klasyfikacji pojęć: każdej literze odpowiadało określone pojęcie w układzie hierarchicznym. Dla przykładu: litera n oznacza w tym języku „żywą istotę”, e — „zwierzę”, k — „czworonoga”. Przez połączenie tych trzech liter powstaje trójliterowy pierwiastek Nek oznaczający „zwierzę czworonożne należące do istot ożywionych”. Konkretne nazwy zwierząt z tej grupy semantycznej otrzymujemy przez dołączenie dodatkowych liter, i tak: Neke to „koń”, Neki to „osioł”, Neko to „muł” itp. Jest to więc język nie tylko „pisany” (pasygraficzny), ale także — „mówiony”, co w wielu innych projektach języków „filozoficznych” rzadko było uwzględniane.48 Ale też i idee innego myśliciela, Rajmunda Lullusa (1234 – 1315), które ten zawarł w dziele Ars magna generalis et ultima (Sztuka wielka ogólna i najwyższa), nie były mu obce49. Mało tego, pomysł uniwersalnego języka bliski był także samemu Kartezjuszowi. Otóż w roku 1617 pojawił się niewielki utwór nieznanego mnicha francuskiego, Hermana Hugo, zatytułowany De prima scribendi origine et universa rei literariae antiquitate. Traktacik ten dostał się do rąk przeora zakonu franciszkanów ojca Mersenne, który był także znakomitym uczonym i prowadził obszerną korespondencję z wieloma sławnymi ludźmi nie tylko Francji, ale całej Europy. Do jednego z listów dołączył popierany przez siebie manuskrypt De prima scribendi… i przesłał go Kartezjuszowi. Odpowiedź autora Rozprawy o metodzie stała się jednocześnie projektem nowego języka uniwersalnego. List Kartezjusza nosi datę 20 listopada 1629 roku. Oto jego początek: „Mój przewielebny Ojcze! Projekt nowego języka wydaje mi się zachwycający.” Poza słowami zachwytu w liście tym spotykamy także wiele uwag krytycznych oraz szereg własnych pomysłów Kartezjusza. Za główną przeszkodę w porozumiewaniu się ludzi mówiących różnymi językami uważał Descartes brak gramatyki uniwersalnej, skonstruowanej na zasadach logicznych, gramatyki pozbawionej wszelkich wyjątków, form nieregularnych 47

Por. Jurkowski 1986, s. 31. O George’u Dalgarno, Tamże, s. 26.

48

Tamże, s. 26.

49

Tamże, ss. 17, 30 – 35. Warto odnotować, iż Lullus również prowadził prace nad maszyną matematyczno-logiczną (por. Tamże).

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r01-04.doc

(14-12-22)

35

36

Sztuczna Inteligencja

i defektywnych. Jednolitość taką mogą zapewnić ściśle określone przyrostki oraz całkowita jednoznaczność słów, którym powinno się nadać wartość terminów naukowych. „Idea zreformowania gramatyki — pisał Kartezjusz do ojca przeora — lub raczej idea stworzenia nowej, którą można by opanować w ciągu 5 – 6 godzin — to idea społecznie wyjątkowo pożyteczna, jeśli tylko wszyscy ludzie zgodzą się na wprowadzenie jej w życie.”50 Jednak powróćmy do Leibniza, bo tu przecież miała się zrealizować idea gramatyki uniwersalnej, o której wspominał Descartes. Język wewnętrzny calculus universalis, którym miałaby się ona posługiwać podczas swych obliczeń, miał zostać całkowicie zmatematyzowany tak, że pojęcia miały się stać kombinacjami liter, cyfr i symboli matematycznych typu: +, –, : itp. Projekt ten wymagał ponadto odpowiedniego słownika pojęciowego, który miał być skonstruowany w taki sposób, że z pojęć najbardziej podstawowych, wynikałyby pojęcia pochodne. Trochę tak, jak się to dzieje w językach piktograficznych.3 Konkretna realizacja projektu Leibniza była dość oryginalna i — przyznajmy to od razu — nieco skomplikowana. Zaproponował on zamianę dziewięciu cyfr arabskich dziewięcioma pierwszymi literami (oznaczającymi spółgłoski) alfabetu łacińskiego, a więc zamiast: 1 2 3 4 5 6 7 8 9 litery b c d f g h l m n. Następne wyższe rzędy liczbowe (dziesiątki, setki itd.) oznaczył za pomocą pięciu liter „samogłoskowych”: a e i o u, zaś jednostki wyższe wyraził dwugłoskowymi (a raczej dwuliterowymi) połączeniami, które „dopisywał” do poprzednich. Myślę, że najlepiej wyjaśnią wszystko przykłady. Rząd 1 — a, rząd 10 — e, rząd 100 — i, rząd 1000 — o, a rząd 10 000 — u, zaś konkretnie b —1, c — 2, d — 3, f — 4, g — 5, h — 6, l — 7, m — 8, n — 9. Jest to właściwie pozycjonalny system dziesiętny, tylko że zamiast cyfr mamy tu litery i — co jest oryginalne i najważniejsze — wyrazy tak skonstruowane są nie tylko uniwersalne, ale można je wymawiać! (…) Wystarczy teraz każdej cyfrze przypisać odpowiednie pojęcie proste w danym zhierarchizowanym i sklasyfikowanym systemie pojęć — i mamy gotowy słownik „naukowy” języka uniwersalnego.51 I chociaż na pierwszy rzut oka stwierdzić można, iż projekt ten nie wydaje się tak trudny do realizacji, to jednakże kryje się w nim trudność zasadnicza: Jak skonstruować ów characteristica universalis, który spełniać winien dokładnie takie same warunki, co język uniwersalny, o którym pisał Kartezjusz? Co możemy powiedzieć o tym języku? W zasadzie miał on pełnić funkcję semantyczną, to znaczy informować nas przede wszystkim o treściowej zawartości słów w nim utworzonych (o znaczeniach pojęć), lecz w sposób łańcuchów znaczeń — wzajemnych relacji i powiązań, w których na przykład pojęcie „tata” łączyć by się miało zawsze z pojęciem „mężczyzna” i nigdy z pojęciem „kobieta”, zaś dwa ostatnie z pojęciem „człowiek”.

50

Tamże, s. 22.

51

Tamże, s. 33.

36 (14-12-22)

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r01-04.doc

Rozdział 1.  Wczoraj

37

Dalej, jak pisze sam Leibniz, należałoby znaleźć środki zaradcze przeciw niedoskonałościom języka, na przykład przeciw wieloznaczności. Byłoby rzeczą śmieszną kusić się o reformę języków i chcieć zobowiązać ludzi, by mówili tylko o tyle, o ile nie brak im poznania. Ale to nie jest zbyt wygórowane żądanie, aby filozofowie wyrażali się ściśle, kiedy w grę wchodzi poważne poszukiwanie prawdy; w przeciwnym razie wszystko pełne będzie błędów, uporu i próżnych dysput. Pierwszy środek zaradczy na tym polega, by nie posługiwać się żadnym słowem bez wiązania z nim jakiejś idei; tymczasem często używa się słów takich jak instynkt, sympatia, antypatia nie wiążąc z nimi żadnego sensu. (…) Drugim środkiem zaradczym jest to, by idee nazw modyfikacyj były co najmniej zdeterminowane i aby idee nazw substancyj były nadto zgodne z tym, co istnieje. Jeśli ktoś mówi, że sprawiedliwość jest postępowaniem zgodnym z prawem w stosunku do człowieka, idea ta nie jest dostatecznie zdeterminowana, gdy się nie posiada żadnej wyraźnej idei tego, co nazywa prawem. (…) Trzeci środek zaradczy polega na używaniu terminów, zgodnie z przyjętym zwyczajem, o ile to tylko jest możliwe. Czwarty na oświadczaniu, w jakim sensie bierze się słowa, bądź to gdy się tworzy nowe, bądź gdy się używa dawnych w jakimś nowym sensie, bądź wreszcie gdy się znajduje, że sposób używania nie ustalił dostatecznie ich znaczenia. (…) Nazwy modyfikacji złożonych należy wyjaśnić za pomocą definicji, bo to jest możliwe. (…) A ponieważ większość modyfikacji złożonych nie istnieje nigdzie razem, dlatego ustalać je można tylko przez definicję, wyliczając to, co rozproszone. W substancjach jest zazwyczaj kilka jakości naczelnych lub charakterystycznych, które rozpatrujemy jako najwyraźniejszą ideę gatunku i przypuszczamy, że do nich przywiązane są inne idee, tworząc złożoną ideę gatunku. (…) Wszystko niewątpliwie sprowadza się do definicji, które mogą sięgać aż do idei pierwotnych. Ten sam przedmiot może mieć kilka definicji, ale by wiedzieć, że one odpowiadają temu samemu, trzeba się tego dowiedzieć albo rozumowo, udowadniając jedną definicję za pomocą drugiej, albo na podstawie doświadczenia, przekonując się, że one stale występują razem. (…) Teraz byłoby pożądane, aby ci, którzy są wprawni w badaniach fizykalnych, zechcieli zaproponować idee proste, co do których zauważyli, że stale odpowiadają im indywidua każdego gatunku. Ale żeby stworzyć słownik tego rodzaju, który by zawierał — aby tak się wyrazić — historię naturalną, trzeba by zbyt wiele osób, za dużo czasu, za dużo trudu i za dużo zapobiegliwości, aby móc kiedykolwiek mieć nadzieję, że takie dzieło powstanie. Byłoby jednakowoż dobrze dodawać do słów małe miedzioryty, dotyczące rzeczy znanych z zewnętrznej ich postaci.52 Zatem, mówiąc krótko, zadaniem takowej maszyny byłoby wpierw usystematyzowanie wiedzy, a potem wykonywanie operacji na usystematyzowanej wiedzy. Systematyzacja wynikałaby z samego, odpowiednio przygotowanego języka. Języka, podkreślmy, w którym dowodliwe byłyby zdania semantycznie! I tak otrzymaliśmy maszynę myślącą w sensie Leibniza. Zaś, dodatkowo, gdy zastosujemy warunek wyrażony przez Leibniza w ostatnim zdaniu wyżej cytowanego fragmentu, 52

Leibniz 1955, t. II, ss. 134 – 139 — wyróżnienie M. J. K.

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r01-04.doc

(14-12-22)

37

38

Sztuczna Inteligencja

czyli będziemy mogli definiować pojęcia poprzez wskazanie (na obiekty wzorcowe pojęć), będziemy mogli jednocześnie mówić o maszynie myślącej Leibniza w szerszym sensie. Oczywistym zaś stanie się, iż maszyna taka musiałaby posiadać sensory i pamięć, umożliwiające jej obserwowanie i, w dalszej kolejności, zapamiętywanie („dodawanie miedziorytów”) obiektów definiowanych.

Charles Babbage (1792 – 1871), Lady Augusta Ada Lovelace (1815 – 1852) W 1805 roku Francuz, Joseph-Marie Jacquard (1752 – 1834), skonstruował specjalne urządzenie zawiadujące funkcjami w krosnach tkackich. Urządzenie to wykorzystywało kod zamieszczony na taśmie perforowanej, który był odczytywany tak jak w popularnych już w tamtych czasach pozytywkach. Zręczność maszyny tak ponoć zaimponowała innemu inżynierowi, iż postanowił on skonstruować swoją własną. Konstruktorem tym był angielski matematyk Charles Babbage, a jego maszyna projektowana była między innymi w celu obliczania tablic algorytmów. Wszystko w prawdziwie automatyczny sposób. A potrzeby takich obliczeń były związane z coraz bardziej skomplikowanymi wyliczeniami w nawigacji i astronomii, zaś tablice logarytmiczne, których powszechnie używano, zawierały coraz większą ilość rozmaitych błędów. Niewielki prototyp „maszyny różnicowej”, bo taką nadano jej nazwę, ukończony został w 1822 roku. Przez następnych 11 lat rząd brytyjski wydał na projekt Babbage’a ogromną sumę, pomimo tego zrealizowano tylko niewielką część tego coraz bardziej ambitnego projektu. Wymagania dotyczące precyzji części mechanicznych były jak na owe czasy zbyt duże. Dwadzieścia lat po zarzuceniu tego projektu szwedzki wynalazca Pehr Scheutz, korzystając z rad Babbage’a, zbudował zmodyfikowaną wersję maszyny różnicowej. Pokazana na wystawach w Londynie i Paryżu została nagrodzona złotym medalem. Po wstępnym ustawieniu maszyna produkowała kolejne wyniki szeregów różnicowych automatycznie, wymagając od człowieka jedynie kręcenia korbą. Oryginalny projekt maszyny różnicowej udało się zrealizować dopiero w 1992 roku, a jej działający model ustawiono w muzeum techniki, w Londynie!53 Tak wygląda historia pierwszego projektu Babbage’a. Pierwszego, gdyż był jeszcze drugi, znacznie ambitniejszy, który także i tym razem zakończył się dla Babbage’a niepowodzeniem. Drugim, znacznie śmielszym, projektem była maszyna zwana przez pomysłodawcę i współpracowników (między innymi lady Adę Lovelace) maszyną analityczną. Głównym wariantem nowatorskim miała stać się możliwość jej programowania, w taki sposób, żeby nie tylko wykonywała proste działania arytmetyczne, ale też żeby umożliwiała wykonywanie działań zgodnie z określoną przez operatora instrukcją. Maszyna ta miała być napędzana… energią pary, jak na wiek XIX przystało. W założeniu miał to być cud techniki, zbudowany głównie w oparciu o zębate kółka. Urządzenie składało się z trzech części, nazywanych przez Babbage’a „składem”, 53

Duch 1997.

38 (14-12-22)

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r01-04.doc

Rozdział 1.  Wczoraj

39

„młynem” i „mechanizmem sekwencyjnym”. „Skład” miał przechowywać rezultaty pośrednich obliczeń, pełnił więc rolę pamięci. Zgodnie z planem powinien przechowywać 100 liczb 40-cyfrowych do czasu, aż będą potrzebne do dalszych obliczeń. „Młyn” spełniał rolę arytmometru, wprowadzając dane ze składu i wykonując na nich operacje arytmetyczne. „Mechanizm sekwencyjny”, który można by nazwać programem, miał decydować o tym, które dane pobierać ze składu i jakie wykonywać na nich operacje. Pierwsze komputery cyfrowe złożone były dokładnie z takich trzech części. Ponieważ sterowanie maszyny analitycznej miało być zależne od wyników obliczeń („pożera własny ogon”, jak to obrazowo określił jej twórca), była to w założeniach pierwsza programowalna uniwersalna maszyna licząca.54 Do programowania swojej maszyny analitycznej Babbage chciał wykorzystać patent Jacquarda — karty perforowane. Niestety, jak już wcześniej wspomniałem, maszyna ta nigdy nie powstała, więc i w konsekwencji system wprowadzania danych przez karty nie został w tym projekcie wykorzystany. Choć został zastosowany później przez Hermana Holleritha, który za ich pomocą i za pomocą maszyn tabulacyjnych, do których karty wprowadzały dane, przyczynił się do sporządzenia spisu ludności USA w 1885 roku. Zainicjował także inne wydarzenie — założył słynną na całym świecie firmę IBM (International Business Machines), która po sześćdziesięciu latach od tego zdarzenia stała się czołowym producentem komputerów, w tym komputerów typu PC (Private Computer). Na zakończenie analizy pomysłów Babbage’a przedstawię jeszcze pokrótce portret pierwszej damy informatyki, w tym z pewnością programowania — lady Augusty Ady Lovelace55. Była ona córką słynnego poety, lorda Byrona. Kobietą o rzadkiej urodzie, dużych możliwościach intelektualnych — przyjaźniła się między innymi z sir Davidem Brewsterem (fizykiem, twórcą kalejdoskopu), Charlesem Dickensem czy Michaelem Faradayem. Kobietą o sporej wiedzy matematycznej — już w wieku 17 lat uczyła się matematyki pod opieką Mary Somerville, tłumaczki na angielski prac wybitnego matematyka, Pierre’a Simona de Laplace’a (1749 – 1827). Kobietą, która z czasem poświęciła swoje umiejętności ostatniemu pomysłowi Babbage’a. O maszynie analitycznej najprawdopodobniej po raz pierwszy usłyszała w listopadzie 1834 roku, gdy jeszcze zamieszkiwała u M. Somerville; kolejny raz dopiero siedem lat później, jesienią 1841 roku, kiedy to Babbage prezentował plany maszyny na seminarium w Turynie. Kontakt z samym Babbage’em zdobyła dzięki tłumaczeniu artykułu Włocha, niejakiego Menabrea, który opisywał w nim ideę maszyny analitycznej. Gdy zaprezentowała wynik ostateczny, który w rezultacie był trzykrotnie dłuższym tekstem w stosunku do oryginału, gdyż zawierał wiele jej własnych sugestii, Babbage od razu poznał się na talencie lady Ady. Od tej pory prowadzili między sobą bardzo ożywioną korespondencję. Prócz tego lady Lovelace prowadziła pamiętniki, w których tak opisała ideę Babbage’a: 54

Duch 1997 — wyróżnienie M. J. K.

55

Na jej temat zob. m.in. Kim, Toole 1999.

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r01-04.doc

(14-12-22)

39

40

Sztuczna Inteligencja

„Przewyższa ona swoje poprzedniczki zarówno możliwościami obliczeń, które może wykonać, w ich pewności, dokładności, i w braku konieczności podejmowania przez człowieka inteligentnych decyzji w czasie wykonywania obliczeń”. Wspominając o możliwości użycia kart dziurkowanych napisała tak: „Można słusznie powiedzieć, że maszyna analityczna tka algebraiczne wzory podobnie jak krosna Jacquarda tkają materiały w kwiaty i liście.”56 W trakcie prac nad projektem Babbage’a pełniła rolę teoretyka i metodologa obmyślając problemy, z którymi — po ewentualnym skonstruowaniu — maszyna mogłaby się zetknąć. W 1842 roku został przez nią napisany, a w 1843 roku opublikowany historyczny artykuł57, w którym sugeruje, iż maszyna ta nigdy nie będzie mogła wyjść poza program, czyli wytyczne, które nią kierują. Jak zobaczymy w następnym rozdziale, argument ten dotyczył stricte problemu możliwości skonstruowania maszyn myślących i został omówiony przez samego Alana Mathisona Turinga w słynnym artykule Computing machinery and intelligence.

56

Lady A. A. Lovelace, za: Duch 1997.

57

Chodzi o: A. A. Lovelace, Translator’s notes to an article on Babbage’s Analytical Engine, w: „Scientific Memoirs”, 3/1842, ss. 691 – 731, wyd. R. Taylor; później w dodatku do: Faster than Thought, wyd. B. V. Bowder, Pitman, New York 1953, który to zawiera materiały historyczne dotyczące maszyn Babbage’a.

40 (14-12-22)

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r01-04.doc

Rozdział 2.

Dzisiaj

Wierzę, że za około pięćdziesiąt lat stanie się możliwe programowanie maszyn cyfrowych (…) tak, aby grały w grę w naśladownictwo tak dobrze, że przeciętny pytający po pięciu minutach zadawania pytań nie będzie miał więcej niż 70 procent szansy dokonania prawidłowej identyfikacji (…) wierzę, że pod koniec tego stulecia używanie słów i ogólna opinia ludzi wykształconych zmieni się tak bardzo, że będzie można mówić o maszynach myślących, nie spodziewając się sprzeciwu. Turing 1972, s. 32.

2.1. Współczesność. Początki Granicę pomiędzy czasem przeszłym a teraźniejszym w badaniach związanych ze Sztuczną Inteligencją wyznaczają przede wszystkim dwaj wybitni uczeni: Alan Turing i John von Neumann.

Alan Mathison Turing (1912 – 1954) Wspominane w poprzednim rozdziale zastosowanie kart perforowanych przez Hermana Holleritha (patrz s. 39) dało początek programowaniu. Później dokonania w tym zakresie wiązały się z badaniami na rzecz wojska. Wyścig zbrojeń wymagał coraz nowszych rozwiązań technicznych, co szło w parze z zatajeniem wyników badań. Dlatego też z pewnością o wielu rzeczach jeszcze nie wiemy, choć i są takie, o których wiemy dużo.

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

(14-12-22)

41

42

Sztuczna Inteligencja

1933 r.1

Niemiecki inżynier i przedsiębiorca, Konrad Zuse (ur. 1910), skonstruował pierwszą maszynę wykorzystującą potencjał elektryczny. Zasada działania tej maszyny oparta była na przekaźnikach i do dziś określa się ją mianem komputera zerowej generacji. Nosiła ona nazwę Z3 i obecnie znajduje się w Muzeum Techniki w Monachium. Warto nadmienić, że w 1993 roku Zuse w wieku 83 lat, otrzymał doktorat honoris causa Uniwersytetu w Szczecinie.

1937 – 1942 Został skonstruowany komputer o nazwie ABC. Jego projektanci, inżynierowie — John Atanasoft i Clifford Berry, byli związani z Uniwersytetem Stanowym Iowa (USA). Prototyp tej maszyny pracował już w 1939 roku, a wykorzystane w niej patenty, między innymi praca opierająca się na arytmetyce binarnej i zastosowanie pamięci na podstawie lamp próżniowych, na owe czasy były pomysłami rewolucyjnymi. 1939 – 1944 Pracownik IBM, Howard M. Aiken (1900 – 1973), skonstruował maszynę z przekaźników elektromagnetycznych. Maszyna — o nazwie Mark I Computer — była częściowo wzorowana na projekcie samego Babbege’a. Posiadała również możliwość sterowania programem (oczywiście za sprawą kart perforowanych). Jednakże przeznaczeniem jej była praca dla marynarki wojennej USA, gdzie była wykorzystywana przez 15 lat.

1

1940 r.

John Atanasoft pokazał swoją maszynę koledze, inżynierowi z Uniwersytetu w Pensylwani, Johnowi Mauchly, który — wraz ze swoim doktorantem, Presperem Eckertem — w ciągu sześciu lat zbudował swój model, nazwany ENIAC (Electronic Numerical Integrator And Computer). Była to pierwsza maszyna cyfrowa, która w całości pracowała na bazie lamp próżniowych. W przeciwieństwie do wcześniejszej maszyny ABC do obliczeń wykorzystywała kod binarny, a nie system dziesiętny. W pełni została ukończona w 1946 roku i pracowała dla armii USA (obliczając między innymi zasięg pocisków dla artylerii). Była też wykorzystana przy programie budowy bomby wodorowej.

1940 r.

Matematyk-inżynier George Stibitz ukończył kalkulator o nazwie The Complex Number Calculator. Prace nad nim prowadził w słynnych laboratoriach Bella. Kalkulator ów pracował w systemie dwójkowym, a do funkcji, które mógł wykonywać, należały cztery podstawowe działania arytmetyczne. Pewnym nowym patentem, było zastosowanie po raz pierwszy dalekopisów, dzięki czemu możliwe było wprowadzanie danych i odbieranie ich na odległość — Stibitz przebywawszy w swym laboratorium zaprezentował swój kalkulator w miejscowości, która była odległa o 400 km od jego laboratorium, wykorzystując komunikację na odległość.

1942 r.

W 1942 roku firma IBM skonstruowała elektroniczną maszynę SSEC (Selective Sequence Electronic Calculator). Maszyna ta miała przeznaczenie naukowe i obliczyła między innymi tablice ruchu księżyca, które zostały wykorzystane 27 lat później w czasie lotu Amerykanów na Księżyc.

Por. Duch 1997, rozdz. Skąd to się wzięło? Według W. Marciszewskiego zaś, maszyna ta została ukończona dopiero w 1941 roku; por. Marciszewski, Mikrokronika informatyki, Internet.

42 (14-12-22)

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

Rozdział 2.  Dzisiaj

1943 r.

43

Został zbudowany COLOSSUS. Maszyna zbudowana w brytyjskim ośrodku deszyfracji, w Bletchley Park, była dziełem zbiorowym. Przy jej konstrukcji uczestniczył między innymi bohater tego podrozdziału, Alan Mathison Turing.

Jak wynika z powyższego zestawienia historycznego, potężnymi (jak na tamte czasy) maszynami obliczeniowymi dysponowało albo wojsko, albo ośrodki naukowe. Wyjątek stanowiła komercyjna firma IBM. Projektowanie nowych zdobyczy techniki nie odbywało się tak jak dzisiaj przy użyciu techniki, którą już posiadamy2. Turing stworzył teorię automatów, używając do tego głowy i ołówka3. Ale zacznijmy od początku. Hilbert4 na początku wieku sformułował największe problemy matematyczne będące do rozwiązania w tym stuleciu (tzn. w XX w.; przyp. M. J. K.). Wśród nich szczególnie eksponowany był problem znalezienia metody, która by pozwalała rozwiązać dowolne (każde; przyp. M. J. K.) zagadnienie matematyczne w wyniku mechanicznych operacji na symbolach, czyli, jak to się przyjęło obecnie mówić, za pomocą algorytmu. Sam Hilbert był absolutnie przekonany, że taką metodę da się znaleźć. Zainicjował więc wielki program badawczy, znany pod jego imieniem, a podjęty przez znakomitą grupę, zwaną Szkołą Hilberta, który miał doprowadzić do wypracowania takiej mechanicznej metody.5 Do „rozwiązania” tego problemu doszedł Kurt Gödel (1906 – 1978)6, a potem Alan Turing7. I oto okazało się, że problem uniwersalnej metody rozwiązywania problemów arytmetycznych jest sam nierozwiązywalny.8 Samo twierdzenie Gödla głosi, że dla dowolnego systemu formalnego, który oznaczymy jako M, zawierającego cześć arytmetyki liczb naturalnych jest możliwe skonstruowanie 2

Nowsze typy komputerów często projektuje się za pomocą starszych komputerów, na których wykonuje się stosowne wyliczenia.

3

„Według Poppera Albert Einstein zwykł był mawiać: „Mój ołówek jest inteligentniejszy ode mnie” — argumentując, iż kiedy miał ołówek w ręce oraz oczywiście kartkę papieru na stole, to był ponad dwa razy efektywniejszy w myśleniu niż bez tych przyborów pisarskich.” (…) [Szumakowicz 2000, s. 141]

4

David Hilbert (1862 – 1943), wielki matematyk z Uniwersytetu w Getyndze, w 1900 roku na II Kongresie Matematyków, zorganizowanym w Paryżu, sformułował 23 nierozwiązane problemy z zakresu matematyki. Wyznaczył tym samym kierunek rozwoju matematyki na najbliższe 100 lat, czyli okres przypadający między latami 1900 – 2000. Por. chociażby: J. Życiński, Teizm i filozofia analityczna, Znak, Kraków 1985, t. I/II, ss. 11 – 126; Marciszewski 1998, ss. 45 – 46, 83; M. Nowicki, Syntaktyczne twierdzenia limitacyjne, wyłożone sposobem Turinga, z konkluzjami Chatina, Internet.

5

Marciszewski 1998, s. 45.

6

K. Gödel, Über formal unentscheidbare Sätze der Principia Mathematica und Verwandter Systeme, w: „Monatshefte für Mathematica und Physics“, 1931, ss. 173 – 189.

7

A. M. Turing, On computable numbers, with an application to the Enscheidungsproblem, w: „Proceedings of the London Mathematics Society”, (ser. 2) (42)/1936, ss. 230 – 265; (43)/1937 s. 544.

8

Marciszewski 1998, s. 45 — wyróżnienie M. J. K.

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

(14-12-22)

43

44

Sztuczna Inteligencja

w języku systemu M takiego zdania, które nie da się udowodnić w tym M, lecz także nie da się w M udowodnić negacji tego zdania. Jednak uwagę swą skupię na innym rozwiązaniu — rozwiązaniu A. Turinga. Artykuł Turinga otwierają rozważania nad wspomnianą już kwestią: w jaki sposób możemy wyrazić to, co nieskończone za pomocą skończonych środków? W szczególności — w jaki sposób możemy wyrazić nieskończony ciąg cyfr składających się na „liczbę rzeczywistą”, taką jak π = 3,141592653…? Co znaczy powiedzenie, że istnieje określona metoda obliczenia takiej liczby? Odpowiedź Turinga polega na zdefiniowaniu przezeń maszyny Turinga. Człowieka przystępującego do obliczenia jakiejś liczby rzeczywistej możemy porównać do maszyny, której może przysługiwać jedynie skończona liczba stanów.9 Ową „skończoną liczbę stanów”, Turing określa m-konfiguracjami (konfiguracjami maszyny).10 Niech więc m > 0. Maszyna S2 symulująca pracę maszyny M będzie zapisywać na swoich taśmach informacje o literach alfabetu AM używając m komórek pustych lub zawierających symbol 0, przyporządkowany literze ai. Informacja o literze aj będzie kodowana za pomocą m – j pustych komórek i znajdujących się po nich j komórkach ze znakiem 0. S2 będzie korzystać z dwóch podmaszyn, maszyny WSTĘP i maszyny SYMULACJA. Maszyny te z kolei będą posiadać kilka podmaszyn. Podmaszynami maszyny WSTĘP będą podmaszyny PISZ, RUCH i KOD_ LITERY, zaś maszyny SYMULACJAi podmaszyny LICZ, PISZ i RUCH. Podmaszyny WSTĘP i SYMULACJAi działają identycznie jak ich odpowiedniki — podmaszyny maszyny S1. Z kolei praca ich podmaszyn daje się w skrócie opisać następująco: 

podmaszyna LICZ będzie analizować zapis m-komórkowego fragmentu taśmy, zakończonego obserwowaną właśnie komórką;



podmaszyna PISZj będzie wymazywać m – j komórek znajdujących się na prawo od głowicy, wliczając komórkę właśnie obserwowaną, zaś w kolejnych j komórkach zapisywać będzie symbol 0;



podmaszyna RUCHr będzie wykonywać głowicą m ruchów w kierunku określonym przez parametr r  MOVE;



podmaszyna KOD_LITERY będzie w miejscu obserwowanym przez głowicę i w m – 1 komórkach sąsiadujących z nią z prawej strony wpisywać zakodowaną informację o obserwowanej literze, przesuwając jednocześnie w prawo wszystkie znaki znajdujące się w tych komórkach.11

Co można również przedstawić następująco: 9

Hodges 1998, s. 15 – 16; cyt. A. M. Turinga za: Tamże.

10

Por. Hodges 1998, s. 16.

11

M. Nowicki, Syntaktyczne twierdzenia limitacyjne, wyłożone sposobem Turinga, z konkluzjami Chatina, Internet, s. 23.

44 (14-12-22)

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

Rozdział 2.  Dzisiaj

45

Wyobraźmy sobie taśmę podzieloną na klatki. W każdej klatce można zapisać pojedynczy symbol (powiedzmy „0” albo „1”), klatka może też zostawać pusta. Taśma jest nieskończenie długa: można ją przewijać dowolnie długo i nigdy nie zabraknie klatek. Przechodzi ona przez „głowicę czytająco-zapisującą”, która zawsze znajduje się w jednym, dobrze określonym stanie (stanem może być na przykład rozróżnienie między „dużymi literami” a „małymi literami”, znane z klawiatury maszyny do pisania czy komputerowej). Bieżący stan określa zachowanie głowicy. Działanie całej maszyny składa się z cyklów: w każdym cyklu pracy głowica zagląda do bieżącej klatki taśmy, wymazuje symbol, który jest tam zapisany, wpisuje tam nowy symbol i przechodzi do nowego stanu (na przykład ze stanu „3” do stanu „10”). Na końcu przesuwa taśmę o jedną klatkę w lewo lub w prawo. I to już cała definicja maszyny Turinga. (…) Nie jest to może najwygodniejsza maszyna na świecie. Jednak jeśli coś w ogóle może być obliczone (algorytmicznie; przyp. M. J. K.), to można tak zaprogramować maszynę Turinga, aby to coś obliczyła.12 W ten sposób otrzymano teoretyczny model każdego komputera, któremu — na cześć konstruktora — nadano nazwę maszyna Turinga. Jednak odwrotnie niż komputer — Maszyna Turinga (…) nie jest obiektem fizycznym. Jest to abstrakcyjny schemat działania wedle zadanego algorytmu. Jego istotę oddaje angielskie określenie discrete-state machine, co po polsku można oddać zwrotem „maszyna stanów dyskretnych”.13 Dodam jeszcze, że pomysł Turinga nie tylko był rewelacyjny, ale i rewolucyjny. Jak w jednej ze swych książek napisał David Gelenter, profesor computer science na Uniwersytecie w Yale: W obliczeniowym Luwrze maszyna Turinga jest Mona Lizą.14

John von Neumann (1912 – 1957) To genialny węgierski matematyk, od lat 30. mieszkający w USA i pracujący w słynnym Instytucie Studiów Zaawansowanych w Princeton. W raporcie rozpowszechnionym w 1945 roku przedstawił projekt, szerzej znany pod nazwą maszyna z Princeton. W cztery lata później powstały dwie maszyny, które były w zupełności oparte na tymże pomyśle von Neumanna. Zakładały one, że zarówno program, jak i dane, którymi program operuje, winny być przechowywane w czymś na kształt pamięci stałej, co miało być zapewnione dzięki zastosowaniu kodu binarnego. W ten sposób powstał model komputera znanego do dziś. I dlatego też prawie wszystkie komputery (wyłączając jedynie eksperymentalne biokomputery) sygnuje się nazwą maszyny von Neumanna. Pierwszym komputerem, który został skonstruowany na podstawie zasady wewnętrznej pamięci, był EDVAC (Electronic Discrete Variable Automatic Computer, czyli 12

Gelernter 1999, s. 81.

13

Marciszewski 1998, s. 69. Układ wówczas jest dyskretny, gdy nie można rozróżnić jego elementów, czyli gdy jest nieciągły.

14

Gelernter 1999, s. 81.

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

(14-12-22)

45

46

Sztuczna Inteligencja

„elektroniczny komputer posługujący się dyskretnymi zmiennymi”), komputer ukończony w 1951 roku. Od tamtych czasów do dni dzisiejszych upłynęło zgoła 50 lat. Przez ten czas zrobiono wiele rzeczy zmierzających w kierunku ulepszenia zasad działania i wykorzystania maszyn informatycznych. Między innymi przybyło nam kilka nowych generacji komputerów, które proponuję usystematyzować poniżej. Zerowa generacja

Mianem tym określa się komputery zbudowane na przekaźnikach, do których programowania wymagana była bezpośrednia ingerencja w połączenia obwodów maszyny. Ten typ komputera budowano w okresie 1930 – 1940.

Pierwsza generacja Te komputery budowane były na bazie potencjału lamp radiowych. Służyły przede wszystkim do przetwarzania danych, co zmusiło konstruktorów do zastosowania wygodnych metod ich nanoszenia. Wykorzystano do tego pomysł kart perforowanych. Wprowadzono także pierwsze rozwiązania dla przechowywania danych, tzw. bębny magnetyczne. Komputery te budowano w okresie 1940 – 1950. Druga generacja

Tutaj pierwszy raz zastosowano tranzystory, dzięki czemu znacznie uległy redukcji rozmiary komputerów, a wraz z tym zmniejszyły się ceny ich konstrukcji oraz eksploatacji. Rozwiązanie to pozwoliło również na dokonywanie coraz bardziej skomplikowanych obliczeń. Warto dodać, iż w tym modelu maszyny matematycznej pojawiły się pierwsze rodzaje pamięci stałych, tzw. pamięci ferrytowe — pierścienie nanizane na siatkę drucików, a złożone z małych magnesów. Przez to prąd przepływający przez druciki zmieniał stan namagnesowania wedle binarnego kodu, a więc albo 1 (stan namagnesowany), albo 0 (stan nienamagnesowany). To zaś zwiększyło szybkość dostępu do danych (wynosiła ona milionowe części sekundy, podczas gdy przy użyciu poprzedniego rozwiązania, bębnów magnetycznych, tysięczne części sekundy). Komputery te budowano w okresie 1959 – 1964.

Trzecia generacja

Rozpoczęła się od serii komputerów 360 firmy IBM. Było to pierwsze urządzenie półprzewodnikowe, które spełniało funkcje kilku tranzystorów (patent z 1958 roku Jacka Kilby’ego). Dzięki temu komputery osiągały już rozmiary szafy, a nie, jak wcześniej to miało miejsce, całych budynków. Kilka lat później, w 1965 roku, firma DEC (Digital Electronic Company) wprowadziła pierwsze minikomputery, w których wielkim postępem była możliwość pracy kilku osób z jedną maszyną. Tę możliwość uzyskano stosując nanoszenie danych z terminali podłączonych do centrali15.

15

„Pomysł centrali obliczeniowej zrodził się z koncepcji podziału czasu, wymyślonej we wczesnych latach sześćdziesiątych. Była to pierwsza piękna idea w historii systemów operacyjnych: sposób na używanie pojedynczego komputera przez wielu użytkowników równocześnie. Podział czasu polegał

46 (14-12-22)

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

Rozdział 2.  Dzisiaj

47

Czwarta generacja

To komputery budowane na układach scalonych. Powszechnie uważa się, że zapoczątkowane zostały przez serię 370 firmy IBM, która weszła na rynek w 1971 roku. Zastosowanie obwodów LSI (Large Scale of Integration) zwiększyło możliwość „upychania” ich w jednej kostce, dzięki czemu kolejny raz zwiększyła się szybkość dostępu do danych. Ten typ komputerów produkowany jest do dziś i upowszechnił się dzięki modułowym rozwiązaniom komputerów osobistych.

Piąta generacja

To w zasadzie typ komputerów, których jeszcze nie ma. Pierwsze badania z tego zakresu rozpoczęły się w latach 80., kiedy to zaprezentowano ideę maszyn przetwarzających symbole i całe formuły logiczne, a nie, jak do tej pory, dane tekstowe i numeryczne. Do tej pory komputery tej generacji nie pojawiły się na rynku (więcej na ten temat w rozdziale 3. — „Jutro”).

Szósta generacja

Generację tę zarezerwowano dla określania maszyn odbiegających architekturą od założeń von Neumanna. A więc zawierają się tu komputery wektorowe, wieloprocesorowe (równoległe) oraz liczne układy eksperymentalne. Czasami również neurokomputery oraz biokomputery, oparte na związkach biologicznych (węglowych), a nie klasycznych z wykorzystaniem krzemu. Uważa się, że za pierwszą tego typu maszynę można uznać komputer wektorowy Cray 1, który został skonstruowany w 1976 roku.

2.2. Test Turinga Kamieniem węgielnym dla ukonstytuowania się Artificial Intelligence są dwa, klasyczne już teksty Alana Turinga: Computing machinery and intelligence16 (1950) i Can a Machine Think (1950), z których pochodzi pojęcie testu Turinga. Test Turinga czy — jak sam autor go zwał — gra w naśladownictwo (imitation game) wyrasta z zabawy towarzyskiej w stylu „retro”17. Uczestniczyły w niej cztery osoby: 1 — mężczyzna (zaznaczmy go literą A), 2 — kobieta (zaznaczmy ją literą B), 3 — goniec dowolnej płci (zaznaczmy go literą Z) i 4 — osoba dowolnej płci, zwana sędzią bądź zgadującym (zaznaczmy go literą C). Do obowiązków ostatniego z graczy należało na tak niewiarygodnym tricku, że większość jego użytkowników nigdy nie była w stanie go pojąć. Bierze się jeden duży komputer i podłącza się do niego, powiedzmy, 100 terminali. (…) Sto osób siedzi przy tych terminalach, wprowadzając w tym samym czasie swoje instrukcje do komputera. Oprogramowanie kolejno kontaktuje się z terminalami, wykonując fragment pracy dla jednego z nich i błyskawicznie przełączając się na następny. Dzieje się to tak szybko, że każdy ze stu użytkowników ma wrażenie, jakby sam zajmował całą uwagę maszyny.” [Gelernter 1999, ss. 104 – 105] 16

Pierwotnie ukazał się w: „Mind”, (236)/1950; polskie wydanie tłum. D. Gajkowicz, w: Maszyny matematyczne i myślenie, red. E.A. Feigenbaum, J. Feldman, ss. 24 – 47.

17

Por. Hołyński 1979, ss. 16 – 17.

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

(14-12-22)

47

48

Sztuczna Inteligencja

zadawanie dowolnych pytań niewidzianym osobom 1 i 2, z którymi łączność umożliwiał goniec zanoszący pytania i dostarczający odpowiedzi. Celem tej zabawy było odgadnięcie przez (C) na podstawie pytań i odpowiedzi tego, kto jest kim. Tak, pokrótce, bawili się nasi dziadkowie. Turing zaś wykorzystał fakt istnienia tej zabawy do rozwiązania problemu stanowiącego odpowiedź na pytanie o to, czy maszyny mogą myśleć. Nową postać problemu można opisać za pomocą gry, którą nazywamy „grą w naśladownictwo”. W grze tej biorą udział trzy osoby: mężczyzna (A), kobieta (B) i człowiek zadający pytania (C), który może być dowolnej płci. Pytający znajduje się w pokoju oddzielonym od pokoju zajmowanego przez dwu pozostałych. Jego zadaniem w grze jest rozstrzygnięcie, który z dwu pozostałych uczestników gry jest mężczyzną, a który kobietą. Zna ich on jako X i Y i przy końcu gry mówi: „X jest A, a Y jest B” lub „X jest B, a Y jest A”.18 Należy tutaj dodać, że informacja przepływająca od osoby pytającej (C) do osób oznaczonych jako (A) i (B) jest relacją zwrotną i odbywać się miała poprzez dalekopis (w przypadku towarzyskiej zabawy odbywało się to dzięki dodatkowej osobie gońca (Z)). Przy czym każda z dwu osób przepytywanych musi przyjąć specyficzną dla siebie rolę: osobnik (A) musi ułatwiać przepytującemu (C) zadanie i zawsze mówić prawdę, a osobnik (B) wręcz przeciwnie — ma to zadanie utrudniać przez możliwość kłamania. Pytania, które można zadawać, mogłyby przyjąć zaprezentowane niżej formy. C: Jakiego koloru masz włosy? X: Moje włosy są koloru miedzi i błyszczą tak, jakby były nawoskowane. Y: A moje włosy są kruczoczarne. C: A jakiej są długości? X: Są tak krótkie, jak mogą tylko być, żeby nie stwierdzić, że już ich nie ma. Y: Moje również są bardzo krótkie, choć z pewnością są dłuższe niż najkrótsze. I tym podobne. Więc sytuacja wygląda tak, jak pokazano na rysunku 2.1. Teraz — proponuje dalej Turing — zapytujemy: „Co stanie się, gdy maszyna zastąpi A w tej grze?”19 Był to rewolucyjny, jak się miało okazać, pomysł na rozwiązanie podstawowego zagadnienia filozofii Sztucznej Inteligencji! Do tej pory trudno było stawiać pytania o „myślenie maszyn”, co najmniej z dwu powodów: 1) ze względu na nieprecyzyjność słowa „myśleć” i 2) ze względu na bardzo słynny fragment Monadologii W.G. Leibniza, (§ 17)20, który podkreślał zwyczajny automatyzm maszyny, zaprzeczając jednocześnie możliwości myślenia sensu stricte. 18

Turing 1972, s. 24.

19

Tamże.

20

§ 17. „Należy wszakże przyznać, że postrzeżenie i to, co od niego zależy, nie da się wytłumaczyć racjami mechanicznymi, tzn. przez kształty i ruchy. Przypuściwszy zaś, że istnieje maszyna, której budowa

48 (14-12-22)

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

Rozdział 2.  Dzisiaj

49

Rysunek 2.1. Test Turinga Oznaczenia A, B, C wskazują, gdzie znajdują się w kolejności: mężczyzna (A), który do chwili odgadnięcia jest oznaczany jako X, kobieta (B), która do chwili odgadnięcia oznaczana jest Y, przepytujący (C), który ma odpowiednio przypisać czy X = A a Y = B, czy na odwrót X = B a Y = A. Cienkie linie wskazują na połączenia między nimi, dzięki którym są wysyłane i uzyskiwane dane. Czarna kreska widoczna po środku jest ścianą oddzielającą pytającego od przepytywanych. Dziś taki test można przeprowadzić przy dowolnym połączeniu komputerów, na przykład w sieci Internet

W przypadku pierwszego aspektu — nieprecyzyjności słowa „myśleć” — dominowały argumenty zaprzeczające możliwości myślenia przez maszyny. Wszystkie one, chcąc nie chcąc, wyrażały zawsze tę samą tezę: Maszyny nie myślą i nie mogą myśleć, gdyż myślenie jest domeną ludzi. Teza powyższa jest w prostej linii dziedzictwem arystotelizmu, wedle którego wyraz „dusza” (w sensie „dusza człowieka posiadająca zdolność myślenia”) był terminem zhierarchizowanym, trójstopniowym i rozkładał się na21: (1) duszę wegetatywną, której cechą jest zdolność „ruchu od wewnątrz” zwana autokinezą, (2) duszę sensytywną, którą wyróżnia zdolność do zmysłowego poznania, oraz (3) duszę rozumną, którą cechuje zdolność do używania rozumu. W tym zhierarchizowanym trójukładzie zachodzą również relacje dookreślające to, z jakim rodzajem bytu mamy do czynienia: pierwszy rodzaj duszy przynależy do świata roślinnego, pierwszy i drugi rodzaj duszy przynależy do świata zwierząt, a pierwszy, drugi i trzeci rodzaj duszy przynależy do człowieka. Podział ten został dokonany przez Arystotelesa w dziele O duszy. Jak już zdążyliśmy się dowiedzieć z lektury pierwszego rozdziału, z podziałem tym już w XVII wieku walczyli między innymi W. G. Leibniz (por. ss. 33 – 38) i J. O. La Mettrie (por. ss. 28 – 32). R. Descartesa, co także już zostało powiedziane, powiódł on zaś do skrajnego dualizmu (por. ss. 25 – 28), a przez niewyjaśniony interakcjonizm można go śmiało nazwać wyrazem mistycyzmu22, jak to zrobił współcześnie R. Penrose (por. rozróżnienie stanowisk w AI, s. 18)23.

pozwala, aby myślała, czuła, miewała postrzeżenia, będzie można pomyśleć ją, z zachowaniem tych samych proporcji, tak powiększoną, by można do niej wejść jak do młyna. Założywszy to, odnaleźlibyśmy wewnątrz przy zwiedzaniu jej tylko części, które popychają siebie wzajemnie, nigdy jednak nic, co tłumaczyłoby postrzeżenie. Toteż trzeba szukać tego właśnie w substancji prostej, a nie w rzeczy złożonej czy też w machinie. I tylko to można odnaleźć w substancji prostej, tzn. postrzeżenia oraz ich zmiany. Na tym jedynie mogą polegać wszystkie czynności wewnętrzne substancji prostych.” [Leibniz 1995; za: Towarzystwo im. L. Wittgensteina, Internet, http://free.ngo.pl/towitt/index.html] 21

Por. Arystoteles 1992.

22

Słowo „mistycyzm” jest użyte w formie, w jakiej używa go Penrose; patrz: przyp. 15, s. 19.

23

Por. Penrose 1995; Penrose 2000; Penrose 1997.

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

(14-12-22)

49

50

Sztuczna Inteligencja

Przy takim podejściu na pytanie, o to, czy maszyny mogą myśleć, należałoby odpowiedzieć: Nie — jeśli zdefiniuje się myślenie jako działalność specjalnie i wyłącznie ludzką. Wtedy każde takie zachowanie się maszyn trzeba byłoby nazwać zachowaniem się podobnym do myślenia. Nie — jeśli zakłada się, że w samej istocie myślenia jest coś niezgłębionego, tajemniczego, mistycznego.24 Jak widać zatem, implikacje takiego stanowiska w kwestii wyżej postawionego problemu są nieużyteczne — nie mówią nic poza tym, co orzekają, a nasz problem zawsze stawiają na pozycji przegranej (z podobnej metody argumentacji, obarczonej dziedzictwem arystotelizmu, korzysta argument Chińskiego Pokoju, J. Searle’a, o którym mowa będzie w podrozdziale 2.3.5 — „Analiza języka i mowy. Problemy z rozumieniem”; por. ss. 140 – 165). Na ich podstawie po pierwsze, nie jesteśmy skłonni przypisywać funkcji myślenia maszynom, ale i po drugie, jesteśmy skłonni zawsze taką funkcję przypisywać ludziom, co jak wiadomo z badań nauk o mózgu, neuropsychologii i z psychologii postaci, nie zawsze jest prawdziwe. W ostateczności też, podsumowując ten podrozdział, z testem Turinga będziemy mieli do czynienia wówczas, gdy będą spełnione następujące warunki: 1. Znajdzie się co najmniej dwoje ludzi i co najmniej jedna maszyna bądź program. 2. Maszyna bądź program muszą być takiego rodzaju, aby móc prowadzić dialog. 3. Żaden z listy wymienionych uczestników nie może widzieć innego uczestnika. 4. Każdy jeden z listy wyżej wymienionych uczestników będzie prowadził dialog

z jedną, wcześniej wyznaczoną do tego osobą, zwaną od tego czasu Sędzią bądź Przepytującym. Osobą tą może być tylko człowiek. 5. Zadaniem Sędziego jest osądzić na podstawie przeprowadzonego dialogu

z pozostałymi uczestnikami, kim jest każdy jeden z uczestników prowadzących z nim dialog. Przy czym oczekiwanymi odpowiedziami są: „Człowiek” i „Maszyna”. 6. Każda jedna maszyna bądź każdy jeden program, który podczas prowadzenia

dialogu z Sędzią oszuka go tak, iż Sędzia stwierdzi, że ma do czynienia z człowiekiem, przejdzie pozytywnie test Turinga i będziemy mogli stwierdzić z całą stanowczością, iż jest to maszyna myśląca bądź myślący program. Oczywiście myślący w sensie Turinga. Doniosłość testu Turinga ze względu na możliwość rozpatrywania problemu myślenia maszyn jest zatem bezapelacyjna. Jednak warto też zapoznać się z argumentami stawianymi przeciw takiemu rozpatrywaniu interesującego nas problemu, z argumentami, z którymi musiał się zmagać sam Turing, a także — dalej — z krytyką powstałą już po ukazaniu się w druku Computing machinery and intelligence, czyli od przeszło pięćdziesięciu lat.

24

[D] 1972, s. 16 — wyróżnienie M. J. K.

50 (14-12-22)

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

Rozdział 2.  Dzisiaj

51

2.2.1. Test Turinga — zarzuty przez niego samego wyszukane i przezeń rozważone Teraz przyszła pora, aby zaprezentować listę zarzutów, którą Turing przedstawił, zanalizował i odparł25. Możemy też poddać je ocenie z perspektywy 50 lat badań z zakresu Sztucznej Inteligencji by dodatkowo przemyśleć.

A. Sprzeciw teologiczny Turing zwraca uwagę na to, że w tradycji myśli europejskiej ważną rolę odgrywa stary, przedplatoński pogląd o nieśmiertelnej duszy. Ponadto — zgodnie ze wspominaną już tradycją Arystotelesa — zakłada się, że dusza ta (tzn. dusza rozumna) przysługiwać by miała tylko człowiekowi i — na podstawie połączenia tych rozważań z koncepcjami chrześcijaństwa — wierzy się, że jest dana od Boga. W rezultacie oprócz człowieka nie może posiadać jej żadne inne stworzenie na ziemi, a tym bardziej — jakikolwiek artefakt. Tak pokrótce przedstawia się ów zarzut. A co na to sam Turing? Wydaje mi się, że cytowany wyżej argument pociąga za sobą poważne ograniczenie wszechpotęgi Boga Wszechmogącego. Przyznano, że istnieją pewne rzeczy, których On nie może zrobić, takie jak uczynienie jedności równą dwóm, ale czyż nie powinniśmy wierzyć, że może On obdarzyć duszą słonia, jeśli będzie uważał, że słoń jest tego godny? (…) Podobny argument można sformułować w przypadku maszyn. Może on wydawać się inny, gdyż jest trudniejszy do „przełknięcia”. Ale naprawdę oznacza on jedynie nasze przekonanie o mniejszym prawdopodobieństwie uważania przez Niego tych warunków materialnych za odpowiednie do obdarzenia duszą.26 Czy nie powinniśmy zatem wierzyć, że może On obdarzyć duszą maszyny, jeśli tylko będzie uważał, że jest tego godna?! Jednakże jest to tylko spekulacja. Teologiczne argumenty — dodaje Turing — nie wywierają na mnie głębokiego wrażenia. (…) Gdyż (…) takie argumenty często bywały niewystarczające w przeszłości: w czasach Galileusza argumentowano, że teksty: „I słońce stało jeszcze… i nie spieszyło się zejść prawie przez cały dzień” (Jozue X. 13) i „Dał ziemi podstawę, tak, że nigdy nie powinna się ona ruszyć” (Psalm CV. 5) w sposób wystarczający zbijają teorię Kopernika. Przy naszej obecnej wiedzy taki argument wydaje się bezwartościowy. Gdy ta wiedza nie była dostępna, to wywierało to zupełnie inne wrażenie.27

25

Turing 1972.

26

Tamże, ss. 32 – 33.

27

Tamże.

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

(14-12-22)

51

52

Sztuczna Inteligencja

B. Sprzeciw „głów w piasku” Najkrócej mówiąc przedstawia się on następująco: Konsekwencje myślenia maszyn byłyby zbyt okropne. Miejmy nadzieję i wierzmy, że one nie mogą myśleć.28 A zatem, po pierwsze: ze względu na okrucieństwa ludzkości (jak na przykład wyeliminowanie w czasach prehistorycznej walki o byt całego gatunku homo neandertalis29), bo i z jakiej innej przyczyny, boimy się, że myślące maszyny będą sobie uzurpować bytowe pierwszeństwo i w rezultacie tego walczyć z nami. Jest to wyraz tzw. mitu buntów robotów, rozpowszechnianego zwłaszcza w latach 50 – 70. w literaturze science fiction (mowa o nim będzie w rozdziale 3. — „Jutro”, s. 212). Po drugie: Chcemy wierzyć, że Człowiek jest w jakiś subtelny sposób wyższy ponad resztę stworzenia. Najlepiej byłoby, gdyby można było wykazać, że jest on bezwarunkowo wyższy, ponieważ wówczas nie istniałoby niebezpieczeństwo utraty jego dominującej pozycji.30 Jak widać, argument ten, ale i poprzedni — sprzeciw teologiczny, łączy nić tzw. dziedzictwa arystotelizmu, które nakreśliłem już wcześniej (patrz: s. 49). Odpowiedź Turinga była następująca: Nie myślę, że ten argument jest wystarczająco poważny, aby trzeba go było zbijać.31 Współcześnie takie poglądy sprzeciwu „głów w piasku” reprezentują między innymi: Norman Lillegard32 i Bill Joy33, a w Polsce Eugeniusz Szumakowicz34.

28

Tamże, s. 33. Dobrym komentarzem do dwu powyższych argumentów — A. i B. — zdaje mi się następujący cytat z Badań… Hume’a: „Nie ma bardziej rozpowszechnionej, a przecież bardziej nagannej metody rozumowania, jak starać się w dyskusyach filozoficznych odeprzeć jakieś przypuszczenie przez wykazywanie jego konsekwencyj niebezpiecznych dla religii i moralności. Jeżeli pogląd jakiś prowadzi do niedorzeczności, jest on niewątpliwie mylny; nie jest jednak jakiś pogląd niewątpliwie mylny dlatego, że wynikają z niego niebezpieczne konselwencye. Takich argumentów powinno się zupełnie unikać; wszak nie przyczynią się niczem do wykrycia prawdy a służą tylko do tego, by zohydzić przeciwnika”. [Hume 2001, s. 95]

29

Por. chociażby: I. Tattersall, Nie zawsze byliśmy sami, w: „Świat Nauki”, 4/2000, ss. 26 – 32.

30

Turing 1972, s. 33.

31

Tamże.

32

Wyraża się to na przykład w tezie: „W jednym z najbardziej odrażających momentów we wspomnianym odcinku serialu Star Trek Data (jeden z bohaterów, który jest androidem — przyp. M. J. K.) oświadcza, że jest on („coś”) w zażyłych stosunkach z pewną kobietą, która jest członkiem załogi. Pomysł ten jest bardziej odpychający niż zabawny”. [Lillegard 1995, s. 56]

52 (14-12-22)

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

Rozdział 2.  Dzisiaj

53

C. Sprzeciw matematyczny Jest to najczęściej pojawiający się zarzut przeciwko możliwości skonstruowania maszyny myślącej. Przytacza się go powołując się na twierdzenia Kurta Gödla (1906 – 1978) (o niesprzeczności i niezupełności) z 1931 roku35 czy też w rachunku lambda Alonzo Churcha (1903 – 1995) z 193636, stosowne twierdzenie z teorii rekursji Stephena C. Kleene’a (1909 – 1994) z 193537, czy też analogiczne twierdzenia samego A. Turinga i J.B. Rossera z 193738, dotyczące Entscheidungsproblem postawionego przez Davida Hilberta (por. s. 43). W twierdzeniu Gödla udowadnia się, że w każdym dostatecznie potężnym systemie logicznym można sformułować twierdzenia, których w ramach tego systemu nie można ani udowodnić, ani wykazać ich błędności, chyba że w ogóle sam system jest niekonsekwentny [niekoherentny].39 Obecnie często powołuje się nań Roger Penrose pisząc, że Odpowiednie procesy fizyczne w mózgu powodują powstanie świadomości, ale tych procesów nie można nawet symulować obliczeniowo.40

33

Wyraża się to w tezie: „Pisząc programy, projektując mikroprocesory, nigdy nie miałem poczucia, że tworzę inteligentne maszyny. Software i hardware są tak delikatne, a zdolność maszyny do „myślenia” tak nieobecna, że ewentualność taka wydawała mi się zawsze bardzo odległą przyszłością. Teraz rzecz wygląda inaczej: być może pracuję nad narzędziami, które w przyszłości zastąpią nasz gatunek. Jak się czuję? Kiepsko”. A zestawić to można ze: „Zbudowanie pierwszego (robota, maszyny myślącej — przyp. M. J. K.), który będzie miał zdolność samopowielania, da początek całemu gatunkowi.” [Joy 2000, s. 93]

34

Wyraża się to w tezie: (…) „najśmielsze odkrycia naukowe i wynalazki techniczne nie są w stanie dać nam niczego filozoficznie interesującego, gdy chodzi o tak zwaną sztuczną, czyli faktycznie alternatywną inteligencję (sic!, przyp. M. J. K.). Natomiast mogłyby spowodować katastrofę humanitarną w stylu George’a Orwella”. [Szumakowicz 2000, s. 146] Albo w jeszcze innej: „Jednakże, jeśli poważnie założyć jej (sztucznej inteligencji — przyp. M. J. K.) realność (a poważne filozofowanie do tego zobowiązuje!), to nie sposób nie zauważyć swego rodzaju puszki Pandory przeróżnych trudności i niebezpieczeństw: społecznych, ekonomicznych, psychologicznych i jeszcze innych”. [Szumakowicz 2000, s. 138] Ze swej strony tylko dodam, że wyrażenie „o poważnym filozofowaniu” biorąc pod uwagę tekst wyżej wymienianego jest nadużyciem!

35

K. Gödel, Über formal unentscheidbare Sätze der Principia Mathematica und Verwandter Systeme, w: „Monatshefte für Mathematica und Physics“, 1931, ss. 173 – 189.

36

A. Church, An unsolvable problem of elementary number theory, w: „American Journal of Mathematics”, (58)/1936, ss. 345 – 363. Na temat „rachunku lambda” patrz między innymi: Penrose 1995, ss. 85 – 90; M. Nowicki, Syntaktyczne twierdzenia limitacyjne, wyłożone sposobem Turinga, z konkluzjami Chatina, Internet. W ostatniej pracy znajdują się również wiadomości na temat tak twierdzenia Gödla, jak i Churcha-Turinga.

37

S. C. Kleene, General rescursive funcions of natural numbers, w: „American Journal of Mathematics”, (57)/1935, ss. 153 – 157, 219 – 244.

38

A. M. Turing, On computable numbers, with an application to the Enscheidungsproblem, w: „Proceedings of the London Mathematics Society”, (42)/1936, ss. 230 – 265; (43)/1937, s. 544.

39

Turing 1972, s. 33.

40

Penrose 2000, s. 31.

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

(14-12-22)

53

54

Sztuczna Inteligencja

Czyli, konkludując: nie może istnieć algorytm dowodzenia twierdzeń w arytmetyce — przy założeniu, że jest ona systemem niesprzecznym. Innymi słowy, nie można podać procedury tak ogólnej, by mieć pewność, że przy danym układzie aksjomatów da się podać (w ramach tej procedury, przyp. M. J. K.) dowód każdego prawdziwego twierdzenia arytmetyki.41 No i, jak by to nie było, Turing akceptuje swój dorobek zaprezentowany w tekście On computable numbers, with an application to the Enscheidungsproblem tak samo, jak z wynikiem swojej pracy Über formal unentscheidbare Sätze der Principia Mathematica und Verwandter Systeme nie polemizowałby Kurt Gödel. Obaj sądzili, że są takie prawdy, do których nie będzie mogła dojść maszyna Turinga. Lecz ani pierwszy, ani drugi Nie sądził jednak, żeby były one bardziej osiągalne dla człowieka niż dla maszyny. Głęboko był przekonany, że ludzie i maszyny „jadą na jednym wozie”.42 Jak pisze sam Turing: Krótką ripostą na ten argument jest to, że chociaż ustalono, że istnieją granice możliwości każdej poszczególnej maszyny, to jednak jedynie bez dowodu stwierdzono, że żadne takie ograniczenia nie stosują się do ludzkiego intelektu. Nie jestem jednak zdania, że ten pogląd można zbyć tak łatwo. Za każdym razem, gdy jednej z tych maszyn zadaje się odpowiednio krytyczne pytanie i daje ona określoną odpowiedź, to wiemy, że ta odpowiedź musi być błędna i daje nam to pewne poczucie wyższości. Czyżby to uczucie było złudne? Jest ono bez wątpienia zupełnie niekłamane, ale myślę, że nie należy zbyt wielkiej wagi do niego przywiązywać. My sami zbyt często dajemy błędne odpowiedzi na pytania, aby można było usprawiedliwić nasze zadowolenie z takiego dowodu omylności części maszyn. (…) Tak więc, krótko mówiąc, mogliby być ludzie zdolniejsi od każdej danej maszyny, ale z kolei mogłyby być inne zdolniejsze maszyny itd.43 Czyli jedno jest pewne — tym, co się nam nie uda (ale przecież nie mamy takich zamiarów), jest zbudowanie środkami finistycznymi maszyny wszechwiedzącej, o której pisze między innymi Lem (patrz: ss. 70 – 71). Współcześnie na powyższy argument powołuje się przede wszystkim jeden z zagorzałych krytyków silnej wersji AI (strong AI), Roger Penrose44. 41

Marciszewski 1998, s. 21.

42

Tamże, s. 21.

43

Turing 1972, s. 33. — wyróżnienie M. J. K.

44

Por.: Penrose 1995; Penrose 2000; Penrose 1997. Patrz wcześniejszy cytat (s. 53) z Penrose 2000. Należy tutaj nadmienić, iż tezy Penrose’a są nieco bogatsze, lecz ze względu na to, iż ich autor wydał do tej pory trzy książki, gdzie je wnikliwie omawia zainteresowanych odsyłam do nich. Nie mogę jednak powstrzymać się przed pewnym komentarzem ostatecznym, wyrwanym z Trefil 1998, w którym zamieszczony jest taki komentarz: „Przypuśćmy jednak, że hipoteza Penrose’a okazuje się w pełni trafna. Przypuśćmy, że (1) mózg rzeczywiście nie jest cyfrowym komputerem i (2) dlatego nim nie jest, że działa według praw nowej nauki (przypominam pogląd Penrose’a — przyp. M. J. K.; patrz s. 18),

54 (14-12-22)

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

Rozdział 2.  Dzisiaj

55

D. Argument świadomości Jest to drugi z najczęściej pojawiających się zarzutów, który współcześnie odżył zapewne pod wpływem badań nad fenomenem świadomości prowadzonych w obrębie nauk o mózgu między innymi przez: Francisa Cricka i Christofa Kocha45, Semira Zeki46, Nikosa K. Logotheisa47, Susan Greenfield48 i wielu innych badaczy. Ale nie tylko przez nich. Również przyczyniły się do owego zainteresowania pisma współczesnych filozofów, takich jak: Daniel Dennett49, John R. Searle50, Paul Churchland i Patricia Smith Churchland51, czy też Hilary Putnam52. Argument ów Jest bardzo dobrze wyrażony w mowie profesora Jeffersona wygłoszonej w 1949 r., z której cytuję: „Dotąd nie będziemy mogli zgodzić się z poglądem, że maszyna jest równa mózgowi, dopóki maszyna nie potrafi napisać sonetu lub skomponować koncertu, dzięki odczuwanym myślom i emocjom, a nie dzięki szansie natrafienia na odpowiednie symbole, to znaczy — potrafi nie tylko napisać je, ale także wiedzieć, że je napisała. Żaden mechanizm nie może odczuwać (a nie jedynie sztucznie sygnalizować łatwy fortel) przyjemności ze swojego sukcesu, zmartwienia, gdy jej lampy topią się, nie może podniecać się pochlebstwem, cierpieć z powodu swoich błędów, być oczarowanym przez seks, być złym lub przybitym, gdy nie może dostać tego, co chce”.53 I znów, jak się wydaje, zarzut związany z nieposiadaniem przez maszynę świadomości zmierza w kierunku wypowiedzenia stanowczej niemożności myślenia przez maszyny. Zresztą tak samo będzie przy okazji kolejnego — E — argumentu. Lecz tak naprawdę, której miejsce znajduje się na przecięciu fizyki klasycznej, mechaniki kwantowej i teorii unifikacji pola. (…) co by się stało, gdyby teorię unifikacji pola już napisano i moglibyśmy śmiało wejść w lukę między fizyką kwantową a klasyczną. Wtedy, jeżeli Penrose ma rację, moglibyśmy zrozumieć działanie mózgu na poziomie cząsteczek i komórek. (…) Skoro już zrozumiemy mózg w kategoriach nowej nauki Penrose’a, jest, jak sądzę, bardzo prawdopodobne, że ktoś wpadnie na pomysł zbudowania nowej maszyny — jakiegoś metakomputera, działającego zgodnie z prawami owej nauki. Tak jak komputer cyfrowy działa według praw mechaniki kwantowej, metakomputer będzie działał według praw metanauki.” [Trefil 1998, ss. 144 – 145] 45

Por.: Crick, Koch 1992; F. Crick, Zdumiewająca hipoteza, czyli nauka w poszukiwaniu duszy, tłum. B. Chacińska-Abrahamowicz, M. Abrahamowicz, Prószyński i S-ka, Warszawa 1997.

46

Por. Zeki 1992.

47

Por. Logotheis 2000.

48

Por. O neuronalnym podłożu świadomości. Rozmowa Stephena Jonesa z Susan Greenfield, Internet.

49

Por. zwłaszcza: D. C. Dennett, Consciousness Explained, Boston 1991, a następnie w: Pengguin Books, London 1993; D. C. Dennett, Content and Consciousness, Routledge and Kegan Paul, London 1969; D. C. Dennett, Animal Consciousness: What Matters and Why, w: „Social Research”, (62)/1995, ss. 691 – 710; Dennett 1997. Zob. też: P. Czarnecki, Koncepcja umysłu w filozofii D. C. Dennetta, Internet.

50

Por.: Searle 1995; Searle 1999a; Searle 1999b.

51

Por. zwłaszcza: P. M. i P. S. Churchland, Matter and Consciousness, Bradford Books, MIT Press, Cambridge 1984, Mass; Churchland 1995.

52

Por. Putnam 1998.

53

Turing 1972, s. 35.

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

(14-12-22)

55

56

Sztuczna Inteligencja

nie ustalono jeszcze, że maszyna faktycznie nie może myśleć (wystarczy przeanalizować ostatni cytat Turinga ze s. 54; patrz również cyt. poniższy i cyt. W. Marciszewskiego, s. 54) i w rezultacie faktycznie nie może być świadoma. Tym bardziej, że dostęp do świadomości dany jest nam zawsze subiektywnie. Według krańcowej (solipsystycznej; przyp. M. J. K.) postaci tego poglądu jedynym sposobem upewnienia się, że maszyna myśli, jest być maszyną i odczuwać, że się myśli. Można by opisać te uczucia światu, ale naturalnie nikt nie byłby usprawiedliwiony, gdyby wziął tego rodzaju wiadomość pod uwagę. Podobnie — według tego poglądu jedynym sposobem przekonania się, że jakiś człowiek myśli, jest być tym człowiekiem.54 Jako rozwiązanie naszego problemu Turing zaproponował zmodyfikowaną wersję gry w imitację (bez gracza B), stosowaną również w praktyce, o nazwie viva voce. Ma ona na celu przekonanie się, czy ktoś rzeczywiście rozumie coś, czy też „nauczył się tego na pamięć jak papuga” (zapamiętajmy to zdanie dla dalszych rozważań).55 A kojarzyć się nam może z tak dobrze znanymi sytuacjami jak egzaminy w czasie studenckiej sesji czy matury, w których ciąg pytań ma za zadanie zweryfikować w odpowiedni sposób zdanie naszego egzaminatora o stanie naszej wiedzy, a niekiedy i inteligencji, oraz — rzecz jasna — świadomości (przypisanej nam wcześniej). Możemy przyjąć trochę inny niż Turinga sposób obrony przed owym argumentem odwołując się do fragmentów Dociekań filozoficznych Ludwiga Wittgensteina (1889 – 1951): Cóż się dzieje, gdy osoba (…) czyta na przykład gazetę? — Jej wzrok przesuwa się — jak mówimy — po drukowanych słowach i wypowiada je głośno albo tylko do siebie; przy czym niektóre słowa ujmuje w ich drukowanym kształcie jako jedną całość, w innych ogarnia wzrokiem tylko pierwsze sylaby, a czasem odczytuje je sylaba po sylabie lub nawet litera po literze. Powiedzielibyśmy też, że osoba ta przeczytała zdanie, jeżeli czytając zdanie nie mówiła wprawdzie ani głośno, ani do siebie, ale była potem w stanie powtórzyć to zdanie dosłownie lub w przybliżeniu. — Może ona zwracać uwagę na to, co czyta, a może też — jak by można rzec — funkcjonować jedynie jako maszyna do czytania, tzn. czytać głośno i poprawnie, ale bez zwracania uwagi na to, co czyta.56 Czyta bez świadomości, jakbyśmy powiedzieli, ale Trzeba przyznać, że jeśli chodzi o wymawianie jakiegoś pojedynczego drukowanego wyrazu, to w świadomości ucznia „udającego”, że czyta — czyli funkcjonującego jedynie jako maszyna do czytania — może zachodzić to samo co w świadomości „czytającego” ów wyraz wprawnego czytelnika.57 54

Tamże, s. 35.

55

Tamże.

56

Wittgenstein 2000, § 156, s. 92.

57

Tamże, s. 93.

56 (14-12-22)

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

Rozdział 2.  Dzisiaj

57

Po zastanowieniu się nad fenomenem tego, czy ktoś rzeczywiście czyta, moglibyśmy prawdziwie orzec: „On czyta”, ale sprawiana iluzja czytania — poprzez funkcjonalne (bez użycia świadomości) wyrażanie poszczególnych słów — zdaniem Wittgensteina, może być trudna do wykrycia. A to, co stoi na przeszkodzie, że nie potrafimy tego jeszcze stwierdzić, może wynikać z naszej niedostatecznej znajomości zjawisk zachodzących w mózgu i w układzie nerwowym. Gdybyśmy je znali lepiej, to dostrzeglibyśmy, jakie połączenia wytworzone zostały w wyniku ćwiczenia; a wtedy, zajrzawszy do mózgu, moglibyśmy orzec: „Teraz przeczytał ów wyraz, teraz powstało połączenie, na którym polega czytanie”.58 Zatem badania nad świadomością i procesami świadomymi powinny zmierzać (i zmierzają, czego dowodem są badania współczesnych naukowców; por. s. 55)59 w kierunku wyznaczenia szlaków i zjawisk w mózgu występujących bądź współwystępujących przy procesach świadomej uwagi, jak na przykład świadomego czytania. Z wiedzą tą, z korzyścią dla naszych rozważań, winny pójść prace nad możliwością zweryfikowania tego, czy odpowiednie zjawisko w maszynie cyfrowej może odpowiadać zjawisku zachodzącemu w mózgu człowieka. Jeśli tak, wówczas nie stoi nic na przeszkodzie, aby stwierdzić, iż: zachowanie x maszyny jest zachowaniem świadomym, gdyż identyczne zjawiska zachodzą w mózgu człowieka co we wnętrzu maszyny przy jego zachowaniu x. Przywołajmy jeszcze na moment fragment z papugą (patrz s. 56). Jak pamiętamy, Turing, wcielając wcześniej w życie grę viva voce, twierdzi, iż taka właśnie gra może sprawdzić, niczym egzamin, czy maszyna jest świadoma. Lecz rozpatrzmy taką oto dosłowną sytuację, która wydarzyć się miała naprawdę. 58

Tamże, s. 95. Choć są też i tacy, którzy 1) zaliczają neuroscience do nauk niepewnych, takich jak psychologia („W środowisku lekarskim dość rozpowszechniona jest opinia, że neurologia (obok może psychiatrii) jest najbardziej enigmatyczną i niepewną gałęzią medycyny (…) Czy jest to jej permanentna charakterystyka? Moja diagnoza w tej kwestii brzmi: zasadniczo tak!” [Szumakowicz 2000, ss. 135 – 136]) i 2) twierdzą, że już wszystko z zakresu neuroscience wiemy („Otóż wiele praw funkcjonowania mózgu już znamy (co najmniej od czasów Pawłowa,…” (sic! — przyp. M. J. K.)), a ponadto 3) uważają, że wiedza ta nie ma żadnej wartości poznawczej („…dalsze będziemy poznawać, być może, w sposób nieograniczony w czasie (…), ale trudno mi pojąć, dlaczego miałoby to przynieść coś filozoficznie istotnego.” [cyt. Tamże, s. 147]). Oczywiście z wiadomego względu takimi „rewelacyjnymi” poglądami nie będę się ani zajmować, ani przejmować w tej pracy. Zaś samemu zainteresowanemu, E. Szumakiewiczowi, na jego „trudności z pojmowaniem” tak zasadniczej kwestii, jaką jest wpływ wiedzy z zakresu nauk o mózgu na filozofię (choćby epistemologię czy nauki kognitywne), należałoby przypomnieć słowa Bertranda Russella wypowiedziane do jednego z filozofów, który nie rozumiał pewnej kwestii głoszonej przez Russella: „Młody człowieku, za twoje braki w pojmowaniu, to ja już nie odpowiadam!”

59

Do listy badaczy z zakresu neuronauk zajmujących się świadomością w tym miejscu należałoby dodać: Michaela S. Gazzanigę (por. Gazzaniga 1997; Gazzaniga 1998), Garalda M. Edelmana (por. Edelman 1998) oraz Antonio R. Damasio (por. Damasio 1992; Damasio 1999; Damasio 2000; Damasio 2000b. Zob. również referat wygłoszony na „Sympozjum Kognitywnym: Subiektywność a świadomość”, Obrzycko 2000, zorganizowany przez UAM: D. Wiener, Koncepcja świadomości Antonio Damasio przedstawiona w książce The Feeling of what happens: body and emotion in making of consiousness, Internet).

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

(14-12-22)

57

58

Sztuczna Inteligencja

Locke nigdy zapewne niepodejrzewany o łatwowierność, nie zawahał się uwierzyć w historię pewnej papugi, o której opowiada w swoich Pamiętnikach kawaler Temple60. Papuga ta rzekomo odpowiadała do rzeczy na pytania i nauczyła się prowadzić, tak jak my, swego rodzaju rozmowę, mającą pewną ciągłość.61 Fragment ten, po pierwsze, wywołuje w nas pobłażliwy uśmiech na myśl o naiwności tak poważnego filozofa, jakim był z pewnością J. Locke, lecz z drugiej strony trwoży ze względu na tematykę w niniejszej pracy poruszaną. Papuga zachowała się bowiem tak, jak chcielibyśmy, aby zachowała się maszyna myśląca, która zdaje test Turinga (a jej przecież rozumności czy inteligencji nie przypiszemy). Jest to w rezultacie taki sam zarzut jak rozpatrywany nieco dalej zarzut S. Lema z „kosmicznym gramofonem” (por. ss. 70 – 71), czyli biernie odtwarzanym zapisem. Lecz — podobnie jak tamten — niemożliwy do zaistnienia (patrz tamże). Współcześnie argumentem związanym ze świadomością posługują się: John Searle, Hilary Putnam i Alwyn Scott62.

E. Argumenty wypływające z różnych niemożności Jest to w zasadzie argument bardzo zbliżony do poprzedniego. Powiada on: Zgadzam się z tobą, że możesz zrobić maszyny wykonujące to wszystko, o czym wspomniałeś, ale nigdy nie będziesz w stanie zrobić maszyny, która by zrobiła X.63 Przy czym za X można podstawić takie czynności jak: Być uprzejmym, pomysłowym, pięknym, przyjacielskim, mieć inicjatywę, mieć zmysł humoru, odróżniać dobro od zła, robić błędy, zakochiwać się, lubić truskawki ze śmietaną, stać się obiektem czyjejś miłości, uczyć się z doświadczenia, używać właściwych słów, być przedmiotem swojej własnej myśli, potrafić zachowywać się w tak rozmaity sposób jak człowiek, robić coś naprawdę nowego.64 Obecnie najczęściej poruszanym przykładem w ramach X jest kwestia czucia bólu i możności (czy raczej w tej debacie niemożności) jego odczuwania przez maszyny (por. s. 82)65. 60

William Temple (1628 – 1699) był wybitnym dyplomatą znienawidzonym przez teologów anglikańskich za wolnomyślne przekonania. Biskup Burnet oskarżał go o materializm, ateizm i hołdowanie nauce Konfucjusza. Temple napisał, prócz Pamiętników, szereg dzieł o treści politycznej i historycznej oraz szkiców literackich i filozoficznych. Zebranych później w dwóch tomach pt. Miscellanea. (Przyp. za cyt.)

61

La Mettrie 1984, s. 33.

62

Wyraża się to w tezie: „ Sądzę, że naprawdę inteligentna maszyna musi być zdolna do wzajemnego oddziaływania z kulturą, a do tego jest potrzebne posiadanie świadomości. A świadomość nie pojawi się w sposób cudowny w komputerze w dniu, w którym jakieś maszyny przejdą pozytywnie test Turinga, jak to sugerują niektórzy funkcjonaliści. Stałoby się tak tylko wtedy, gdyby inżynierowie budujący komputery byli w stanie zaprogramować w komputerze świadomość”. [Scott 1999, ss. 186 – 187]

63

Turing 1972, s. 36.

64

Tamże.

65

Por. chociażby: Lillegard 1995.

58 (14-12-22)

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

Rozdział 2.  Dzisiaj

59

Bardzo często też — ze względu na pokrewieństwo dwu ostatnich argumentów — podaje się je w jednym ciągu (poniższy przykład). Maszyna nie posiada świadomości. Zatem potrafi grać w szachy z Kasparowem, ale nie posiada świadomości, że: 1) gra teraz w szachy, 2) Kasparow jest mistrzem świata, 3) wygrała i, ostatecznie, 4) cieszyć się z wygranej.66 Skąd biorą się podobne poglądy na ograniczone w swym zachowaniu maszyny, którym odbiera się prawo do śmiechu? Najczęściej są one wynikiem indukcji wynikającej z obserwacji potocznych — przez całe życie mieliśmy do czynienia z licznymi maszynami i na ich podstawie wyrobiliśmy sobie obraz czegoś takiego jak MASZYNA, zapominając o poszczególnych jej modelach — uczyniliśmy z nich w rezultacie model sztandarowy, definicję. Maszyny są brzydkie, każda z nich jest przeznaczona do bardzo ograniczonego celu, są one bezużyteczne w przypadku cokolwiek innego celu, rozmaitość zachowania się każdej z nich jest bardzo mała itd.67 Ale zapominamy — po pierwsze — o tym, że nigdy jeszcze nie mieliśmy de facto do czynienia z maszyną myślącą, o której przecież jest mowa, więc w rezultacie indukcja nasza jest cokolwiek nie na miejscu! A po drugie — o tym, że na podstawie codziennych doświadczeń ktoś również może wysnuć taką tezę w stosunku do ludzi. W rezultacie parafrazując zdanie: „Zgadzam się z tobą, że możesz zrobić maszyny wykonujące to wszystko, o czym wspomniałeś, ale nigdy nie będziesz w stanie zrobić maszyny, która by zrobiła X.” na: „Zgadzam się z tym, że znasz osobnika (bądź jesteś osobnikiem), który potrafi zrobić to wszystko, o czym wspomniałeś, ale nie potrafi on (bądź nie potrafisz) zrobić X.” Naszym X mogą być rozmaite czynności: zamaszysty zamach w powietrzu z półobrotem wokół własnej osi, który potrafił wykonać mistrz wschodnich sztuk walki, Bruce Lee; stepowanie w rytm padającego deszczu, co potrafił zrobić Fred Aster w musicalu Deszczowa piosenka; zaśpiewanie w taki sposób urodzinowej piosenki Happy birthday (polskie Sto lat), że o mało wersja ta nie stała się hymnem narodowym, skądinąd wielkiego narodu, bo tego właśnie dokonała Marylin Monroe itd. A co na to autor gry w naśladownictwo? Nie wydaje mi się, aby prace i zwyczaje rodzaju ludzkiego stanowiły odpowiedni materiał, do którego można by stosować naukową indukcję. Bardzo dużą część czasoprzestrzeni trzeba by zbadać, aby móc otrzymać wiarygodne wyniki. Inaczej możemy (tak jak większość angielskich dzieci) rozstrzygnąć, że każdy mówi po angielsku i że (w rezultacie, przyp. M. J. K.) głupio jest uczyć się francuskiego.68 66

M. Kasperski, Sztuczny człowiek czy sztuczny Bóg?, Internet, s. 3.

67

Turing 1972, s. 36.

68

Tamże, s. 37

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

(14-12-22)

59

60

Sztuczna Inteligencja

Rozpatrzmy jednak dla uzupełnienia rozważań przypadek specjalny. Powiedzmy, że ktoś pod nasze X podstawił „popełniać błędów” i otrzymał w rezultacie: „Ta maszyna może wszystko, o czym wspomniałeś, ale jednego nie może, popełniać błędów!”. Dlaczego ten przypadek jest taki ważny? Ano dlatego, że ma ciekawe implikacje w przypadku gry w imitację. Żądanie: „maszyny nie mogą popełniać błędów” wydaje się dziwne. Ktoś może zapytać: „Czy są one z tego powodu cokolwiek gorsze?”. Ale przyjmijmy bardziej życzliwe stanowisko i spróbujmy przekonać się, co to żądanie naprawdę oznacza. Myślę, że ten głos krytyczny można wyjaśnić w terminach gry w naśladownictwo. Wymaga się, aby pytający mógł odróżnić maszynę od człowieka po prostu dając im do rozwiązania pewną ilość problemów arytmetycznych. Maszyna zostałaby zdemaskowana z powodu swojej szalonej celności (por. argument nazwany problemem naturalnej celowości; strona 74; przyp. M. J. K.). Odpowiedź na to jest prosta. Maszyna (zaprogramowana do grania w grę) nie usiłowałaby udzielać prawidłowych odpowiedzi na problemy arytmetyczne, natomiast rozmyślnie wprowadzałaby błędy w sposób obliczony na zmylenie pytającego.69 I drugi, równie specjalny przypadek, dotyczący kwestii „bycia przedmiotem swojej własnej myśli”, czyli — krótko mówiąc — przypadek dotyczący aspektu samoświadomości. Tym razem odpowiedzmy krótko, acz stanowczo: W kwestii, że maszyna nie może być przedmiotem swojej własnej myśli można, naturalnie, odpowiedzieć tylko wtedy, gdy można będzie wykazać, że maszyna trochę myśli na temat jakiegoś przedmiotu.70 Co sprowadza się do przytaczanego wcześniej, choć nie wprost, stwierdzenia: „Poczekajmy, zobaczymy”. Dobrze jest teraz zwrócić uwagę, iż cały argument „E. Argumenty wypływające z różnych niemożności”, ma w rezultacie bardzo wiele wspólnego z argumentem, który się pojawi później (patrz: s. 69) pod nazwą: problem sędziego. W rezultacie indukcja, którą przeprowadził wcześniej sędzia (C), a w wypadku powyższego argumentu oponent, i jej wyniki przynależą do (C) jako część jego skłonności, stanu osobistych poglądów. Argument ten współcześnie wyznaje między innymi cytowany wcześniej A. Scott71.

F. Zarzut lady Lovelace Z sylwetką lady Ady Lovelace spotkaliśmy się już w pierwszym rozdziale przy okazji omawiania maszyny analitycznej Babbage’a (patrz: ss. 38 – 40). Lecz oprócz znanych 69

Tamże, s. 37 (porównaj również drugi cytat z A. Turinga, s. 75).

70

Turing 1972, s. 38.

71

Wyraża się to w tezie: „Cechą układu inteligentnego nie jest jedynie przekonanie kogoś w czasie krótkiej konwersacji, że jest się układem inteligentnym. (…) Prawdziwym zadaniem jest zrobić coś inteligentnego, na przykład: przetłumaczyć piosenkę, podać wymyślone twierdzenie matematyczne, podać przekonujące argumenty lub jeszcze coś innego. (…) [Scott 1999, s. 186] Por. również z fragmentem wypowiedzi Jeffersona, z Turing 1972 (cytat ten znajduje się również w niniejszej pracy, s. 55).

60 (14-12-22)

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

Rozdział 2.  Dzisiaj

61

jej prac nad programami do wyliczania poszczególnych liczb Bk szeregu Bernoulliego72 ważna jest dla nas jej praca z 1842 roku73, w której to pojawiła się następująca teza: Maszyna analityczna nie rości sobie pretensji do oryginalności rozwiązań. Może ona wykonać wszystko to, co wiemy w jaki sposób zlecić jej do wykonania” (jej kursywa).74 Jest to bardzo znany i powszechnie stosowany argument mówiący o tym, iż w rezultacie maszyna, nawet maszyna myśląca, nie może/nie będzie mogła niczego więcej, niż program (więc i wcześniej programiści) będzie przewidywał. Będzie czynić to, co zechce ich operator i tylko w ramach tego, co sama będzie miała zakodowane w programie — poza tym nic więcej. Także na przykład w czasie wolnym od pracy nie będą wymyślały zabaw ani niczego innego, w stosunku do tego, co zostało już wymyślone (jak czyni to człowiek hołdując powiedzeniu: „Wyobraźnia jest matką wszystkich rzeczy”). Turing broniąc się przed tym zarzutem cytuje swojego kolegę Hartree’go75, który zauważa, że owszem, maszyna Babbage’a nie może zrobić nic nowego, ale: To nie znaczy, że w ogóle nie jest możliwe zbudowanie elektronicznego urządzenia, które będzie „myślało dla siebie” lub w którym, w terminach biologicznych, można by zainstalować odruch warunkowy, który stanowiłby podstawę „uczenia się”. Problem czy to jest w zasadzie możliwe czy też nie, jest zarówno stymulujący, jak i interesujący.76 Tekst ten był pisany w 1949 roku, a tekst Turinga w 1950. Jeszcze wówczas nie było maszyn, które potrafiłyby sprostać zadaniu stworzenia czegoś nowego (w sensie — niezaprogramowanego wcześniej). Dziś jednak czasy nieco się zmieniły. Maszyny dowodzą twierdzeń, nad którymi trudzili się wcześniej pierwszorzędni matematycy (tak było z hipotezą H. Robbinsa (1936), której nikt nie mógł dowieść aż do roku 1996, kiedy tego dokonał komputerowy system EQP — dowód był krótki, bo liczył 17 kroków77 (patrz: rozdział 2.3.2 — „Dowodzenie twierdzeń logiki i matematyki”, 72

Por. Marciszewski 1998, s. 63. Liczby szeregu Bernoulliego tworzone są następująco:

1

1 2k

2



1 2k

3



1 2k

4

 ...

2k 22k1 B , k (2k)!

gdzie k jest kolejną dowolną liczbą naturalną, a Bk liczbą Bernoulliego z niej utworzoną, np.

1 1 1 k  1, B k  ; k  2, Bk  ; k  3, Bk  ; itd. 6 30 42 Por. I.N. Bronsztejn, K.A. Siemiendiajew, Matematyka, PWN, Warszawa 1986, t. 2/3, ss. 382-383. 73

Por. s. 40, przyp. 57.

74

A. Lovelace; za: Turing 1972, s. 38. D. R. Hartree, Calculating Instruments and Machines. Urbana III, University of Illinois Press, 1949.

75 76 77

D. R. Hartree; za: Turing 1972, s. 38. Por.: W. McCune, EQP, Internet; W. McCune, Robbins Algebras Are Boolean, Internet. Swoją drogą to dziwne, że jesteśmy skłonni uważać pewnych ludzi za geniuszy, a żadnej maszyny za genialną: Marian Rejewski, jeden z trzech inżynierów polskich biorących czynny udział w złamaniu kodu niemieckiej maszyny Enigma, został poproszony przez jeden z amerykańskich instytutów o złamanie

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

(14-12-22)

61

62

Sztuczna Inteligencja

ss. 100 – 120). Maszyny również generują nowe rozwiązania z innych dziedzin, jak na przykład w ramach medycyny, przy wykorzystaniu tzw. systemów eksperckich (o których mowa będzie trochę później), a nawet stwarzają nowe patenty, często z nimi samymi związane. A przykładem niech będzie taka oto historia: Amerykańscy informatycy z Brandies University w Waltham przeprowadzili komputerową symulację ewolucji robotów. Komputer miał do dyspozycji jedynie trzy rodzaje wirtualnych elementów: proste pałeczki jako elementy szkieletu, przeguby do ich łączenia i sztuczne neurony do przesyłania sygnałów. Skomplikowany program miał z tych prostych części zaprojektować sprawnie poruszającego się robota. Już po 300 próbach komputer zaczął modelować urządzenia zdolne do ruchu, zaś najbardziej zaawansowany projekt mógłby nawet pełzać na trzech nogach! Badacze zrobili więc kolejny krok. Podłączyli komputer do urządzenia stosowanego przez inżynierów do szybkiego wytwarzania prototypów projektowanych urządzeń i podzespołów. Przy drobnej pomocy autorów eksperymentu sprzężona z komputerem maszyna zbudowała rzeczywisty model małego robota, który mógł się poruszać tak jak jego wirtualny poprzednik.78 W to samo zdaje się wierzył Turing. Sam zwracał uwagę (za Hartree’m), że zrobienie takiej maszyny mogącej niejako „wyjść” poza to, co ma w programie, będzie możliwe, gdy tylko zostaną skonstruowane odpowiednio mocne maszyny, wymieniając przy tym dużą pojemność pamięci i szybkość. Liczył, że maszyny z pamięcią 109 bitów dadzą już sobie z tym radę — szacuje się na przykład, że pamięć mózgu człowieka wynosi 1020 bitów79, a współczesnego superkomputera ASCI White80 (od ang. Advanced Strategic Computing Initiative) firmy IBM, ponad 160 TB, czyli 160×1012. Innym rodzajem obrony przed zarzutem lady Lovelace, byłoby sprawdzenie tego, czy człowiek może wyjść poza siebie samego. I jeśli chodzi o robienie rzeczy oryginalnych, to i owszem, nawet często jesteśmy świadkami takich rzeczy (przykłady można przytaczać chociażby za Księgą rekordów Guinnessa), ale jeśli potraktujemy program maszyny jak oprogramowanie naszego umysłu, to wówczas stwierdzić będziemy musieli, że poza nie wyjść nie możemy także81. Mało tego, jeśli traktować poważnie dorobek nauk o mózgu, a nie mamy powodu by tak nie czynić, to musimy przyjąć za Michaelem Gazzanigą na przykład, że możliwości nasze są skończone, a wyznaczają je DNA i — dalej za podwójną helisą — możliwości rozwoju mózgu ludzkiego, które pewnego trudnego kodu. Kodu, który powstał najprawdopodobniej około 1905 roku, a którym posługiwali się w kontaktach gen. J. Piłsudski i partia PPS. Kod ów Amerykanie próbowali przez zgoła 70 lat złamać i żadnemu z ich kryptografów rzecz ta się nie udała. M. Rejewski przyjąwszy zadanie złamał go w dwa tygodnie! Najlepszym określeniem Rejewskiego będzie przyznanie mu geniuszu i, jak to określił jeden z polskich znawców tematu, geniuszu pierwszej kategorii. Jednakże jak w tym świetle określić fakt udowodnienia hipotezy Robbinsa przez program EQP? Pytanie to pozostawiam na razie bez odpowiedzi. 78

Robot, syn robota 2000, s. 16.

79

Por. Hołyński 1979, s. 140.

80

Por. Nowy superkomputer firmy IBM 2000, s. 12.

81

Nawet, gdy weźmie się za przykład ludzi genialnych, to należałoby stwierdzić, iż zjawisko geniuszu, chociaż rzadkie, to zachodzi w ramach tego samego programu, co równie rzadkie przypadki debilizmu. Tyle, że są to przypadki graniczne amplitudy w ramach sinusoidy na osi rozwoju intelektu.

62 (14-12-22)

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

Rozdział 2.  Dzisiaj

63

niczym implicite z naszego DNA wynikają82. Zatem zarzut ten na dwojaki sposób można odrzucić i wszystko zależy od tego, co potraktujemy jako program, poza który wyjść nie możemy. Bo: 1. Jeżeli program to z góry narzucone dyrektywy postępowania, nazwijmy go

programem w wąskim znaczeniu, gdyż konkretne rozkazy odpowiadają za użycie ich w konkretnych sytuacjach, to maszyna może wyjść poza program. Zaś: 2. Jeżeli program to tak ogólne oprogramowanie, że pozwala nam generować

nowe dyrektywy postępowania (dzięki kombinatoryce) w ramach ogólnie ujętych praw, np. praw biologicznych (DNA, mózg), to poza nie nawet my ludzie nie możemy wyjść, np. nie wyjdziemy poza percepcję człowieka stając się (czy też raczej czując się, albo czując świat) nietoperzem83. Taki program nazwijmy programem w szerokim znaczeniu84. Jeszcze inna forma obrony przed zarzutem lady Ady Lovelace wyłoni się po przeczytaniu poniższego fragmentu: „Maszyna wykonująca jedynie to, co zawiera stworzony przez nas program” — dla niektórych jest to może „intuicyjnie oczywiste”, ale czy „niewątpliwie prawidłowe”? Jeśli program dla maszyny będzie pisać nie człowiek, lecz inna maszyna? Jeśli i tę maszynę programowała z kolei inna maszyna zaprogramowana również przez maszynę, dla której oprogramowanie sporządziła jakaś n-ta maszyna? I cóż z tego, że w końcu tego łańcucha zawsze odnajdziemy inicjatywę człowieka? Jego rola będzie tak znikoma, jak wpływ wiadomości nabytych w szkółce niedzielnej na pracę pięćdziesięciolatka o ukształtowanej osobowości. Dwadzieścia lat temu (a rzecz była pisana w 1978 roku; przyp. M. J. K.) R.M. Friedberger85 potraktował zagadnienie pisania programów jako szczególny przypadek rozwiązywania ogólnych problemów przez maszynę zdolną do uczenia 82

Wyrażone jest to na przykład w tezie: „Jeśli, jak staram się udowodnić w tej książce, większość naszych zdolności psychicznych jest wynikiem selekcji, dojrzały mózg, gdzie mieszczą się połączenia nerwowe umożliwiające zachodzenie złożonych, ludzkich procesów psychicznych, musi rozwijać się w genetycznie zaprogramowany, ściśle określony sposób.” [Gazzaniga 1997, s. 40.] Takiego samego zdania jest również większość współczesnych badaczy z kręgu neuronauk, na przykład G.M. Edelman ze swoją koncepcją „neuronalnego darwinizmu”. Por. Gazzaniga 1997, s. 64 i Edelman 1998.

83

Por. T. Nagel, Jak to jest być nietoperzem, w: T. Nagel, Pytania ostateczne, tłum. A. Romaniuk, Spacja, Warszawa 1997, ss. 203 – 219.

84

Ktoś mógłby mi zarzucić przy tej okazji, że teza powyżej sformułowana jest nieprawdziwa. Przy tym mógłby powołać się na rozwój cywilizacyjny — wychodzenie poza program kultury człowieka. Powoływanie się na wpływ kultury nie powoduje jednak falsyfikacji powyższej tezy. Widziałbym taki wpływ, tak samo jak zmieniające się pasmo DNA, jako domenę metody kombinatorycznej. Wówczas też wpływ kultury, czy tzw. wyjście poza kulturę, odbywa się dalej w obrębie kultury (na zasadzie rozszerzania się podzbiorów zbioru).

85

R. M. Friedberger, A Learning Machine, w: „IBM Journal of research and Development”, 2/1958. (Przyp. za cyt.)

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

(14-12-22)

63

64

Sztuczna Inteligencja

się metodą prób i błędów. Dla prostych przykładów obliczeniowych komputer wypisywał dowolny program i sprawdzał przydatność jego rozkazów. Wybór najbardziej skutecznych rozkazów dawał w końcu gotowe programy.86 Jest to doskonały przykład maszyn wychodzących poza swój program (oczywiście, jak ustaliliśmy, program w wąskim tego słowa znaczeniu). Jeśli chodzi o wykorzystywanie komputerów do podejmowania decyzji, którym to zagadnieniem zajmę się nieco później, na przykład w podrozdziale: 2.3.3 — „Rozpoznawanie obrazów” (por. ss. 121 – 137). Teraz zaznaczę tylko, że metoda wykorzystywania komputerów jako specyficznie pojętych doradców czy też sędziów mających ocenić sytuację, stosowana jest w programach NASA87. Na promach kosmicznych, w przestrzeni pozaziemskiej, istnieją tak nieprzyjazne warunki (w tym i dla sprzętu komputerowego), że zamiast jednego MEGA-komputara, którego przy dzisiejszym stanie technicznym nie sposób tam utrzymać, montuje się pięć, porównywalnych mocą obliczeniową do zwykłego Pentium II firmy Intel. W sytuacjach kryzysowych komputery te „głosują” nad podjętą decyzją. Jeśli chodzi zaś o pierwszy fragment cytatu, mówiący o maszynach piszących programy dla maszyn i… tak n-razy, to dzisiaj stosuje się tak zwane algorytmy genetyczne, które w pewien sposób wypełniają tak zarysowaną ideę. Programowanie genetyczne ma na celu stworzenie programu na wzór doboru naturalnego88. Postępuje się w tym przypadku według poniższej ogólnej procedury. 1. Tworzymy „chromosomy” (poszczególne cechy) systemu dla programu

genetycznego, z których ma się składać. 2. Na podstawie (1) realizujemy opisywane przez nie systemy. 3. Badamy wyniki z (2). Badanie to ma stwierdzić, które z systemów najlepiej

się nadają do spełniania ostatecznych zadań. To postępowanie decyzyjne może także przejąć maszyna! 4. Na podstawie (3) eliminujemy systemy najsłabsze i pozostawiamy

najsprawniejsze, które w kolejnej fazie będą pełnić znowu rolę poszczególnych „chromosomów”. To postępowanie również może przejąć maszyna! Procedura, która tu została przedstawiona nazywa się programowaniem genetycznym, a wykorzystywana jest między innymi przy jednym z najbardziej ambitnych współczesnych projektów w ramach Sztucznej Inteligencji, przy projekcie belgijskiej firmy Starlab, CAM-Brain Machine, mającym na celu zbudowanie sztucznego mózgu o pojemności biliona neuronów (będzie o tym mowa w podrozdziale 2.4.1 — „Od sztucznych sieci neuronowych do sztucznego mózgu. Maszyna typu B w świetle projektu CAM-Brain”, ss. 177 – 182).

86

Hołyński 1979, ss. 185 – 186.

87

Por. Dębek 2001.

88

Bardzo dużo o tej metodzie modelowania sztucznej inteligencji, Czytelnik znajdzie na stronie domowej dr hab. Haliny Kwaśnickiej.

64 (14-12-22)

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

Rozdział 2.  Dzisiaj

65

G. Argument wypływający z ciągłości systemu nerwowego System nerwowy na pewno nie jest maszyną o stanach dyskretnych. Mały błąd w informacji o wielkości nerwowego impulsu wchodzącego do neuronu może spowodować różnicę wielkości impulsu wyjściowego. Można argumentować, że ponieważ tak jest nie można oczekiwać, aby można było naśladować zachowanie się systemu nerwowego przy pomocy systemu o stanach dyskretnych.89 Argument ów, ze względu na naszą grę w naśladownictwo, jest jak najbardziej chybiony. Nie interesuje nas tu porównanie mózgu i maszyny pod względem strukturalnym, do którego się zarzut ów odwołuje, a tylko podobieństwo funkcjonalne. Przecież chodzi o to, aby maszyna spełniając funkcje językowe, generowała nam „coś na kształt” umysłu. A można by było to jeszcze ograniczyć — nie musi nam wcale, idąc za koncepcją Turinga, generować umysłu ze wszystkimi jego atrybutami, wystarczy, że będzie przemawiać w bardzo specyficzny sposób: ma generować sensownie zdanie x w odpowiedzi na poprzedzające je — ze strony dowolnego współmówiącego (C) — zdanie y90 (o kwestii rozróżnienia strukturalnych i funkcjonalnych podobieństw i różnic pomiędzy mózgiem a maszynami będę jeszcze mówić przy omawianiu metafory komputerowej; por. ss. 166 – 170). Współcześnie można jeszcze inaczej odeprzeć ten zarzut. Istnieją już maszyny analogowe, które spełniają warunek stanów dyskretnych91. Mało tego. Buduje się już tzw. maszyny neuronalne, których struktura reprezentuje strukturę znaną nam z mózgu ludzkiego. Przykładem może być CAM8 (CAM, to skrót od ang. Cellular Automata Machine, zaś cyfra 8 określa liczbę modułów pamięci komórkowej wchodzących w jej skład), maszyna zbudowana na przełomie lat 80. i 90. przez inżynierów z Massachusetts Institute of Technology (MIT) za cenę 40 tysięcy dolarów (taka była cena prototypu)92. Jest to pierwszy wieloprocesorowy komputer, który został skonstruowany do przetwarzania informacji w sposób zgodny z ideą komórkowego automatu. Będziemy szerzej mówić o nim i jego zastosowaniu przy analizie projektu CAM-Brain. Współcześnie wyrazicielami argumentu wypływającego z ciągłości systemu nerwowego są zwłaszcza badacze z obrębu neuronauk, na przykład Susan Greenfield93 (choć nie wszyscy, na pewno nie jest nim M.S. Gazzaniga; patrz podrozdziały: 2.3.5 89

Turing 1972, s. 40.

90

Por. M. Kasperski, Sztuczny człowiek czy sztuczny Bóg?, Internet, s. 2.

91

Por. też: W. Duch, Wstęp do kognitywistyki, Internet.

92

Por. Buller 1998, ss. 48 – 49, 56.

93

Wyraża się to w bardzo krótkim, acz dobitnym zdaniu: (…) „trudno pojąć, czemu niektórzy ludzie uważają mózg za komputer, czy chociażby próbują snuć między nimi analogie.” [Greenfield 1999, s. 140.] Jednak już w swojej następnej książce (Greenfield 1998) wycofuje się z poprzednio głoszonej „trudności w pojmowaniu” metafory komputerowej, chociażby w zdaniu: „Porównanie mózgu z komputerem wykazuje pewne ich podobieństwa.” albo „Najbardziej owocne są porównania całości procesów toczących się w tych dwóch rodzajach struktur: biologicznej i mechanicznej” [Greenfield 1998, rozdział Mózg elektronowy, ss. 22 – 23.] Będę jeszcze o tym mówić przy okazji podrozdziału 2.4 — „Sztuczny mózg — sztuczne sieci neuronowe (Neural Network). Ku metaforze komputerowej”, ss. 166 – 177, zwłaszcza rysunek 24, s. 154.

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

(14-12-22)

65

66

Sztuczna Inteligencja

— „Analiza mowy i języka” (ss. 140 – 165) i 2.4 — „Sztuczny mózg — sztuczne sieci neuronowe (Neural Network). Ku metaforze komputerowej” (ss. 166 – 177)), ale też i inni, m.in. A. Scott94.

H. Argument wypływający z nieformalności zachowania się Współcześnie ten zarzut przyjął nazwę frame problem (problem ramy)95. Dotyczy on wszystkich takich czynności, z którymi spotykamy się na co dzień. Jakich? Przeanalizujmy go na przykładzie jednego z najbardziej popularnych, choć, dodajmy, niekoniecznie najsubtelniejszych, żartów algorytmicznych lat 60. – 70. ubiegłego stulecia — na tzw. algorytmie dnia „wytężonej pracy”96. 1. Start — przychodzisz do pracy. Przejdź do 2. 2. Czy szef patrzy na ciebie? Tak — przejdź do 3; Nie — przejdź do 4. 3. Udawaj, że pracujesz. Po czym przejdź do 5. 4. Zrób sobie herbaty. Po czym przejdź do 5. 5. Czy czas pracy minął? Tak — przejdź do 6; Nie — przejdź do 2. 6. Stop — idź do domu.

W schemacie tym są jednak znane nam z codziennego życia poważne luki, na przykład: co będzie, gdy szef będzie miał dobry humor i zamiast chcieć, żebyś pracował, będzie się chciał napić z tobą herbaty? Albo: co będzie, gdy szef będzie miał zły humor i wówczas, jakbyś wydajnie nie pracował i tak nie będzie go to satysfakcjonować? Może być też tak, że chociaż szef ma zły humor, to żeby go sobie poprawić będzie chciał się z tobą napić (wówczas też niekoniecznie herbaty). Może się też zdarzyć, że herbata się dawno skończyła — i co wówczas? Lata, z których żart ów pochodzi, przyniosły pewne rozwiązanie. Było nim zapisywanie programów nie w sposób algorytmiczny, ale heurystyczny (tzn. przy wykorzystaniu zestawu pewnych bardzo ogólnych zasad działania, które były oparte na takim zestawianiu faktów już znanych i nowych, że można było znaleźć między nimi występujące zależności). Podobną linię argumentacji — przy wsparciu heurezy — proponował Turing twierdząc, że: 94

Wyraża się to w tezie: „Trzeba koniecznie podkreślić, że mózg ludzki działa na poziomie, którego subtelność i złożoność leży daleko, daleko poza czymkolwiek, co może sobie obecnie wyobrazić inżynieria komputerowa” [Scott 1999, s. 187]. Należy oczywiście podkreślić, i tak już podkreślone, słowo „obecnie”. I dodać, iż pomimo utrzymywania niektórych zarzutów względem testu Turinga (patrz zarzuty: D. (ss. 55 – 58) i E. (ss. 58 – 60)), jak i brakiem zgody z funkcjonalnym podejściem, Scott zgadza się z tezą, że sztuczna inteligencja jest możliwa do urzeczywistnienia: „Niemniej jednak nie widzę żadnej możliwości udowodnienia, że nie jest możliwe zbudowanie maszyny wyposażonej w inteligencję. Czyż można wyznaczyć jakiekolwiek granice wspaniałości lub genialności przyszłych inżynierów?”. [Scott 1999, s. 187]

95

Zob. między innymi: J. McCarthy, Some Philosophical Problems from the Standpoint of Arttificial Intelligence, http://www-formal.stanford.edu/jmc/mcchay69/mcchay69.html.

96

Za: Hołyński 1979, ss. 134 – 135.

66 (14-12-22)

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

Rozdział 2.  Dzisiaj

67

jeśli podlegamy prawom zachowania się, to jesteśmy jakąś maszyną. (…) — I dalej, co dla nas jest bardzo istotne, a może i najistotniejsze ze względu na powyższy zarzut. — (…) nie możemy tak łatwo dać się przekonać o nieistnieniu kompletnych praw zachowania się, mających postać kompletnych reguł postępowania (heurezy; przyp. M. J. K.). ... a... jedyną znaną drogą, która może nas doprowadzić do znalezienia takich praw jest obserwacja naukowa i z pewnością nie znamy takich przypadków, w których moglibyśmy powiedzieć „Szukaliśmy dosyć. Nie ma takich praw”.97 Tak więc na podstawie naszych osobistych doświadczeń i tego, co zostało już powiedziane, możemy stwierdzić, że do sytuacji przewidzianych (starych, z którymi się już zetknęliśmy osobiście bądź poprzez obserwację), czyli — możemy rzec — objętych programem, my, jako ludzie, stosujemy się (najczęściej) tak, jak dzieje się to w przypadku algorytmu, tzn. wykorzystując swoją „bazę danych” zachowań i samo to „oprogramowanie” (czyli swoje doświadczenie)98. W sytuacjach nieprzewidzianych (tzn. nowych) poszukujemy podobieństw i zależności ze starymi stosując wypróbowane w tych ostatnich techniki reakcji, bądź ucząc się nabywamy nowych. Przykładem na to, jak dalece może być posunięta mechaniczna strona naszego działania, jest tzw. „bezduszność urzędników”, zaczynająca się od bibliotekarek czy farmaceutów niesprzedających bez recepty lekarstwa, mimo że wyraźnie jest potrzebne, a na wydawcach książek skończywszy. Zaś istotą nieznalezienia zależności między sytuacjami może być płacz bądź śmiech jako wyraz bezradności99. Dzisiaj kwestię zachowania się w nowych sytuacjach podejmują programy uczące się i samouczące się (będzie o nich mowa w rozdziale 2.3.4 — „Uczenie maszyn (machine learning)”, ss. 138 – 140) oraz tzw. algorytmy stochastyczne i probabilistyczne, które rozwiązują zagadnienia zbyt trudne dla algorytmów deterministycznych100.

I. Argument wypływający z pozazmysłowej percepcji Jest to ostatni z listy zarzutów w stosunku do gry w imitację, które zostały omówione przez Turinga w Computing machinery and intelligence i najmniej poważny (chyba wraz z pierwszym). Odwołuje się on do rzekomego oddziaływania na człowieka całego spektrum zachowań pozazmysłowych, takich jak: telepatia, jasnowidzenie, wiedza uprzednia czy lewitacja. Jako kontrargument, do takiej na przykład telepatii, można zadać pytanie, które swego czasu zadał Stanisław Lem: Czy myśli w umyśle są wyrażone w jednym z języków naturalnych, czy występują w jakieś innej formie kodowania niż język naturalny? Jeżeli 97

Turing 1972, s. 41.

98

Według wyników badań z zakresu nauk o mózgu za takie maszynowe działanie człowieka odpowiedzialny jest móżdżek. Głównie za motorykę człowieka, ale też za pewnego rodzaju mechaniczność mowy.

99

Śmiech i płacz traktowane są jako wyraz bezradności w wielu koncepcjach antropologicznych (na przykład Helmuth Plessner traktuje je jako „sytuacje graniczne”; H. Plessner, Pytanie o condito humana, tłum. M. Łukasiewicz, Z. Krasnodębski, A. Załuska, PIW, Warszawa 1998, rozdz. Uśmiech.

100

Por. W. Duch, Wstęp do kognitywistyki, Internet.

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

(14-12-22)

67

68

Sztuczna Inteligencja

występują w formie języka naturalnego to, w jaki sposób są przekładalne myśli Anglika na myśli Japończyka, których sposób myślenia jest determinowany przez ich własny język etniczny? A o tym wiemy dzięki językoznawstwu kognitywnemu. Jeżeli zaś są kodowane w jakiś inny sposób to, w jaki? Jak wówczas są wyrażane przez takiego domniemanego telepatę (kwestią trudności językowych zajmę się przy okazji podrozdziału 2.3.5 — „Analiza mowy i języka”, ss. 140 – 165)? Jednak parapsychologia (nauka zajmująca się zjawiskami pozazmysłowymi) albo nie stawia takich pytań, albo odwołuje się do „praw przyrody, które jeszcze nie zostały poznane”. I być może w drugim przypadku jeszcze odpowiedź taka — na zasadzie odwoływania się do nieznanego — byłaby do przyjęcia gdyby nie fakt, iż te domniemane prawa przeczą współczesnym, sprawdzonym prawom fizyki. Inną formą obrony przed zarzutem dotyczącym pozazmysłowej percepcji jest ta, którą zaprezentował sam Turing: Bardziej charakterystyczny argument oparty na pozazmysłowej percepcji mógłby być następujący: „Zagrajmy w grę w naśladownictwo, biorąc za świadków człowieka, który jest dobrym odbiornikiem telepatycznym i maszynę cyfrową. Pytający może zadawać takie pytania jak: „Jakiego koloru jest karta, którą trzymam w prawej ręce?”. Człowiek, dzięki telepatii lub jasnowidzeniu daje prawidłową odpowiedź 130 razy na 400 kart. Maszyna może tylko zgadywać przypadkowo i może zyskać 104 prawidłowe odpowiedzi, tak, że pytający dokona prawidłowej identyfikacji”. Tutaj otwiera się interesująca możliwość. Załóżmy, że w maszynie cyfrowej znajduje się generator liczb przypadkowych. Wtedy naturalną rzeczą byłoby korzystanie z niego przy dawaniu odpowiedzi. Ale wówczas na ten generator liczb przypadkowych oddziaływałyby lewitacyjne moce pytającego. Może dzięki tej lewitacji maszyna zgadywałaby prawidłowo częściej niż można byłoby oczekiwać z rachunku prawdopodobieństwa, tak że pytający nadal nie potrafiłby dokonać prawidłowej identyfikacji.101 Tych, którzy nadal upieraliby się przy argumencie dotyczącym pozazmysłowej percepcji i pytali, jak to jest możliwe, że pole telepaty oddziałuje na maszynę, śpieszę poinformować, że jest to zawsze możliwe biorąc pod uwagę „prawa przyrody, których jeszcze nie znamy”, a na które to zwolennicy pozazmysłowej percepcji tak często się powołują! W ten sposób doszliśmy do końca analizy testu Turinga i listy zarzutów pojawiających się przeciwko jego trafności, a znanych już samemu Turingowi i przez niego analizowanych. Pora zatem najwyższa przejść do zarzutów, które pojawiły się nieco później, by zaraz po tym poznać konsekwencje wyżej zaprezentowanego funkcjonalnego stanowiska Turinga, jakie miały dla dalszych zadań Artificial Intelligence, które podejmowane były w ciągu minionych 50 lat.

101

Turing 1972, s. 42.

68 (14-12-22)

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

Rozdział 2.  Dzisiaj

69

2.2.2. Test Turinga — zarzuty przez krytyków postawione i obrona przez Autora tej pracy czyniona Jednymi z pierwszych, którzy zaczęli zastanawiać się konstruktywnie nad pomysłem Turinga, byli: klasyk Artificial Intelligence, Marvin Minsky (1966) oraz Stanisław Lem (1966). Minsky zwrócił uwagę, że sędzia (C) może ulec zbytniej sugestii tego, co sam uważa za inteligencję102. Tego samego zdania jest również współczesny polski logik Witold Marciszewski103. Pisze on: Był w naszym kraju dostojnik znany z wyjątkowo nieinteligentnych wypowiedzi. Pogląd o tym defekcie podzielał piszący te słowa (czyli W. Marciszewski; przyp. M. J. K.), a miał on bardzo inteligentnego kolegę, wyśmienitego logika, który darzył umysł owego dostojnika wielkim respektem. Skąd ta ostra różnica ocen? Widać wrażliwość na stylistykę nie była składnikiem wysokiej inteligencji mojego kolegi, a właśnie nieszczęsna stylistyka była tym, czym wyróżniał się ów dostojnik. Tenże kolega, we wczesnych latach 80., uznał za mało rozgarniętego swego rozmówcę, który wtedy przewidywał upadek Związku Radzieckiego.104 Komentarz do powyższego jest dość jasny: Jedni z nas uważali — pisze dalej autor powyższego fragmentu — że Związek Radziecki pokona cały świat, drudzy przewidywali jego rychły upadek. Któryś z tych pierwszych, gdyby zarazem żywił przekonanie o wyższości człowieka nad komputerem, przypisałby człowiekowi jako inteligentniejszemu, odpowiedź gloryfikującą Związek Radziecki. Ale gdyby, przypadkiem, wiedza komputera była w nim implementowana przez jakiegoś marksistę, to właśnie komputer dałby tę gloryfikującą odpowiedź, o co by go nie podejrzewał (jako głupszego) marksista w roli Obserwatora (naszego C, przyp. M. J. K.). Gdyby natomiast Obserwator — antymarksista rozumował przy założeniu o wyższej inteligencji człowieka, to właśnie komputer, jako uważany za głupszego, byłby podejrzany o wiarę w niebanalność komunistycznego imperium.105 Podobny zarzut postawiłem też w jednej ze swoich prac nazywając go problemem sędziego106. Tak jak Witold Marciszewski w powyższych fragmentach, a wcześniej jeszcze Marvin Minsky, idąc ich śladem, zwróciłem uwagę na fakt dysponowania przez sędziego wyrobionymi przez lata skłonnościami do przypisywania komuś i nieprzypisywania komuś innemu faktu posiadania inteligencji. A zróżnicowanie skłonności może być różne, co zresztą we fragmencie Sztucznej inteligencji Marciszewskiego jest widoczne, a co ukaże się nam jeszcze wyraźniej po analizie poniższego przykładu. 102

Por. M. Minsky, Artificial Intelligence, w: „Scientific American”, 10/1966; polski przekład w zbiorze: Dziś i jutro maszyn cyfrowych, PWN, Warszawa 1969, s. 290. Zob. również: Marciszewski 1998, s. 77.

103

Mało kto wie, że w latach 1987 – 1990 przyczynił się on między innymi do prac badawczych A. Trybulca nad programem do dowodzenia twierdzeń z zakresu logiki, znanym jako Mizar! Do dziś program ten cieszy się na całym świecie bardzo dobrą opinią.

104

Marciszewski 1998, s. 77 – 78.

105

Tamże, s. 78.

106

Zob. M. Kasperski, Sztuczny człowiek czy Sztuczny Bóg?, Internet, ss. 4 – 5.

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

(14-12-22)

69

70

Sztuczna Inteligencja

W listopadzie 1991 roku w Bostonie w Muzeum Komputerów odbyła się próba ograniczonego testu Turinga (to jest takiego, w którym można zadawać pytania z jednej, określonej przez twórcę SI, dziedziny). Szerzej idea ograniczonego testu Turinga znana jest jako konkurs Loebnera, który to został powołany właśnie dzięki staraniom dr Hugha Loebnera za zgodą The Cambridge Center for Behavioral Studies (więcej o kunkursie Loebnera patrz s. 165). Wynik był zaskoczeniem. Wygrał program „PC-Therapist”. Jego autor — Joseph Weintraub — jako temat rozmów zadeklarował „pogaduszki” (whimsical conversation). Pogaduszki te zmyliły pięcioro sędziów (z dziesięciu; przyp. M. J. K.)! Myśleli, że rozmawiali z człowiekiem. Nie obyło się bez sytuacji humorystycznych. — I teraz proszę uważać — „Znawca sztuk Szekspira” został przez troje sędziów uznany za program komputerowy. Okazało się, że była to kobieta z krwi i kości.107 Można by zapytać, jak to się dzieje, że jeden sędzia stwierdza, iż (A) jest człowiekiem, a drugi, iż ów (A) jest komputerem? Dla nas odpowiedź jest oczywista i wypływa w rezultacie z komentarza samego autora powyższego fragmentu: Na usprawiedliwienie sędziów trzeba przyznać, że (niewiasta owa; przyp. M. J. K.) potrafiła cytować z marszu tak obszerne fragmenty dzieł mistrza ze Stratfordu, iż ich pamiętanie skojarzono raczej z zapisem na dysku.108 Zatem, jak widać, wystarczą proste skłonności bądź nastawienie, aby w rezultacie poddać w wątpliwość przypisanie przez (C) inteligencji danemu (A). Rzecz jest warta wymienienia, gdyż: Jeżeli tak się dzieje, a dzieje się tak, co powyższy cytat pokazuje dość dobitnie to, który właściwie ma rację — czy sędzia numer 1, czy też sędzia numer 2? Co stanowi zatem o tym, czy X jest maszyną myślącą? Z powyższego można wnioskować, że prawo większości — odwołanie się w pytaniu o prawdę do koncepcji zgody powszechnej. I już nawet mniejsza o kompetencję [samego sędziego], bo powyższy przykład tego nie zakłada, — i teraz uwaga — ale wówczas ilu przepytujących (C) miałoby uczestniczyć w takim teście? Dziesięciu jak w powyższym przypadku? Dwudziestu, stu? A jeśli jeden to, kto ma nim być? Jakie warunki musi spełniać, na czym się znać?109 To właśnie w jednej z wcześniejszych prac nazwałem problemem sędziego. Innym, co należałoby podkreślić, bardzo oryginalnym zarzutem, jaki został postawiony w stosunku do gry w naśladownictwo, jest koncepcja wszystko wiedzącej maszyny, lecz wiedzącej w specyficzny sposób, co zostało wyrażone przez Stanisława Lema w Summa technologiae110: Zauważmy ze swej strony, że grę można skomplikować. — Pisze Lem o grze w naśladownictwo. — Mianowicie są do pomyślenia dwa rodzaje maszyn. Pierwsza jest „zwykłą” maszyną cyfrową, która jest złożona jak mózg ludzki (w sposób 107

Buller 1998, s. 12.

108

Tamże, s. 12.

109

M. Kasperski, Sztuczny człowiek…, Internet, s. 5.

110

Przypominam, że Summa technologiae Lema była pisana w latach 1951 – 1966.

70 (14-12-22)

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

Rozdział 2.  Dzisiaj

71

funkcjonalny oczywiście, czyli tak jak przewiduje to pomysł Turinga; przyp. M. J. K.); można z nią grać w szachy, rozmawiać o książkach, o świecie, na wszelkie w ogóle tematy. Gdybyśmy ją otworzyli, ujrzelibyśmy ogromną ilość obwodów sprzężonych tak, jak są sprzężone obwody neuronów w mózgu, poza tym — jej bloki pamięci itd., itp. Druga maszyna jest zupełnie inna. — I teraz, co istotne dla naszych rozważań. — Jest to do planety (albo do kosmosu) powiększony Gramofon. Posiada ona bardzo dużo, na przykład sto trylionów nagranych odpowiedzi na wszelkie możliwe pytania111. Tak więc, gdy pytamy, maszyna wcale niczego „nie rozumie”, a tylko forma pytania, tj. kolejność drgań naszego głosu, uruchamia przekaźnik, który puszcza w obroty płytę czy taśmę z nagraną odpowiedzią. Mniejsza o stronę techniczną. Rozumie się, że maszyna taka jest nieekonomiczna, że jej nikt nie zbuduje, bo i to właściwie niemożliwe, i głównie, nie wiadomo po co, by to robić. Ale nas interesuje strona teoretyczna. Bo jeśli o tym, czy maszyna ma świadomość, decyduje zachowanie, a nie budowa wewnętrzna, czyż nie dojdziemy pochopnie do wniosku, że „kosmiczny gramofon” ją posiada — i tym samym wypowiemy nonsens? (A raczej nieprawdę).112 Analizując przytoczony fragment dzieła Lema należy zwrócić uwagę, iż: pierwszy rodzaj maszyny bardzo przypomina strukturalnie tę z fragmentu paragrafu 17 Monadologii G. W. Leibniza (patrz: ss. 48 – 49, przyp. 20), tylko, oczywiście, w bardziej współczesnej wersji — miast popychających się elementów — trybów i dźwigni — obwody sprzężone i bloki pamięci. Trzeba podkreślić także to, że o świadomości miałaby decydować budowa wewnętrzna (ściślej — mózg), co nie wydaje mi się prawdą, a tym bardziej paradygmatem, gdyż, jak sądzę, to nie sama budowa jest znacząca (tzn., co, z jakich „części” się składa) dla świadomości, a raczej poziom komplikacji organu113. Skrajnie wyraża to teza W. Ross Ashby’ego: Wszystkie układy przekazujące informację w ilości powyżej 108 bitów na sekundę powinny być świadome.114 Jeżeli zaś okazałoby się inaczej, to wówczas należałoby stwierdzić, iż tylko idea sztucznego mózgu — i to na sposób strukturalny — ma szansę na urzeczywistnienie maszyny myślącej (patrz: podrozdział 2.4 — „Sztuczny mózg — sztuczne sieci neuronowe (Neural Network). Ku metaforze komputerowej”, ss. 166 – 177). Jednak zajmijmy się drugim pomysłem — „Wszechwiedzącym” Gramofonem, bo warto zwrócić uwagę na jego funkcjonalny aspekt.

111

Oczywiście, rzecz taka jest niemożliwa, gdyż powstaje zasadnicze pytanie: jak coś nieskończenie wielkiego — wszystkie możliwe odpowiedzi — zamknąć w skończoności?

112

Lem 1996a, s. 168 — wyróżnienie M. J. K. Ten sam problem niedawno przypomniał S. Lem w: Lem 1999, s. 196.

113

Bliżej mi do emergentyzmu, wg którego istota komplikujących się funkcji umysłowych miałaby przyczynę w komplikacji strukturalnej mózgu. Ale… przechodzenie na kolejne piętra komplikacji nie odbywałoby się stopniowo, a skokowo. Por. na ten temat chociażby: Trefil 1998, ss. 162 – 163.

114

W. R. Ashby, Cybernetics, w: „Recent Progress in Psychiatry”, 3/1958; za: Hołyński 1979, s. 152.

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

(14-12-22)

71

72

Sztuczna Inteligencja

Nie dziwi fakt niewiary Lema w realne zaistnienie swojej własnej fantazji, nawet w okrojonej wersji. Pisany przeszło 40 lat temu tekst, z przyczyn oczywistych, nie brał pod uwagę dokonań późniejszych, jak na przykład tzw. obliczanie rozproszone czy też wirtualny komputer115. Obliczanie rozproszone wykorzystywane jest do bardzo złożonych zadań, jak na przykład do deszyfracji: Rząd amerykański korzysta z systemu szyfrowania DES (Digital Encryption Standard, czyli cyfrowy system kodowania). W tym systemie informacja jest szyfrowana za pomocą jednego z 256 kluczy kodujących, które są ogólnie dostępne. Aby odczytać zaszyfrowaną wiadomość bez znajomości klucza, należy sprawdzić wszystkich 256 możliwości. Dla jednego komputera jest to zadanie praktycznie niewykonalne. Kilku kryptografów wpadło na pomysł, żeby złamać DES, wykorzystując Internet. Zaprosili do zabawy setki tysięcy Internautów i po kilku miesiącach pracy setek tysięcy komputerów kod został złamany.116 Tego rodzaju wirtualny komputer, który wykorzystuje połączenie wielu prywatnych komputerów, pozwala na częściowe zrealizowanie, pod kierownictwem człowieka oczywiście, pomysłu Lema. Niemożliwość zrealizowania Wszechwiedzącego Gramofonu w sposób absolutny związana jest z niemożliwością zamknięcia nieskończoności pytań i odpowiedzi w skończonej ilości zdań (jak już wiemy, wypływa to po części z twierdzenia Gödla). Zatem wyobraźmy sobie, że grupa informatyków zdobyła się na taki krok, a maszyna zwana kosmicznym gramofonem pozwala na swobodną wymianę zdań tak, jak zakłada to test Turinga. To wcale nie musi być sto trylionów nagranych odpowiedzi na wszelkie możliwe pytania, jak pisze Lem, aby można było przeprowadzić przeciętną rozmowę, z przeciętnym człowiekiem. Czy znaczyłoby to, że układ ów myśli? Czy raczej „myśli”? Prawdę mówiąc, problem jest bardzo interesujący i zupełnie otwarty. Jeśli będziemy analizować maszynę, która będzie miała nagrane odpowiedzi i tylko je będzie odtwarzała, to wówczas nawet gramofon czy zwykły magnetofon może nas wprowadzić w błąd w kwestii tego, czy myśli. Zapisy na płycie czy kasecie byłyby jego zdarzeniami mentalnymi (sic!). I faktycznie — mówiąc, że taka maszyna myśli, wypowiadamy nonsens (można znów, choć tylko częściowo, powołać się na przykład z papugą; por. ss. 56, 57). Ale, jak mi się wydaje, wystarczyłoby, żeby taka maszyna zamiast gotowych odpowiedzi posiadała schematy językowe, na przykład schematy fonemów (bo dzięki nim się porozumiewamy) czy difonemów (złożeń fonemów) i za ich pomocą, na podstawie owych: 1. schematów językowych — fonemów/difonemów; 2. schematów gramatycznych — syntaktyki;

115

Por. Wallich 2001.

116

Hołyst 2000, s. 19.

72 (14-12-22)

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

Rozdział 2.  Dzisiaj

73

3. i bazy, na przykład podstawowych słów (takich podstawowych słów, których

używa przeciętny człowiek jest około 10 tysięcy117);

4. oraz przy udziale oprogramowania generującego kolejne zdania — niczym

młyn mielący ziarna słów; można by otrzymać w rezultacie program odpowiadający na pytania i — co teraz ważne ze względu na powyższy fragment Lema — używający odpowiedzi, których nie posiadał w swojej pamięci (bazy wiedzy)! To właśnie określenie GENEROWAĆ jest istotą myślenia i inteligencji, które świetnie pasuje do ram pytań i odpowiedzi wyznaczonych przez Turinga. A, co ciekawe, na podstawie takich koncepcji i charaktersystycznych ich hipotez jak: A) gramatyka generatywna N. Chomsky’ego, B) język mentalezyjski J. Fodora118, C) neurojęzyk P.M. i P.S. Churchlandów, a nawet D) tzw. neuronalny darwinizm119 G.M. Edelmana (czy zbliżona do niego wersja selektywnego modelu mózgu autorstwa M.S. Gazzanigi) można sądzić, iż w taki sposób można by skonstruować maszynę myślącą, a zasadę generowania ze schematów nowych zdań, zastosować do wszystkich maszyn imitujących myślenie — a dalej, mowę — człowieka (por. podrozdział 2.3.5 — „Analiza mowy i języka”, ss. 140 – 165)120. Jednak zarzutów to jeszcze nie koniec. Witold Marciszewski w swej książce analizuje jeszcze inny zarzut wynikający, jak się okaże, z tego, że część ludzi hołduje przekonaniu: „Dociekać jest sprawą ludzką!”. Pytania w teście Turinga zadaje Obserwator (nasz (C); przyp. M. J. K.), podczas gdy komputer jest jednym z dwóch respondentów. Teraz niech sytuacja wygląda następująco. Obserwator dostaje od rozmówców pytania, na które odpowiada wedle swej wiedzy. Po udzieleniu przezeń odpowiedzi każdy z jego rozmówców reaguje w ten sposób, że albo uznaje tę odpowiedź za wystarczającą, albo stawia dalsze pytania. Na przykład prosi o lepsze uzasadnienie czy wyjaśnienie któregoś z punktów czy też pyta, jak teoria zakładana w odpowiedzi radzi sobie z takim to a takim zagadnieniem. Po tego rodzaju reakcjach ludzki Obserwator powinien by rozpoznać, który z reagujących jest jego bliźnim, a który maszyną.121 Spostrzeżenie to, moim zdaniem, jest mieczem obosiecznym. Z faktu tego, że niektórzy ludzie są dociekliwi nie wynika wprost, że maszyna nie podoła zadaniu bycia dociekliwym (wręcz przeciwnie — fakt ów można wykorzystać do tego, by maszyna była 117

Por. Hołyński 1979, s. 120.

118

Język mentalezyjski (mentalese language), którego istnienie głosi Jerry Fodor, miałby wedle niego być językiem, którym się posługujemy myśląc (w przeciwieństwie do — mówiąc). Przy tym byłby językiem o konkretnej budowie: 1. posiadałby skończoną bazę prostych terminów semantycznych; 2. nieskończenie wiele semantycznych złożonych terminów na podstawie (1) i syntaktycznych reguł; 3. nieskończenie wiele zdań generowanych na podstawie (1) i (2) i reguł syntaktycznych. Por. również s. 170.

119

Por.: Gazzaniga 1997, s. 64; Edelman 1998.

120

Częściowe omówienie powyższych teorii znajduje się w odpowiednich miejscach poniższej pracy (patrz: Indeks), lecz z przyczyn ograniczonych tematyką nie będę się bardziej wgłębiał w ich struktury. Zainteresowanych jednocześnie odsyłam do odpowiedniej literatury (patrz: Bibliografia).

121

Marciszewski 1998, s. 79.

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

(14-12-22)

73

74

Sztuczna Inteligencja

jeszcze bardziej wiarygodna w swoim zadaniu imitacji ludzkiego myślenia poprzez zaimplementowanie jej dozy dociekliwości). Poza tym może zdarzyć się też tak, że fakt dociekliwości ze strony X może zostać odebrany przez (C) jako chęć wprowadzenia go w błąd, wyrażony w formie: „A co on taki ciekawski?”. Wówczas też kontrargument Marciszewskiego może zadziałać w stronę drugą. Innego rodzaju zarzutem jest odwołanie się do pewnych „zdolności”, które licząca maszyna posiada z racji swego istnienia. Jest pewien rodzaj pytań, na podstawie których odpowiedzi zawsze możemy wywnioskować poprawnie, czy po drugiej stronie znajduje się maszyna. Jaki to typ pytań? Zastanówmy się. Wyróżnikiem dla maszyn obliczających jest moc obliczeniowa, której nie ma nikt z ludzi122. Wystarczy teraz powołać się na znajomość tego faktu i zadawać pytania w stylu: „Ile to jest 79% z 284,013 albo 34 2517?”, a komputer obliczy to w mig, a prawie każdy człowiek (wyłączając genialnych rachmistrzów) miałby z tym problem. Ten kruczek nazwałbym problemem naturalnej celowości, gdyż właśnie ze względu na nią (na ową celowość) maszyny liczące dobrze liczą, a ludzie mają w zamian dobre pomysły, jak na przykład zbudowanie maszyny realizującej to, z czym sami się borykają (jak w tym przypadku maszyny liczącej). Ktoś może twierdzić, iż taki test (test Turinga; przyp. M. J. K.) jest niesprawiedliwy w stosunku do komputera. Gdyby odwrócić role i nakazać człowiekowi, aby udawał komputer, oraz zaprogramować komputer tak, aby udzielał prawdziwych odpowiedzi, to przesłuchująca maszyna bez trudu mogłaby ustalić, kto jest kto. Wystarczyłoby żądanie, by przesłuchiwani wykonali dostatecznie skomplikowany rachunek arytmetyczny. Dobry komputer powinien natychmiast udzielić poprawnej odpowiedzi, natomiast człowiek mógłby mieć z tym poważne problemy.123 Sam Turing również doskonale zdawał sobie z tego faktu sprawę, lecz, co ciekawe, nie widział w takich zdaniach niczego niebezpiecznego: Grę można, być może skrytykować z tego powodu, że maszynie dano w niej o wiele mniejsze szanse niż człowiekowi. Gdyby człowiek starał się udawać maszynę, to oczywiście robiłby bardzo złe wrażenie. Skompromitowałby się od razu swoją powolnością i niedokładnością w arytmetyce. (…) Ten zarzut jest bardzo mocny, ale nie potrzebujemy się nim przejmować, jeśli tylko mimo wszystko można będzie zbudować maszynę tak, aby grała zadawalająco w grę w imitację.124 Lecz dalej, jak analizował w „G. Argumencie wypływającym z ciągłości systemu nerwowego” (por. ss. 65 – 66) rzecz o identycznych skutkach co w wyżej wymienionym problemie, to rozwiązaniem miało być:

122

Oczywiście nie dotyczy to znanych przypadków genialnych rachmistrzów. Na przykład Niemca Johanna Martina Zachariasa Dase’a (1824 – 1861), czy działającego w latach pięćdziesiątych profesora matematyki na Uniwersytecie Edynburskim, Aleksandra Aitkena. W tej sprawie por. R. Penrose 1995, s. 21. Również w niniejszej pracy cyt. z Penrose’a, s. 75.

123

Penrose 1995, s. 21.

124

Turing 1972, s. 25.

74 (14-12-22)

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

Rozdział 2.  Dzisiaj

75

Na przykład na żądanie podania wartości  (która faktycznie wynosi około 3,1416) postąpiłaby rozsądnie dokonując wyboru na chybił trafił spomiędzy wartości 3,12; 3,13; 3,14; 3,15; 3,16 z prawdopodobieństwami wynoszącymi (powiedzmy) 0,05; 0,15; 0,55; 0,19; 0,06.125 Tylko przecież nie po to będziemy konstruować maszynę myślącą, żeby się myliła (nawet jeśli te pomyłki będą kontrolowane jak w powyższym przypadku). Także swój test Turing obronił, ale moim zdaniem za cenę pozbawienia, w dalszym etapie, maszyny rozumności (w tym sensie trafności odpowiedzi X w stosunku do odpowiedniości (prawdziwości) tej odpowiedzi na pytanie C). Inną metodę obrony testu Turinga może stanowić fakt przypadków rachunkowych geniuszy (choćby znanego z filmu Rain Men, z Dustinem Hoffmanem w roli głównej), którzy posiadają zdolności porównywalne z szybkością obliczania zdań arytmetycznych przez komputery. O tym też pisze R. Penrose: Zdarzają się rachunkowi geniusze, zdolni do wykonywania zdumiewających obliczeń w pamięci, i to bez błędów i bez widocznego wysiłku. Na przykład żyjący w Niemczech w latach 1824 – 1861 Johann Martin Zacharias Dase, syn niepiśmiennego chłopa, potrafił pomnożyć w pamięci dwie ośmiocyfrowe liczby w niecałą minutę, a dwie dwudziestocyfrowe w sześć minut! Takie osiągnięcia można łatwo przypisać komputerowi. Osiągnięcia rachunkowe Aleksandra Aitkena, który był profesorem matematyki na Uniwersytecie Edynburskim w latach pięćdziesiątych, są równie imponujące. Znane są również inne podobne przypadki.126 Wprawdzie chodzi nam o przypadki sztampowe, a nie wyjątkowe, ale przecież przepytujący (C) nie musi wcale wiedzieć, a nawet więcej — nie wie — z kim ma do czynienia po drugiej stronie. To może stanowić linię obrony przed zarzutem, lecz nie przy współudziale z wcześniej wspominanymi (przy okazji problemu sędziego) ludzkimi skłonnościami do uśredniania możliwości umysłowych innych osób (w tym maszyn). Skojarzenie przez sędziów wydarzeń w Bostonie z 1991 roku faktu pamiętania przez człowieka obszernych fragmentów dzieł mistrza ze Stanfordu z zapisem na dysku może tylko dowodzić, iż taki sam byłby finał rozegrania powyższego przypadku funkcjonowania rachunkowych geniuszy — tu przypadki poprawnych wyników obliczeń (czy szybkości obliczeń) dokonanych przez ludzi przypisywanoby zapisom na dysku komputera. Ostatnim z listy zarzutów kierowanych w stronę gry w naśladownictwo niech będzie argument związany z ludzką umiejętnością zmieniania płaszczyzny rozważań.

125

Tamże, s. 40. Przykład taki też analizowałem w pracy Sztuczny człowiek… Cytuję, co następuje: „Maszyna nie posiada wolnej woli. Zatem jak realizuje procedurę kłamstwa? Za pomocą A) wyuczenia, B) ewentualnego doboru losowego. Przykład A: Maszyna nauczyła się, że jeżeli zadane jest pytanie „Czy jesteś sztuczną inteligencją?”, ma odpowiedzieć „Nie”. Przykład B: Maszyna spytana „Czy podoba ci się obraz Salvadora Dali Trwałość pamięci?”, może odpowiedzieć „Tak” bądź „Nie”, w zależności od tego, która z opcji została wylosowana.” [Tamże, s. 3] Przykład B jest świadectwem takiego rozumowania, jak w przedstawionym wyżej fragmencie z: Turing 1972.

126

Penrose 1995, s. 21.

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

(14-12-22)

75

76

Sztuczna Inteligencja

Taka strategia daje dodatkowe wyjście z sytuacji: nie trzeba mówić prawdy, nie trzeba kłamać, wystarczy zmienić płaszczyznę rozważań. Przykład? Wyobraźmy sobie następujące sytuacje: 1. Mała córka o imieniu Matylda (M) prosi ojca (O) o zgodę na wyjście

na noc do koleżanki. Pomimo nalegań i licznych argumentów ze strony ze strony (M), (O) się nie zgadza. (M) w tym momencie mówi: Wiesz co, tatusiu, dawno z mamusią nie byliście sami, może byś jej zrobił niespodziankę? Ja bym ci pomogła w przygotowaniu kolacji. — I, chciałoby się dodać, przy okazji opuszczenia towarzystwa na noc. — Co robi (M)? Zmienia płaszczyznę w myśl swojej strategii. 2. Mała córka o imieniu Matylda (M) przychodzi ze szkoły do domu, w którym

jest ojciec (O). W szkole nie poszło jej najlepiej, bo dostała ocenę niedostateczną z klasówki z matematyki, nad którą zeszłego dnia siedziała wraz z (O), by się odpowiednio przygotować. Ojciec się pyta: No i jak ci poszło? Córka odpowiada: Wiesz co zauważyłam? Że dawno nie byliśmy nigdzie razem. Taka ładna pogoda, może wybralibyśmy się nad jezioro? — Albo: Teraz nie mam czasu. Później ci powiem. A, jak wiadomo, owo „później” przy takich okazjach nigdy nie następuje.127 Najprostszą metodą obrony gry w imitację, która jednak spłyca całość problemu, jest stwierdzenie, że maszyny myślące będą myślały, a skoro tak, zatem nie widać powodu, dlaczego nie miałyby zmieniać płaszczyzny rozważań w myśl swojej strategii. Przykład drugi ilustruje jeszcze jedną rzecz. Zdanie: No i jak poszło? jest w zasadzie niedokończone — nie mówi nam poszło z czym?/z kim?, a to, że córka zrozumiała to zdanie zawdzięcza tylko temu, iż odwołała się do tła rozważań. Miała pewne nastawienie, o co (O) może się spytać. Maszyny nie posiadają również i tego.128 Ten dodatkowy aspekt jeszcze bardziej utrudnia nam obronę testu Turinga. Jest to w rezultacie zarzut odnoszący się przy okazji do rozumienia przez maszynę semantyki, a nie tylko syntaktyki (będzie o tym mowa w podrozdziale 2.3.5 — „Analiza mowy i języka ”, ss. 140 – 165). Zarzut — o podobnej konsekwencji jak przedstawiony tutaj — nazwany Chińskim Pokojem autorstwa J. Searle’a, będzie omówiony dalej. Obronić jednak się przed nim można na dwa sposoby: po pierwsze tak, jak uczyniłem to w innej zgoła pracy: Niektórzy wierzą w to, że można skonstruować odpowiednio bogatą syntaktykę, w której dowiedlne są zdania, tj. prawdziwe pod względem semantycznym — żargonowo: takie, gdzie syntaktyka realizowałaby semantykę. Takiego zdania był chociażby sam Kurt Gödel.129

127

M. Kasperski, Sztuczny człowiek…, Internet, s. 4.

128

Tamże.

129

Kasperski 2001b, s. 72.

76 (14-12-22)

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

Rozdział 2.  Dzisiaj

77

A jako sposób drugi proponuję przeanalizować poniższy tekst: Nie wdając się w bliższe szczegóły wyobraźmy sobie komputer kierujący pracą robota, który przedstawia dwie piramidki i cztery prostopadłościenne bloki. Dzieje się to na małym obszarze, gdzie znajduje się jeszcze spore pudełko. (…) Człowiek wydaje pierwsze polecenie: Człowiek: Wybierz wysoką zieloną piramidkę. Maszyna: OK. Komentarz: Maszyna odpowiada „OK.” po wykonaniu rozkazu. Człowiek: Odszukaj blok i włóż go do pudełka. Maszyna: NIE ROZUMIEM O JAKI BLOK CHODZI. Komentarz: Na planie są cztery bloki i maszyna jest na razie zdezorientowana. Człowiek: Czerwony. Maszyna: OK. Człowiek: Co jest w pudełku? Maszyna: ZIELONA PIRAMIDA I CZERWONY BLOK. Człowiek: Gdzie jest blok? Maszyna: W PUDEŁKU. Komentarz: Poprzednio program nie wiedział, o jaki blok chodzi, teraz zakłada, że mieliśmy na myśli wymieniony ostatnio blok czerwony.130 Zachowanie maszyny w tym konkretnym przypadku ilustruje, że maszyna również może posiadać nastawienie i „domyślać” się na podstawie kontekstu. A maszyna, która tak zręcznie „wywnioskowała”, o jaki blok chodziło człowiekowi (na co wskazuje ostatnia część dialogu) jest programem z 1976 roku autorstwa Terry’ego Winograda. Więc od tamtego czasu, sprawności w interpretowaniu i przetwarzaniu struktur językowych wszystkich maszyn, miast utracić, jeszcze sporo zyskały (o czym przekonamy się przy okazji podrozdziału 2.3.5 — „Analiza mowy i języka”, ss. 140 – 165). *** Podsumowując dwa ostatnie podrozdziały trudno nie oprzeć się pokusie, iż większość, jeśli nie wszystkie, z argumentów przeciw testowi Turinga i tym samym możliwości powstania maszyny myślącej (w sensie Turinga) jest całkowicie chybiona. Tym bardziej, iż nowe rozwiązania technologiczne ciągle weryfikują głosy informatycznych malkontentów w stylu: Ale maszyny wciąż nie mogą… (por. rysunek 2.2).

130

Hołyński 1979, ss. 106 – 110.

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

(14-12-22)

77

78

Sztuczna Inteligencja

Rysunek 2.2. „Tylko ludzie potrafią…”

2.2.3. Test Turinga — konsekwencje Pierwszą zauważalną konsekwencją gry w imitację jest funkcjonalny charakter zachowania się człowieka, który tu pełni kluczową rolę — sprowadzenie człowieka do jego umysłowości, dodajmy, umysłowości wyrażanej za pomocą języka — poprzez pytania

78 (14-12-22)

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

Rozdział 2.  Dzisiaj

79

i odpowiedzi. Koncepcja ta została nazwana funkcjonalizmem. Wyraża się ona, tak jak arytmetyka, przez to, że w metodzie tej wyznacza się uniwersum, na którym przeprowadza się z góry ustalone operacje. To ostatnie powoduje, że metodę ową zwie się również operacjonizmem131. W końcu to, że operacje te są w rezultacie obliczeniami, sygnuje dla niej nazwę komputacjonizm (od ang. compute, co znaczy „obliczać”). Przy czym zakłada się tu spełnienie dwu szczególnych warunków132: pierwszy polega na tym, że odpowiednio bogata struktura obliczeniowa w pełni wystarczy, aby można było stwierdzić, że przysługuje jej umysł (tzw. teza o obliczeniowej wystarczalności (ang. computational sufficiency)) i drugi — procesy obliczeniowe w pełni pozwalają nam na badanie i poznawanie procesów poznawczych człowieka (tzw. teza o obliczeniowej wyjaśnialności, ang. computational explanation). Wpływ na takie podejście metodologiczne Turinga do teorii umysłu odegrały dwa zasadnicze fakty: 1. kiedy chodzi o inteligentne maszyny, nie zwraca się uwagi na inne aspekty

człowieka niż inteligencja, jak na przykład podobieństwo ciał; 2. w tamtych czasach (lata 50.) w psychologii dominujący był behawioryzm,

w prostej linii wywodzący się z psychologii funkcjonalnej, a jeszcze w tamtych czasach133 sprawiający wrażenie, że da szansę na naukowe badanie psychicznych aspektów człowieka. Pierwszy aspekt jest dosyć oczywisty i jasny: możliwość widzenia maszyny, czyli, że tak się wyrażę, naocznego doświadczenia różnic pomiędzy nią a człowiekiem od razu dyskwalifikuje grę w naśladownictwo (przynajmniej przy dzisiejszych rozwiązaniach z zakresu robotyki kognitywnej i możliwości nadania całkowicie antropomorficznych kształtów maszynie!134). Można by oczywiście stwierdzić, iż grę winno się poprowadzić w taki sposób, aby rozmiar imitacji był jak najpewniejszy (na przykład angażował imitację ludzkiego głosu bądź ludzkiego ciała), lecz, jak to wyżej zostało powiedziane, w maszynach mających za zadanie naśladować mentalny aspekt człowieka, taka budowa jest zbyteczna dopóty, dopóki nie wykaże się, że ma istotny wpływ na funkcję myślenia. Dziś oczywiście już w pewien sposób wiemy, że aby maszyna była zdolna naśladować

131

Nie mylić z operacjonizmem ani w fizyce (P. W. Bridgman (1882 – 1961)), ani w psychologii, który został zapoczątkowany w 1930 roku przez amerykańskiego psychologa, E. G. Boringa.

132

Por. Chuderski, Wykorzystanie metod sztucznej inteligencji do badań nad umysłem, Internet.

133

Stwierdzenie „jeszcze w tamtych czasach” odwołuje się do późniejszej druzgoczącej krytyki behawioryzmu dokonanej przez Noama Chomsky’ego (Chomsky, Review of B. F. Skinner's „Verbal Behaviour", w: „Language”, 1959).

134

Oczywiście związane jest to tylko z dzisiejszym stanem technicznym, a objawia się na przykład w mechanicznym sposobie zachowania się robotów, wolnym od gracji ruchów ludzi, czy też po prostu w mało antropomorficznym wyglądzie (choć już i nad tym trwają prace, przykładem są badania nad antropomorficznymi dłoniami prowadzone przez Jessice Lauren Banks z MIT). Jednak są spore szanse, że perspektywy tej gałęzi inżynierii szybko przyniosą jakieś zadawalające w tej materii rezultaty. Osobiście liczę, że za jakieś 50 lat stanie się możliwym pomylenie człowieka z maszyną na podstawie zewnętrznego wyglądu ich ciał.

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

(14-12-22)

79

80

Sztuczna Inteligencja

człowieka winna posiadać chociaż część swojej cielesności, na przykład sensorium135 — czyli całość pięciu zmysłów (będzie o tym mowa w podrozdziałach: 2.3.3 — „Rozpoznawanie obrazów” (ss. 121 – 137) i 2.4.2 — „Cog, Aibo... Problem intencjonalności i problem ciała” (ss. 183 – 200). Lecz, powtórzę to stanowczo, ze względu na intencje Turinga, dla jego testu brak cielesności maszyny nie stanowi przeszkody dla rozwoju maszyn myślących, wręcz przeciwnie — cielesność jest postrzegana jako zbyteczna, tak jak dla wszystkich programów typu IDS (Intelligent Dialogue Systems) mających prowadzić inteligentnie dialog. Drugi aspekt wypływa w zasadzie z pierwszego, a na jego zastosowanie miały z pewnością wpływ czasy, w których tworzył Turing. Chodzi o to, że jeżeli wygląd zewnętrzny dyskwalifikuje maszynę przy próbie udawania przez nią człowieka, to jaką obrać inną drogę, by imitacja ta była w miarę doskonała? Lekarstwem, jak się okazało, była behawiorystyczna, a jeszcze wcześniej funkcjonalna, koncepcja człowieka. Do czasów psychologii funkcjonalnej psychologowie zwracali uwagę i badali treści umysłowe. Zmienili to radykalnie: Amerykanin J.R. Angell, związany z Katedrą Psychologii w Chicago wraz z uczelnianym kolegą, filozofem J. Deweyem (1859 – 1952) oraz szwajcarskim psychologiem, É. Claparède (1873 – 1940)136. Zaproponowali oni aby badać funkcje umysłu. Dominującymi, i w tamtych czasach nowatorskimi, tezami były137: 1. psychologia winna badać: w psychologii widzenia — formy widzenia, a nie

barwy; w zagadnieniu wyobraźni — wyobraźnię właśnie, miast wyobrażenia; w zagadnieniach emocji — odczuwanie, a nie jak dotąd uczucia (czyli: nadrzędną rolę pełni badanie funkcjonowania umysłu, a nie wytworów tego funkcjonowania); 2. psychologia winna w badaniu zastosować metodę historyzmu, czyli badania

umysłu w czasie, badania dynamicznego, a nie, jak wcześniej, zawężać się do tu i teraz jego wytworów. Warunki te zostały przejęte również i później przez behawiorystów — Johna B. Watsona (1878 – 1958) i Burrhusa F. Skinnera (1904 – 1990) i zradykalizowane do tez następujących138:

135

Jak pisze Stanisław Lem: „Słowa tego nie znajdzie się ani w słowniku obcych wyrazów, ani w encyklopedii, nawet w Wielkim Warszawskim Słowniku opatrzone jest wykrzyknikiem, oznaczającym, że lepiej go nie używać. Mnie jest jednak potrzebne. Sensorium to całość wszystkich zmysłów oraz wszystkich dróg (zazwyczaj nerwowych), jakimi informacje, powiadamiające nas o „istnieniu czegokolwiek”, mkną do ośrodkowego układu nerwowego.” [Lem 1999, s. 22. — wyróżnienie, M. J. K.]

136

Funkcjonalizm, prócz w psychologii, rozwijał się również w innych dziedzinach: w filozofii i metodologii — jako kierunek przyznający szczególną rolę pojęciu funkcji i poszukujący zależności funkcjonalnych w naukach, które decydują o statusie nauk, w antropologii z głównymi przedstawicielami: Bronisławem Malinowskiem (1884 – 1942) i R. A. Radcliffe-Brownem, którzy wyjaśniali fakty antropologiczne przez ustalanie funkcji, jakie pełnią one w danym systemie kulturowym.

137

Por. Tatarkiewicz 1990, t. 3/3, ss. 281 – 298.

138

Por. Blackman 2000, ss. 147 – 174.

80 (14-12-22)

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

Rozdział 2.  Dzisiaj

81

1. funkcje umysłu przejawiają się w zachowaniu, a dokładniej — modelu bodziec

→ reakcja, zatem winno badać się zachowanie (lecz — uwaga — zachowanie jest w zasadzie tylko mechanizmem jak w przypadku odruchu Pawłowa); 2. zachowanie, rozwijając się w czasie, rozwija się w grupach, w których dany

osobnik uczestniczy(ł) i grupa ta na niego wpływa, na przykład poprzez podniety, zatem metodę historyzmu można rozszerzyć do badania grup społecznych. Dla ułatwienia identyfikacji powyższych tez można je sprowadzić do następujących: 1. funkcjonalizm: stan mentalny x jest funkcją stanu mózgu bądź/i układu

nerwowego x, na przykład „odczuwać ból” znaczy „być w stanie spowodowanym przez bodziec na nocyceptory”139; 2. behawioryzm: stan mentalny x przejawia się w zachowaniu i jest funkcją

organizmu (ewentualnie jego dyspozycją do bycia w stanie x). Jedyną zauważalną różnicą pomiędzy funkcjonalistyczną koncepcją umysłu, a jego odpowiednikiem w behawioryzmie jest rozszerzenie „sprawcy” umysłu z mózgu (w przypadku pierwszego) do organizmu (w przypadku drugiego)140. Jednak jest to, jak zaraz wykażę, rozszerzenie, które to w ogóle nie jest znaczące dla naszej gry w imitację. Dlaczego? Gdyż: 1. Rozszerzona sfera psychiczna w przypadku behawioryzmu, która siega do

zachowań bądź dyspozycji do zachowań, ma się nijak do myślącej maszyny w sensie Turinga. Obserwowanie jej zachowania ogranicza się przecież do zachowań językowych. Jej zachowanie inne niż w języku141 nie jest związane z maszyną Turinga! 2. Nawet zachowanie w języku maszyny myślącej jest ograniczone. Jak wspomniałem

już wyżej, sfera cielesności nie wpływa w żaden deprymujący sposób na podstawową tezę Turinga. Także nie interesuje nas tu na przykład wpływ ciała na emocjonalne podejście w rozmowie, bo wyrażane jest poprzez ton i intonację głosu, a te cechy przynależą do cielesności. To, co nas interesuje, to wyrażanie „myśli” maszyny i, jak wiemy, odbywać się ono będzie poprzez terminal. 139

Nocyceptory, czyli receptory bólowe.

140

Por. następujący fragment na to wskazujący: „Watson inaczej, niż było to w zwyczaju, pojmował reakcje, a zwłaszcza rolę systemu nerwowego: odmówił mu, a także i samemu mózgowi tej wyjątkowej roli, jaką mu dotąd przypisywała psychologia. Dotąd było tak: psychologia, nawet najbardziej fizjologiczna, liczyła się w organizmie tylko z systemem nerwowym, a inne jego składniki miała za pozbawione znaczenia dla zjawisk psychicznych. Watson zaś sądził zupełnie inaczej: to system nerwowy ma dla nich znaczenie stosunkowo najmniejsze. Właściwie nie robi on nic innego jak tylko to, że przenosi podniety; i bez niego wszystko działoby się tak samo, a tylko nieco później, bo organizm i tak by przekazał podniety gruczołom i mięśniom. O reakcji jednostki stanowi nie tylko mózg i nerwy, ale również organy wewnętrzne, gruczoły, mięśnie i w ogóle całe ciało.” [Tatarkiewicz 1990, s. 294]

141

Pojęcie „zachowania w języku” ukułem na potrzeby wysłowienia jedynego sposobu wyrażania się (zachowania) maszyny Turinga. Sensu mojej obronie takiego stanowiska w behawioryzmie, który mówił o całościowym zachowaniu, nadaje książka Skinnera Verbal Behavior (New York: Appleton-Century-Crofts, 1957), czyli Zachowanie werbalne, w której stworzył analizę konceptualną, zajmującą się zachowaniem werbalnym i świadomością. Por. Blackman 2000, ss. 152 – 154.

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

(14-12-22)

81

82

Sztuczna Inteligencja

Jak więc analizować wpływ cielesności, objawiający się na przykład zdenerwowaniem po zadaniu intymnego pytania? Jedynie w języku, co stwierdzimy w toku naszych obserwacji. Zatem, biorąc pod uwagę dwa ostatnie punkty znoszące granice pomiędzy funkcjonalistycznym a behawiorystycznym podejściem do umysłu, należałoby stwierdzić: funkcjonalizm = behawioryzm z punktu widzenia podejścia zaprezentowanego w teście Turinga. Warto jeszcze zwrócić uwagę na najczęściej pojawiający się zarzut wobec funkcjonalizmu. Funkcjonalne potraktowanie relacji mózg-umysł każe nam przypuszczać, iż maszyna spełniająca funkcjonalnie zadanie na przykład prowadzenia dialogu — odpowiadania na pytania jak to ma miejsce w teście Turinga — w rezultacie myśli. Ta konsekwencja, niestety, pokutuje, co można wyrazić następująco: Funkcjonalizm charakteryzuje stany psychiczne za pomocą ich ról przyczynowych. Można to funkcjonalistyczne pojęcie zilustrować dzięki tabeli maszyny sprzedającej Coca-Colę (założeniem jest tutaj to, że Coca-Cola kosztuje 10 centów). S1

S2 (przy założeniu, że zostało wrzucone 5 centów)

5 centów włożono nic nie wyrzucaj przejdź do S2

wyrzuć Coca-Colę przejdź do S1

10 centów włożono wyrzuć Coca-Colę zostań w S1

wyrzuć Coca-Colę i 5 centów przejdź do S1

Możemy powiedzieć (i nie wszyscy uznaliby to za żart), że S1 = pragnienie 10 centów, a S2 = pragnienie 5 centów. Znaczy to, że pragnienie jest stanem zdefiniowanym funkcjonalnie poprzez powyższą tabelkę. W ten sposób scharakteryzowane typy stanów mentalnych nie mogą być zredukowane na sposób behawiorystyczny. I tak, to S1 jest przyczyną S2, a nie jakieś „dane wejściowe”. A także to S1 razem z S2 są przyczyną danych wyjściowych. Dla behawiorystów „stany psychiczne” nic takiego nie powodują (jeżeli z ich punktu widzenia mówienie o „stanach psychicznych” jest w ogóle możliwe).142 Oczywistą rzeczą jest, że z naszego punktu widzenia twierdzenie, że ta konkretna maszyna posiada pragnienia czy przekonania, jest li tylko czystą fantasmagorią bądź żartem (przynajmniej wtedy, gdy bierzemy pod uwagę automat do sprzedawania Coca Coli). W przyszłości jednak może okazać się, iż podobnego rodzaju żarty trzeba będzie potraktować całkowicie poważnie. I choć nie jest to argumentem przeciw wyraźnie widocznej nonsensowności tak sformułowanego funkcjonalizmu, prezentowanego przecież przez tak zwaną silną wersję Sztucznej Inteligencji (strong AI), to nie można jeszcze dziś wykluczyć, że maszyny, które będą myśleć, będą także posiadać przekonania, a nawet w swoim czasie pragnienia! Jedyna rzecz, która zatem może okazać się nonsensowna, biorąc powyższe pod uwagę, może wypływać z braku precyzji naszego języka, a mówiąc ściślej, z braku precyzji języka psychologicznego. Przecież weźmy pod uwagę fakt, że mówienie o myślących maszynach przed zdefiniowaniem przez Turinga tego, co to jest myślenie (oczywiście myślenie w sensie Turinga), mogło 142

Lillegard 1995, ss. 44 – 45.

82 (14-12-22)

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

Rozdział 2.  Dzisiaj

83

wydawać się, i do dziś niektórym tak się wydaje143, nonsensowne. Zaś odpowiednie zdefiniowanie wyklucza tę nonsensowność, gdy tylko wykaże się, że jest takie X, które tę definicję wypełnia — realizuje to, co z definicji realizować miało. Zatem: stwierdzenie, że coś wydaje się trudne do pojęcia (czy też w dzisiejszym aparacie pojęciowym — nonsensowne) nie wyklucza tego, że jest to prawdą!144 Na końcu warto też zauważyć jedną rzecz: test Turinga nie tylko pozwala orzec, czy dana maszyna myśli, ale pozwala także na to, że jej formy myślenia mogą być wyżej ocenione przez ewentualnych sędziów niż myślenie samego człowieka (tak będzie wówczas, gdy sędzia (C) pomyli się na korzyść maszyny, ze szkodą dla człowieka). A to może być ważny krok przy próbach skategoryzowania inteligencji wyższego stopnia niźli inteligencja człowieka. *** Podsumowując: wszystko to, co zostało powiedziane o maszynie przechodzącej grę w imitację, zostało tym samym powiedziane o maszynie myślącej w sensie Turinga145. Zatem: O maszynie myślącej w sensie Turinga będziemy mówić, gdy: 1. będzie porozumiewać się z dowolnym X będącym człowiekiem. Przy czym

porozumiewanie będzie odbywać się w języku pisanym; 2. porozumienie z dowolnym X nie będzie wychodzić poza język pisany tak,

że nawet nie będzie przejawiać się w mowie, jeżeli będzie to miało zdecydowanie negatywny wpływ na wynik przeprowadzanego eksperymentu; 3. porozumienie zakłada, że strony będą się rozumieć, tzn. 1) zakłada, że język

ten musi być rozumiany przez obydwie zainteresowane strony oraz 2) rozumienie przez maszynę będzie oznaczać: sensowne generowanie zdania/bądź zdań x, na poprzedzające je zdanie/bądź zdania y, kierowane ze strony dowolnego X, będącego człowiekiem. Wyżej rozpisane trzy punkty w zasadzie nie stwierdzają niczego innego niż sam test Turinga, określają jednak bardzo ważną rzecz, a mianowicie to, że żadna inna funkcja przypisywana człowiekowi nie musi być spełniania przez maszynę myślącą w sensie Turinga, jeżeli wychodzi poza powyższe! Jeżeli test będzie zdany pomyślnie, śmiało powinniśmy przypisać maszynie zdolność myślenia — oczywiście myślenia w sensie wyżej nakreślonym. Jeżeli jednak ktoś nie 143

Por. Szumakowicz 2000.

144

Historia nauki zna przypadki, gdy coś wydawało się nonsensowne: teoria względności Alberta Einsteina i paradoks bliźniaków; superpozycja w mechanice kwantowej, w słynnym eksperymencie kota Erwina Schrödingera itd.

145

Oczywiście odróżniam tu pojęcia „maszyny Turinga” od „maszyny myślącej w sensie Turinga”. Por. to, co już napisałem o maszynie Turinga (ss. 43 – 45) z powyższym.

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

(14-12-22)

83

84

Sztuczna Inteligencja

zaakceptuje owych trzech punktów, to oczywistym jest, że nie będzie skłonny przypisywać funkcji myślenia maszynie (nawet wtedy, gdy test owy zda pomyślnie). Oczywiście powstaje kwestia sporna dotycząca tego, czy zachowanie maszyny w języku jest wolne do jakiegokolwiek wpływu cielesności, na przykład czy nie zależy od wiedzy o świecie, a jeśli tak jest, to czy nie musi być ona dana niejako bezpośrednio przez świat — percypowana przez zmysły — a nie przez programistów? I dalej: czy posługiwanie się językiem nie wymaga jakiejś wewnętrznej reprezentacji? Tymi zagadnieniami zajmę się kolejno w podrozdziałach: 2.4.2 — „Cog, Aibo… Problem intencjonalności i problem ciała” (ss. 183 – 200) i 2.3.5 — „Analiza mowy i języka. Problemy z rozumieniem” (ss. 140 – 165).

2.3. Testament Turinga. Drogi rozwoju Sztucznej Inteligencji (1950 – 2000) Doniosłości maszyny Turinga (na podstawie końca pierwszego rozdziału) i testu Turinga (na podstawie początku drugiego rozdziału) Czytelnik jest już świadomy, lecz pora zadać pytanie: co dalej? Możemy mieć nadzieję, że maszyny będą współzawodniczyć z ludźmi we wszystkich czysto intelektualnych dziedzinach. Ale od których z nich należałoby zacząć?146 To pytanie godne rozważenia. I tu, jak się okazuje, to właśnie Turing niejako wyznaczył podstawowy podział na dwie osobne drogi. Wielu ludzi myśli, że najlepsza byłaby bardzo abstrakcyjna działalność w rodzaju gry w szachy. Można również twierdzić, że najlepiej dostarczyć maszynie najlepsze organy zmysłowe i następnie nauczyć ją rozumieć i mówić po angielsku. Ten proces mógłby naśladować normalne nauczanie dziecka. Maszynie pokazywałoby się rzeczy i nazywało je itd. Znowu nie wiem, jaka jest prawidłowa odpowiedź, ale myślę, że należałoby wypróbować obydwa podejścia.147 I tak też uczyniono. Zaraz po wydaniu Computing machinery and intelligence pojawiło się zainteresowanie z jednej strony grami — głównie w szachy (zajmę się tym w podrozdziale 2.3.1 — „W poszukiwaniu inteligencji. Szachy, warcaby i gry współczesne”, ss. 87 – 100) — z drugiej zaś programami analizującymi język i mowę (patrz: podrozdział 2.3.5 — „Rozumienie mowy i języka”, ss. 140 – 165) oraz robotami148 — maszynami wyposa146

Turing 1972, s. 47.

147

Tamże, s. 42.

148

Powszechna jest opinia, że terminu „robot” użył po raz pierwszy Karol Čapek, czeski pisarz science fiction w jednej ze swoich sztuk, R.U.R. — Uniwersalne Roboty Rossuma (1923). Por. chociażby: Duch 1997, rozdz. 1. Skąd to się wzieło?. Lecz nie jest to opinia prawdziwa. Pierwszy raz termin ten pojawił się bowiem w opowiadaniu Opilec tegoż autora, w 1917 r.

84 (14-12-22)

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

Rozdział 2.  Dzisiaj

85

żonymi w sensorium i/lub motorykę (patrz: podrozdział 2.4.2 — „Cog, Aibo… Czyli problem intencjonalności i problem ciała”, ss. 183 – 200). Ten niejako dwupodział dróg (szachy — mowa) rozwoju Artificial Intelligence uzupełnił jeszcze (a raczej uszczegółowił) klasyk tej dziedziny, Marvin Minsky, w artykule o kolosalnym znaczeniu tak historycznym, jak i merytorycznym, Steps Toward Artificial Intelligence149. Kierunkami rozwoju, które zasługują na głębsze zainteresowanie, są150:  poszukiwanie danych;  rozpoznawanie obrazów;  uczenie się;  planowanie;  indukcja.

Podobnie widzieli to (i widzą) inni (por. tabela 2.1 — zestawienie problemów i celów w ramach badań nad SI151). Czas na realizację tych celów wyznaczył poniekąd również sam Turing w cytowanym fragmencie do motta tego rozdziału (s. 41): Wierzę, że za około pięćdziesiąt lat stanie się możliwe programowanie maszyn cyfrowych o pojemności pamięci rzędu 109 tak, aby grały w grę w naśladownictwo tak dobrze, że przeciętny pytający po pięciu minutach zadawania pytań nie będzie miał więcej niż 70 procent szansy dokonania prawidłowej identyfikacji. (…) wierzę, że pod koniec tego stulecia używanie słów i ogólna opinia ludzi wykształconych zmieni się tak bardzo, że będzie można mówić o maszynach myślących, nie spodziewając się sprzeciwu.152 Poprzez pryzmat lat przeszłych możemy dziś skonfrontować pięćdziesięcioletni testament Turinga z wynikami badań SI. Zaś rok 2000 wyznaczający granicę końcową przepowiedni zwać będziemy rokiem Turinga, co zresztą korzenie ma w samej literaturze153. I zaczniemy tu od spenetrowania dorobku maszyn grających w szachy (ale i nie tylko w szachy) i dwu problemów przezwyciężonych w ramach współczesnych gier komputerowych.

149

M. L. Minsky, StepsToward Artificial Intelligence, w: Proceedings of the IRE, 1961, ss. 8 – 30; polski przekład w: [D], ss. 378 – 424. Pracę tą uzupełniała jeszcze Bibliografia przygotowana przez Minsky’ego, a zawierająca około 800 pozycji, czyli, jak się w swej książce wyraził M. Hołyński: „prawie wszystko, co ukazało się do tamtej pory na świecie. Jak bowiem obliczył Alan Ross Anderson we wstępie do wydanej w 1964 roku książki Mind and Machines, ogólną liczbę publikacji w piętnastoleciu 1950 – 1964 należy oceniać na około tysiąc pozycji.” [Hołyński 1979, s. 10] Dostępna ona jest w: [D], ss. 425 – 482.

150

Por. Hołyński 1979, s. 10 oraz wspomniany artykuł M. L. Minsky’ego.

151

Zestawienie na podstawie: Turing 1972, ss. 24 – 47; Minsky 1972, ss. 378 – 428; Hołyński 1979, ss. 181 – 182 (Konferencja odbyła się w Tbilisi); W. Duch, Wstęp do sztucznej inteligencji, Internet i Duch 1997a.

152

Turing 1972, s. 32.

153

Por. chociażby tytuł: Szumakowicz 2000.

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

(14-12-22)

85

86

Sztuczna Inteligencja

Tabela 2.1. Zestawienie problemów Sztucznej Inteligencji Alan Turing (1950)

Marvin Minsky (1961)

Matematyczne i teoretyczne aspekty (teza Churcha-Turinga)

Maszyny uczące się

IV Międzynarodowa Konferencja poświęcona SI (1975)

Włodzisław Duch (1997)

Matematyczne i teoretyczne aspekty sztucznej inteligencji

Realizacje

Tak

Indukcja i modele

Reprezentacja problemów i wiedzy

Reprezentacja wiedzy

Systemy doradcze

Rozwiązywanie problemów i planowanie

Planowanie i rozwiązywanie problemów

Reprezentacja wiedzy

Systemy doradcze

Systemy uczące się

Uczenie, korelacja błędów i automatyczne programowanie

Uczenie maszynowe Tak (machine learning)

Problem poszukiwania

Technika poszukiwania

Szukanie

Tak

Rozumienie języka naturalnego

Analiza języka mówionego

Translatory

Rozumienie mowy

Analiza języka mówionego

Syntezatory

Rozumienie języka (test Turinga)

Oprogramowanie (maszyna Turinga) Problem rozpoznawania

Oprogramowanie sztucznej inteligencji

Algorytmy, heurystyka

Przetwarzanie informacji wizualnej

OCR

Roboty i technologie produkcyjne

Robotyka

Tak

Rozmaite zastosowania sztucznej inteligencji

Systemy doradcze

Tak

Psychologiczne aspekty sztucznej inteligencji

Modele umysłu i robotyka kognitywna

Aibo (behawior psa), COG, Darwin III

Filozoficzne problemy sztucznej inteligencji

Filozoficzne problemy sztucznej inteligencji

Tak

Implikacje dla nauk o mózgu

Implikacje dla nauk o mózgu

Koneksjonizm (sieci neuronowe)

Psychologiczne aspekty sztucznej inteligencji

86 (14-12-22)

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

Rozdział 2.  Dzisiaj

87

2.3.1. W poszukiwaniu inteligencji. Szachy, warcaby i gry współczesne Próby rozwiązywania problemów szachowych są tak satre, jak sama gra w szachy. Próby naśladowania w sposób mechaniczny graczy są nieco starsze niż artykuł Turinga Computing machinery and intelligence. Zaczęły się już przed jego opublikowaniem — w 1949 roku. A koniec (jeśli pojedynczy sukces uważać będziemy za ostateczny sukces) przyniosły wraz z pokonaniem arcymistrza szachowego Gary Kasparowa154. Lecz dlaczego to właśnie gra w szachy miałaby okazać się dobrym sprawdzianem na to, czy danej maszynie przysługuje inteligencja? Szachy są grą par excellence intelektualną. Jeśli wyłączyć element przypadku zaciemniający obraz, to można powiedzieć, że szachy stawiają naprzeciwko siebie dwa intelekty w sytuacji tak złożonej, że żaden z nich nie może objąć jej w pełni, ale równocześnie dostatecznie poddającej się analizie, aby każdy z oponentów mógł mieć nadzieję na pokonanie przeciwnika. Jest to gra na tyle głęboka i skomplikowana, że pomimo stałego wzrostu liczby zawodowych graczy i ciągłego analizowania rozegranych partii, w czasie 200 lat intensywnej gry i badań nie została zgłębiona ani wyjałowiona. Dzięki temu szachy są naturalnym polem do działania dla prób mechanizacji. Gdyby udało się skonstruować maszynę bardzo dobrze grającą w szachy, to można by się spodziewać również wniknięcia w istotę intelektualnej działalności człowieka.155 Zatem nie powinien dziwić fakt, że We wczesnym okresie rozwoju badań nad sztuczną inteligencją naukowcom bardzo zależało na uzyskaniu efektownych wyników, aby zainteresować nimi opinię publiczną, spowodować wzrost popularności nowej dyscypliny i tym samym zapewnić sobie odpowiednie nakłady na finansowanie dalszych badań. (…) Celem tych z pozoru mało poważnych eksperymentów, nie było jednak wcale dostarczenie nam taniej rozrywki. Nie chodziło przecież o wykorzystanie komputerów w taki sposób, w jaki telewizor można adaptować do zabawy w elektroniczny tenis lub inną tego typu grę ekranową, które są atrakcją w lokalach gier automatycznych i dyskotek. Uczestnictwo w grze dawało bowiem maszynom najprostszą okazję do wykazania się działaniem mającym pewne cechy inteligentnego zachowania. Bezpośrednie współzawodnictwo z człowiekiem, a zwłaszcza zwycięstwo nad nim, stanowiłoby tu dowód bardzo przekonywający.156 Inteligencja więc, na przykładzie dwu ostatnich cytatów, wyłania się jako zdolność do analizy sytuacji, podejmowania decyzji oraz zdolność czynnego uczestniczenia w bardzo złożonych sytuacjach: 154

Por. Duch 1997b, s. 2. Należy tutaj dodać, iż w literaturze często mylone są nazwy programów Deep Blue i Deeper Blue. Dalej, na rysunku jest pokazane, iż Deep Blue przegrał z Kasparowem mecz, zaś program, który zwyciężył nad arcymistrzem był jego późniejszym pobratymcą i nazywał się Deeper Blue.

155

Newell, Shaw, Simon 1972a, s. 50.

156

Hołyński 1979, s. 22.

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

(14-12-22)

87

88

Sztuczna Inteligencja

złożoność działania jest zasadniczą cechą inteligentnej działalności — (…) złożoność dobrze grającego programu szachowego będzie bliska złożoności procesów myślowych dobrego szachisty. Złożoność rozwiązania jest podyktowana przez złożoność problemu, a nie przez zamiłowanie człowieka do zawiłych rozważań.157 I należy przyznać, że w okresie ostatnich pięćdziesiąciu lat w kierunku skonstruowania grających maszyn, i to nie tylko w szachy, poczyniono wiele. Żeby dać Czytelnikowi jak najlepszy obraz tego, proponuję prześledzić poniższe (tabela 2.2) zestawienie programów-graczy i ich twórców158. Tabela 2.2. Zestawienie wydarzeń w ramach prac nad programami grającymi w szachy, warcaby, Go i brydża 1949 r.

Twórca teorii informacji, Claude Shannon, stworzył pierwszy schemat algorytmu opisującego przebieg partii szachowej

1951 r.

A. M. Turing wraz z Davidem Champernowe stworzyli pierwszy działający program szachowy

1952 r.

Grupa badawcza ośrodka doświadczalnego IBM, kierowana przez dr A.L. Samuela stworzyła program do gry w warcaby na maszynę IBM 701. W dwa lata później (1954) program poprawiono na nowszym komputerze, IBM 704

1950 – 1955 r.

Powstała pierwsza maszyna, MENACE, do gry w kółko i krzyżyk, która po ośmiogodzinnej grze, w czasie której rozegrano 220 partii, okazała się lepsza od swoich twórców

1955 r.

Dr. A. L. Samuel wysunął koncepcję stworzenia programu uczącego się na bieżąco. Napisał go dla programu grającego w szachy, którego pokaz publiczny został zaprezentowany w rok później. I to był ważny krok dla rozwoju SI

1956 r.

Dr. A. L. Samuel rozwinął ideę programu uczącego się na bieżąco i stworzył dodatkowe oprogramowanie umożliwiające prześledzenie i ocenienie własnej taktyki w stosunku do szachowych mistrzów. Oprogramowanie to przetestowano 12 lipca 1962 roku, na maszynie IBM 7090 z eksmistrzem stanu Connecticut (USA), R.W. Nealeyem. Po meczu o maszynie (przegranej) Nealeyem wypowiedział się pochlebnie. Stwierdził, że od 1954 roku, czyli od chwili, kiedy ostatni raz przegrał, nie spotkał tak trudnego partnera

1956 r.

Pięciu matematyków z Los Alamos: J. Kister, P. Stein, S. Ulam, W. Walden i M. Wells, stworzyli maszynę Maniac I. Była ona zaprogramowana do gry trochę mniej skomplikowanej niż szachy (skala kombinacji była pięciokrotnie mniejsza): plansza o wymiarach 6x6 pól, brak gońców, niemożliwość roszad i prawa pionków do początkowego ruchu o podwójnej długości

1957 r.

Zespół naukowców pod kierownictwem Aleksa Bernsteina stworzył program do gry w szachy na maszynę IBM 704. Program ten przewidywał sytuację z wyprzedzeniem dwu ruchów (brał pod uwagę siedem kombinacji)

1957 r.

A. Newell, J. C. Shaw i H. A. Simon stworzyli program NSS, który posiadał kilka wbudowanych niezależnych podprogramów: ochrona króla, utrzymanie równowagi, kontrola środkowej części planszy, umacnianie pozycji figur. W 1958 roku został on zaprezentowany na komputerze Johniac

157

Newell, Shaw, Simon 1972a, s. 51.

158

Zestawienie na podstawie: Maszyny grające w gry 1972, w: [D], ss. 48 – 116; Hołyński 1979, ss. 22 – 50; Marciszewski 1998, ss. 11 – 15.

88 (14-12-22)

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

Rozdział 2.  Dzisiaj

89

Tabela 2.2. Zestawienie wydarzeń w ramach prac nad programami grającymi w szachy, warcaby, Go i brydża — ciąg dalszy 1958 r.

Ukazanie się artykułu omawiającego działanie programu NSS (A. Newell, J. C. Shaw, H.A. Simon, Chess-playing Programs and the Problem of Complexity, w: „IBM Journal of Research and Development” 1958, nr 2), który wyznaczył przyszłość dalszych, tym razem bardziej interdyscyplinarnych badań, przewidując tym samym (albo raczej powodując) zainteresowanie osiągniętymi dokonaniami psychologów, specjalistów od teorii systemów, łączności, a nawet szachistów i ostatecznie włączenie się tej nowej grupy do badań

1962 r.

G. Kerli stworzył program do gry w brydża, grający na poziomie średniego amatora. W 1963 T. N. Thiele, R. R. Lemke i K. S. Fu napisali swoją wersję tego programu, który przewyższał już umiejętności przeciętnego gracza. Późniejsze próby napisania takich programów podjęli: Polak, K. Moszczyński (program zdobył 4082 pkt. na 5000 możliwych w rozdaniach), Marxcel Peeter Challenge i D. A. Waterman (prezentacja odbyła się w 1970 roku, program grał również w pokera)

1962 r.

William Daly wraz z początkiem lat sześćdziesiątych stworzyli program umożliwiający grę w kółko i krzyżyk na planszy o 64 polach (4×4×4). Program ten analizował sytuację na bieżąco i równie sprawnie jak jego pobratymca MENACE wygrywał ze swoimi twórcami. W tym samym czasie napisano program grający na polu nieograniczonym, którego autorami byli J. Weizenbaum, R.C. Shepherdson i D. Koniver. Walka w ramach tego programu dawała szansę na wygraną człowieka, co w poprzednich wersjach było praktycznie niemożliwe

1964 r.

Amerykański matematyk z MIT, prof. Edward Thorp, który w 1961 roku przedstawił program obliczający prawdopodobieństwo wygranej i określenia strategii dla gier liczbowych (co z powodzeniem testował w kasynach gry, do których od tamtej pory (po wielu wygranych) wstęp ma zabroniony) wraz z W. E. Waldenem stworzyli program analizujący lokalne sytuacje w chińskiej grze Go, której poziom kombinacji wynosi około 10761, podczas gdy w szachach ok. 10120

1965 r.

Michał Botwinik, radziecki arcymistrz, po zapoznaniu się z wynikami prac nad szachowym programem dla rodzimej maszyny BESM, które były intensywnie prowadzone w pierwszej połowie lat pięćdziesiątych, rezygnując ze swojej zawodowej kariery szachisty (między innymi nie wystąpił 1965 roku w eliminacjach do mistrzostw świata) przystąpił do tworzenia programu dla komputera M-220. Rezultaty tych prac można poznać za sprawą M. M. Botwinnik, Algoritm igry w szachmaty, w: „Nauka”, Moskwa 1968

1967 r.

Szachista i matematyk z oksfordzkiego Trinity College, I. J. Good, wysunął koncepcję jednolitego, pięcioletniego programu badań nad programami grającymi w szachy

1971 r.

Jonathan L. Ryder w swojej pracy doktorskiej zastosował heurystyczną analizę drzewa do gry w Go

1972 r.

W byłym Związku Radzieckim zespół naukowy z Instytutu Fizyki Teoretycznej i Doświadczalnej Akademii Nauk pod kierownictwem G. M. Adelsona-Wielksiego zaprezentował program Kaissa, który z wbudowanymi weń podprogramami wziął udział (styczeń) w meczu z czytelnikami „Komsomolskiej Prawdy”. Umiejętności tego zestawu pozwalały na analizę kilku milionów pozycji, co przy prędkości tamtych komputerów oznaczało jeden ruch na około 1,5 – 4 godzin

1973 r.

Polski matematyk Włodzimierz Dobosiewicz zastosował dokonania Rydera tworząc program, który brał pod uwagę 38 parametrów gry w Go (mając przy tym możliwość przetestowania owego programu w rozgrywce z programem Rydera) — z wygraną dla Polaka

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

(14-12-22)

89

90

Sztuczna Inteligencja

Tabela 2.2. Zestawienie wydarzeń w ramach prac nad programami grającymi w szachy, warcaby, Go i brydża — ciąg dalszy 1974 r.

Program Kaissa zatriumfował w sierpniu, w czasie trwania kongresu IFIP (International Federation for Information Processing, Sztokholm), kiedy to pobił wszystkie urządzenia zebrane na komputerowym turnieju szachowym. W ten sposób odbyły się pierwsze komputerowe mistrzostwa świata w grze w szachy. Drugie zaś przebiegły w 1977 roku w Kanadzie

1976 r.

Informatyk i szachista, David Levy, we wrześniu w Toronto wziął udział w grze z komputerem Chess 4.6, opracowanym w Northwestern University. Był to wynik 10 letniego zakładu, którego data ważności mijać miała 1978 roku. Zakład był zawarty między wyżej wymienionym Levym a badaczami: J. Mc Carthy’m, S. Papertem i D. Michie o tysiąc funtów, a głosił, że do daty ukończenia go będzie istniał komputer, który w druzgocący sposób wygra rozgrywkę z Levym. Niestety, jeszcze tym razem maszyna poniosła klęskę (3,5 do 1,5 na korzyść Levy’ego)

1977 r.

Zbudowano pierwsze urządzenie na kostce układu scalonego — Computer Chess Challenger II — przeznaczone tylko do gry w szachy. Urządzenie te przewidywało kilka możliwych stopni trudności gry. Cena wynosiła 275 dolarów

1980 r.

Powstał Cray Blitz, program grający w szachy

1985 r.

Firma CMU zaprezentowała Hitech, program do gry w szachy

1990 r.

Firma CMU zaprezentowała kolejne osiągnięcie pozwalające grać w szachy — Deep Thought

1994 r.

Program Chess Genius w kilku partiach na czas (25 minut) wygrał z Gary Kasparowem

1996 r.

17 II mistrz świata w grze w szachy, Gary Kasparow wygrał swój pierwszy mecz z maszyną. Na superkomputerze IBM znajdował się monstrualny program Deep 159 Blue, budowany przez pięć lat

V 1997 r.

Gary Kasparow, tocząc swój drugi pojedynek z maszyną, poniósł tym razem klęskę. Zwycięzcą pojedynku został pobratymca swego poprzednika, Deeper Blue

Choć można wywnioskować, że już pierwszy program (Shannon, 1949) powstał przed ideą dwupodziału dróg AI wyznaczoną przez Turinga, to jednak byłoby to stwierdzenie odbiegające od prawdy. Claude Shannon rozważając grę w szachy jako bardzo złożoną — „należałoby zbadać około 10120 wariantów, podczas gdy stulecie zawiera mniej niż 1016 milisekund”160 — traktował ją jako grę skończoną o procesie dynamicznym (czyli ciągle zmieniającym się, ale według pewnych reguł). Istnieje jedynie skończona liczba pozycji, przy czym w każdej pozycji istnieje skończona liczba możliwych posunięć.161

159

Na temat tego wydarzenia por. między innymi Kurowski 2002.

160

Por. Newell, Shaw, Simon 1972a, s. 54.

161

Tamże, s. 52.

90 (14-12-22)

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

Rozdział 2.  Dzisiaj

91

W konsekwencji doszedł do niebanalnego wniosku: Zatem można dać kompletny opis szachów w postaci „drzewa rozgałęzień” (patrz: rysunek 2.3, przyp. M. J. K.), którego węzły odpowiadają pozycjom szachowym, a gałęzie wychodzące z danego węzła odpowiadają wszystkim możliwym posunięciom w danej pozycji.162 I to właśnie Ta procedura wnioskowania — zwana w teorii gier „minimaksową”163 — jest podstawą wszystkich (…) prób zaprogramowania gry w szachy. Upewnimy się, że ją rozumiemy. Rysunek pokazuje sytuację, w której białe mają wykonać posunięcie i mają do wyboru trzy możliwości: 1, 2 i 3. Po posunięciu białych nastąpi posunięcie czarnych: a lub b, jeśli zostanie wykonane posunięcie 1; c lub d, jeśli zostanie wykonane posunięcie 2; e lub f, jeśli zostanie wykonane posunięcie 3, aby przykład był prosty, załóżmy, że wszystkie posunięcia czarnych prowadzą do pozycji, które oznaczają koniec gry: „+” oznacza wygraną białych, „0” oznacza remis, zaś „–” oznacza przegraną białych. Jak powinny białe postąpić i jaka procedura wnioskowania pozwala im na określenie najlepszego z trzech posunięć? Jest oczywiste, że niezależnie od posunięcia czarnych, posunięcie 1 prowadzi do remisu. Podobnie, posunięcie 2 prowadzi w każdym przypadku do przegranej białych. Zatem posunięcie 1 jest lepsze dla białych od posunięcia 2. Co można powiedzieć o posunięciu 3? Daje ono możliwość wygranej, ale zawiera także możliwość przegranej i co więcej, wynik zależy wyłącznie od czarnych. Jeśli białe założą, że przeciwnik jest zdolny do analizy sytuacji, to muszą dojść do wniosku, że posunięcie 3 doprowadzi do przegranej białych, a zatem, że 1 jest najlepszym posunięciem. (…) Zatem białe mogą przyporządkować danej pozycji wartość — w tym przypadku remis — przeprowadzając analizę wstecz od pozycji o znanych wartościach.164 Rysunek 2.3. Drzewo gry, w którym węzły (szare koła) oznaczają pozycje szachowe, a strzałki z nich wychodzące odpowiadają wszystkim możliwym ruchom, które dane są przez węzeł pozycji

162

Tamże, s. 54.

163

Należy tutaj zaznaczyć, że Shannon nie jest „ojcem” procedury minimaksowej, a jedynie zastosowania jej do przypadku programów grających w szachy.

164

Newell, Shaw, Simon 1972a, s. 54.

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

(14-12-22)

91

92

Sztuczna Inteligencja

Na podstawie złożoności gry, z jaką mamy do czynienia (przypominam 10120 wariantów), wywnioskować można, że nie możliwe jest granie, które wyczerpuje wysztkie możliwośći, z jednym ludzkim partnerem, aby ten nieszczęśnik jeszcze dychał (porównaj czas trwania stulecia). Stąd właśnie pomysł metody „minimaksowej”, ale i problem przeszukiwania takich drzew tak w głąb, jak i wszerz. Metoda ta była skutecznie wykorzystywana od pierwszego programu Turinga (1950) aż po istotny dla nas program Deeper Blue (1997). Jak wynika z zestawienia programów grających w szachy (patrz: tabela 2.2), ale nie tylko w szachy, sukces nadszedł w ostatnim pięcioleciu, by zatriumfować wygraną z kilkukrotnym arcymistrzem świata Garym Kasparowem. Sukces, który jeszcze w 1996 roku, świeżo po przegranej programu Deep Blue z człowiekiem, był przez wielu nie do pomyślenia. Tak brzmiał jeden z komentarzy w roku, w którym człowiek wygrał jeszcze z maszyną w rozgrywkach szachowych: 17 lutego 1996 roku Gary Kasparow ograł w szachy „Deep Blue”, superkomputer IBM budowany przez pięć lat, wyposażony w monstrualny program. Maszyna ta, kosztująca dwa i pół miliona dolarów, jest w stanie przeprowadzić wyczerpującą analizę wszystkich konfiguracji na osiem ruchów naprzód, a to oznacza około 50 miliardów pozycji. Po porażce „Deep Blue” programiści mieli nietęgie miny, albowiem jako ludzie inteligentni musieli zadać pytanie o inteligencję: czy inteligencja, błyskotliwość, świadomość, czy te rzeczy w ogóle należą do sfery kalkulacji, obliczeń? Casus Kasparowa unaocznił raz jeszcze, że nawet najpotężniejszy na świecie komputer nie jest niczym więcej niż kalkulatorem; cóż z tego, że najlepszym na świecie, skoro nawet nie ociera się o inteligencję?165 Ze względu na pamiętny rok 1997 trudno nie ulec pokusie, zresztą za znawcą problematyki W. Marciszewskim, sparafrazowania powyższego tekstu w następujący sposób: Po porażce Kasparowa z „Deeper Blue” w 1997 roku Krzysztof Kowalski miał nietęgą minę, bowiem jako człowiek inteligentny musiał zadać pytanie o inteligencję. Już wiadomo, że cechujące Kasparowa inteligencja, błyskotliwość, świadomość nie wystarczają do wygrania partii szachów z komputerem.166 A dociekliwi mogliby jeszcze dodatkowo zapytać: Czy, jeżeli Deeper Blue wygrał z człowiekiem w szachy, to jest inteligentnym, błyskotliwym i świadomym komputerem? Jak widać, pierwsza z dróg dwupodziału Turinga uległa w pewien sposób wyczerpaniu. Przy ogrywaniu nas na co dzień przez nasz prywatny komputer w szachy i brydża, ostatni bastion obrony sceptyków (czy raczej informatycznych malkontentów; por. s. 77) runął, wraz z przegraną arcymistrza Kasparowa. Jednak wnioski, jakie można z tego wyciągnąć wcale nie zmuszają nas do przyznania tak Deeper Blue, jak i innym grającym programom (chociażby tym na naszym PC-cie) krzty świadomości. Czy inteligencji? To też wydawać może się sporne, choć jeśli uznać dotychczasowe zwycięstwa ludzi nad maszynami grającymi w szachy za przejaw wyższości człowieka, a w tym wypadku jego inteligencji, jak zrobił to chociażby wyżej cytowany K. Kowalski, to 165

Kowalski 1996, s. 20.

166

Marciszewski 1998, s. 12.

92 (14-12-22)

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

Rozdział 2.  Dzisiaj

93

nie wiadomo, czemu zwycięstwa maszyny nad człowiekiem nie można by nazwać przejawem inteligencji ze strony tej pierwszej! Niech to stanowi ważną dla nas tezę w połączeniu z poprzedzającym ją pytaniem. Kolejnym argumentem przemawiającym za przyznaniem inteligencji maszynie jest także spełnienie przez maszynę grającą w szachy wymogów definicji inteligencji jako zdolności odnajdywania się w nowej sytuacji i to z jak największą korzyścią wyniesioną dla siebie. Czyż maszyna grająca nie rozpatruje dziesiątek, setek, a nawet tysięcy sytuacji (jak to już wcześniej zaznaczyłem, ale, jak też już wiemy, nigdy nie rozpatruje wszystkich!) w celu znalezienia jednej jedynej, najlepszej? Czyż maszyna, która gra, niejednokrotnie nie znajduje się w sytuacji nowej, jeszcze jej nieznanej? Przecież rozgrywki szachowe są bardzo rzadko niepowtarzalne — częściej powtarzalne są w części, ewenementem — w całości! Pytanie, które jeszcze mógłby zadać oponent przyznania maszynie inteligencji, brzmi: Czy tylko po jednym typie zachowania można jakiemuś X przyznawać miano bycia inteligentnym? Pytanie jest o tyle sensowne, iż gdyby okazało się, że do inteligencji potrzebny jest zestaw umiejętności bądź wiedzy, nasza grająca maszyna nie uchodziłaby za inteligentną. Ale, rozpatrując kontrprzykłady, przecież inteligencję, błyskotliwość i geniusz potrafimy rozpatrywać (i w konsekwencji — przypisywać) za pomocą konkretnych przejawów, nierzadko biorąc pod uwagę tylko jedną dziedzinę. I tak: nikt nie pyta (a pewnie nawet nie zna odpowiedzi) o zdolności w rozwiązywaniu zadań z zakresu rachunku prawdopodobieństwa Williama Shakespeare’a, a jego inteligencję i geniusz określamy na podstawie jego sztuk; tak samo sprawa ma się z artystą równie godnym miana genialnego, malarzem Salvadorem Dalim, którego „próbkę inteligencji” tu przedstawię167: Wyobraźmy sobie coś takiego: jest teraz północ, a na horyzoncie widać blask jutrzenki. — Zagaduje Dalego jeden z barcelońskich zegarmistrzów. — Wpatruje się pan intensywnie i nagle widzi pan, jak ukazuje się słońce. O północy! Czy to by pana nie zdziwiło? — Nie — odpowiadam (Dali; przyp. M. J. K.) — nie wywarłoby to na mnie najmniejszego wrażenia. Barceloński zegarmistrz wykrzyknął: — A na mnie tak, mnie by to bardzo zdziwiło! Pomyślałbym nawet, że zwariowałem. I wtedy Salvador Dali momentalnie dał próbkę swych ciętych ripost, których sekret znany jest tylko jemu. — A ja odwrotnie! Sądziłbym, że to słońce zwariowało.168 Reasumując: jedna zdolność/umiejętność zupełnie wystarczy, aby stwierdzić, czy X jest inteligentne albo X nie jest inteligentne, gdyż to nie ta zdolność odpowiada za inteligencję, tylko za jej pomocą się ujawnia. Można zatem bronić tezy mówiącej o tym, że Deeper Blue przejawia pewną inteligencję — komputacyjną. *** 167

Cyt. za: S. Dali, Dziennik geniusza, tłum. J. Kortas, Phantom Press International, Gdańsk 1993.

168

Tamże, s. 162.

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

(14-12-22)

93

94

Sztuczna Inteligencja

Dzisiaj rynek gier, w tym gier komputerowych, jest dużo bardziej bogaty — jest to rzecz jasna wynik komercjalizacji rynku, którego potrzeby kształtują przemysł rozrywkowy (a tych nigdy mało), ale i zręcznie podsunięte rozwiązania go tworzących. Współcześnie prace badaczy Sztucznej Inteligencji są wykorzystywane przy poprawianiu, modyfikowaniu, ulepszaniu czy nawet kreowaniu nowych możliwości, na przykład trójwymiarowych światów (tzw. perspektywa 3D wykorzystywana przy symulacjach z zakresu rzeczywistości wirtualnej — virtual reality) w ramach gier komputerowym. Dla przykładu, posłużę się tutaj dwoma znacznymi osiągnięciami, jakimi są:  rozwiązanie (a raczej dynamiczne rozwiązywanie w czasie rozgrywki)

i wykorzystanie rozwiązań problemu komiwojażera dla potrzeb rynku gier;  pisanie i wykorzystywanie tzw. skryptów (scripts) zachowania się postaci, na

przykład bohaterów169.

Problem komiwojażera jest zadaniem typu NP, czyli praktycznie nierozwiązywalnym za pomocą algorytmu170. Polega on, wyrażając się krótko, na tym, aby znaleźć najkrótszą drogę pomiędzy dwoma punktami, przedzielonymi n liczbą punktów (patrz: rysunek 2.4). Jednym z pierwszych programów, który jeszcze w latach 60 – 70. został wykorzystany do takiego zadania był Graph Traver171. Kolejne programy „rozwiązujące” problem komiwojażera znalazły zastosowanie w przemyśle rozrywkowym, a ściślej mówiąc w grach komputerowych, gdzie często bohater, którym zawiaduje gracz, napotykając na swojej drodze rozmaite przeszkody, takie jak głazy, zwalone drzewa czy — w przypadku budynków — porozstawiane w pomieszczeniach krzesła, stoły i lampy często może się o nie „potykać”, co dla gry oznacza „stanąć w miejscu”, na przykład przed kamieniem z niemożliwością obejścia go za pomocą jednego kroku (mawia się wówczas, że postać się zapętliła, zawiesiła przy wykonywaniu danej czynności). Tak też jest na przykład w grze DIABLO2, hicie gier komputerowych firmy Blizzard172, w której to mamy możliwość wcielenia się w herosa (jednego z trzech do wyboru w przypadku gry podstawowej i pięciu w przypadku gry z rozszerzeniem) przemierzającego krainy w celu odnalezienia i zgładzenia Pana Zła (tytułowego Diablo). Jednakże nasz bohater, jakbyśmy rzekli nieco prześmiewczo, pozbawiony jest krzty „inteligencji”, gdyż postawiony przed problemem przedstawionym powyżej, stanie przed — dajmy 169

Angielskie słowo scripts można przetłumaczyć jako opisy, jednak polska nazwa nieco zubaża angielski pierwowzór. Można też oddać je jako zasady, pewien opis u podstaw, lecz nie będę tak czynił z tego względu, iż zdaje się, że angielska forma przyjęła się w polskim języku. Zwłaszcza stosowanym przez informatyków.

170

Pod adresem http://www.ci.pwr.wroc.pl/~kwasnick/tekstystudenckie/algorytmymrowkowe.pdf znajduje się interesujący artykuł T. Lindy i D. Abricha, Algorytmy mrówkowe. Opracowanie teoretyczne wraz z programem (http://www.ci.pwr.wroc.pl/~kwasnick/lindaabrichwww/index.html). Program i tekst dotyczą wykorzystywania tzw. algorytmów mrówkowych (więcej informacji o nich znajduje się w tekście) przy rozwiązywaniu problemu komiwojażera.

171

Por. Hołyński 1979, ss. 53 – 55.

172

Patrz: oficjalna strona firmy, http://www.blizzard.co.uk, bądź polski wydawca gry DIABLO2, http://www.cdprojekt.com.

94 (14-12-22)

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

Rozdział 2.  Dzisiaj Rysunek 2.4. Problem komiwojażera rozwiązywany przez program

95

A

A — wstępny układ miast; B — pierwsze, nieudane kroki; C — poprawnie rozwiązane zadanie

B

C

na to — kamieniem i będzie czekać, aż co najmniej dwoma kliknięciami komputerową myszką wskażemy mu drogę, którą przebędzie po liniach prostych — dopiero wówczas przeszkoda zostanie ominięta. Jest to rzecz jasna wina programistów, którzy poświęcili zbyt mało czasu na dopracowanie rozwiązania tego rodzaju problemu. Taka sytuacja natomiast nie pojawia się przy rozpatrywaniu innej kultowej gry Planescape. Torment173. 173

Patrz: oficjalna strona firmy — http://www.interplay.com, bądź polski wydawca gry Planescape — http://www.cdprojekt.com.

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

(14-12-22)

95

96

Sztuczna Inteligencja

Gra ta (firmy Interplay) oferuje nam bardzo dobrze przygotowany przez grupę programistów (D. Spitleya — kierownik grupy, J. Gardnera, R. Hollowaay, Y. Furumia i Darrena Monahana) program odpowiedzialny za rozwiązywanie problemu komiwojażera na bieżąco (Path Search Nodes). W tym przypadku sprawę komplikuje jeszcze to, (w stosunku do gry DIABLO2), że tym razem miast jednym bohaterem, możemy kierować poczynaniami całej grupy (nawet do sześciu bohaterów), dla której program musi ustalić drogę (biorąc przy tym pod uwagę poprawki dla innych postaci z drużyny). W Planescape. Torment, grze o innej nieco dynamice prowadzonej rozgrywki niż wspominana DIABLO2, poszczególne postacie przechodzą w sposób najwidoczniej zhierarchizowany, tzn. jedne czekają na ruch innych i dopiero później wykonują swój (patrz: rysunek 2.5). Jednak zauważalne jest w tej wersji (i nieco irytujące dla gracza) tzw. wieszanie się postaci przy próbie wyjścia z tłumu, na przykład w przypadku, gdy okrążyły bohatera inne postacie. Nasz heros staje wówczas i nie robi zupełnie nic, by wydostać się z pułapki. Na tę rzecz zwrócono już jednak uwagę, gdyż przyczyniała się do obniżania grywalności i została poprawiona w grze Baldurs Gate2, opracowanej przez tę samą firmę. Postacie po prostu odsuwają się tu od siebie, dając tym samym możliwość przejścia postaci wybranej. Są to oczywiście niesamowite zalety tej ostatniej z gier, które pozwalają graczom na płynną rozgrywkę, a programistom przynoszą dodatkowe pieniądze — na przykład z wyznaczenia standardu. Także przykład rozwiązywania problemu komiwojażera (czy raczej poszczególnych przykładów problemu) ukazuje, jak wykorzystuje się tzw. panel SI dla potrzeb gier rozrywkowych. Innym przykładem są skrypty zachowania się postaci. Choć nazwa skryptów zachowania się postaci może wydawać się nieco enigmatyczna, to każdy z użytkowników gier komputerowych, które polegają na wyeliminowaniu wroga, miał z nimi do czynienia. W innym przypadku wróg, którego napotyka nasz bohater, nie byłby bardziej groźny niż inne elementy scenografii gry, takie jak chociażby ściany czy drzewa. To skrypty zachowania postaci są odpowiedzialne za akcje i reakcje wrogów bądź przyjaciół, których napotyka postać kierowana przez gracza. I tak, obiekt „ożywiony” (tak umownie nazwijmy obiekt pełniący rolę wroga bądź przyjaciela naszej postaci w grze) ma określone współczynniki odpowiedzialne za jego pole widzenia i za czynności, których się podejmie, gdy postać bohatera pojawi się w jego obrębie. W ten sposób określa się „inteligencję” potworów (inteligent monsters). Jednak im bardziej rozbudowane są gry, tym bardziej rozbudowana jest natura takich akcji i reakcji obiektów „żywych”. A tym bardziej rozbudowane są gry, im bardziej wymagający rynek — a na wymagania tego ostatniego nigdy narzekać przecież nie można. I tak też w grze w stylu CRPG (Computer Role Playing Games) poziom złożoności jest wybitnie rozbudowany. Ma na to wpływ świat gry, a zatem i fabuły, który ma za zadanie jak największe oddawanie realiów zachowania się czy sposobów postępowania, znanych nam z rzeczywistości (symulacji). Więc: 1. gracz musi posiadać plastyczność w sposobie kreowania postaci bohatera

i odzwierciedlać ją w realiach gry, tzn. wybór początkowy powinien powodować, iż rozgrywka będzie za każdym razem, przy wyborze innych parametrów początkowych, inna (ale nie diametralnie inna);

96 (14-12-22)

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

Rozdział 2.  Dzisiaj

97

Rysunek 2.5. A Skrypty zachowania postaci. Na powyższych planszach pochodzących z gry Planescape. Torment widać zachowanie się sześciu postaci (w początkowej fazie, rysunek A, znajdujących się po prawej stronie środkowej części planszy), których zadaniem jest przejście przez framugę drzwi o szerokości dwu osób. Na ostatniej planszy (rysunek C) przeszkoda B ta została pokonana i większość postaci znajduje się na miejscach wyznaczonych uprzednio przez gracza (punkty w środku pokoju), a część ma już nieblokowany dostęp do pokoju

C

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

(14-12-22)

97

98

Sztuczna Inteligencja 2. gracz musi posiadać plastyczność w kwestii wyboru metody dojścia do finału,

czyli: jeśli preferuje tężyznę fizyczną i sposoby siłowe na dojście do określonego celu, powinien móc uzyskać cel tą drogą, a jeśli woli, by jego postacie ruszały częściej głową miast rękami, powinien mieć równe szanse co pierwszy (w rezultacie też czasami okazują się potrzebne alternatywne zakończenia jednej i tej samej rozgrywki, co leży w gestii programistów); 3. musi posiadać możliwość występowania (a więc na etapie prac nad grą

— programowania) postaci niesztampowych i zapadających w pamięć, więc w ostateczności z innymi typami zachowań (indywidualnościami, jakbyśmy się wyrazili w stosunku do ludzi żywych). Gry, takie jak wspomniane już Planscape. Torment, Baldurs Gate czy dodatkowo Fallout i Fallout2 (wszystkie firmy Interplay), z powodzeniem realizują wyżej postawione wymagania, właśnie dzięki skryptom zachowania się postaci. Podkreślić należy, że jest to wygodne, a nawet nieodzowne, gdy gracz skupia swą uwagę na więcej niż jednej prowadzonej przez siebie postaci — wybierając odpowiedni skrypt odpowiedzialny za zachowanie pozostałych może większą uwagę poświęcić postaci głównej. I tak na przykład w grze Baldurs Gate2 mamy możliwość napotkania postaci z gotowymi możliwościami zachowania się, jak również możliwość wykorzystania tych schematów zachowania postaci, którymi sam gracz zawiaduje. Jest to lista obejmująca tylko niektóre, wybrane z 20 gotowych skryptów podstawowych zachowań postaci spotykanych w grze, ale — co należy przyznać — jest to lista bardzo przekonujących zachowań, a niekiedy i — chciałoby się powiedzieć — znanych z życia (por. chociażby skrypt THIEF1). Oprócz tego do wyżej wymienionej gry dołączony jest specjalny program o nazwie Script Compiler wraz z istrukcją obsługi, dzięki któremu można zacbhowanie obiektów „żywych” bądź urozmaicić, bądź diametralnie zmienić. Taki rodzaj wykorzystania metod Sztucznej Inteligencji kwalifikuje ją do miana symulacji174; w tym konkretnym przypadku symulacji zachowań postaci. Oczywistą rzeczą jest, że podobne symulacje charakterów i zachowań charakterów wykorzystywane są w analizowaniu znacznie poważniejszych problemów niż omawiane tu gry komputerowe, na przykład danych medycznych, a także przy konstruowaniu portretów psychologicznych osób żywych175. Na końcu tego podrozdziału muszę zaznaczyć, iż z pewnością jesteśmy świadkami zupełnie nowego, rewelacyjnego podejścia do problemu inteligent monsters. Spowodowane jest to faktem pojawienia się na rynku gry Black & White, autorstwa Petera Molyneuxa, a sygnowanej przez firmę Lionhead Studios, która oferuje znacznie szersze

174

Zakres wykorzystywania tak komputerów, jak i programów, które nazwalibyśmy inteligentnymi, ze względu na możliwości przeprowadzania symulacji jest bardzo szeroki: począwszy od przewidywania zmian atmosferycznych aż po badania zachowań najmniejszych cząstek materii. Por. Pöppel, Edinghaus 1998, ss. 200 – 219.

175

Na temat korzyści takich badań czyt. między innymi w: Gomuła, Kucharski 2000; A. Dyszkiewicz, U. Dyszkiewicz, Koprowski, Wróbel 2000; również: W. Duch, Systemy Sztucznej Inteligencji rutynowo stosowane w praktyce medycznej, Internet.

98 (14-12-22)

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

Rozdział 2.  Dzisiaj

99

Tabela 2.3. Zestawienie niektórych skryptów zachowania się postaci z gry Baldurs Gate2. Nazwy i opis pochodzą z wyżej wymienionego produktu Nazwa skryptu

Rola skryptu

AGEN

Postać będzie się bronić, jeśli zostanie zaatakowana, lub jeśli zobaczy wrogów

APASS

Postać nie rzuca się do walki. Jeśli przeciwnik zaatakuje postać, będzie się ona bronić (preferując broń dystansową nad walkę wręcz)

ARANG

Postać zaatakuje wroga, kiedy go tylko zobaczy (korzystając z broni dystansowej), w której posiada największą biegłość. Będzie się starać zachować pewną odległość od przeciwnika, ale jeśli zostanie bezpośrednio zaatakowana, zmieni broń na ręczną

CAUTIONS

Postać ucieka przy pierwszych oznakach niebezpieczeństwa. Ten skrypt ma za zadanie chronić głównego bohatera lub inną postać przed przypadkową śmiercią

CLERIC1

Kapłan zacznie rzucać ofensywne czary176 na każdego wroga, którego zobaczy. Oczywiście musi mieć je zapamiętane. Bez odpowiednich czarów pozostanie tam, gdzie stoi i zaatakuje za pomocą posiadanej przez siebie broni strzeleckiej. Jeżeli nie posiada broni tego typu, sięgnie po oręż do walki wręcz i zaatakuje najbliższego przeciwnika

CLERIC2

Kapłan rzuci na siebie czary ochronne, a następnie zacznie poruszać się po placu boju i leczyć swoich towarzyszy. Jeżeli będzie to konieczne, zacznie się bronić przy użyciu broni strzeleckiej lub do walki wręcz

CLERIC3

Druid rzuci czary ochronne na siebie, następnie użyje czarów ofensywnych i spróbuje wyleczyć rannych członków drużyny

FIGHTER1

Paladyn będzie atakował wroga i śledził go, jeśli zajdzie taka potrzeba. Jeśli towarzysze będą ranni, paladyn spróbuje ich wyleczyć przy pomocy czarów lub nakładania rąk

FIGHTER2

Łowca będzie się starał trzymać od wroga na odległość od wroga, strzelając z dystansu, jeśli to będzie możliwe. Jeśli zostanie ranny, spróbuje się ukryć i zanim powróci do walki, wypije miksturę leczniczą

FIGHTER4

Wojownik będzie się zachowywał jak zwykły wojownik, atakując wroga jakąkolwiek bronią, w którą jest wyposażony. Jeśli czarodziej lub kapłan w drużynie zostaną ranni tracąc 50% punktów życia, wojownik będzie ich bronił atakując swoich przeciwników

MAGE2

Na widok przeciwników mag rzuca na siebie najpotężniejsze czary ochronne. Po zabezpieczeniu się, będzie atakował za pomocą czarów tylko najbliższych wrogów. Jeżeli w którymś momencie zostanie zaatakowany wręcz, zacznie uciekać do czasu, gdy będzie bezpieczny

THIEF1

Złodziej będzie się starał ukryć w cieniu, jak tylko zobaczy przeciwników, a następnie będzie starał się zadać cios w plecy

THIEF2

Złodziej stanie do walki ze wszystkimi przeciwnikami, jakich dostrzeże i którzy będą atakować członków drużyny (łącznie z nim). Po utracie 50% punktów życia, będzie starał się ukryć w cieniu i uniknąć walki

176

Postacie gry mogą rzucać czary, czyli parają się magią (w grze występują tak czary ofensywne, jak i defensywne). Nazwa „druid” przy skrypcie CLERIC3 określa kapłana poświęcającego się bóstwu utożsamianemu z naturą (swego rodzaju animistę). Nazwa „paladyn” przy skrypcie FIGHTER1 wskazuje rodzaj rycerza zakonnego — na poły rycerza, na poły kapłana. Nazwa „łowca” jest użyta do klasy wojowników preferujących umiejętności w zakresie tropienia (może to być na przykład łowca czarownic).

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

(14-12-22)

99

100

Sztuczna Inteligencja

możliwości reakcji postaci niż gry wcześniej omówione177. Tutaj zaoferowano graczom możliwość rozwoju głównego bohatera, który to proces został opracowany na kształt prawdziwego rozwoju — formy Tamagotchi, o której będę pisał nieco szerzej na stronach 196 – 197.

2.3.2. Dowodzenie twierdzeń logiki i matematyki Kolejną, bardzo naturalną formą zastosowania badań z zakresu Sztucznej Inteligencji było przeprowadzanie dowodów z matematyki i logiki. Nie dziwi ten fakt z wielu powodów, które w skrócie można sprowadzić do jednego, najważniejszego: twórcami maszyn liczących, więc i informatyki, są matematycy i logicy! A wszystko to stało się możliwe dzięki stworzeniu przez nich rachunku logicznego. Rachunek logiczny jest w zasadzie rachunkiem, który rozwinęli w XVII i XIX wieku matematycy i logicy, Leonhard Euler (1707 – 1783), August de Morgan (1806 – 1871), a zwłaszcza George Boole (1815 – 1864). Ten ostatni niejako urzeczywistnił pomysł G. Leibniza178 dotyczący stworzenia symbolicznego języka, który opisywać mógłby pojęcia tak, że można by rozstrzygnąć ich prawdziwość bądź fałsz. W dziele Badanie praw myślenia (1854) przedstawiono algebrę dwuwartościową, gdzie wartość „0” przypisano fałszowi, a „1” prawdzie, co posłużyło do konstrukcji bramek logicznych wykorzystywanych w komputerach (patrz: rysunek 2.6), nawet tych z pierwszej generacji, tzn. pracujących na lampach radiowych. Tam też „0” oznaczało brak przepływu prądu, a „1” dostęp do niego. Język taki, wykorzystany w maszynach obliczeniowych, został nazwany kodem binarnym. Rysunek 2.6. Schemat dekodowania trzycyfrowych liczb binarnych

Dzięki kodowi binarnemu, czyli językowi dwuznakowemu, który reprezentuje język wewnętrzny maszyn liczących, zaczęto tworzyć pierwsze języki programowania. Również dzięki temu systemowi wprowadzono podstawowe miary pamięci komputera — bit i bajt.

177

Por. chociażby: Dębek, Meszczyński 2000.

178

Zresztą pewne źródła wskazują, że to sam Leibniz odkrył rachunek logiczny, lecz za jego życia praca ta nie została opublikowana.

100 (14-12-22)

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

Rozdział 2.  Dzisiaj

101

Bit (Binary digit) — czyli jednostka miary informacji. Przy czym definicja informacji, którą posiadamy dzięki wielkości teoretyków informacji, Norberta Wienera179 (1894 – 1964) i Claude’a Shannona, to180: I B  1b(1/ p)  1b( p)

gdzie I to informacja, a zastosowany przy nim dolny indeks B, wyraża powiązanie tej definicji z binarnością; p to prawdopodobieństwo wiążące wielkość informacji, a 1b — logarytm binarny, czyli taki, który u podstaw ma jeden z dwu znaków: „0” albo „1”. W zasadzie więc, na podstawie tego co wyżej, można wywnioskować, że bit to nic innego jak zapis pojedynczego znaku (w kodzie binarnym jednego z dwu). Po pozwala to na rozróżnienie alternatywnych stanów. Za ich pomocą można kodować języki bardziej bogate, na przykład podstawową tablicę cyfr i liter. Tych ostatnich znaków jest 256; kodowane są za pomocą kombinacji 8 bitów (256 = 28), a pojedyncza taka kombinacja, prezentująca jeden 8-bitowy znak, nosi nazwę bajt (byte), a w skrócie oznaczana jest przez literę B. W ten sposób też mamy drugą jednostkę miary pamięci. Dalej są już kilobajty (1 KB = 1024 bajtów), megabajty (1 MB = 1024 KB), gigabajty (1 GB = 1024 MB) itd. Dzięki temu mamy doskonały język, a przez to i narzędzie, umożliwiające przeprowadzanie dowodów logicznych (gdzie znaki kodu binarnego reprezentować mogą fałsz w przypadku „0” i prawdę w przypadku „1”181) i matematycznych (gdzie poszczególne znaki matematyczne reprezentowane są przez 8-bitowe kombinacje i wyrażane za pomocą pojedynczych bajtów). Do tego wszystkiego dochodzi jeszcze fakt istnienia arytmetyki elektronicznych maszyn cyfrowych182, działu teorii, który odpowiedzialny jest za sposoby reprezentowania liczb w maszynach cyfrowych wraz z regułami, które umożliwiają wykonywanie na tych liczbach działań arytmetycznych. Przy czym, za każdym razem uwzględniane są własności konstrukcyjne maszyn, na których działania mają być wykonywane.

179

Między innymi dzięki jego książce: Cybernetyka, czyli sterowanie i komunikacja w zwierzęciu i maszynie.

180

Marciszewski 1998, s. 103. Warto dodać, że definicja informacji, której autorem był Shannon, sprowadza się do znanego w fizyce pojęcia entropii, czyli miary uporządkowania układu (por. Duch 1997a, rozdz. Skąd to się wzięło?). Wyżej podana definicja informacji nie jest definicją podaną przez Shannona, a binarną definicją informacji. Definicja Shannona wygląda następująco:

I  Tf log 2 (1 

Ps ). Pz

Por. chociażby: E. Kowalczyk, Człowiek w świecie informacji, Książka i Wiedza, Warszawa 1974, s. 33. 181

Więcej informacji na ten temat, a takze liczne przykłady przeliczania symboli logicznych (na przykład alternatywy czy koniunkcji, ale także tautologii) znaleźć można w: Marciszewski 1998, ss. 109 – 113.

182

Za: Matematyka, red. W. Waliszewski, Wydawnictwa Szkolne i Pedagogiczne, Warszawa 1989, ss. 12 – 13.

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

(14-12-22)

101

102

Sztuczna Inteligencja

Pierwsze dowody z zakresu matematyki i logiki zaczęto realizować już w drugiej połowie lat 50.183 Rozpoczęto od sztandarowych, już rozwiązanych, problemów, dowodząc ich za pomocą na przykład dwu najgłośniejszych swego czasu przedsięwzięć184:  „Teoretyka logiki” (Logic Theorist) autorstwa Newella, Shawa i Simona (1956),

dowodzącego twierdzeń z Principia Mathematica185;

 maszyny dowodzącej twierdzeń geometrycznych autorstwa H. Gelerntera (1958)186.

Dzięki badaniom nad sztuczną inteligencją osiągnięto również wyniki zupełnie nowe, takie jak dowód hipotezy Robbinsa, która została postawiona w 1936 roku, a której udowodnienie nastąpiło w 1996 roku za sprawą programu EQP (z treścią owej hipotezy i jej rozwiązaniem zapoznamy się nieco później; patrz ss. 114 – 117). Analizę problemów związaną z nimi proponuję zacząć od pierwszego z powyższych, Teoretyka logiki. Program ten, przez swoich twórców nazywany „Maszyną do Teorii Logiki” (Logic Theory Machine — LT187), a przez komentatorów „Teoretykiem logiki”, powstał z zamiarem ukazania i próby zrozumienia złożonych procesów heurystycznych, które wykorzystywane są przez matematyków przy dowodzeniu twierdzeń, a ogólniej, przy efektywnym rozwiązywaniu problemów188. Przedmiotem naszego zainteresowania nie będą te metody, które gwarantują rozwiązania, ale wymagają ogromnych ilości obliczeń. (…) Chcemy zrozumieć, w jaki sposób matematyk potrafi na przykład udowodnić twierdzenie, chociaż nawet sam nie zdaje sobie sprawy w momencie rozpoczęcia pracy ze stosowanych przez siebie metod ani nawet z tego, czy zbliża się do sukcesu czy też nie.189 W rezultacie też autorzy powyższego fragmentu i — oczywiście — samego Teoretyka logiki, piszą: Nasza strategia badawcza, jaką stosujemy do badania złożonych systemów, polega na sporządzeniu szczegółowego opisu systemu, na zaprogramowaniu go na maszynę cyfrową i na empirycznym studiowaniu zachowania się programu w wielu wariantach i przy różnych warunkach.190 183

Por. Hołyński 1979, s. 55.

184

Tamże, ss. 52 – 74.

185

Por.: [D], rozdz. III. Maszyny przeprowadzające dowody twierdzeń matematycznych oraz artykuł zawarty w tym zbiorze, Newell, Shaw, Simon 1972b; również: Minsky 1972; Hołyński 1979, ss. 58 – 62; Devlin 1999, ss. 203 – 206, 210.

186

Por.: [D], rozdz. III. Maszyny przeprowadzające dowody twierdzeń matematycznych, s. 118 oraz artykuły zawarte w tym zbiorze: Gelernter 1972, i Gelernter, Hansen, Leveland 1972, ss. 163 – 174; również: Hołyński 1979, ss. 56 – 57.

187

Newell, Shaw, Simon 1972b, s. 118.

188

Tamże.

189

Tamże, s. 119. — wyróżnienie M. J. K.

190

Tamże.

102 (14-12-22)

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

Rozdział 2.  Dzisiaj

103

Czyli można zaryzykować stwierdzenie, iż niejako system ten jest symulacją matematyka podczas prac umysłowych, w czasie rozwiązywania problemu — przysłowiowego „głowienia się”. Prawdziwym jego osiągnięciem było udowodnienie 38 twierdzeń z 52 umieszczonych we wspólnym dziele Bertranda Russella (1872 – 1970) i Alfreda Northa Whiteheade’a (1861 – 1947), Principia Mathematica (1910 – 1913)191. Z wynikami, takimi jak192: z twierdzeniem (2.01)

( p  p )   p

uporała się w 10 sekund;

z twierdzeniem (2.45)

( p  q )  p

uporała się w 12 minut.

Oczywiście są to wyniki rewelacyjne, tym bardziej biorąc pod uwagę to, jak dawne są czasy, w których były osiągnięte. Lecz przy tym nas interesuje przede wszystkim sam proces dochodzenia do nich (por. s. 102). Ponieważ Podane wyżej przykłady stanowią trudne problemy dla większości ludzi i większość ludzi, jeśli nawetjeśli udowodni twierdzenie, to nie wie, jakie procesy przy tym stosuje. Nie znamy żadnej prostej procedury, przy pomocy której można otrzymać takie dowody. (…) W pierwszym rzędzie musimy sobie jasno zdać sprawę, dlaczego takie problemy są trudne, a następnie pokazać, dzięki jakim cechom LT odnosi sukcesy, a w jakim porażki.193 W takim razie, zaczynając od początku, zdefiniujmy trzy kluczowe pojęcia.194 1. Problem — jest to zbiór możliwych rozwiązań wraz z testem, dzięki któremu

będziemy mogli sprawdzić, czy dany element tego zbioru jest rozwiązaniem. Przy czym należy dodać, że prawdziwą istotę problemu stanowi to, że na przykład: 1) zbiór możliwości jest tak ogromny, że praktyczną niemożliwością jest jego całkowita analiza albo 2) zbiór możliwości jest niepełny, na przykład wtedy, gdy nie wszystkie możliwości są poznane, albo 3) zbiór możliwości jest trudny do określenia, czyli w efekcie — nieznany, no i jeszcze 4) (bardzo istotna ze względu na to, iż dokonujemy tego za pomocą maszyn) — koszty analizy zbioru możliwości są zbyt duże, jeśli chodzi o czas rozwiązania i moc obliczeniową maszyny, którą się posługujemy. 2. Algorytm — który już poznaliśmy wcześniej (por. cyt. z W. Marciszewskiego,

s. 43) i będziemy określać mianem mechanicznego testu o skończonej wielkości, który daje zawsze pewny, bo sprawdzony, rezultat. Dzięki czemu 1) zawsze wtedy, gdy spotkamy się z identycznym problemem jak problem już rozwiązany, stosując wcześniejszą procedurę rozwiążemy ów problem, a 2) jeśli problem ma rozwiązanie, to rozwiązanie to (wcześniej czy później) jest gwarantowane. 191

Na temat prac tych dwu znakomitych matematyków, filozofów i logików nad dziełem Principia… zobacz (skądinąd w ogóle świetną pozycję): B. Russell, Autobiografia 1872 – 1914, tłum. B. Zieliński, Czytelnik, Warszawa 1996, ss. 215 – 232.

192

Dane za: Hołyński 1979, s. 59 oraz Newell, Shaw, Simon 1972b, ss. 121 – 122.

193

Newell, Shaw, Simon 1972b, s. 119.

194

Tamże, ss. 122 – 123.

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

(14-12-22)

103

104

Sztuczna Inteligencja 3. Heurystyka bądź proces heurystyczny — z którym również się już zapoznaliśmy

(patrz: „H. Argument wypływający z nieformalności zachowania się”, ss. 66 – 67), jest to zestaw bardzo ogólnych zasad działania, które są oparte na takim zestawianiu faktów już znanych i nowych, które pozwalają znaleźć między nimi występujące zależności195. Przy czym należy dodać, że procedura taka nie daje nigdy gwarancji rozwiązania problemu, ale znacznie uplastycznia — wbrew sztywnym procedurom algorytmów — proces samego dochodzenia do rozwiązania, dzięki czemu daje się zastosować do większej ilości przypadków. Problem pojawia się na przykład jako pytanie typu: „czy dany x jest/przynależy do y?”. Przez to zauważyć można łatwo, iż muszą być znane warunki spełniania x i warunki spełniania y, niejako świat, w którym one się znajdują bądź nie znajdują. Świat, logiki w naszym przypadku, będzie się zatem składał ze: 1. zmiennych: p, q, r, …; 2. stałych:

, ,  , ,;

3. nawiasów:

(, ), [, ].

Wszystkie one składają się na świat u podstaw, czyli w logice — aksjomaty. Te, w przypadku logiki zdań Russella i Whiteheade’a, alternatywne są do aksjomatów systemu niemieckiego logika, Gottloba Fregego (1848 – 1925)196: 1. p  (q  p ) 2. [ p  (q  r )]  [( p  q)  ( p  r )] 3. [ p  (q  r )]  [q  ( p  r )] 4. ( p  q)  (q  p) 5. p  p 6. p  p

Kiedy znamy już warunki spełniania, aby rozwiązywać efektownie problemy, musimy jeszcze poznać test, który sprawdzałby, czy dane rozwiązanie jest rozwiązaniem poprawnym. Dowodzenie twierdzeń logiki formalnej można opisać jako wybieranie elementu z generowanego zbioru (patrz: następna strona, rysunek 2.7; przyp. M. J. K.). (…) Weźmy pod uwagę zbiór wszystkich możliwych ciągów wyrażeń logicznych 195

„Kariera heurystyki rozpoczęła się na dobre w 1954 r., dzięki teoretycznej pracy prof. G. Polya (G. Polya, How to Solve It, Princeton Univ. Press, New Jersey 1954), Węgra urodzonego w Budapeszcie, który wykładał długie lata w Zurichu, a potem w Stanford University. Podstawy programowania heurystycznego sformułowano na sympozjum (w angielskim mieście Teddington w 1958), poświęconym mechanizacji procesów myślenia.” [Hołyński 1979, ss. 57 – 58]

196

Por. Devlin 1999, s. 203. Sam rachunek, o którym wyżej mowa, najpełniej wyłożony został w: G. W. Frege, Begriffsschrift; tłum. na angielski: G. W. Frege, The Foundations of Arithmetics, tłum. J.L. Austin, Oxford 1950; po polsku: G. Frege, Podstawy arytmetyki, w: Próby gramatyki filozoficznej. Antologia: Franz Brentano, Gottlob Frege, Christian Thiel, wyb. i tłum. K. Rotter, Wrocław 1997.

104 (14-12-22)

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

Rozdział 2.  Dzisiaj

105

— nazwijmy go E. Niektóre z tych ciągów będą stanowiły dowody. Ciąg dowodu spełnia następujący test: każde wyrażenie w ciągu jest bądź: 

jednym z przyjętych (uprzednio; przyp. M. J. K.) twierdzeń bądź aksjomatów;



wyrażeniem, które można otrzymać z jednego lub dwu poprzedzających wyrażeń w ciągu przez zastosowanie jednej z trzech reguł wnioskowania.197

Rysunek 2.7. Zależność między E, P i T

Przy czym Nazwijmy zb iór c iągó w, które są do wo dam i, przez P. Niektóre spośród ciągów występujących w zbiorze E (czyli zbiorze wszystkich wyrażeń logicznych; przyp. M. J. K.) mają wyra że n i e, k tó re n a leży d o w i eść — nazwijmy je X, umieszczone na końcu ciągu. Nazwijmy ten zbiór ciągów przez TX. Wobec tego udowodnienie danego twierdzenia X oznacza wybranie elementu E, który należy do zbioru, stanowiącego iloczyn logiczny P i TX. Zbiór E jest dany bezwarunkowo przez reguły generowania nowych ciągów wyrażeń logicznych.198 Zaś wyżej wspomniane trzy reguły wnioskowania, z których będziemy korzystać to199:  metoda podstawiania (patrz: ss.107 – 108);  metoda odrywania (patrz: s. 108);  metody łańcuchowe (patrz: s. 108).

Reguły owe, z którymi dalej zapoznamy się szczegółowo, będę nazywać ogólnie metodami. Wykorzystując trzy wprowadzone powyżej oznaczenia — E, P i T, określmy na ich podstawie trudność dowodzenia twierdzeń logicznych. Trudność dowodzenia twierdzeń zależy od względnego braku elementów w iloczynie logicznym P i TX w porównaniu z ilością elementów w E. Wobec tego trudność ta zależy od kosztu i szybkości dostępnych generatorów, które wytwarzają elementy zbioru E i od kosztu szybkości wykonania testów określających, 197

Newell, Shaw, Simon 1972b, ss. 123 – 124, wyróżnienie M. J. K.

198

Tamże, s. 124.

199

Tamże. Por. również chociażby: Devlin 1999, s. 203 oraz Ziembiński 1996, ss. 160 – 163. Na temat samego wnioskowania i reguł: Ziembiński 1996, ss. 150 – 192.

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

(14-12-22)

105

106

Sztuczna Inteligencja

czy dany element należy do TX czy do P. Trudność zależy również od tego, czy można obmyślić takie generatory, które gwarantują, że dowolny wytworzony przez nie automatycznie element spełnia pewne warunki. — A w rezultacie. — (…) trudność zależy od tego, jaką potrafimy wynaleźć heurystykę do kierowania selekcją.200 To właśnie wyżej zdefiniowana metoda heurystyczna (patrz ss. 66 – 67 oraz s. 104) była na tamte czasy odkrywcza i pomocna przy badaniach z zakresu Sztucznej Inteligencji. Stało się tak ze względu na olbrzymią komplikację i czasochłonność stosowania metody algorytmicznej — w wypadku LT konkretnej metody, tzw. Algorytmu Muzeum Brytyjskiego201. Ogólnie mówiąc Chodziło o to, że gdyby rozdać małpom maszyny do pisania i nauczyć algorytmów posługiwania się tym sprzętem, to kiedyś wystukałyby one wszystko, co zawierają książki zgromadzone w British Museum. Tyle że kosztowałoby to mnóstwo czasu, nie mówiąc już o papierze.202 A bardziej szczegółowo — odwołując się do programu Teoretyk logiki i ewentualnego zastosowania tej metody w programie W tym algorytmie zbiór jednokrokowych dowodów jest identyczny ze zbiorem aksjomatów (tzn. każdy aksjomat jest jednokrokowym dowodem siebie). Zbiór n-krokowych dowodów otrzymuje się ze zbioru (n – 1)-krokowych dowodów przez wykonanie w wyrażeniach (n – 1)-krokowych dowodów, wszystkich dozwolonych podstawień i zastąpień oraz przez wykonanie wszystkich dopuszczalnych oderwań par wyrażeń, na jakie pozwala rekurencyjna definicja dowodu203. (…) Aby zobaczyć jak przy pomocy tego algorytmu otrzymywałoby się dowody konkretnych twierdzeń, możemy rozważyć jego funkcjonowanie na sześćdziesięciu nieparzystych twierdzeniach z rozdziału 2. Principia. Jedno twierdzenie (2.01) otrzymuje się w kroku (4) generacji, wobec czego stanowi ono jedno z pierwszych 42 udowodnionych twierdzeń. Trzy następne twierdzenia (2.02, 20.3 i 2.04) otrzymuje się z kroku (6), a więc wśród pierwszych 115 twierdzeń. Jedno następne (2.05) otrzymuje się w kroku (8), a więc wśród pierwszych 246. Tylko jeszcze jedno twierdzenie: 2.06204 otrzymuje się wśród pierwszego 1000 twierdzeń. Dowody wszystkich pozostałych wymagają wykonywania złożonych podstawień lub oderwań.205 200

Newell, Shaw, Simon 1972b, s. 124.

201

W tłumaczeniu artykułu Newell, Shaw, Simon 1972b, D. Gajkowicz, oddaje go jako: Brytyjski algorytm muzealny (por. Tamże, s. 125), jednak wybrałem tłumaczenie M. Hołyńskiego, z: Hołyński 1979, s. 58.

202

Hołyński 1979, s. 58.

203

Przy budowaniu algorytmu musimy zwrócić uwagę na pewną ilość porządkowych, lecz niezbyt zasadniczych kwestii. Zwrot „wszystkie dopuszczalne podstawienia” należy zmodyfikować, gdyż jest ich nieskończenie wiele. Należy zadbać o to, aby nie powtarzać wyrażeń, które różnią się od siebie tylko nazwami swoich zmiennych. Nie będziemy tutaj wchodzić w szczegóły, ale powiemy po prostu, że te trudności można usunąć. Zasadniczą sprawą przy budowaniu algorytmu jest to, aby przy generowaniu każdego nowego wyrażenia mogła zajść tylko jedna rzecz, tzn. jedno zastąpienie, podstawienie „nie p” za „p” itd. (Przyp. za cyt.).

204

W wersji polskiej tego artykułu, zapewne przez omyłkę, podane jest tutaj twierdzenie 2.07.

205

Newell, Shaw, Simon 1972b, ss. 125 – 126.

106 (14-12-22)

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

Rozdział 2.  Dzisiaj

107

Dalszy fragment wskazuje, jak kolosalny zbiór twierdzeń musiałby być przeanalizowany i udowodniony, aby wyodrębnić z nich dowody twierdzeń pożądanych. Nie potrafimy obecnie oszacować, jak wiele dowodów trzeba by przeprowadzić, aby wśród nich znajdowały się dowody wszystkich twierdzeń rozdziału 2. „Principia”. Przypuszczamy, że mogłoby ich być sto milionów. Ponadto, z wyjątkiem sześciu wymienionych twierdzeń, nie ma powodu, aby przypuszczać, że dowody tych twierdzeń będą znajdować się na początku listy. Nasza wiedza jest zbyt uboga, aby móc dokładnie oszacować czasy wytwarzania takich dowodów za pomocą wyżej wymienionego algorytmu; ale możemy oszacować z grubsza na około 16 minut czas potrzebny na udowodnienie pierwszych 250 twierdzeń (tzn. do kroku (8) włącznie), zakładając, że czasy przetwarzania są porównywalne z czasami przetwarzania LT. Pierwsza część algorytmu ma dodatkową specjalną własność, która utrzymuje się tylko do chwili zastosowania po raz pierwszy operacji odrywania, a mianowicie: sprawdzanie, czy zachodzi dublowanie, jest zbędne. Wobec tego czas przeprowadzania pierwotnych kilku tysięcy dowodów wzrasta wraz z liczbą dowodzonych twierdzeń tylko liniowo. W przypadku twierdzeń wymagających odrywań, trzeba przeprowadzić próby na dublowanie i całkowity czas liczenia rośnie z kwadratem ilości generowanych wyrażeń. Wygenerowanie w ten sposób dowodów twierdzeń z rozdziału 2. zajęłoby setki tysięcy lat liczenia.206 Wnosi nam to dwie niepożądane dla naszej pracy cechy:  algorytm ten powoduje kolosalny wzrost potrzebnej mu mocy obliczeniowej;  algorytm ten powoduje, że czas obliczeń rośnie nieproporcjonalnie do efektów

końcowych zadania207.

Lekarstwem na powyższe bolączki okazała się już wielokrotnie wspominana metoda heurystyczna. Idea metody heurystycznej jest już nam znana (por. ss. 66 – 67 i s. 104), dlatego też zajmiemy się tutaj li tylko wykorzystaniem jej przy pracy Teoretyka logiki. Zacznę od definicji metody i ich przeglądu, gdyż Zasadniczy rodzaj heurystyki, jaką stosuje LT nazywamy metodą. (…) Z grubsza biorąc, metoda jest to operacja dająca główny i trwały wkład do znajdowania dowodu. Jest to największa jednostka organizacyjna w LT, podporządkowana tylko programom niezbędnym do koordynacji i wyboru metod.208 Przy czym istnieją trzy, wcześniej wspomniane metody (por. s. 105). 1. Metoda podstawiania.

Metoda ta polega na szukaniu dowodu wyrażenia problemu na drodze znajdowania aksjomatu lub uprzednio dowiedzionego twierdzenia, które, 206

Tamże, s. 126.

207

Por. analizę przy definicji problemu, s. 103.

208

Newell, Shaw, Simon 1972b, s. 127.

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

(14-12-22)

107

108

Sztuczna Inteligencja

przy pomocy szeregu podstawień zmiennych i zastąpień spójników, można przekształcić w wyrażenia problemu.209 2. Metoda odrywania.

Metoda ta polega na zastępowaniu na drodze stosowania reguły odrywania wyrażenia problemu nowym podproblemem, który, jeśli zostanie rozwiązany, dostarczy dowodu wyrażenia problemu. Tak więc, jeśli wyrażeniem problemu jest B, to metoda odrywania polega na szukaniu aksjomatu lub twierdzenia, mającego postać: „A implikuje B”. Jeśli zostanie znalezione takie A, to traktuje je się jako nowy podproblem. Jeśli można udowodnić A, to ponieważ „A implikuje B” jest twierdzeniem, więc i B będzie również udowodnione.210 Jest to w zasadzie reguła modus ponendo ponens: Jeżeli p  q i p, to q . 3. Metody łańcuchowe.

Metody te polegają na stosowaniu przechodniości relacji implikacji do wygenerowanego nowego problemu, który, w przypadku jego rozwiązania, stanowi dowód wyrażenia problemu. Tak więc, jeśli wyrażeniem problemu jest: „a implikuje c”, to metoda łańcuchowa w przód polega na szukaniu aksjomatu lub twierdzenia o postaci: „a implikuje b”. Jeśli zostanie ono znalezione, to „b implikuje c” uważa się za nowy podproblem. Metoda łańcuchowa wstecz działa analogicznie: polega ona na szukaniu twierdzenia o postaci: „b implikuje c” i jeśli takie twierdzenie zostanie znalezione, to „a implikuje b” uważa się za nowy podproblem.211 Czyli metoda ta korzysta z tzw. reguły przechodniości implikacji: Jeżeli p  q i q  r to p  r . A działanie metod 3a (w przód) i 3b (wstecz) polega na szukaniu takich q, które łączą wzajemne wynikanie poszczególnych p i r. Każdą zaś z trzech wyżej wymienionych metod, które stanowią niezależne jednostki, można stosować w sposób tak alternatywny (kombinatorycznie), jak i kolejno. Przy czym faktem jest, że w zasadzie twierdzeń dowodzi metoda odrywania, a trzy pozostałe (czyli (1), (3a) i (3b)) generują podproblemy, które stanowią często wyrażenia pośrednie w ciągu dowodowym dla metody pierwszej212.

209

Tamże, s. 127.

210

Tamże.

211

Tamże.

212

Por. Newell, Shaw, Simon 1972b, s. 127. Przy czym w Devlin 1999, spotykamy się ze stwierdzeniem, że to reguła modus ponens (2) była podstawową (por. Tamże, s. 203). W pracy jednak będę wierny danym samych autorów programu LT.

108 (14-12-22)

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

Rozdział 2.  Dzisiaj

109

Oczywiście, jak już to wiemy z definicji metody heurystycznej, wykorzystanie tych trzech metod w ciągu bądź w alternatywie nie daje pewności, że zadanie dowodzenia zostanie skutecznie przeprowadzone. Jedno z pytań i w zasadzie kontrargumentów względem powyższej metody heurystycznej może stanowić fakt, że nie ma żadnej gwarancji, iż zostanie znalezione twierdzenie, które stanowić może podproblem i w ostateczności będzie dalej wykorzystywane — czy to przy podstawianiu, czy też przy zastosowaniu jako łączące p i r ogniwo q do stosunku przechodniego. Jednak tym, co poważnie wpływa na decyzję stosowania ich, zwłaszcza w przypadkach, gdy poziom komplikacji jest bardzo duży, jak na przykład ten z gry w szachy (przypominam 10120 wariantów), jest fakt, że pozbywamy się dwu niepożądanych cech, które niosła ze sobą metoda algorytmiczna (por. ss. 106 – 107). Czyli — rozpatrując wielość przypadków:  nie musimy korzystać z dodatkowej mocy obliczeniowej;  diametralnie skracamy czas przeprowadzania dowodów.

Z kolei sposobem dowodzenia twierdzeń przez LT jest przechodzenie od końca dowodu — czyli od dowodzonej formuły — do początku — czyli do aksjomatów i wygenerowanych podproblemów — co równie korzystnie wpływa na czas obliczeń i w rezultacie na czas otrzymania pełnego dowodu. Ponieważ mamy udowodnić tylko jedno twierdzenie, dysponujemy zaś pewną liczbą znanych prawdziwych twierdzeń, wobec tego skuteczność pracy wstecz można porównać do łatwości, z jaką igła może trafić w stóg siana w porównaniu z trudnością znalezienia igły w stogu siana.213 W ostateczności też system dowodzenia LT pracuje tak, jak przedstawiono poniżej. 1. Gdy LT otrzyma nowy problem do rozwiązania, to najpierw zostaje wypróbowana

metoda podstawiania przy wykorzystaniu wszystkich aksjomatów i twierdzeń, znajdujących się na liście twierdzeń, którą polecono przyjąć LT. 2. Jeśli metoda podstawiania zawodzi, to próbuje się zastosować metodę

odrywania i po wytworzeniu przy pomocy udanego oderwania każdego nowego podproblemu, usiłuje się udowodnić ten nowy podproblem metodą podstawiania. Jeśli przy pomocy podstawiania nie można osiągnąć oczekiwanych rezultatów, to podproblem umieszcza się na liście podproblemów. 3. Jeśli metoda odrywania zawodzi dla wszystkich twierdzeń, znajdujących się

na liście twierdzeń, to ten sam cykl powtarza się w przód i następnie wstecz: spróbuj zbudować podproblem; spróbuj go udowodnić metodą podstawiania; jeśli się to nie uda, to wpisz nowy podproblem na listę. Z samej natury tych metod wynika, że jeśli kiedykolwiek uda się udowodnić pojedynczy podproblem metodą podstawiania, to tym samym zostaje udowodnione twierdzenie pierwotne. 4. Jeśli na pierwotnym problemie wypróbowano wszystkie metody i nie zbudowano

żadnego dowodu, to program wykonawczy wybiera z listy podproblemów następny nie wypróbowany podproblem i stosuje do niego tę samą sekwencję 213

Newell, Shaw, Simon 1972b, s. 128.

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

(14-12-22)

109

110

Sztuczna Inteligencja

usiłowań. Ten proces jest kontynuowany do momentu znalezienia dowodu, zużycia czasu przeznaczonego na znalezienie dowodu i braku, będącego do dyspozycji, miejsca w pamięci maszyny lub braku na liście podproblemów niewypróbowanego problemu.214 A całość można przedstawić za pomocą rysunku (patrz: rysunek 2.8). Rysunek 2.8. Ogólny „schemat blokowy” systemu LT

Teraz, aby z grubsza przedstawić proces dochodzenia do konkretnych twierdzeń, wezmę pod uwagę dwa, wyżej wspomniane już przykłady. 1. Twierdzenie (2.01)

( p  p )  p 1. ( A  A)  A

(aksjomat 1.2)

2. (A  A)  A (podstawienie A za A 3. ( A  A)  A (zastąpienie  przez  ) 4. ( p  p )  p (podstawienie p za A)

Należy tu zaznaczyć, że, jak widać akurat w tym przypadku, otrzymano go za pomocą metody podstawiania (bez stosowania listy podproblemów). Ale już...

214

Tamże, ss. 128 – 130.

110 (14-12-22)

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

Rozdział 2.  Dzisiaj

111

1. Twierdzenie (2.45)

( p  q)  p 1. A  ( A  B)

(twierdzenie 2.2)

2. p  ( p  q )

(podstawienie p za A, q za B)

3. ( A  B)  (B  A)

(twierdzenie 2.16)

4. [ p  ( p  q)]  [( p  q )  p ] (podstawienie p za A, ( p  q) za B) 5. ( p  q )  p

(oderwanie na podstawie 2)

...otrzymano dzięki zastosowaniu dwu metod: odrywania i, w dalszej kolejności, podstawiania, co widać powyżej. Tym razem dowód wymagał wytworzenia i zastosowania podproblemu (wykorzystując ponownie metodę podstawiania). W rezultacie program LT w powyższych przypadkach osiągnął doskonałe wyniki czasowe: 10 sekund w przypadku dowodu twierdzenia (2.01) i 12 minut w przypadku dowodu twierdzenia (2.45). Ale też, biorąc pod uwagę inne kryterium niż szybkość wykonywania dowodów, dowodził czasem sprawniej niż sami ojcowie dowodów. Jeśliby oprzeć się na słowach jednego z głośniejszych badaczy zaangażowanych w AI, to Przynajmniej jeden z dowodów jest przeprowadzony zręczniej niż dowód podany przez Whiteheade’a-Russella.215 Na końcu prezentacji samego Logic Theory i jego dorobku należy zwrócić uwagę na to, iż nie wszystkie dowody twierdzeń zakończone zostały sukcesem. Tak dla przykładu z twierdzeniem (2.31)

p  (q  r )  ( p  q)  r

program walczył przez 23 minuty, po czym dał za wygraną216. Powodem miało być to, że nie mógł wymyślić nic więcej, co by można było zrobić. To znaczy, że LT rozpatrzył wszystkie podproblemy, znajdujące się na liście podproblemów (w tym wypadku było ich sześć) i nie miał nowych podproblemów do rozpracowania.217 W rezultacie też powodem, dla którego nie skończył, nie były cechy istotowe, a nie skończył rozwiązywać ze względu na ograniczenia czasowe lub miejsce w pamięci; są to najczęściej spotykane przyczyny niemożności znalezienia dowodu przez LT.218 Cały program Logic Theory zakończył się w rezultacie pełnym powodzeniem (z punktu widzenia tego, co istotne — czyli możliwości dowiedzenia tylu twierdzeń w czasie zadawalającym). Ewentualna porażka przy twierdzeniu (2.31) jest niczym i z dzisiejszej perspektywy jest ona do pokonania. W ślad za twórcami LT poszli i inni (por. tabela 2.4). 215

Selfridge, Neisser 1972, s. 238.

216

Por.: Hołyński 1979, s. 59; Newell, Shaw, Simon 1972b, ss. 122 i 130.

217

Newell, Shaw, Simon 1972b, s. 130.

218

Tamże, ss. 128 – 130 — wyróżnienie M. J. K.

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

(14-12-22)

111

112

Sztuczna Inteligencja

Tabela 2.4. Minikronika wybranych programów do dowodzenia twierdzeń logiki, matematyki i rozwiązywania problemu tych dwu dziedzin 1956 r.

M. Minsky stworzył program do dowodzenia twierdzenia Euklidesa dotyczącego równości kątów przy podstawie trójkąta równoramiennego219

1959 r.

Hao Wang, amerykański logik matematyczny i filozof matematyki urodzony w Chinach, stworzył pierwszy program komputerowy, który efektywnie dowodził twierdzeń z Principia Mathematica, sformułowanych w języku logiki pierwszego 220 rzędu

1959 r.

H. Gelernet z grupą badawczą nowojorskiego centrum doświadczalnego IBM (IBM Research Center in New York), stworzył program do dowodzenia twierdzeń 221 geometrycznych

1961 r.

A. Newell i H.A. Simon kontynuowali swój projekt LT, tworząc program GPS (General Problem Solver, czyli ogólny rozwiązywacz problemów)222. Ten program mógł wykonywać dodatkowo trzy typy zadań:  przekształcał jeden obiekt w inny;  zmniejszał istniejące różnice między dwoma obiektami (co nie zawsze sprowadza

się do (1));  stosował do obiektu wybrany operator

Pracownicy Uniwersytetu w Edynburgu, J.E. Doran i Michie, stworzyli program Graph Traveser, służący do rozwiązywania wcześniej wspomnianego problemu typu NP, problemu komiwojażera czy tzw. łamigłówki ośmiopolowej223

1968 r.

Współcześnie zaś największymi projektami w ramach programów dowodzących twierdzeń matematycznych są224 programy wymienione w tabeli 2.5. Tabela 2.5. Przegląd współczesnych systemów dowodzących Nazwa i autorzy

Adres internetowy

ACL2, prowadzony na University of Texas

www.cli.com/software/acl2/

Coq, Proof Assistant

pauillac.inria.fr/coq

EVES, prowadzony w ORA (Kanada)

www.ora.on.ca/eves.html

219

Por. M. L. Minsky, Notes on the Geometry Problem. Artificial Intelligence Project, Darmouth College, Nanover, 1956.

220

Por. Hodges 1999, s. 955. Program ten różnił się od wcześniejszego projektu LT tym, że 1) nie był heurystyczny i 2) udowodnił wszystkie twierdzenia, włączając twierdzenie (2.31). Był on napisany na maszynę IBM 704, a metody dowodzenia w nim zastosowane były oparte na specjalnie doń przygotowanych formalnych regułach wnioskowania.

221

Por. H. Gelernter, Realization of a Geometry Theorem proving Machine. Proceedings of the International Conference on Information Processing, Unesco House, Paryż 1959; polskie wydanie: Gelernter 1972.

222

Por. A. Newell, H. A. Simon, GPS, A Program That Simulates Human Problem-Solving, Proc. of a Conf. on Learning Automata, Karlsruhe 1961; polskie wydanie: Newell, Simon 1972.

223

Por. J. E. Doran, New Developments of the Graph Traveser. Machine Intelligence 2, Oliver and Boyd, Edingburgh 1968; za: Hołyński 1979, ss. 52 – 54.

224

Za: W. McCune, Automated Deduction Systems and Groups, Internet.

112 (14-12-22)

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

Rozdział 2.  Dzisiaj

113

Tabela 2.5. Przegląd współczesnych systemów dowodzących — ciąg dalszy Nazwa i autorzy

Adres internetowy

NuPrl, from Cornell

www.cs.cornell.edu/Info/Projects/NuPrl/nuprl.html

ProofPower

www.trireme.demon.co.uk/index.html

PVS (Prototype Verification System), from SRI International

www.csl.sri.com/sri-csl-pvs.html

TPS, Carnegie Mellon University

http://gtps.math.cmu.edu/tps.html

Bliksem

http://www.mpi-sb.mpg.de/~nivelle/bliksem/index.html

LeanTaP, a tableau-based theorem prover

emmy.ira.uka.de/~posegga/leantap/leantap.html

Gandalf (winner of the mixed division at CASC-14)

www.cs.chalmers.se/~tammet/gandalf/

METEOR, from Duke University

www.cs.duke.edu/~ola/meteor.html

OSHL, from the University of North Carolina

www.cs.unc.edu/~zhu/prover.html

Otter, (winner of the equational division at CASC-13)

www.mcs.anl.gov/AR/otter/index.html

SETHEO, (winner of the mixed division at CASC-13) and SPTHEO

www.jessen.informatik.tu-muenchen.de/~setheo; www.jessen.informatik.tu-muenchen.de/~suttner/sptheo.html

SPASS, from MPI Saarbrücken

spass.mpi-sb.mpg.de/

Waldmeister (winner of the equational division at CASC-14) and DISCOUNT, from Kaiserslautern

www.uni-kl.de/AG-AvenhausMadlener/waldmeister.html www.uni-kl.de/AG-AvenhausMadlener/discont

Geometry Expert, from Wichita State University

www.cs.twsu.edu/~chou/ge.html

ILF (Integration of Logical Functions), from Humboldt University, Berlin

www-irm.mathematik.hu-berlin.de/~ilf/

ARP, at Australian National University

arp.anu.edu.au/home.html

ATP, at Argonne

www.mcs.anl.gov/AR/

ATP, at The University of Texas at Austin

www.ma.utexas.edu/users/bshults/ATP/

DreaM, Edinburgh Dept of AI

dream.dai.ed.ac.uk/

Groups, in Germany

jswww.cs.uni-sb.de/pub/www/deduktion/research-groupsgermany.html

ICOT, Institute for New Generation Computer Technology

www.icot.or.jp/

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

(14-12-22)

113

114

Sztuczna Inteligencja

Tabela 2.5. Przegląd współczesnych systemów dowodzących — ciąg dalszy Nazwa i autorzy

Adres internetowy

Automated Reasoning, at The Univeristy of Iowa

www.cs.uiowa.edu/ar/arui.html

Mechanized Reasoning Groups at DIST (Genova), DISA (Trento), IRST (Trento)

www.mrg.dist.unige.it/ tango.cs.unitn.it/~mrg afrodite.itc.it:1024/

LEGO, Proof Assistant

www.dcs.ed.ac.uk/home/lego/

Mizar, prowadzony na Uniwersytecie Warszawskim225

web.cs.ualberta.ca/~piotr/Mizar/

Nqthm (Boyer-Moore Theorem Prover), prowadzony na University of Texas

www.cli.com/software/nqthm/index.html

*** Na końcu podrozdziału dotyczącego dowodów twierdzeń logicznych i matematycznych wykonanych przez maszynę chciałbym jeszcze zwrócić uwagę na dwa istotne fakty. Pierwszy — pozytywny i drugi, choć nie całkiem negatywny, to jednak kłopotliwy. Pierwszym jest fakt udowodnienia hipotezy Robbinsa, drugim problem przedstawiony przez Witolda Marciszewskiego, nazwany przezeń Barierą Turinga. W 1936 roku znany matematyk Herbert Robbins zadał pytanie o to, czy każda algebra Robbinsa jest Boolowska. Przy czym algebra Boole’a to226: Niepusty zbiór A, w którym wyróżnione są dwa należące do niego elementy 0, 1 oraz określone są dwuargumentowe działania  (suma; przyp. M. J. K.) i  (iloczyn; przyp. M. J. K.) i jedno działanie jednoargumentowe ´, nazywane dopełnieniem, spełniające (dla dowolnych a, b, c  A ) następujący układ aksjomatów, zwanych aksjomatami algebry Boole’a: 1. a  b  b  a ; a  b  b  a 2. a  (b  c)  (a  b)  c ; a  (b  c)  (a  b)  c 3. a  (b  c)  (a  b)  (a  c) ; a  (b  c)  (a  b)  (a  c) 4. a  (a  b)  a ; a  (a  b)  a 5. a  0  a ; a 1  a 6. dla dowolnego elementu a  A istnieje a   A taki, że: a  a   1 ; a  a   0

Problem ten dotyczył tez [1], [2] wraz z równaniem Huntingtona [3] i tego, czy można je razem zastąpić prostą definicją Robbinsa [4]227. 225

Por. też s. 69, przyp. 103.

226

Cytat i aksjomaty za: Matematyka, red. W. Waliszewski, s. 8.

227

Por. W. McCune (autor programu EQP), Robbins Algebras Are Boolean, Internet.

114 (14-12-22)

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

Rozdział 2.  Dzisiaj

115

ab  ba x y  yx

[1]

(a  b)  c  a  (b  c) ( x  y)  z  x  ( y  z)

[2]

n[n(a)  b]  n[n(a)  n(b)]  a n[n( x)  y ]  n[n( x)  n( y )]  x

[3], równanie Huntingtona

n[n(a  b)  n(a  n(b))]  a n[n( x  y )  n( x  n( y ))]  x

[4], równanie Robbinsa

Na podstawie tego można stwierdzić, że każda algebra Boolowska jest algebrą Robbinsa, lecz nie odwrotnie — nie że każda algebra Robbinsa jest algebrą Boolowską — co proponował właśnie Robbins. Przez 60 lat wielu wybitnych matematyków nie potrafiło znaleźć dowodu tej hipotezy, gdy w październiku 1996 roku system o nazwie EQP (Equational Prover) w zaledwie 17 krokach znalazł go i odpowiedź brzmiała: TAK, każda algebra Robbinsa jest algebrą Boolowską228. System ten działał na zasadzie cząstkowego, lecz systematycznego dowodzenia twierdzeń pobocznych, by w ostateczności, sumując niejako wszystkie swoje dokonania, dowieźć prawdziwości tezy zasadniczej229. Tak się dzieje na przykład w poniższych dwu przykładach. Dowód z dnia 9 czerwca 1996 roku. Godzina rozpoczęcia: 14:53:57. Czas trwania: 5,19 sekund.

1 2 3

C C C

Hipoteza

n(n(x + y) + n(x + n(y))) = x

Aksjomat Robbinsa

n(n(A) + B) + n(n(A) + n(B)) = A

Równanie Huntingtona

C C C n(n(n(x) + y) + n(x + y)) = y -(n(B + n(A)) + n(n(B) + n(A)) = A)

(t=5) (t=13) (t=14)

Aby ułatwić porównanie z charakterystyką algebry Bolle’a wyżej zebrane tezy [1], [2], równanie Huntingtona [3] i równanie Robbinsa [4], trochę transformowałem, ujednolicając oznaczenia: w miejsce dowolnych x, y wstawiłem odpowiednio a, b; w miejsce znaku „+” znak  . W ostateczności też tezy zapisane u góry przedstawioną są metodą z: Matematyka, red. W. Waliszewski, a niżej z: W. McCune, Robbins Algebras Are Boolean, Internet. 228

Por. W. Duch, Sztuczny mózg? Sztuczna inteligencja?, Internet; również: W. McCune, EQP, Internet.

229

Niestety, nie udało mi się nigdzie znaleźć pełnego 17-krokowego dowodu hipotezy Robbinsa. Nie znalazłem go nawet na żadnej ze stron autorów programu EQP prezentujących wyniki jego działań. Zawiodła także próba skontaktowania się z samym autorem, W. McCune’em — adres jego skrzynki poczty elektronicznej (rządowej) był odrzucany przez serwer, a próba wysłania faksu nie przyniosła żadnych rezultatów. W ostateczności zdecydowałem się zamieścić prezentowane dalej dowody szczątkowe.

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

(14-12-22)

115

116

Sztuczna Inteligencja

4 5 8 9 13 20 22 24 32 35 42 50 52 58 87 88

n(n(C) + n(C + n(C))) = C n(n(C + n(C) + x) + n(C + x)) = C + x n(n(C + x) + n(n(C) + n(C + n(C)) + x)) = x n(C + n(C + n(C) + n(C))) = n(C) n(n(C) + n(C + n(C) + n(C + n(C)))) = C n(n(C) + n(C + n(C) + n(C))) = C n(C + n(C) + n(C)) = n(C + n(C)) n(C + n(C + n(C))) = n(C) C + n(C + n(C)) = C n(C + n(C)) + x = x n(n(n(x)) + n(x)) = n(C + n(C)) n(n(n(n(x)) + x)) = n(n(x)) n(n(n(x))) = n(x) n(n(x)) = x n(n(x) + y) + n(x + y) = n(y) -(A = A)

(t=11) (t=17) (t=19) (t=14) (t=17) (t=14) (t=14) (t=11) (t=9) (t=9) (t=13) (t=11) (t=7) (t=5) (t=13) (t=3)

Koniec dowodu. Dowód z dnia 9 czerwca 1996 roku. Godzina rozpoczęcia: 12:25:37. Czas trwania: 678 232,20 sekund. 2 3 5 6 24 47 48 146 250 996 16379 16387 16388 16393 16426

116 (14-12-22)

-(n(x + y) = n(x)) (t=7) n(n(n(x) + y) + n(x + y)) = y (t=13) n(n(n(x + y) + n(x) + y) + y) = n(x + y) (t=18) n(n(n(n(x) + y) + x + y) + y) = n(n(x) + y) (t=19) n(n(n(n(x) + y) + x + y + y) + n(n(x) + y)) = y (t=21) n(n(n(n(n(x) + y) + x + y + y) + n(n(x) + y) + z) + n(y + z)) = z (t=29) n(n(n(n(x) + y) + n(n(x) + y) + x + y + y) + y) = n(n(x) + y) (t=27) n(n(n(n(x) + y) + n(n(x) + y) + x + y + y + y) + n(n(x) + y)) = y (t=29) n(n(n(n(n(x) + y) + x + y + y) + n(n(x) + y) + n(y + z) + z) + z) = n(y + z) (t=34) n(n(n(n(n(n(x) + y) + x + y + y) + n(n(x) + y) + n(y + z) + z) + z + u) + n(n(y + z) + u)) = u (t=42) n(n(n(n(x) + x) + x + x + x) + x) = n(n(x) + x) (t=21) n(n(n(n(n(x) + x) + x + x + x) + x + y) + n(n(n(x) + x) + y)) = y (t=29) n(n(n(n(x) + x) + x + x + x + x) + n(n(x) + x)) = x (t=23) n(n(n(n(x) + x) + n(n(x) + x) + x + x + x + x) + x) = n(n(x) + x) (t=29) n(n(n(n(n(x) + x) + n(n(x) + x) + x + x + x + x) + x + y) + n(n(n(x) + x) + y)) = y (t=37)

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

Rozdział 2.  Dzisiaj

17547 17666

117

n(n(n(n(n(x) + x) + n(n(x) + x) + x + x + x + x) + n(n(n(x) + x) + x + x + x) + x) + x) = n(n(n(x) + x) + n(n(x) + x) + x + x + x + x) (t=60) n(n(n(x) + x) + n(n(x) + x) + x + x + x + x) = n(n(n(x) + x) + x + x + x) (t=33)

Koniec dowodu. Do twierdzeń, które jeszcze czekają na ich dowiedzenie i problemów z zakresu matematyki, które czekają na rozwiązanie, powrócę przy okazji rozdziału 3. — „Jutro”, gdy będę się zajmować rozpatrywaniem korzyści płynących z faktu posiadania maszyn myślących. A teraz jeszcze zajmiemy się wspominaną już (patrz: s. 107) Barierą Turinga. Jeden ze współczesnych polskich badaczy problematyki SI, Witold Marciszewski, w wielu swoich esejach zadaje bardzo istotne pytanie230: Czy, a jak tak to, w jaki sposób, można zmechanizować intuicyjny proces dochodzenia do prawdy? Problem wygenerowany z niego nazywa Barierą Turinga, która dotyczy procesów nieobliczalnych zachodzących w mózgu człowieka, a niezachodzących w maszynie. Aby zrozumieć jego istotę, rozbiję powyższe pytanie na pytania poboczne231 i tak będziemy rozumieć termin intuicyjny proces dochodzenia do prawdy, jak odczytamy ich sens232. Pytanie pierwsze — o mózgowe algorytmy233 prowadzące do uznania prawdziwości aksjomatów logiki oraz do uznania skuteczności reguł dowodzenia (w prowadzeniu od prawdy do prawdy): czy takowe istnieją, a jeśli tak, to, w jakiej perspektywie czasowej spodziewać się ich odczytania?234 230

Por.: W. Marciszewski, Czy można i czy trzeba pokonać Barierę Turinga?, Internet; Tenże, Problem reprezentacji arytmetycznej rozumowań zapisywanych w kodzie neuronowym, Internet; Tenże, Czy robot może uznać za prawdę zdanie samopotwierdzalne?, Internet; Tenże, Czy klasa niezawodnych reguł wnioskowania pokrywa się z klasą reguł logicznych, Internet.

231

W tekście W. Marciszewskiego, Czy można i czy trzeba pokonać Barierę Turinga?, mamy w zasadzie do czynienia z trzema postawionymi przez autora pracy pytaniami. Przetoczyłem jednak tylko dwa pierwsze, ze względu na to, iż trzecie pytanie dotyczyło zasad decyzyjnych, więc wykraczało poza zasady dowodzenia wyżej poruszanych problemów matematyki i logiki.

232

Por. również cytowany fragment z: W. Marciszewski, Co sądziłby Leibniz o sztucznej inteligencji, gdyby znał Cantora i Turinga?, Internet, zamieszczony we Wstępie (patrz s. 13).

233

Nazwę „algorytmu mózgowego” W. Marciszewski z pewnością ukuł na podstawie tekstu J. von Neumanna (1958), przytaczanego przy okazji innego artykułu w postaci motta: „Matematyka i logika systemu nerwowego — jeśli rozpatrujemy je jako języki — muszą strukturalnie różnić się w istotny sposób od tych języków, które są nam dane w codziennym doświadczeniu. Zewnętrzne formy naszej matematyki nie mają znaczenia absolutnego z punktu widzenia dociekań, czym jest język matematyczny lub logiczny faktycznie używany przez centralny system nerwowy.” [W. Marciszewski, Problem reprezentacji arytmetycznej rozumowań zapisywanych w kodzie neuronowym, Internet]

234

W. Marciszewski w Problem reprezentacji arytmetycznej… zaznacza, że: „Pytanie o rozumowanie prowadzące do aksjomatów może się wydać źle postawione, bo przecież ex definitione aksjomaty są zdaniami przyjętymi bez poprzedzających je rozumowań.” Jednak: „Jest to prawdą w odniesieniu do systemu formalnego. (…) Zanim jednak jakiś autor, na przykład Giuseppe Peano, zapisał na papierze aksjomaty arytmetyki, musiały one narodzić się w jego mózgu w wyniku jakichś transformacji; znając

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

(14-12-22)

117

118

Sztuczna Inteligencja

Pytanie drugie ma do czynienia z nieskończonością. Niech będzie to skromna nieskończoność zbioru przeliczalnego. Niech jej percepcję w umyśle czy mózgu człowieka reprezentuje ZASADA INDUKCJI. Jak zaprogramować sztucznego matematyka, by samodzielnie doszedł do tej zasady?235 Innymi słowy — chodzi o nierozstrzygalność zdań klasycznego rachunku kwantyfikatorów (KRK). Oto próbujemy zbadać metodą tabel analitycznych, czy twierdzeniem logiki pierwszego rzędu jest formuła, którą będziemy odtąd określać jako F. Po podjęciu takiej próby procedura się szybko zapętla. Oczywiście sam system nie potrafi rozstrzygnąć, czy pętle będą się pojawiać bez końca. Mózg jednak, rozpoznając regularność, której podlega powstawanie pętli dochodzi na tej drodze do przekonania, że jest to proces bez końca, a więc że mamy do czynienia z przewidywanym przez teorię przypadkiem nierozwiązywalności problemu przez system. Co więcej, pewne rozumowanie metasystemowe prowadzi nasz mózg do rozwiązania problemu, którego system formalny nie potrafi uzyskać, mianowicie rozwiązania negatywnego: że badana formuła F nie jest twierdzeniem logiki. Rozumowanie to opiera się na wiedzy o stosowanej tu metodzie dowodowej. Wiemy mianowicie, że polega ona na przyjęciu w roli założenia Z zdania negującego i następnie wyprowadzenia z Z jego konsekwencji w postaci wszystkich kolejnych składników syntaktycznych (własność nazwana przez jej odkrywcę, Gentzena Teilformeln_Eigenschaft). Jeśli okaże się, że Z, czyli negacja formuły F, na każdej z gałęzi tego procesu prowadzi do sprzeczności, to znaczy, że negacja formuły F nie jest spełnialna, a zatem F jest twierdzeniem i zarazem prawdą logiki. Jeśli natomiast bodaj jedna gałąź nie zamknie się sprzecznością, świadczy to, że F nie jest twierdzeniem logiki. W przypadku nieskończonego szeregu pętli nie dochodzi się do sprzeczności (choć powód tego jest inny niż w przypadkach typowych), co upoważnia do wniosku, że F nie jest twierdzeniem logiki. Co było do dowiedzenia i mózg nasz dowiódł, choć nie potrafił dowieść (żaden; przyp. M. J. K.) system formalny logiki pierwszego rzędu.236 Konsekwencje są dość oczywiste. Mogę wydać maszynie polecenia, za R. Penrose’em, zdaniami nierozstrzygalnymi typu Π1237, na przykład:

ich zapis w kodzie neuronowym, moglibyśmy stwierdzić z pewnością, czy takie transformacje podpadają pod pojęcie rozumowania. Ale i bez tego mamy powody przypuszczać, że podpadają, przynajmniej w jakimś szerszym pojęciu rozumowania, prowadzą bowiem do prawdziwych neurosądów w wyniku przekształcania innych neurosądów.” [Tamże, s. 9] 235

W. Marciszewski, Czy można i czy trzeba pokonać Barierę Turinga?, Internet, ss. 1, 2.

236

W. Marciszewski, Problem reprezentacji arytmetycznej rozumowań zapisanych w kodzie neuronowym, Internet, ss. 7 – 8.

237

Por. Penrose 1997, ss. 110 – 117. Zdanie Π1 stwierdza, że ich obliczenia nigdy się nie skończą, a oznaczenie pochodzi od staroświeckiego symbolu dużego kwantyfikatora, w notacji wprowadzonej przez Peirce’a, dziś już nieużywanej (za tą uwagę wdzięczny jestem prof. Adamowi Groblerowi).

118 (14-12-22)

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

Rozdział 2.  Dzisiaj

119

 znajdź liczbę, której nie można wyrazić w postaci sumy trzech liczb

kwadratowych;  znajdź liczbę, której nie można wyrazić w postaci sumy czterech liczb

kwadratowych;  znajdź liczbę nieparzystą, która jest sumą dwóch liczb parzystych;  znajdź liczbę parzystą większą niż dwa, która nie jest sumą dwóch liczb

pierwszych;  znajdź liczbę naturalną, która nie jest sumą n liczb kwadratowych;  znajdź liczbę nieparzystą, która jest sumą n liczb parzystych;  znajdź liczbę parzystą większą od 2, której nie można przedstawić w postaci

sumy co najwyżej n liczb pierwszych.238

Dochodzimy w ten sposób do zapętlenia się — w przypadku maszyny — i poprawnej odpowiedzi: „Nie ma takiego x, które spełnia warunki postawione w powyższych zdaniach typu Π1” — w przypadku ludzi. Jak ominąć ten ciąg niekończących się i nieefektownych zarazem obliczeń maszyny? Wydaje mi się, że częściowo odpowiedź na powyższe zagadnienie kryje się w konsekwencji następującego fragmentu z Czy można i trzeba pokonać Barierę Turinga? W. Marciszewskiego: (…) wydobądźmy z zasady indukcji jedną tylko myśl: że każda liczba naturalna ma następnik. Stan mózgowy odpowiadający tej myśli nie sprowadza się do posiadania w pamięci samej formuły: dla każdego x istnieje takie y, że y = x + 1, którą można też wpisać w pamięć komputera, by jej użył w rozumowaniach. (…) Jeśli ma to być wynikiem działania jakiegoś algorytmu, powinien on operować symbolami innymi niż słowa, zapewne z kategorii jakiś sygnałów neuronowych. Sygnałów takich może być tylko skończenie wiele, nie można więc reprezentacji symbolicznej zbioru liczb naturalnych zrealizować w postaci listy symboli. Musi to być jakiś stan lub skończony zbiór stanów fizycznych odpowiadający temu, co w naszej świadomości jawi się jako wizja możliwości niekończącego się posuwania się naprzód w łańcuchu liczb.239 Należy zaznaczyć, iż z tej przyczyny — możliwości podejmowania zadań nieobliczalnych przez człowieka i niemożliwości podejmowania ich przez komputer — Penrose wysuwa tezę, iż „maszyna myśląca nie jest możliwa”, którą później zamienia na tezę, iż „nie jest możliwa w sensie strong AI”. Przy czym, co jest warte nadmienienia, choć faktem jest, że nie można obliczać takich zdań zwykłymi algorytmami — i tego w zasadzie dowodzi tylko Penrose (!) — to nie jest faktem, że 1) w ogóle nie można tych procesów programować (na przykład metodami heurystycznymi czy za pomocą algorytmów genetycznych, czy (dalej omówionych) sieci neuronowych (koneksjonizmu)); 2) powstaną maszyny, które będą posiadały takie możliwości (na przykład komputery kwantowe czy biokomputery), co słusznie zauważa W. Marciszewski nazywając ogólnie ten problem Barierą Turinga. Zatem Penrose wykazał tylko jedną z trudności przy konstruowaniu maszyn myślących, a nie niemożliwość jej stworzenia — czego niektórzy się w tym argumencie bezzasadnie dopatrują! 238

Penrose 1997, ss. 110 – 113.

239

W. Marciszewski, Czy można i czy trzeba pokonać Barierę Turinga?, Internet, s. 3, wyróżnienie M. J. K.

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

(14-12-22)

119

120

Sztuczna Inteligencja

To właśnie regularności pozwalają się zorientować o niekończącej się procedurze. Stwierdzenie, że „Musi to być jakiś stan lub skończony zbiór stanów fizycznych odpowiadający temu, co w naszej świadomości jawi się jako wizja możliwości niekończącego się posuwania naprzód w łańcuchu liczb” powinno (przynajmniej intuicja tak podpowiada) być prawdą. Zatem muszą istnieć pewne prawa bądź stałe, które doprowadzają nas — ludzi — do wyników poprawnych. Ogólniej rzecz ujmując, tym, co najbardziej wpływa na moje przekonanie o tym, że maszyna będzie mogła rozwiązywać zadania typu Π1 jest przekonanie o istniejących prawach ludzkiego mózgu, które z pewnością, biorąc pod uwagę świadectwo, że większość ludzi obdarzonych mózgiem i w konsekwencji umysłem, potrafi dojść do rozwiązania, są dane nam u podstaw — biologicznie. Na końcu analizowania problemu nieobliczalności (reprezentowanego przez zdania typu Π1) dodam jeszcze, że problem ten dotyczy maszyn działających na zasadach maszyny Turinga240, czyli klasycznych komputerów, ale nie maszyn działających analogowo, takich jak biokomputery i komputery kwantowe (mowa o nich będzie w rozdziale 3. — „Jutro”, ss. 201 – 215), czego zdaje się nie dostrzegać R. Penrose (por. też komentarz J. Trefila, ss. 54 – 55, przyp. 44). Jest to ważne z tej przyczyny, z jakiej ważne było przy analizie zarzutu lady Ady Lovelace stwierdzenie, że brak oryginalności cechuje tylko analityczną maszynę Babbage’a (por. analiza zarzutu F. lady Lovelace, ss. 60 – 64) a nie wszystkie maszyny! W ten sposób, jeśli technika pozwoli nam na budowanie modeli tak bogatych jak na przykład wspomniane tu biokomputery, problem przestaje być kłopotliwym. A nic nie stoi — jak na razie — na przeszkodzie ku temu. 240

Por. następujący fragment: „Odpowiedź na pytanie, czy mózg może być traktowany jako system formalny wymaga: (1) idącego dalej niż obecne sprecyzowania pojęcia systemu formalnego oraz (2) przyjęcia pewnych założeń dotyczących mózgu jako dającego się, ewentualnie, zaliczyć do systemów formalnych. Co do (1), trzeba ustalić, czy do pojęcia systemu formalnego ma należeć algorytmiczna rozstrzygalność, czyli obliczalność w sensie zdefiniowanym przez Turinga 1936. Jeśli na to odpowie się twierdząco, to przesądza się o mocy obliczeniowej mózgu, że nie wykracza ona poza moc obliczeniową maszyny Turinga. (…) Jeśli natomiast nie potraktuje się algorytmicznej rozstrzygalności jako niezbędnego warunku do tego, żeby jakiś system był systemem formalnym, to można do takich systemów zaliczyć mózg także wtedy, gdy nie postuluje się dlań, by jego moc obliczeniowa była limitowana definicją maszyny Turinga. Konwencję terminologiczną można przyjąć taką lub inną. Co jest istotne merytorycznie dla hipotezy SANR (super-algorytmiczna neuro-rozstrzygalność), to posługiwanie się, w całym zakresie rozważań, aretmyzacją procesów rozwiązywania problemów. Można więc zrezygnować z terminów „system formalny” i „formalizacja”, a zamiast o formalizacji procesów mózgowych mówić o ich arytmetyzacji. Pozwoliłoby to wyraźnie odróżnić SANR od hipotezy alternatywnej, że moc obliczeniowa mózgu nie wykracza poza maszynę Turinga; tę drugą nazwijmy skrótem ANR (tzn. z opuszczeniem super-…). Różnice między tymi konkurencyjnymi hipotezami ANR i SANR obejmują dwa następujące punkty: A. Jakie zbiory tworzą neurosądy i będące ich elementami sygnały? ANR: tylko zbiory dyskretne, tzn. takie, że ich elementy nie przechodzą jeden w drugi w sposób ciągły. SANR: nie tylko dyskretne, lecz także ciągłe. B. Jakie wartości liczbowe mogą przybierać neurosądy i ich przekształcenia inferencyjne? ANR: tylko liczby wymierne (jak w maszynach cyfrowych). SANR: także liczby niewymierne (jak w maszynach analogowych).” [W. Marciszewski, Problem reprezentacji arytmetycznej rozumowań zapisywanych w kodzie neuronowym, Internet, s. 10]

120 (14-12-22)

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

Rozdział 2.  Dzisiaj

121

2.3.3. Rozpoznawanie obrazów Kolejnym z celem, który został wyznaczony inżynierom Sztucznej Inteligencji, było skonstruowanie systemów analizujących obrazy. W nich inteligencję można by zmierzyć za pomocą sprawdzianu wykazującego, jak radzą sobie one z rozpoznawaniem obrazów, nawet wówczas, gdy owe obrazy byłyby albo niepełne (niezupełne), albo uległy wcześniejszym transformacjom czy też gradacji światła. Należy przy tym pamiętać, że do świata obrazów tutaj zdefiniowanych należą tak kolory, jak i odcienie jednej barwy (również szarości), tak zdjęcia fotograficzne, jak i dzieła malarzy, obrazy trójwymiarowe, na przykład nasze otoczenie, jak i obrazy dwuwymiarowe, obrazy makro- i mikroskopijne, teksty pisane maszynowo i komputerowo, mogące sprawiać trudności czytającemu przez zastosowanie w nich różnych czcionek i stylów, ale i teksty pisany odręcznia. Należą do tego również obrazy dźwiękowe. Badania nad rozpoznawaniem obrazów można zaliczyć do najtrudniejszych spośród prac dotyczących sztucznej inteligencji. W swym początkowym stadium badania te dotyczyły rozpoznawania pisma a później — głosu. Według określenia Selfridga241, prace te dotyczą „oczu i uszu maszyn liczących”.242 Sprawdzian, który maszyna musiałaby przejść z wynikiem pozytywnym (albo przynajmniej zadawalającym), powinien dotyczyć takich zachowań, które można by nazwać inteligentnymi: Znaczna część badań w zakresie rozpoznawania obrazów dotyczy programowania maszyny liczącej tak, aby różne odmiany tego samego obiektu zostały rozpoznane i tak samo nazwane, na przykład aby A niskie, A wysokie, A szerokie czy też A wąskie odczytane zawsze były jako A.243 Lecz oczywistą rzeczą jest to, że aby zachowanie takie mogło być realizowane, potrzebny jest zestaw zasad umożliwiający porównywanie, ocenianie i klasyfikowanie, a w ostateczności decydowanie o tym, czy dany obiekt problemowy pokrywa się z jakimkolwiek obiektem już znanym. Dlatego też Nie bez słuszności określenie „rozpoznawanie obrazów” użyte zostało (…) w związku ze studiowaniem zagadnień tworzenia hipotez przez maszynę, uczenia się klasyfikacji przez sieci o połączeniach przypadkowych, percepcyjnym uczeniem się 241

Oliver G. Selfridge jest jednym z pionierów wśród badaczy Sztucznej Inteligencji zajmujących się problemem rozpoznawania obrazów. Pracę swoją prowadził w Lincoln Laboratory, MIT. E. Feigenbaum i J. Feldman, twórcy jednej z pierwszych monografii z zakresu Artificial Intelligence, tak pisali o badaniach Selfridge’a: „z braku miejsca zmuszeni byliśmy pominąć pionierską pracę Selfridga (1955). Praca ta stanowiła punkt orientacyjny wśród wczesnych prac na temat sztucznej inteligencji, a w szczególności w zakresie rozpoznawania obrazów.” [[D], s. 237] Por. również tekst: Selfridge, Neisser 1972.

242

Rozpoznawanie obrazów, w: [D], s. 236. Przykładem takiego podejścia do problemu rozpoznawania obrazów, w przypadku którego rozpatruje się obrazy wzrokowe przy obrazach dźwiękowych widząc w nich podobieństwa, jest tytuł rozdziału książki Sztuczna inteligencja, M. Hołyńskiego, 4. Oczy i uszy maszyny, który zajmuje się właśnie tą problematyką. Widać zatem, iż klasyfikacja dokonana przez O. Selfridge’a została zaakceptowana.

243

Rozpoznawanie obrazów, w: [D], s. 236.

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

(14-12-22)

121

122

Sztuczna Inteligencja

człowieka oraz w związku z układami automatów mających zdolność wnioskowania indukcyjnego.244 Czyli procesu, który można by uważać za elementarną zdolność do generalizacji percepcyjnej.245 Gdzie Za podstawową funkcję rozpoznawania można uważać upraszczanie złożonych sytuacji. (…) Przypuśćmy, dla przykładu, że układ rozpoznający zachowuje w pamięci użyteczną „informację dotyczącą A”. Informacja o literze A może być niezależna od rozmiaru czy kształtu A. Jeżeli zarówno A wysokie, jak i A niskie, A wąskie czy A szerokie może być zawsze rozpoznane jako A — zapamiętana informacja może być osiągana za każdym razem, gdy pojawi się A.246 Metodę taką obrano dlatego, gdyż Zarówno człowiek, jak i maszyna nie są w stanie rozpatrywać każdego zdarzenia jako pewnego szczególnego przypadku.247 Pierwszy perceptron, czyli imitacja układu nerwowego wzroku, powstał w 1958 roku, a jego konstruktorem był Frank Rosenblatt248, choć podstawy do niego przygotowały już prace Olivera G. Selfridge’a. Zapotrzebowanie na taki model wynikało z faktu, iż jedną z podstawowych czynności poznawczych jest wszak percepcja. Rozumienie mowy i czytanie druku są przykładami podstawowych sprawności intelektualnych, które mogą być różnie nazywane: poznanie, abstrahowanie lub percepcja249. Najlepszym może określeniem ogólnym jest rozpoznawanie obrazów (postaci).250

244

Tamże, s. 236.

245

Tamże. Świetną pozycją obejmującą szeroko pojętą tematykę wpływu obrazów na poznanie jest książka Marii Jagodzińskiej, Obraz w procesach poznania i uczenia się, Wydawnictwo Szkolne i Pedagogiczne, Warszawa 1991. Również, z nieco innych przyczyn, warta wymienienia jest tutaj książka Marii Gołaszewskiej, Estetyka pięciu zmysłów, Wydawnictwo Naukowe PWN, Warszawa-Kraków 1997, wprowadzająca Czytelnika w tematykę współkształtowania przez zmysły naszego świata estetyki.

246

Rozpoznawanie obrazów, w: [D], s. 236.

247

Tamże, s. 236.

248

F. Rosenblatt, The Perceptron, a Theory of Statistical Separability im Cognitive Systems, Cornell Aueronautical Laboratory, Buffalo 1958.

249

Należy tutaj zauważyć, iż w bogatej tradycji filozoficznej pojęcia „poznanie”, „abstrahowanie” i „percepcja” nie sprowadzają się do siebie nawzajem. Dalej zatem nie będą ich traktował tak, jak w cytacie O. G. Selfridge’a.

250

Selfridge, Neisser 1972, s. 237.

122 (14-12-22)

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

Rozdział 2.  Dzisiaj

123

I z tego też względu nie wyobrażano już sobie sposobu zamknięcia inteligencji w maszynie inaczej niż poprzez „otworzenie jej na świat”. W ten sposób zrezygnowano z wcześniejszej idei zamkniętej skrzynki, która tylko operowała symbolami, na rzecz takiej, w której pod symbolami logicznymi układu mechanicznego kryły się realne obrazy. Trudno sobie wyobrazić, aby sztuczna bądź naturalna inteligencja mogła powstać w całkowitej izolacji, bez kontaktu ze środowiskiem. Niczym wyspa intelektu samotna w bezmiarze oceanu.251 Tak pisał już w latach 70. polski znawca tematyki, Marek Hołyński, konkludując: Żadna inteligencja nie może się też rozwijać niezależnie od kształtujących ją elementów zewnętrznych, choćby materiału do doświadczeń lub wzorców do naśladowania.252 Jednak zacznijmy od początku (problemem otwartości na świat i uczestnictwa podmiotu poznającego w świecie zajmę się nieco dalej; patrz podroział 2.4.2. — „Cog, Aibo… Czyli problem intencjonalności i problem ciała”, ss. 183 – 200). Od poznawania świata poprzez widzenie, które, nie należy zapominać, według tego, co już wyżej ustaliłem, pojęciowo obejmuje również słyszenie. Jak pisano na przełomie lat 50. – 60.: Mimo zdolności w zakresie rozwiązywania problemów logicznych percepcyjne zdolności maszyn są bardzo ograniczone.253 Dlaczego? Jak się wydaje Jednym z powodów tych trudności jest sama natura zadania. Człowiek, który rozpoznaje sytuację na podstawie złożonego zespołu bodźców dokonuje w istocie klasyfikacji możliwych wejść. Bardzo często jednak podstawa klasyfikacji nie jest znana nawet człowiekowi — jest zbyt złożona, aby ją wyrazić wprost. Człowiek zapytany o definicję sytuacji, robi to posługując się przykładami. Ta litera nazywa się A, tamta osoba to matka, te dźwięki mowy to prośba o podanie soli. Ważne sytuacje definiowane są przez doświadczenie. Każda jednostka ludzka przyswaja sobie wzory sytuacji przez przystosowywanie się do warunków społecznych, do otoczenia — lub krócej przez uczenie się.254 Pytanie kolejne, które się od razu nasuwa to: Co trzeba zrobić, aby maszyna mogła sprawnie rozpoznawać obrazy? Osobiście wydaje mi się, że winna posiadać wymienione poniżej moduły (graficzne podsumowanie na rysunku 2.9, s. 124).

251

Hołyński 1979, s. 75.

252

Tamże, s. 75.

253

Selfridge, Neisser 1972, s. 238.

254

Tamże, s. 238 — wytłuszczenie M. J. K.

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

(14-12-22)

123

124

Sztuczna Inteligencja

Rysunek 2.9. Graf systemu percepcyjnego. Groty strzałek ukazują kierunek podążania informacji [Propozycja własna]

1. Bazę danych [BD], obejmującą wzorcowe obrazy (co imitować by miało ludzkie

doświadczenie — ludzką pamięć długotrwałą). 2. Odpowiednio wyspecjalizowane sensory [S]: kamerę bądź zestaw kamer

— w przypadku obrazów wzrokowych; mikrofon bądź zestaw mikrofonów — w przypadku obrazów słuchowych, itd. w zależności od zmysłu wraz z zestawem perceptronów przekazujących i analizujących dalej obrazy. Najprostszy perceptron będzie Odbierał wrażenia za pośrednictwem „elementarnych receptorów” zgrupowanych na „poziomie recepcyjnym”, czyli na czymś w rodzaju pierwszej warstwy siatkówki oka złożonej z czopków i pręcików — w przypadku obrazów wzrokowych — i w pierwszej warstwie bębenka ucha — w przypadku obrazów słuchowych. Przy czym Każdy elementarny receptor — odpowiednik wyspecjalizowanego nerwu — [będzie] połączony z jakimś „elementem skojarzeniowym” znajdującym się na tzw. „poziomie asocjacyjnym”.255 3. Podsystem [U] uogólniający informację otrzymaną, wykorzystujący procedurę:

„jeśli wchodzący element x jest podobny do mieszczących się w [BD] elementów x – 1 lub/i x + 1, to, jeśli nie znalazłeś innych pasujących elementów (x ± n), powyższe stanowią [pierwotną wersję] elementu uogólnionego”. Element skojarzeniowy [będzie] sumował sygnały nadchodzące z kilku receptorów, opatrywał je we współczynnik wagowy i uogólniał w ten sposób informację na temat obserwowanego bodźca.256 4. Podsystem [H], dopasowujący uogólnioną informację wchodzącą z informacji

w [BD], poprzez tworzenie hipotez w stylu:

255

Hołyński 1979, s. 78.

256

Tamże.

124 (14-12-22)

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

Rozdział 2.  Dzisiaj

125

„wchodzący x pasuje do n-tego z elementów w BD” — w przypadku jednego dopasowanego elementu” bądź „wchodzący x pasuje do, na przykład n — 21., n — 1., n. i n + 16. z elementów w BD” — w przypadku wielu dopasowanych elementów. 5. Podsystem [W] sprawdzający i weryfikujący hipotezy. 6. Podsystem [O] dający odpowiedzi, które mogą być identyczne z hipotezami.

Spójrzmy, jak wyglądałoby to w praktyce, rozważając jako przykład program do analizy informacji wysyłanej przez telegrafistę w języku Morsa. MAUDE (Morse Automatic Decodar), czyli Automatyczny Dekoder Znaków Morsa skonstruowała grupa pod przewodnictwem wspominanego już O. Selfridge’a z MIT wraz ze współpracownikami z innych ośrodków. Jest to w zasadzie, jak sama nazwa mówi, pewien typ translatora, który przekłada znaki z alfabetu Morsa na znaki alfabetu języka angielskiego. Trudność pracy takiego programu polega na tym, że Gdyby telegrafista wysyłał znaki idealne rozpoznanie byłoby łatwe. Kreski byłyby dokładnie trzykrotnie dłuższe od kropek, odstępy między znakami w literze byłyby równe długościom kropek, odstępy między literami trzy razy większe, odstępy między wyrazami siedmiokrotnie większe. Niestety człowiek nie przekazuje znaków idealnych. [Zwyczajna] Maszyna, która dokonywałaby obróbki sygnału przy takim założeniu działałaby bardzo zawodnie. W rzeczywistości różnica między kreskami a kropkami wcale nie jest wyraźna. Te same kropki i kreski, jak i różne odstępy między nimi znacznie się różnią między sobą. Gdy analizuje się dłuższą wiadomość przesyłaną przez jednego operatora, często okazuje się, że niektóre kropki są dłuższe niż pewne kreski i że czasami odstępy między znakami w literze są większe niż odstępy między literami.257 Oczywistą rzeczą jest, że w przypadku człowieka Mając pewną praktykę w odbieraniu znaków Morsa przeciętna osoba nie ma trudności z takimi nieregularnościami. Poszczególne litery poznawane są przez nabywane doświadczenie i słuchając ich człowiek przystosowuje się do ich odbioru. Wkrótce nie słyszy on kropek i kresek, lecz odbiera litery jako całość.258 W zasadzie proces ten — wewnętrznego przekładu zachodzącego u człowieka jednych znaków na drugie czy raczej „rozpływania się” pierwszych w drugie — do dzisiejszego dnia nie jest poznany. Z punktu widzenia poznawczego nie wiadomo, jak to się dzieje, w jakich częściach mózgu ma to miejsce i do jakich prostych praw można ową czynność sprowadzić. Jedno jednak jest pewne — transliteracja taka nie byłaby możliwa, gdyby telegrafista zastosował się sztywno do zasad i „nastrajał” się na sygnały tylko idealne.

257

Selfridge, Neisser 1972, s. 239.

258

Tamże, ss. 239 – 240.

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

(14-12-22)

125

126

Sztuczna Inteligencja

Głównym problemem w przypadku dowolnego maszynowego tłumacza znaków Morsa jest podział wiadomości na litery poprzez identyfikację odstępów między nimi. (…) Dlatego też MAUDE wykorzystuje informację zależną od kontekstu (…). Program maszynowy zna wszystkie typowe znaki Morsa oraz kilka ich połączeń, nie zna jednak sylab ani słów.259 Sam proces dekodowania przebiega w rezultacie według schematu nakreślonego wyżej, a zwizualizowanego na rysunek 2.9. Przebieg można scharakteryzować tak jak poniżej. Faza [S] — odbioru informacji przez sensory: Znaki i odstępy między nimi odbierane przez maszynę w postaci impulsów przekształcane są w ciąg liczb będących miarą czasu ich trwania.260 Faza uogólniająca [U] — wstępna obróbka informacji, w której korzysta się z [BD]: Maszyna bada każdą grupę zawierającą sześć odstępów (sześć, gdyż tyle znaków w alfabecie Morsa ma najdłuższy zakodowany znak z alfabetu języka łacińskiego, odstępy od jednego do szóstego, od drugiego do siódmego, od trzeciego do ósmego itd.; przyp. M. J. K.), rejestrując najkrótszy i najdłuższy z nich w każdej grupie. Po zakończeniu tego procesu około 75% odstępów między literami i około 50% odstępów między znakami zostaje zidentyfikowane. Celem zidentyfikowania pozostałych odstępów oblicza się pewną wartość progową. Wartość ta dzieli zakres trwania odstępów między znakami od zakresu trwania zidentyfikowanych odstępów między literami. Następnie każda niezaklasyfikowana liczba większa od wartości progowej zidentyfikowana zostaje jako odstęp między literami a każda liczba mniejsza niż próg — jako odstęp między znakami. W podobny sposób identyfikowane są liczby reprezentujące znaki — jako kropki i kreski.261 Tutaj też pojawiają się pierwsze hipotezy (faza [H]). Połączenie sklasyfikowanych znaków i odstępów daje ciąg próbnych symboli oddzielonych przerwami międzyliterowymi.262 Następnie program przechodzi do sumy fazy [H] i fazy [O] przy wykorzystaniu [BD], w wyniku czego powstają kolejne hipotezy (faza [W]): Symbole te są badane i porównywane ze zbiorem wzorcowych symboli Morsa umieszczonych w pamięci maszyny. (…) Doświadczenie wykazuje, że gdy jeden z próbnych symboli jest niewłaściwy istnieje duże prawdopodobieństwo, 259

Tamże, s. 240.

260

Tamże.

261

Tamże.

262

Tamże.

126 (14-12-22)

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

Rozdział 2.  Dzisiaj

127

że jeden z odstępów wewnątrzliterowych powinien być uznany za odstęp międzyliterowy. Zgodnie z programem dokonywana jest powtórna klasyfikacja najdłuższego odstępu wewnątrz symbolu, zaliczająca ten odstęp do międzyliterowych, po czym sprawdzone zostają dwie utworzone w ten sposób litery. Proces ten jest kontynuowany do momentu, kiedy każdy symbol uznany zostanie za możliwy do przyjęcia, po czym wiadomość zostaje wydrukowana.263 Czyli, stwierdzając krótko, kończy się fazą odpowiedzi [O]264. W rezultacie program MAUDE potrafi w sposób co najmniej biegły dokonywać transliteracji tak, jak czyniłby to telegrafista. Co prawda Odsetek błędów, jaki robi MAUDE jest nieco większy niż w przypadku wykwalifikowanego operatora ludzkiego.265 Ale, podkreślmy, jego praca jest co najmniej zadawalająca. Zwłaszcza, że jest to jeden z pierwszych powstałych programów o takim profilu zadaniowym. Jak pod koniec lat 70. o jego działaniu pisał Marek Hołyński: Otóż program MAUDE odznaczał się taką zaletą, że właściwie rozumiał telegrafistę, nawet jeśli popełniał on wyjątkowo dużo uchybień. Komputer bowiem nie analizował samych sygnałów, lecz wychwytywał prawidłowości rządzące liczbami, które odpowiadają czasom trwania kropek, kresek i przerw między nimi. (…) Maszyna potrafiła również przystosowywać się do temperamentu telegrafisty, uwzględnić jego zmęczenie i okoliczności, powodujące na przykład, że wysyłane znaki stają się coraz dłuższe.266 Współczesnym przykładem programu do rozpoznawania obrazów, którego wyniki chciałbym przedstawić, jest bardzo tani (darmowy, jeśli pominiemy cenę skanera) program TextBridge267, znanej firmy Xerox Company, dołączony do skanera jako program pomocniczy do obróbki tekstu. Ogólna rodzina tych programów określana jest jako OCR (Optical Character Recognition). Podstawy działania tych programów są w zasadzie takie same jak w wyżej zaprezentowanym translatorze z MIT. Zaś sam proces rozpoznawania poszczególnych znaków 263

Tamże, ss. 240 – 241.

264

Należy tutaj zaznaczyć, iż procedura wyżej nakreślona nosi nazwę analizy gniazdowej, którą odróżnia się od analizy bezpośredniej, czyli takiej, w której bez wstępnych hipotez [H] i bez weryfikacji tych wstępnych hipotez [W], niejako bezpośrednio po fazie uogólnienia obiektu wchodzącego [U] dostajemy odpowiedź na wyjściu [O]. Por. Arbib 1977, s. 404.

265

Selfridge, Neisser 1972, ss. 239 – 240.

266

Hołyński 1979, ss. 83 – 84.

267

Dokładnie rzecz ujmując, analizowałem program TextBridge Classic ver. 2.0, dołączony do skanera Mustek 1200 CP, 2400dpi. Na marginesie wspomnę też o tym, iż w badaniach nad tym programem brał udział jeden ze współczesnych najwybitniejszych znawców tematyki Sztucznej Inteligencji, Raymon Kurzweil.

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

(14-12-22)

127

128

Sztuczna Inteligencja

(liter i cyfr z dowolnego języka pisanego, który obsługuje baza danych) nie zmienił się od zgoła 35 lat (został opisany chociażby w artykułach: Selfridge, Neisser 1972 — w przypadku programu Pandemonium268 — czy Uhr, Vossler 1972). Wcześniejsze programy, takie jak Pandemonium, funkcjonowały na zasadzie ciągu kilku kolejnych faz, więc można przypuszczać, iż zasada ta (sprawdzona) aktualna jest również w przypadku programu TextBridge. Ogólnie rzecz biorąc Program zawiera sześć etapów (poziomów) obróbki danych: (1) wejście, (2) wygładzanie, (3) przegląd cech, (4) porównanie z wyuczonym rozkładem cech, (5) obliczanie prawdopodobieństw, (6) decyzja.269 Przy czym oczywistą rzeczą jest, że tak w przypadku starszego Pandemonium, jak i rozważanego TextBridge, na wejściu programy muszą posiadać macierz, w której mogłyby dokonywać porównania figur wchodzących z wzorcowymi, co dokonywałoby się na zasadzie stopnia różnicy i podobieństw. W przypadku programu Pandemonium macierzą był kwadrat o 1024 polach (32×32), a wszystkie znaki wchodzące były doprowadzane do rozmiarów znaków wzorcowych (pomniejszane bądź powiększane tak, by mieścić się zawsze w strefie macierzy). Rozpoznawanie dokonywane jest na podstawie takich cech jak względna długość różnych krawędzi oraz maksymalna liczba skrzyżowań danej litery z linią poziomą (maszyna „kreśli” linie poziome przez sprawdzenie każdego wiersza macierzy, a „skrzyżowanie” rozpoznaje jako ciągi jedynek rozdzielone ciągami zer).270 Czyli dokładnie tak jak na rysunku 2.10. W ostateczności w przypadku programu TextBridge etapy rozpoznawania obrazu przebiegały tak, jak przedstawiono poniżej (por. z rysunek 2.11). 1. Na wejściu program otrzymywał informację ze skanera podłączonego do

komputera. Tekst skanowany ulegał wstępnej obróbce, na przykład zapisywany był tylko w grafice dwubitowej (kolor biały i czarny, bez odcieni szarości, co zarezerwowane jest dla grafiki 8-bitowej). 2. Etapy 2 (wygładzanie), 3 (przegląd cech), 4 (porównywanie cech), 5 (obliczanie

prawdopodobieństw) zachodziły automatycznie po przesłaniu zeskanowanej 268

Program Pandemonium służył w rzeczywistości do rozpoznawania tekstu pisanego odręcznie — więc nieco trudniejszej wersji obrazów niż te, których analizą zajmuje się program TextBridge; por. Selfridge, Neisser 1972, ss. 242 – 250. Warta przytoczenia jest historia nazwy programu Pandemonium ze względu na oryginalność metody, od której nazwę swą wywodzi. W programie tym została zastosowana modułowa — i przez to równoległa — obróbka danych. Jednakże „W przypadku obróbki równoległej wszystkie pytania byłyby zadane naraz i wszystkie odpowiedzi zostałyby podane jednocześnie do członu decyzyjnego”. Rozwiązaniem tego problemu miała być metoda polegająca na tym, iż „Różne litery identyfikowane są przez różne kombinacje odpowiedzi. Można by sobie wyobrazić, że różne cechy sprawdzane są przez demony, które następnie chórem recytują odpowiedzi do demona podejmującego decyzję. Stąd też pochodzi nazwa „Pandemonium” w przypadku równoległej obróbki.” [Selfridge, Neisser 1972, ss. 245 – 246]

269

Selfridge, Neisser 1972, s. 247.

270

Tamże, s. 247.

128 (14-12-22)

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

Rozdział 2.  Dzisiaj

129

Rysunek 2.10. Analiza litery „K”. Na rysunku widać obiekt w macierzy 20×20, który na tym etapie jest jeszcze nieznany przez system 271; dalej obraz zostaje przekształcony na kod zerojedynkowy — miejsca pełne (reprezentowane przez „1”) są miejscami, które będą analizowane dalej przez system. Miejsca puste (reprezentowane przez „0”) oznaczają brak informacji

informacji do programu. Jednakże ze względu na możliwość obróbki stron zawierających obok tekstu zdjęcia (jak na przykład w przypadku stronic gazetowych) następowało wcześniejsze rozpoznanie miejsc, w których znajduje się tekst i oddzielenie tych miejsc (poprzez zaznaczenie) od miejsc, w których znajdowało się zdjęcie (czyli niepodlegających obróbce). 3. Program prezentował ostateczny wynik poszukiwań i rozpoznania, a także

automatycznie zapisywał go w pliku w jednym z podstawowych rozszerzeń tekstowych .RTF, obsługiwanym między innymi przez Microsoft Word. Jednakże należy zauważyć, iż 1) TextBridge nie należy do programów uczących się i 2) ze względu na angielską specyfikację nie posiada w swojej bazie danych informacji na temat polskich fontów, takich jak: ą, ę, ć, ś, ó, ź, ż, itp. Innym typem programu do rozpoznawania obrazu jest SynTalk, polskiej firmy Neurosoft. Różnicą jest to, iż program ten służy do analizowania obrazów dźwiękowych — jest bardzo sprawnym (testowałem go, stąd moja opinia) programem z rodziny sentyzatorów mowy. Innym syntezatorem, najlepszym w klasie polskojęzycznych, jest SpikerSapi, firmy IVO Sofware272.

271

Należy zauważyć, iż w tym przypadku program dysponował macierzą 20×20 (jak to widoczne jest na rysunkach), a nie 32 x 32 jak w przypadku programu Pandemonium. Przez to można zauważyć, iż macierz jest w zasadzie zależna od szczegółowości programu (wytycznych programistów). W zasadzie w każdym programie do rozpoznawania obrazów może być inna macierz, co właściwie nie wpływa zbytnio na schemat działania tych programów.

272

Patrz oficjalna strona firmy IVO Soft: http://www.ivo.pl/, skąd między innymi do ściągnięcia jest wersja demonstracyjna.

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

(14-12-22)

129

130

Sztuczna Inteligencja

Rysunek 2.11. A Wyniki działania programu TextBridge Classic ver. 2.0 do rozpoznawania liter (z rodziny programów OCR)

B

C

Na rysunku A) widoczna jest dwubitowa zeskanowana grafika z wstępnym rozszerzeniem .JPG, która dalej posłuży jako model do obróbki; B) widoczna jest 8-bitowa (w odcieniach szarości) grafika, która co prawda nie jest obiektem rozpatrywanym, ale jest znacznie czytelniejsza, dzięki czemu można zaobserwować, co faktycznie znajduje się na rysunku (A); C) ostateczny efekt rozpoznania przez program liter i cyfr wraz ze wstępną obróbką samego tekstu — brak linii macierzy oraz odmienność w stosunku do oryginału podziału na wersy (miejsce, gdzie wcześniej znajdowało się zdjęcie amerykańskiego filozofa, D. C. Dennetta, nie podlegało analizie, dlatego widnieje tam biała plama). Jak widać, na podstawie poniższego zestawienia, program daje bardzo dobre efekty!

130 (14-12-22)

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

Rozdział 2.  Dzisiaj

131

Na końcu chciałbym zająć się jeszcze jednym zagadnieniem, które z filozoficznego punktu widzenia jest interesujące, a ponadto jest jednym z problemów rozpatrywanych we współczesnej filozofii poznania. Problemem qualiów273 — czyli jakości zmysłowych. Problem qualiów (łac. qualis) można oddać za pomocą nieco starszego problemu sensybili274, czyli subiektywnych jakości zmysłowych. W skrócie qualia to: Subiektywne jakości doświadczenia zmysłowego (…) [których] Przykładami są: smak cukru, widok cynobru, zapach kawy, dźwięk mruczącego kota, ból skaleczonego palca.275 Zaś problematyczne staje w nich Zdanie sprawy z tych cech stanów umysłowych (…), jako że niemożliwe wydaje się, by subiektywny charakter tych zjawisk, zrozumiały jedynie dla pewnego typu świadomych istot, można by było ująć w obiektywnych terminach fizycznych, które powinny być zrozumiałe dla każdej istoty rozumnej niezależnie od jej uposażenia zmysłowego.276 W przypadku programów typu OCR (bądź ich samouczących się wersji) ten problem jednak nie istnieje — ich głównym, a w zasadzie jedynym zadaniem jest poprawne identyfikowanie obiektów. W rezultacie uchwytywanie przeżyciowych aspektów obiektów, które mają ulec rozpoznaniu, jest potrzebne li tylko do wyodrębnienia cech pasujących i niepasujących do cech obiektów wzorcowych. Jednakże, jeśli poważnie traktować pogląd, wedle którego maszyna może myśleć, musimy ów problem podjąć. Także i z tego powodu, że najprawdopodobniej problem qualiów wiąże się z problematycznością języka, na przykład z powstawaniem wewnętrznych reprezentacji obiektów277 (por. rysunek 2.12). Kolejnymi implikacjami problemu qualiów, takimi jak powiązanie z językiem, zajmę się w kolejnych podrozdziałach (2.3.5 — „Analiza mowy i języka” ss. 140 – 156 i 2.4.2 — „Cog, Aibo… Problem intencjonalności i problem ciała” ss. 183 – 200). Tu jednak chciałbym podjąć próbę wykazania tego, iż problem ten niekoniecznie musi być kwestią sporną w przypadku Sztucznej Inteligencji. Przy roztrząsaniu wielu problemów filozoficznych z zakresu szeroko pojętej filozofii umysłu (na przykład epistemologii, filozofii języka) można próbować je postrzegać — i dalej tak analizować — jak problemy, z którymi się stykamy w codziennych sytuacjach. Problem qualiów jest właśnie tego przykładem. Jeżeli problem qualiów 273

Por. na ten temat chociażby: Searle 1999b, ss. 55 – 58 oraz rozdziały: 2. Dlaczego człowiek i świat pasują do siebie. Umysł jako fenomen biologiczny, ss. 69 – 109 (zwłaszcza s. 73), 3. Istota umysłu — świadomość i jej struktura, ss. 11 – 135; 4. Jak działa umysł: intencjonalność, ss. 137 – 176 (tak samo całość w: Searle 1999a); Fodor 1999; Piłat 1999; Duch 2000a.

274

Por. Searle 1999b, s. 56. Searle powołuje się tutaj na klasyczną pracę J. L. Austina, Sense and Sensibilia, Oxford, University Press, Oxford 1962. Choć z drugiej strony, wg Russella, sensybiliom nie przysługuje cecha bycia jakością subiektywną, która jest kluczowa dla problemu quali (za uwagę tą jestem wdzięczny prof. Adamowi Groblerowi).

275

Nagel 1999, s. 767.

276

Tamże, s. 767.

277

Por. Piłat 1999, zwłaszcza rozdz. 3. Reprezentacja i symulacja, ss. 124 – 177.

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

(14-12-22)

131

132

Sztuczna Inteligencja

Rysunek 2.12. Przypuszczalne powiązanie sensoryki ze zdolnościami językowymi, takimi jak na przykład tworzenie pojęć i, chociażby, proces asocjacji pojęty na przykład jako przeszukiwanie pamięci długotrwałej — u człowieka, a bazy danych — w maszynie (z wyznacznikiem: „Szukaj innych elementów pasujących”, również luźno pasujących, na przykład „słońce, ciepło” → „letnie swawole”).278 [Propozycja własna]

dotyczy subiektywnego odbioru jakościowych cech obiektów279, to za każdym razem, gdy znajdujemy się w sytuacji „odbioru jakościowych cech obiektów”, mamy do czynienia z problemem qualiów. Jeżeli zatem uda się wykazać, iż ewentualne rozstrzygnięcie problemu qualiów nie wpływa na to, jakie zachowanie należałoby uznać za inteligentne (również myślenie), to będzie można wykazać tym samym, że nie wpływa on w sposób rostrzygający na temat naszej dyskusji — o możliwości skonstruowania maszyny myślącej. Znawca problematyki, profesor Włodzisław Duch, zestawiając swoje doświadczenie z problemem qualiów, doszedł do następujących wniosków, które z pewnością nie są obce niejednemu z nas. Proponuję jednak poprzedzić je jeszcze pewnym wprowadzeniem: David Chalmers280 (1995 – 1997) wywołał burzliwą dyskusję wokół starego problemu dotyczącego jakości wrażeń fenomenalnych (…), przedstawiając go jako „trudny problem świadomości”. Przetwarzaniu informacji towarzyszą wrażenia niemożliwe do zwerbalizowania, takie jak poczucie smaku lub wrażenia koloru. Komputery, przetwarzające te same informacje nie odczuwają podobnych wrażeń. Czy jest to istotnie trudny problem związany z umysłem? Sądząc po propozycjach jego rozwiązania [przez samego Chalmersa postawionych281] może się tak w istocie wydawać, albowiem żadna z tych propozycji nie oferuje przewidywań lub wyjaśnień dotyczących natury wrażeń świadomych — większość z nich nie traktuje zresztą świadomości jako procesu poznawczego. Chalmers opiera się na dwóch, pozornie całkiem rozsądnych, zasadach. Pierwsza z nich, zasada strukturalnej koherencji, głosi, że struktura świadomych doświadczeń wynika z treści informacji dostępnej świadomości (jest to równoważne stwierdzeniu, iż 278

Por. na przykład: Gazzaniga 1997, ss. 81 – 84.

279

W zasadzie problem qualiów można rozbić na dwa poszczególne pytania:  czy moje doznanie koloru czerwonego jest takie same jak twoje doznanie koloru czerwonego?

(por. Scott 1999, s. 139).  czy moje doznanie koloru czerwonego jest jakościowe inne, niż moje doznanie koloru

zielonego? (por. Duch 2000a, ss. 40 – 41). Przy czym na pierwsze pytanie, ze względu na subiektywny charakter, w zasadzie nie można znaleźć odpowiedzi (na razie?) (por. Nagel 1999), więc w pracy skupiam się na rozważaniu problemu drugiego. 280

Jeden z wybitniejszych współczesnych filozofów umysłu oraz znawca problematyki nauk kognitywnych, ze szczególnym uwzględnieniem zagadnienia świadomości.

281

Patrz: D. Chalmers, Moving forward on the problem of consciousness, w: „Journal of Consciousness Studies”, nr 4/1997, ss. 3 – 46. Ale również: D. Chalmers, The conscious mind: In Search of a fundamental theory, Oxford University Press, Oxford 1996; za: Duch 2000a, ss. 39, 51.

132 (14-12-22)

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

Rozdział 2.  Dzisiaj

133

dostępność informacji jest warunkiem koniecznym powstania wrażeń świadomych). Druga zasada, zwana zasadą niezmienniczości organizacyjnej, głosi, że liczy się jedynie specyficzna struktura powiązań przyczynowych pomiędzy elementami systemu, a nie jego fizyczna budowa. Jest to oczywiście kredo funkcjonalizmu.282 Analizując dalej wyróżnione tu zasady, W. Duch pisze: Zasada organizacyjnej niezmienniczości jest podstawą licznych eksperymentów myślowych, stanowiąc podstawę rozumowania wielu filozofów umysłu. Warto jednak pamiętać, że jest to zasada jedynie przybliżona, a jej zastosowanie do wymieniania neuronów mózgu na sztuczne elementy (jak ma to miejsce u Chalmersa, w: The Consious Mind: In Search of a Fundamental Theory; przyp. M. J. K.) jest wielce wątpliwe. Cóż to bowiem oznacza, że z funkcjonalnego punktu widzenia elementy są identyczne? Elementy krzemowe i elementy białkowe oparte na węglu są w istotny sposób różne i nie ma sposobu, by jedne zamienić drugimi nie wpływając na pracę całości. Oddziaływania atomów i związków węgla są odmienne niż oddziaływania atomów i związków krzemu, różne są wiązania chemiczne, nie można utworzyć podobnych kanałów jonowych, ani zrobić krzemowych struktur reagujących w ten sam sposób co białka na neurotransmitery obecne w szczelinach synaptycznych. Kwantowe właściwości różnych atomów nie pozwalają na ich funkcjonalnie identyczną zamianę nawet „w zasadzie”. Nie można więc eksperymentów myślowych opartych na wymianie kolejnych neuronów na krzemowe płytki traktować poważnie283. Możliwość zamiany wrażeń związanych z widzeniem koloru czerwonego i zielonego przez zamianę połączeń w mózgu (inverted qualia)284 jest również czystą fantazją (por. na przykład Dennett, Consciousness Explained czy Searle, Umysł na nowo odkryty, gdzie argumenty tego typu są stosowane), albowiem konieczna byłaby całkowita reorganizacja połączeń w większej części kory mózgu, związanych z pamięcią epizodyczną zawierającą odniesienia do koloru. Takie zamiany muszą prowadzić do daleko idących zaburzeń w działaniu mózgu, a eksperymenty myślowe, które zakładają, że tak nie jest, są po prostu błędne.285 282

Duch 2000a, s. 39 — wyróżnienie M. J. K.

283

Biorąc pod uwagę „silikonowe istoty”, które prócz silikonowej struktury są prawie identyczne z ludźmi; „mózgi w kadzi”, które bez ciała wytwarzają umysł, autorstwa H. Putnama (por. Putnam 1998, ss. 295, 302 – 316, 483 – 485, 516); „zombi” z doświadczeniami qualiów — Chalmersa (D. Chalmers, The Consious Mind: In Search of a Fundamental Theory), to nie sposób się oprzeć pzrekonaniu, że ostatnimi czasy eksperymentom myślowym bliżej jest literaturze science fiction niż rzeczywistości!

284

Na seminarium z psychoontologii prowadzonym przez prof. Jerzego Perzanowskiego (katedra Logiki, Uniwersytet Mikołaja Kopernika w Toruniu, 1999/2001) przy opracowywaniu książki Davida Chalmersa, The Consious Mind: In Search of a Fundamental Theory termin ten został przetłumaczony jako qualia odwrócone (por. referaty dostępne między innymi na stronie internetowej autora).

285

Duch 2000a, s. 40 — wyróznienie M. J. K. Dodam tylko, że o takich daleko posuniętych interwencjach w strukturę ludzkiego mózgu pisał już S. Lem jeszcze w latach 50. (por.: Lem 1996; S. Lem, Dialogi), a niedawno też na przykład w esejach: Brain Chips (1994) czy Brains Chips III (1994) pisanych do periodyku „PC Magazine”, w których to dochodzi do nieco odmiennych wniosków, co wyżej cytowany W. Duch. Zgadza się on na wymienność lokalnych obszarów mózgu (tzw. brain chips), lecz zauważa, iż „co by „pasowało” do jednego mózgu, może zawieść przy każdym innym”. [Tamże] Zwraca przy tym uwagę, że „medycyna z farmakologią o indywidualnych odmianach działania tożsamych leków i zabiegów już dobrze wiedzą”.

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

(14-12-22)

133

134

Sztuczna Inteligencja

I teraz to, co jest istotne dla naszej dyskusji: Moje wątpliwości budzi samo twierdzenie, że wrażenie czerwieni i wrażenie zieleni, niezależnie od wszelkich dyspozycji pamięci, jest odmienne tak, że jest między nimi jakościowa różnica na poziomie mentalnym.286 Co, przypomnijmy, zakłada problem qualiów. Osobiście nie jestem skłonny przyznać, że są to wrażenia odmienne. Wpatrując się w kolorową płaszczyznę mam różne skojarzenia, lecz jeśli je odrzucę, mogę jedynie powiedzieć, że mam wrażenie wzrokowe. Sądziłem, że jest to wynikiem mojej marnej pamięci kolorów, ale podobnego zdania były również pytane przeze mnie osoby obdarzone dobrą pamięcią wzrokową. Zapewne niektórzy ludzie wyrażają przekonanie, że są to wrażenia odmienne, sądzę jednak, że jest to zagadnienie kontrowersyjne i nie należy pochopnie przyjmować argumentów na nim opartych. Jest natomiast rzeczą wątpliwą, że wrażenia związane z kolorami są wynikiem zdolności do dyskryminacji, pamięci kolorów i uczenia się informacji wzrokowej.287 Jako świadectwo powyższego — opierając się na już wcześniej wspomnianej metodzie analizy sytuacji codziennych, które są pomocne przy rozwiązywaniu niektórych trudnych problemów z zakresu teorii poznania — Duch proponuje pewien eksperyment: Wystarczy spędzić pół godziny nad kolorową układanką (puzzle), by zauważyć, jak nasz układ wzrokowy reaguje na subtelne odcienie barw, których wcześniej wcale w układanym obrazie nie dostrzegaliśmy. Nowe wrażenia związane są z pewnością z działaniem pamięci i są wynikiem zdolności do dyskryminacji barw.288 Jako rozwiązanie zagadki qualiów W. Duch wysuwa następującą teorię: Przekonanie o naszej zdolności do odmiennego postrzegania „jakości kolorów” wynika zapewne z reakcji emocjonalnych, jakie są rezultatem pobudzeń pamięci, a przez to pośrednich pobudzeń układu limbicznego, wywołującego wrażenia emocjonalne. Jeśli odrzucę jednak takie wrażenia wtórne nie pozostaje w mojej świadomości nic, co pozwoliłoby mi powiedzieć, że mam istotnie odmienne wrażenie. Pozostaje tylko odróżnienie wzrokowego tła. To samo dotyczy innych modalności: wszelkie wrażenia mają jakości dzięki możliwości porównania, wynikającej z istnienia pamięci poprzednich wrażeń oraz mechanizmów dyskryminacji stanów o różnych modalnościach na poziomie globalnej dynamiki mózgu.289

286

Duch 2000a, s. 40.

287

Tamże, ss. 40 – 41.

288

Tamże, s. 41.

289

Tamże.

134 (14-12-22)

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

Rozdział 2.  Dzisiaj

135

Pierwszą rzeczą, którą należy zaznaczyć jest to, że istnieje jeszcze jedna możliwość funkcjonowania qualiów i przypisywania im różnorodności jakościowych. Uważam, że związane jest to w sporej części z językiem i z pewną zasadą, która, jak mi się wydaje, najtrafniej potrafi uchwycić działanie sensorium wraz z następującymi analizami danych, by w ostateczności stwierdzić, z jakim obiektem mamy do czynienia. Jeżeli będziemy rozpatrywać system analizy danych wejściowych, na przykład tak jak w przypadku wyżej nakreślonych programów do rozpoznawania obrazów (przypominam, szeroko pojętych obrazów), to zauważyć można, iż najistotniejsze są etapy porównywania poszczególnych cech obiektów nieznanych ze znanymi (w przypadku maszyny posiadanymi w bazie danych [BD], a w przypadku człowieka posiadanymi w pamięci długotrwałej). Etapy te można uchwycić za pomocą jednego prawa: „Szukaj podobieństw i różnic!”. Każdy zaś obiekt podobny, będzie przydatny dla weryfikacji hipotezy typu „To jest X”, zaś każdy obiekt różny, będzie przydatny dla hipotezy „To nie jest X”. Aby takie poszukiwania mogły się odbywać, potrzebne są modele wzorcowe — w przypadku ludzi definiowane przez doświadczenie, a w przypadku maszyn przez bazę danych [BD]. Potrzebne są także pewne prawa poboczne, które uogólniają najczęściej występujące cechy, czyli w zasadzie tablica kategorii i… właściwie już nic więcej. Teraz dodam jeszcze do tego odniesienie językowe. Kiedy pytam się Co to jest?, odpowiadam To jest… (i tu podaję nazwę). Jeśli nie mogę dać takiej odpowiedzi, modyfikuję trochę pytanie, zapytując się Jakie to jest?, czyli dokonuję rozkładu obiektu na poszczególne cechy. Lecz odpowiedź na to pytanie nie jest już jednoznaczna. Zależy ona w dużej mierze od tego, jak dokładnej analizie poddaliśmy interesujący nas obiekt, jak i od tła naszej wiedzy (co, z właściwą sobie dokładnością uchwytujemy mając do czynienia na przykład z układanką typu puzzle; por. s. 134 przykład W. Ducha). Analizując liść, mówię On jest zielony lub On jest ciemnozielony — gdy odwołuję się do innych znanych mi odcieni zieleni (do mojej [BD]), lub On jest zielono-żółto-khaki, gdy dłużej analizuję kolor. Jeżeli byłoby tak, jak zakłada problem qualiów, że pojedyncze jakości różnią się zasadniczo od siebie, na przykład kolor zielony od czerwonego (co w zasadzie musiałbym sobie uświadamiać w tej danej chwili, gdy patrzę na liść), to w jednym momencie musiałbym zdawać sobie sprawę, że liść ten nie jest tylko zielony, ale towarzyszą mu inne odcienie — tak, jak mi towarzyszyłoby przy tej okazji świadome poczucie inności spostrzeganych jakości. A tak przecież nie jest! Na podstawie tego, co zostało powiedziane o działaniu prawa szukania różnic i podobieństw, można stwierdzić, że najbardziej różne — i wystarczające w większości przypadków, które nas spotykają — są kolory: biały, żółty, czerwony, zielony, niebieski, czarny (który jest w zasadzie brakiem koloru). Także najczęściej wystarczy powiedzieć: „to jest żółte”, albo „to jest zielone”, albo „to jest czerwone” itd., itp. Bądź poprzez łączenie: „to jest żółto-zielone”, albo „to jest żółto-czerwone” itd., itp. Bądź poprzez zasadę światła i cienia (znaną już intuicyjnie dzięki fazom dobowym): „to jest jasnożółte”, albo „to jest ciemnożółte” itd., itp.Innym argumentem świadczącym na rzecz mojej, wysuniętej tu tezy, może być to, iż język Eskimosów posiada takie własności, że istnieje

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

(14-12-22)

135

136

Sztuczna Inteligencja

w nim co najmniej kilkadziesiąt desygnacji odnoszących się do koloru białego (których to przeciętny człowiek — w tym ja — nie jest w stanie nawet spostrzec). Więc konkludując, możemy pokusić się o następujące wnioski. 1. To, że uważamy, iż istnieją osobne jakości, na przykład koloru czerwonego

i koloru zielonego, wiąże się z tym, iż posiadamy odrębne pojęcia tych kolorów290. Chociaż w danym „tu i teraz” najpierw widzimy coś, a potem to nazywamy (więc najpierw występuje wrażenie, a potem język), to historycznie — dla każdego z nas — język często poprzedza wrażenie (jako dziecko patrzę i nim się zorientuję, co widzę, babcia mówi mi: „widzisz kochanie to jest niebo. Niebo jest niebieskie, a chmurki są białe”). 2. Nie znając — posiadając — odmiennych pojęć, nie potrafię na pierwszy rzut

oka rozróżnić poszczególnych odcieni, na przykład koloru białego, jak potrafi to Eskimos, który takowe różne pojęcia (językowe) posiada. 3. Kiedy nie korzystam z pojęciowego poznania, tylko PATRZĘ, nie dostrzegam

różnic jakościowych — liść wielobarwny wydaje mi się „jednobarwnym” (postrzegam go z jednolitą teksturą) — gdyby tak nie było, odrębne jakości kolorów wpływałyby na widzenie wielobarwności liścia (rozróżnienie poszczególnych kolorów na „pierwszy rzut oka”). A tak się przecież nie dzieje!291 W ten sposób problem qualiów związany byłby z językiem. Na końcu musi pojawić się jeszcze jedna uwaga dotycząca zasady organizacji niezmienniczości z cytowanego wcześniej fragmentu Ducha (patrz: s. 133). To, że niemożliwe jest zamienianie poszczególnych neuronów płytkami krzemowymi bez trwałej reorganizacji całej struktury, jak wyżej zrelacjonowałem za W. Duchem, nie wpływa w dyskryminujący sposób na zasadność tezy dotyczącej tego, iż systemy oparte na krzemie nie będą myśleć. Nie oznacza to, by inteligencja czy jakaś inna forma umysłu nie mogły powstać z powodu oddziaływań elementów opartych na krzemie czy innych niewęglowych związkach. Takie umysły będą jednak miały odmienną naturę od naszej, ich sposób przeżywania świata będzie odmienny. Różne struktury mózgu muszą być przyczyną różnych umysłów.292

290

Można tego doświadczyć na przykład patrząc na pasmo rozszczepionego światła białego. Jeżeli osobne kolory miałyby dla siebie osobne, specyficzne jakości, to powstaje pytanie o to, gdzie w paśmie światła białego zaczyna się i gdzie kończy jakość jednego koloru?! Moim zdaniem związane jest to z pojęciową wiedzą na temat kolorów: gdy mam pojęciową wiedzę na temat koloru niebieskiego, to w paśmie potrafię dodatkowo wyróżnić jasnoniebieski i ciemnoniebieski; kiedy indziej zaś, gdy dysponuję już pojęciową wiedzą na temat błękitnego, stopniowalność staje się dokładniejsza, ale nie oznacza to przecież, iż teraz kolor błękitny ma dla mnie inne własności jakościowe.

291

Z pewnością dochodzi tutaj jeszcze jedna zasada mówiąca o wpływie ilości, a nie jakości na spostrzeganie wielobarwności liścia, gdyż, odwołując się również do doświadczenia, muszę stwierdzić, że tam, gdzie obszary kolorystyczne są spore, już na pierwszy „rzut oka” jestem w stanie stwierdzić, że liść jest wielobarwny, na przykład liść jesienny.

292

Duch 2000a, ss. 41 – 42.

136 (14-12-22)

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

Rozdział 2.  Dzisiaj

137

Na rzecz tego proponuję zapoznać się ze spektakularnymi wynikami naukowców z University of California: Neurochirurgia ciągle jeszcze czeka na swój wielki dzień. Uczeni potrafią już z powodzeniem przeszczepiać grupy neuronów, ale o tworzeniu protez układu nerwowego można na razie tylko pomarzyć. Do tego celu zbliżyli się ostatnio badacze z University of California w Berkeley. Przeprowadzili oni niezwykły, choć dość kontrowersyjny eksperyment. Podłączyli elektrody do 177 komórek w kocim mózgu, dokładniej w tzw. wzgórzu wzrokowym. Ta część mózgu jest bezpośrednio połączona z oczami za pomocą nerwu wzrokowego i odbiera płynące z nich bodźce. Poszczególne części wzgórza wzrokowego reagują pod wpływem określonych elementów w polu widzenia kota. Jedne komórki ulegają pobudzeniu, gdy zwierzę widzi linie ułożone pod pewnym kątem, inne, gdy w zasięgu wzroku znajdują się krzywizny itd. Na tej podstawie mózg rekonstruuje widziany obraz. Amerykańscy neurobiolodzy badali sygnały wytwarzane przez pobudzone komórki wzgórza wzrokowego kota. Bodźce były następnie przetwarzane przez komputer sprzężony z mózgiem zwierzęcia. — I teraz uwaga. — Ku zdziwieniu samych naukowców udało się odtworzyć obraz widziany kocimi oczami. Na ekranie monitora pojawiły się rozpoznawalne obiekty, można było zobaczyć między innymi dość wyraźne ludzkie twarze. Komputer przejął funkcję części mózgu.293 A eksperymenty są jeszcze dalej posunięte. Niewidomy od ponad dwudziestu lat Amerykanin znowu widzi dzięki sztucznym oczom, stworzonym przez bioinżynierów. Czy ludzkie zmysły, których utrata była dotychczas nieodwracalna, mogą być zastępowane przez aparaturę elektroniczną?294 Tak brzmi fragment notki dotyczącej 62-letniego Jerry’ego, który będąc niewidomym przez wiele lat poddawał się różnym eksperymentom w Dobelle Institute, by odzyskać możność widzenia. W końcu się udało i teraz „widzi” dzięki wiązce elektrod wszczepionych do mózgu. W jego ciemnych okularach zamontowano kamerę oraz ultradźwiękowy detektor odległości. Obraz z kamery i sygnał z detektora biegną za pośrednictwem czterech przewodów do komputera — pudełka o wadze ok. pięciu kilogramów, przymocowanego w pasie. Tu zostają opracowane elektronicznie i poprzez wiązkę 68 platynowych elektrod przesłane do mózgowego ośrodka wzroku. Z przekazywanych przez nie impulsów mózg odtwarza to, co zarejestrowały urządzenia.295 To tylko niektóre implikacje badań nad programami do analizy obrazu. Jeszcze ogólniej rzecz biorąc, to tylko niektóre implikacje badań z zakresu Sztucznej Inteligencji. Więcej informacji na ten temat znajdzie się w rozdziale 3. — „Jutro” (por. ss. 209 – 215).

293

Kossobudzki 2000.

294

Nowakowska 2000, s. 62.

295

Tamże, s. 62.

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

(14-12-22)

137

138

Sztuczna Inteligencja

2.3.4. Uczenie maszyn (machine learning) Jeśli będziemy rozpatrywać myślenie w kategoriach informatycznych jako manipulowanie informacją oraz wykonywanie działań na informacji, na przykład przekształcanie jednego zdania na inne, to w myśl tego uczenie się będzie pojęte jako korygowanie informacji już znanej (zapisanej w pamięci maszyny) i powiększanie zbioru znanej informacji. Przy czym każdą informację należy oczywiście odpowiednio zaklasyfikować wedle znaczenia bądź powiązania z innymi informacjami. Jednak wiedząc, czym jest informacja i, wstępnie, czym jest uczenie się, należałoby jeszcze wiedzieć, czym jest zasób informacji zwany wiedzą. W AI podchodzi się do tego problemu pragmatycznie: reprezentacja wiedzy to kombinacja struktur danych i procedur interpretacyjnych tak dobranych, że właściwie użyte, prowadzić będą do inteligentnego zachowania.296 Tak pojętą wiedzę możemy uchwycić dynamicznie. Same struktury danych nie są jeszcze wiedzą, tak jak sama encyklopedia nią nie jest, potrzebny jest jeszcze czytelnik, interpretator.297 I tak, w przypadku różnych typów wiedzy, wyróżnia się298 przedstawione poniżej elementy.  Wiedza o obiektach — czyli o świecie uprzedmiotowionym: kuflach do piwa,

filiżankach, kotach, psach, skrzydłach ptaków, etc.  Wiedza o zdarzeniach — czyli o działaniu, które podkreśla dynamikę świata:

kufel będzie opróżniony, filiżanka umyta, kot zacznie mruczeć, pies warczeć, ptak będzie machał skrzydłami aż wzniesie się do góry.  Wiedza jak — umiejętności — to typ wiedzy praktycznej, jak: pisanie za

pomocą klawiatury komputera bądź piórem wiecznym, plecienie koszyków, naprawianie urządzeń elektrycznych (na przykład lampek), wędkowanie. Jak pisze W. Duch: To znacznie trudniejszy do zdefiniowania typ wiedzy. (…) [Jest] to wiedza o tym, jak wykonywać pewne zadania, wiedza, którą zdobywa się metodą prób i błędów, której nie można przekazać w sposób werbalny.299  Meta-wiedza — czyli wiedza o samej wiedzy, uprawiana przez ludzi ze względu

na warunki pewności (prawdziwości) w nauce (warunki te stoją u podstaw nauk, ale ich osiągnięcie jest utrudnione na przykład przez niepewne metody pomiarowe czy niedoskonałość percepcji badaczy). 296

Duch 1997a, rozdz. Sztuczna Inteligencja, podrozdz. 1.2. Wiedza.

297

Tamże.

298

Za: Tamże, podrozdz. 1.2. Wiedza, ss. 4 – 6.

299

Tamże.

138 (14-12-22)

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

Rozdział 2.  Dzisiaj

139

 Przekonania — które są czymś mniej niż „wiedzą”; przekonania mogą być

subiektywne i fałszywe, na przykład: Jestem przekonany, że George Busch junior jest gorszym prezydentem niż Ronald Regan i w dodatku jest kosmitą bądź przynajmniej agentem kosmitów. Dzięki takiemu wstępnemu i ogólnemu podziałowi, informacja wewnątrz systemu może zostać sprawnie zakwalifikowana i zapisana we właściwym jej miejscu. Wiąże się to z kolejnym aspektem nauki — metodami przeszukiwania baz danych. Jasne jest, że im szybciej informacja zostanie znaleziona bądź dopasowana, tym szybciej i sprawniej system na nią zareaguje. Ideę systemu naśladującego zachowanie człowieka w swoim czasie opracował John Anderson, a opisał między innym D. C. Dennett300. System nosi nazwę ACT* (act star) i jest on wart wspomnienia ze względu na to, że podstawowa zasada jego funkcjonowania jest taka sama jak w programach komputerowych; czyli rozpatrywane są sytuacje typu JEŻELI-TO (IF-THEN) z więcej niż jednym rozwiązaniem, o ile jest to możliwe. Nie wszystko, co taki system wie, może dostać się do pamięci roboczej jednocześnie, więc należy określić, na jakiej zasadzie zawartość tej pamięci zostaje określana. Jest to stary platoński problem (…) gołębnika301, z którego przywołać należy właściwego ptaka we właściwym czasie. Dla systemu ACT Dennett (za Andersonem; przyp. M. J. K.) podaje pięć zasad, na podstawie których dokonany zostaje wybór właściwej zawartości pamięci roboczej, czyli przywołanie właściwego ptaka. 1. Stopień dopasowania: jeżeli wynik operacji klasy JEŻELI jest w jakiś sposób

lepiej dopasowany niż inne, to ma pierwszeństwo. 2. Siła produkcji: produkty, które były ostatnio skuteczne mają większą,

skojarzoną z nimi „siłę”, która daje im pierwszeństwo w stosunku do produktów o mniejszej „sile”. 3. Swoboda reakcji na dane: ten sam wytwór nie może być dopasowany więcej

niż jeden raz (jest tak, by zapobiec nieskończonym pętlom i podobnie, choć słabiej, rutynom, czyli korzystaniu z tych samych rozwiązań przy nietestowaniu innych; przyp. M. J. K.). 4. Specyficzność: jeżeli dwa produkty pasują do tych samych danych, wygrywa

produkt o bardziej dopasowanej klasie JEŻELI (czyli ten, który jest bardziej dopasowany; przyp. M. J. K.). 5. Podporządkowanie celowi: pomiędzy wytwaorzonymi produktami

przechowywanymi w pamięci są cele. Może być tylko jeden aktualnie czynny cel w danym czasie w pamięci roboczej ACT* i jakikolwiek wytwór, którego podanie na wyjściu pasuje do czynnego celu, ma pierwszeństwo.302

300

Por. D. C. Dennett, Consiousness Explained, ss. 265 – 266; za: P. Czarnecki, Koncepcja umysłu w filozofii D. C. Dennetta, Internet, ss. 50 – 51.

301

Por. Platon, Teajtet, Warszawa 1959, ss. 122 – 123. (Przyp. za cyt.)

302

P. Czarnecki, Koncepcja umysłu w filozofii D. C. Dennetta, Internet, ss. 50 – 51 (tłumaczenie poprawione dzięki uprzejmości prof. Adama Groblera).

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

(14-12-22)

139

140

Sztuczna Inteligencja

Oczywiście dalej Dennett pisze, że systemy, takie jak ACT*, są ciągle znacznym uproszczeniem, lecz właściwy jest kierunek badań prowadzący od maszyny vonneumannowskiej do takich systemów.303 Ostatecznie uczenie się maszyn (machine learning) polega na:  powiększaniu ilości informacji w swojej bazie danych;  korygowaniu informacji ze swojej bazy danych;  usprawnianiu systemu przeszukiwania bazy danych, łącznie z wytwarzaniem

nowych związków pomiędzy posiadanymi informacjami. Pewne przykłady takich rozwiązań w tekście już się pojawiły, na przykład przy rozpatrywaniu programów do analizy obrazu (por. podrozdział poprzedni: 2.3.3 — „Rozpoznawanie obrazów”, ss. 121 – 137).

2.3.5. Analiza mowy i języka. Problemy z rozumieniem Podział na mowę i język, dokonany już w tytule tego podrozdziału, nie jest przypadkowy. Podyktowany został tym, że mowa nie jest niczym innym jak pewnego rodzaju obrazem (wg definicji obrazu O. Selfridge’a; patrz: s. 121), tyle że dźwiękowym, złożonym z fonemów i difonemów. Zatem jej analiza może przebiegać, i przebiega, w taki sam sposób jak w przypadku programów do analizy obrazów wizualnych. Jednakże ciąg kolejnych difonemów (wyrazy i zdania) oprócz tego, że rozpatrywany jest osobno jako pojedyncze obrazy (słuchowe), winien być rozpatrywany także jako całość wieloelementowa — zarówno wyrazy tworzą w nas obrazy (obrazy słuchowe przybierają znaczenia poprzez słowa, które wywołują coś na kształt wewnętrznych obrazów pojęć), jak i zdania, a przez to i całe wypowiedzi. Wiąże się to z kolejnymi problemami, które nie dotyczyły jeszcze analizy obrazów wizualnych, bo i poprzez swoją odmienność dotyczyć nie mogły. Proponuję przyjrzeć się tym, które w latach 80. były uważane za sztandarowe. 1. Rozpoznawanie słów wymawianych przez różne osoby, a nie tylko przez

określoną osobę, która wprowadziła je wcześniej do komputera. 2. Rozpoznawanie słów w mowie ciągłej — słów mówionych bez przerw

komputer nie jest w stanie rozdzielić. 3. Rozpoznawanie słów z nieograniczonego, nieokreślonego wcześniej zbioru. 4. Rozpoznawanie słów brzmiących podobnie — komputer nie ma najczęściej

zdolności rozpoznawania sensu kontekstu z odpowiednich wyrazów.

303

Tamże, ss. 50 – 51.

140 (14-12-22)

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

Rozdział 2.  Dzisiaj

141

5. Ograniczenie czasu rozpoznawania przy dużej liczebności słownika

i szybkości przetwarzania.304

Rozpatrzę je teraz po kolei, nie zapominając przy tym o schemacie rozpoznawania obrazów przedstawionym na rysunku 2.9 (patrz: s. 124). Co do trudności pierwszej — z wielu przyczyn nie wydaje się ona odgrywać trudności zasadniczej. W równej mierze dla rozwiązania tego problemu można zrobić odpowiednią macierz określającą przebieg tonacji — akcenty, głoski twarde i miękkie i odpowiedni ich rozkład na wykresie — aby stwierdzić z całą pewnością, z jakim słowem mamy do czynienia. Wówczas trudność związana z barwą głosu czy nawet z wadami wymowy, na przykład seplenieniem, zanika, a przynajmniej staje się drugorzędna. Nie jest to jednak teza obowiązująca wszystkie języki naturalne — na przykład trudniej jest skonstruować dobry program do rozpoznawania mowy w języku angielskim, w którym wiele wymawianych słów ze sobą się zlewa305, niż w na przykład w języku polskim. Co do trudności drugiej — schemat odpowiedzi jest podobny do poprzedniej: słowa mówione bez przerwy, jak mamy z tym do czynienia niejednokrotnie na co dzień, rządzą się pewnymi z góry określonymi prawami, na przykład dzięki znakom przestankowym typu:, . ; : ! ?, które w mowie są respektowane jako pauzy. W rezultacie też w językoznawstwie funkcjonują kryteria orzekania, które pozwalają rozstrzygnąć, kiedy i na jakich prawach możemy z formy złożonej — ciągu wyrazów — wyłonić formy proste, które się nań składają. Rolę taką spełniają na przykład proponowane definicje306. Definicja I Pojęcie wypowiedzenie, które można określić jako unilateralny obiekt słuchowy, możliwy do zidentyfikowania na podstawie sygnałów delimitacyjnych. W rezultacie też będzie nim każdy taki twór językowy, który po rozpoczęciu skończy się pauzą (w pisowni pełniącą rolę kropki, znaku zapytania, wykrzyknika czy innego znaku przystankowego). Więc na przykład będą to takie wyrażenia jak poniższe. 1. „Wczoraj dostałem list z pogróżkami”. 2. „Dziś siedzę, palę cygaro i obmyślam zemstę” 304

Feichtinger 1988, s. 299.

305

„Pierwsze 10 lat po skończeniu college'u pracowałem na Broadwayu jako pomocnik. Momentem, w którym zdałem sobie sprawę, że programy do rozpoznawania mowy nigdy nie zastąpią konwencjonalnego wklepywania wyrazów na klawiaturze, była jedna z prób kolejnego przedstawienia. Aktorka ćwiczyła piosenkę I'm filled with an aimless feeling („Jestem wypełniona uczuciem bez znaczenia”). Siedziałem wtedy przy pani reżyser, która trzymała tekst piosenki na swoich kolanach. Zupełnie dla zabawy rzuciłem okiem na słowa, by sprawdzić, czy aktorka dobrze je śpiewa. I wtedy zdałem sobie sprawę, że w refrenie piosenki wcale nie padają słowa an aimless feeling, ale I'm filled with a nameless feeling („Jestem wypełniona nienazwanym uczuciem”). Wypowiadane swobodnym, konwersacynym tempem słowa an aimless i a nameless brzmią identycznie i żadne dodatkowe elementy języka ciała czy sam kontekst nie pomogą w poprawnej interpretacji tego, który wyraz został wypowiedziany.” [D. Pogue, Pułapki w rozpoznawaniu mowy, Internet]

306

Por. M. Wiśniewski, Strukturalna charakterystyka polskich wypowiedzi niezdaniowych, Wyd. Uniwersytetu Mikołaja Kopernika, Toruń 1994.

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

(14-12-22)

141

142

Sztuczna Inteligencja

Oczywiście w przypadku zdań mówionych, a nie pisanych, nie będę dysponować informacją na temat wielkiej litery czy kropki. Ale też wystarczy mi informacja o znaku pauzy, którą, dzięki zastosowaniu takiego przystanku w mowie, będę zawsze posiadać. I tak analizując przykłady (1) i (2) mogę z całą stanowczością stwierdzić, że — zarówno czytając, jak i słysząc — w przypadku (1) mam do czynienia z jednym wypowiedzeniem, a w przypadku (2) z trzema. Definicja II Pojęcie zdanie, które rozumieć mogę jako syntaktyczną całość, dającą się scharakteryzować na dwa sposoby: 1. jako zdanie proste, które stworzyć mogę przez obudowywanie finitywnej formy

czasownika bądź jej ekwiwalentu dystrybucyjnego, na przykład „palę cygaro”; 2. jako zdanie złożone, które stworzyć mogę przez obudowywanie słowa

spójnikowego, rekurencyjnie wprowadzonego do struktury wypowiedzi, na przykład „dziś jeszcze palę cygaro, ale już jutro przystąpię do działania”. Definicja III Pojęcie wypowiedzenie niezdaniowe, które zdefiniuję jako wydzieloną część wypowiedzenia, którą to wydzielić mogę przy znajomości interpunkcji, na przykład: 1. „rzesz ty…” 2. „Już po wszystkim”.

Oczywiście definicji takich można wypisać jeszcze co najmniej kilkanaście, a wszystko po to, by skonkretyzować odcinki najmniejsze (zdania atomowe), konstrukcje z odcinków najmniejszych (zdania złożone i całe konteksty zdań) itd. W rezultacie zaś mając takie „cegiełki” mowy (jeszcze bardziej pierwotne są słowa) jestem w stanie utworzyć zbiór cegiełek wzorcowych i praw. Jedno z nich może brzmieć tak jak poniżej. Jeżeli wypowiedzenie, które teraz analizujesz, jest wypowiedzeniem niezdaniowym, to aby zrozumieć kontekst całej wypowiedzi złożonej (z kilku wypowiedzi zdaniowych i wypowiedzi niezdaniowych), wróć do poprzedzającej to wypowiedzenie niezdaniowe wypowiedzi zdaniowej, odszukaj tam podmiot i orzeczenie, a cała wypowiedź niezdaniowa będzie się do nich odnosić307. Co do trudności trzeciej — roszczenie pretensji do maszyny o to, że nie potrafi rozpoznawać słów ze zbioru nieograniczonego (czyli jej nieznanego), jest dosyć dziwne i to co najmniej dziwne nad wyraz. Trzeba bowiem wziąć pod uwagę to, że jako ludzie sami w sytuacji, gdy spotykamy się z nowymi słowami — czy to czytając, czy to uczestnicząc w rozmowie — albo sięgamy po odpowiedni słownik (na przykład języka polskiego) i odczytując notkę napisaną słowami, które znamy, dowiadujemy się, co oznacza słowo nowe, albo też — jeśli mamy tylko taką możliwość — prosimy kogoś, żeby słowo to objaśnił, co czynione jest zawsze na dwa sposoby: 1) tak jak w przypadku 307

Oczywiście prawo to, które powyżej ukułem, jest sporym uproszczeniem i nie można go stosować do wszystkich przypadków wypowiedzi. Ale chodzi mi tutaj tylko o pewien przykład, a nie o utworzenie prawa zasadniczego.

142 (14-12-22)

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

Rozdział 2.  Dzisiaj

143

słownika, termin nieznany jest tłumaczony za pomocą słów już znanych (na przykład za pomocą słów podstawowych, których mamy około 10 tysięcy; por. s. 73 oraz przyp. 117), albo 2) słowo nieznane odnoszone jest do rzeczy już znanych, na przykład lubić znaczy tyle co kochać, tylko że posiada mniejszą moc (mniejsze zabarwienie emocjonalne), więc jeśli uznamy, iż normalnym jest kochać tylko osoby płci odmiennej, to lubić można nie tylko osoby płci tej samej ale nawet i komputery. Co do trudności czwartej — wielu ludziom wydaje się, że może być to pewien problem. Jednak na razie pozostawię go bez rozwinięcia i wrócę doń przy rozpatrywaniu tzw. argumentu Chińskiego Pokoju, autorstwa J. Searle’a (patrz: ss. 148 – 150). Co do trudności piątej — jak można było zaobserwować na przykładzie maszyn dowodzących twierdzeń czy maszyn grających w szachy, problem ten można rozwiązać poprzez odpowiednie zasady heurystyczne albo dzięki wykorzystaniu algorytmów genetycznych (por. s. 64). I jedna, i druga metoda pozwalają na skrócenie czasu rozpoznawania wypowiedzi. Wydaje się też, że niebagatelną rolę odgrywać tutaj mogą odpowiednie tablice kategorii, czyli odpowiednie ułożenie informacji w bazie danych. Wówczas maszyna, która dowiaduje się na przykład, że ma do czynienia z rzeczownikiem (podmiotem zdania), nie będzie go szukać tam, gdzie znajdują się jej wzorcowe formy czasownikowe (orzeczenia zdania), co znacznie skróci czas i efektywność szukania. Metod stosowanych do zadań rozpoznawania mowy jest co najmniej kilka. Do najczęściej stosowanych należą308 wymienione poniżej. 1. Analiza metodą „przejść przez zero”. W metodzie tej

Sygnał mowy zostaje wzmocniony i ograniczony do przebiegu prostokątnego. W regularnych odcinkach czasowych t jest mierzona częstotliwość średnia (realizowana prosto przez interfejs mikrokomputera za pomocą krótkiego programu maszynowego). Pierwszy pomiar zostaje uruchomiony natychmiast po osiągnięciu odpowiedniego napięcia na wyjściu mikrofonu i w wyniku tego będzie wyzwolony przerzutnik309 Schmitta (początek słowa). Następnie mikrokomputer układa wyuczone słowa w tabeli, zgodnie z czasowym rozkładem częstotliwości. Słowa uważa się za rozpoznane, jeżeli trenowany wzór jest w przybliżeniu zgodny z aktualnie wymawianym słowem.310 2. Analiza za pomocą rozkładu na pasma częstotliwości. Tutaj

stosuje się na przykład osiem filtrów, za pomocą których widmo mowy jest dzielone na osiem części (na przykład 300 – 500 Hz, 500 – 750 Hz, 750 – 1000 Hz, 1 – 1,5 kHz, 1,5 – 2 kHz, 2 – 2,5 kHz, 2,5 – 3 kHz, 3 – 3,5 kHz). W każdym z ośmiu kanałów (zakresów) sygnał jest prostowany. Za pomocą multipleksera311 (…) napięcia wyjściowe ze wszystkich ośmiu wyjść 308

Za: Feichtinger 1988, ss. 299 – 301.

309

Przerzutnik jest komórką pamięci (pamięta określone stany logiczne, a więc ma pojemność 1 bita), która może rejestrować krótkie impulsy; za: Tamże, s. 152.

310

Tamże, ss. 299 – 300.

311

Czyli urządzenia, które na przemian przesyła adresy i dane po wspólnych liniach; za: Tamże, s. 26.

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

(14-12-22)

143

144

Sztuczna Inteligencja

prostowników są podawane na wejściu przetwornika a/c (analogowo-cyfrowego; przyp. M. J. K.), w wyniku czego do komputera są podawane amplitudy wszystkich kanałów.312 Następnie program komputerowy zapamiętuje każdą amplitudę i porównując z tabelami amplitud (wzorcami w bazie danych) wysuwa hipotezy, czyli gotowe propozycje odszyfrowanych słów, by po etapie podejmowania decyzji uznać za prawdziwą jedną z tych hipotez. Czyli odbywa się to tak samo jak w przypadku analizy obrazów wzrokowych (por. rysunek 2.9). 3. Analiza za pomocą procesora sygnałowego, która wykorzystuje

możliwość przesłania wzmocnionego sygnału mikrofonowego do przetwornika a/c, a następnie do układu wejścia-wyjścia komputera, aby samą analizę widma częstotliwości przeprowadzić stosując odpowiedni program (na przykład za pomocą FFT — Fast Fourier Tranformation).313 Odpowiednią szybkość analizy gwarantują specjalnie do tego skonstruowane procesory sygnałowe (stąd nazwa analizy), Których lista rozkazów oraz rejestry ukierunkowane są głównie na wymagania stawiane w analizie FFT (na przykład TMS 320).314 Oczywiście współcześnie wykorzystuje się do takich celów również metodę opartą na sieciach neuronowych, lecz zajmę się tym nieco później, przy analizie samych sieci. Wówczas też zreferuję rozmaite możliwości ich zastosowania (patrz: podrozdział 2.4 — „Sztuczny mózg — sztuczne sieci neuronowe (Neural Network). Ku metaforze komputerowej”, ss. 166 – 177). Teraz najwyższa pora zająć się problemem rozpoznawania i rozumienia sensów wyrażanych w języku. Problem ten istotny jest z wielu względów. Tak dla przykładu — przypominam — Kartezjusz wyznawał pogląd, iż zdolności posługiwania się językiem naturalnym nie tylko nie da się modelować, ale nawet faktycznie symulować, przez najbardziej skomplikowane maszyny.315 312

Tamże, s. 300.

313

Tamże, s. 301.

314

Tamże. Należy zaznaczyć, iż w czasach pierwszych prób stosowania tej metody, tzn. w latach 1975 – 1985, procesory były o wiele wolniejsze od współcześnie produkowanych. Z tego też względu w dzisiejszych czasach, kiedy to procesory mogą podołać takim zadaniom, produkcja zupełnie odmiennych typów procesorów (tu: sygnałowych) mija się z celem.

315

Bielecki 1998 Artykuł M. Bieleckiego, Rozumienie sieci neuronowych, posiadałem z Internetu, stąd brak wszelkich adnotacji a propos stron, z których pochodzą dane cytowane fragmenty. Wystarczy porównać fragment: „gdyby istniały maszyny, podobne do naszych ciał i naśladujące nasze uczynki na tyle, ile byłoby to w zasadzie samej możliwe, mielibyśmy zawsze dwa bardzo pewne sposoby rozpoznania, że jeszcze dzięki temu nie byłyby one prawdziwymi ludźmi. Pierwszy ten, iż nigdy nie mogłyby używać słów ani innych naszych myśli. Można bowiem pojąć, iżby maszyna tak była zrobiona, że wymawia jakieś słowa, a nawet wymawia ich kilka w związku z działaniami

144 (14-12-22)

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

Rozdział 2.  Dzisiaj

145

Potrzeba zajęcia się problemem rozumieniem języka związana jest na przykład z samym testem Turinga, do którego przejścia — jak już wiemy — wymagana jest właśnie ta zdolność. Inaczej nie potrafilibyśmy wyznaczyć zasady, na jakiej przyznalibyśmy maszynie funkcję myślenia (myślenia w sensie Turinga). Z bardziej pragmatycznych przyczyn potrzebę taką wymusza na nas Internet — ze względu na bardzo dużą ilość informacji, dezinformacji, informacji nieatrakcyjnej — tzw. zwykłego „szumu”, widzi się potrzebę inteligentnego wyszukiwania informacji316. Nagminnie zdarzają się przypadki, że po wpisaniu w wyszukiwarkę internetową jakiegoś hasła dostajemy w odpowiedzi linki do stron, które informacji przez nas poszukiwanej nie zawierają. Przykłady można mnożyć. Przypadek 1. Po wpisaniu do wyszukiwarki portalu Wirtualnej Polski317 hasła „Sztuczna Inteligencja” jedną z wielu odpowiedzi, jakie otrzymałem, była strona z dowcipami o blondynkach. Jako argument wyszukiwarka podała następujący fragment tej strony: „Jak się nazywa przefarbowana blondynka? Odpowiedź: Sztuczna inteligencja”. Przypadek 2. Po wpisaniu do wyszukiwarki księgarni internetowej Merlin318 hasła „Sztuczna Inteligencja” jedną z odpowiedzi, jakie otrzymałem, była pozycja książkowa: „Goebels, inteligencja III Rzeszy”. Ale przy analizie problemu obróbki języka przez maszyny proponuję rozłożyć go na dwa odrębne zagadnienia, z których pierwsze będzie reprezentowane przez rozpoznawanie języka, a drugie przez rozumienie języka. Problem rozpoznawania języka związany jest głównie z przekładem jednego języka na drugi, czyli po prostu z tłumaczeniem. Do tłumaczenia języka służą programy, których rodzina określona jest nazwą translatory319. Jeden z pierwszych takich programów powstał już w roku 1956. Jego autorem był Anthony Oettinger, który podjął pracę nad automatycznym przekładem językowym, programując rosyjsko-angielski słownik komputerowy.320

fizycznymi powodującymi pewne zmiany w jej przyrządach: jak to, kiedy się ją dotknie we jakimś miejscu, aby spytała, czego sobie od niej życzymy; w innym, aby składała, krzyczała, że ją boli, i tym podobne; ale niemożliwe jest, aby składała rozmaicie słowa, odpowiadając do sensu na wszystko, co się powie w jej obecności, jak to ludzie bodaj najbardziej tępi mogą czynić.” [Descartes 1980, ss. 64 – 65] 316

Por. M. A. Kłopotek, Inteligentne wyszukiwarki internetowe, Akademicka Oficyna Wydawnicza Exit, Warszawa 2001.

317

http://www.wp.pl.

318

http://www.merlin.pl.

319

Translatory wykorzystuje się już przy tłumaczeniu na przykład czasopism czy instrukcji. Przykładem może tu być program Transced Traslations, który został wykorzystany do przetłumaczenia z języka angielskiego instrukcji do bardzo popularnej na całym świecie gry karcianej, Pokemon, firmy Wizards of the Coast.

320

Devlin 1999, s. 203.

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

(14-12-22)

145

146

Sztuczna Inteligencja

Do głównych zagadnień związanych z rozpoznawaniem języka można zaliczyć: 1. Rozpoznawanie tych samych słów i zdań napisanych odręcznie przez różne

osoby, ewentualnie wymówionych przez różne osoby; 2. Rozpoznawanie słów z nieograniczonego, nieokreślonego wcześniej zbioru; 3. Rozpoznawanie stylów, w jakim treść jest zapisana, ewentualnie wymówiona.

Z problemami (1) i (2) zetknęliśmy się już wcześniej przy omawianiu problemu analizy mowy i po trosze przy omawianiu problemu rozpoznawania obrazów. Można to zatem następująco podsumować. Problem pierwszy rozwiązują odpowiednie słowa wzorcowe (zarówno w przypadku tekstu pisanego, jak i mówionego) oraz macierze dołączone do modułu analizującego. Problem drugi, związany z rozpoznawaniem słów z nieograniczonego wcześniej zbioru, związany jest z uczeniem się. Nie sądzę zatem by występował w przypadku maszyn, w których zastosowano formy uczenia (machine learning) i ponownie zwracam uwagę, iż problem ten dotyczy również ludzi — nie znając słów, prosimy o wyjaśnienie, sami szukamy wyjaśnienia, na przykład w słownikach (tak, jak to wyżej zostało już zaznaczone (patrz: ss. 142 – 143). Problem trzeci w przypadku translatorów jest najpoważniejszym z problemów. Związany jest on również z semantycznym znaczeniem treści, które podlegają tłumaczeniu. Lecz zacznę od początku, czyli od tego, czy translatory mogą oddać, i oddają, styl, w jakim napisany jest utwór? Przy czym problem stylu utworu będzie rozumiany na wzór poniższego przykładu: W języku angielskim do osoby o imieniu John można się zwrócić jedynie John! lub Johny! W polszczyźnie od imienia Jan utworzyć możemy długą listę form wołaczowych, choćby: panie Janie! > panie Janku! > panie Janeczku! > panie Jasiu! i wiele innych. Analogiczną listę sporządzimy bez problemu także na przykład dla czeszczyzny: Jane! > Jene! > Honzo! > Honzíku! > Honzíčku! itd.321 Jedna z odpowiedzi dawana przez lingwistów wskazuje na konsekwencję tego, że Tłumacze powtarzają często, iż nie można nauczyć się języka obcego na tyle dobrze, by tłumaczyć literaturę piękną. Powodem nieprzekładalności literatury jest pewne ograniczenie systemowe tkwiące w języku. (…) Jeszcze nie tak dawno olbrzymią popularnością wśród językoznawców cieszyła się hipoteza Sapira-Whorfa. (Skądinąd modna śród lingwistów związanych z lingwistyką kognitywną; przyp. M. J. K.) Związana ona była z przekonaniem, iż to, w jaki sposób postrzegamy i rozumiemy nasz świat, uzależnione jest od języka, w jakim myślimy.322

321

Rutkowski 2001, s. 42.

322

Tamże.

146 (14-12-22)

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

Rozdział 2.  Dzisiaj

147

Więc, analizując powyższe, można dojść do wniosku, iż jeżeli hipoteza Sapira-Whorfa jest prawdziwa, to tak styl, jak i każda głębsza myśl (zamiar autora), nieprzekładalne są nie tylko przez programy-translatory, ale i przez ludzi-tłumaczy. Wówczas też należałoby konsekwentnie postawić całą twórczość translatorską człowieka pod znakiem zapytania i, w następnej kolejności, spytać o sens tłumaczenia literatury pięknej — co z wielu powodów wydaje się absurdem! Na szczęście Obecnie o hipotezie Sapira-Whorfa naucza się raczej na kursach historii lingwistyki niż współczesnego językoznawstwa.323 Drugą odpowiedź można znaleźć w podejściu, które z wielu względów wydaje się bardziej sensowne, a wynika z tego, iż nie udałoby się przekazać w tłumaczeniu angielskim gwarowego wydźwięku zdania, zaczerpniętego z opisu (chyba dialogu; przyp. M. J. K.) jednej ze wsi na Spiszu: Dziezeście, ciotko, byli?. W gwarze tej, jak na przykład w języku francuskim, obowiązuje tzw. dwojenie, czyli używanie drugiej osoby liczby mnogiej jako formy grzecznościowej. Niedopuszczalne jest tam w oficjalnych rozmowach używanie form drugiej osoby liczby pojedynczej: Co jo s tobóm kury pasła, ze ty mi na ty godos?!324 Jak widać, kryje się tu odpowiedź druga — translacyjna praca nie polega tylko na wiernym oddaniu „słowo w słowo” tekstu pisanego w jednym języku na tekst pisany w drugim, ale na czymś więcej. Styl zakorzeniony jest często w samych strukturach jednego języka (porównaj analizę zwrotów grzecznościowych Jan), a także w dialektach tego samego języka. Słusznym podejściem zatem wydaje się potraktowanie słów związanych ze strukturą i życiem danej grupy jako realiów w rozumieniu współczesnych rosyjskich teoretyków przekładu Siergieja Wlachowa i Sidera Florina. Realiami nazywają oni słowa odnoszące się do obiektów i idei typowych dla kultury innych. Jako że wyrażają one lokalny koloryt, nie mogą być tłumaczone (na przykład hiszpańskie sombrero, którego nie tłumaczymy polskim słowem kapelusz). (…) Odnosząc się do idei Friedricha Schleiermachera (…), współczesny amerykański teoretyk przekładu Lawrence Venuti ukuł dwa terminy, które opisują możliwe postawy wobec nieprzekładalności: uzagranicznienie (ang. foreignization) i udomowienie (ang. domestication). Pierwsza z tych postaw wiąże się z koniecznością „wysłania czytelnika za granicę”, pokazania mu innej kultury. Udomowienie zaś to zredukowanie obcego tekstu do ram języka przekładu, „sprowadzenie autora do kraju czytelnika”.325 W praktyce wygląda to następująco: Norwescy uczniowie często zwracają się do swych nauczycieli po imieniu. Jak wiemy, sytuacja taka rzadko zdarza się w Polsce. Przekładając na polszczyznę 323

Tamże.

324

Tamże, s. 43.

325

Tamże, s. 44.

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

(14-12-22)

147

148

Sztuczna Inteligencja

norweski dialog szkolny, tłumacz „udomowiający” zamieniłby po prostu imię nauczyciela na zwrot panie profesorze. (…) Z drugiej strony, tłumaczenia „uzagraniczające” muszą zawsze łamać reguły porozumiewania się w języku przekładu.326 Wszystko to, co zostało powiedziane o ludziach-tłumaczach, można odnieść do maszyn-tłumaczy — tam, gdzie będziemy mieli do czynienia z wiedzą i doświadczeniem w przypadku ludzi, w przypadku maszyn będzie zastąpione przez programy, zestawy podprogramów i bazy danych, na których będą wykonywane odpowiednie operacje. W rezultacie też druga odpowiedź w kwestii przekładalności stylu i odniesienia tego problemu do maszyn przekładających mogłaby być taka. Możliwe jest tłumaczenie z jednego języka na drugi zarówno treści, jak i stylu za pomocą maszyn, lecz leży to w gestii programów specjalistycznych (ekspertowych). Tak więc w rezultacie nie winniśmy się pytać o maszynę tłumaczącą dzieła z języka angielskiego na język polski (translatora w sensie ogólnym), a o maszynę tłumaczącą z języka angielskiego Shakespeare’a (translatora w sensie szczególnym) na język polski, tak jak pytamy się na przykład o Stanisława Barańczaka, pełniącego taką funkcję wśród ludzi!327 *** Na końcu rozważań prowdzonych nad zagadnieniami związanymi z analizą języka trzeba zająć się jeszcze jednym, bardzo aktualnym problemem z zakresu nauk kognitywnych, który bezpośrednio dotyka problematyki inteligentnych maszyn translatorów oraz maszyny myślącej w sensie Turinga — problemem rozumienia języka, który powiązany jest w sposób oczywisty z semantyką. Głównym zarzutem stawianym przeciw skonstruowaniu maszyny rozumiejącej język (a co za tym idzie, maszyny zdolnej przystąpić i zdać test Turinga!) jest argument Chińskiego Pokoju, zdefiniowany przez Johna Searle’a w tzw. Wykładach Reithonowskich w 1984328. I. Wyobraźmy sobie — pisze Searle — że zespół programistów napisał program,

który jest w stanie symulować rozumienie języka chińskiego. Zatem, na przykład, jeśli komputerowi zadaje się pytanie w tym języku, może on 326

Tamże.

327

Aby sobie uprzytomnić znaczenie powyższej tezy, należałoby przeanalizować dorobek językoznawstwa kognitywnego, jednak ze względu na temat pracy, wydaje się ona sama w sobie zrozumiała. Por.: D. Cieśla, Narzędzia językoznawstwa kognitywnego — nie tylko dla językoznawców, Internet; R. Dobrowolski 1992; Fodor 1999; Gnitecki 2000; Johnson-Laird 1999; Kandefer 2001; Lyons 1998; Mańczyk 1999; Mańczyk 2000; Piłat 1999; Skrzypczak 2000. I ostatnio wydaną świetną pozycję: Kognitywne podstawy języka i językoznawstwa, red. E. Tabakowska, Universitas, Kraków 2001.

328

Wykłady Reithonowskie powstały z inicjatywy Bertranda Russella i Lorela Reitha (stąd ich nazwa), pierwszego dyrektora BBC, w 1948 roku i są prowadzone jako audycja radia BBC. Wykłady wygłoszone prze J. R. Searle’a zostały zebrane i wydane jako książka Searle 1995. Sam argument Chińskiego Pokoju zdaje się, że po raz pierwszy został zaprezentowany w: J. R. Searle, Minds, Brains and Programs, w: „The Behavioral and Brain Science”, t. III, Cambridge University Press, Cambridge 1980; polskie wyd. Umysły, mózgi i programy.

148 (14-12-22)

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

Rozdział 2.  Dzisiaj

149

porównać je ze swoją pamięcią lub bazą danych i wyprodukować w języku chińskim odpowiedź na zadane pytanie. Załóżmy, dla celów dyskusji, że odpowiedzi te są tak dobre jak odpowiedzi osoby, której ojczystym językiem jest język chiński. Czy w takiej sytuacji komputer rozumie język chiński, czy rozumie go dokładnie tak, jak użytkownicy języka chińskiego rozumieją swój ojczysty język? II. Wyobraźmy sobie teraz, że ktoś z nas jest zamknięty w pokoju, i że w pokoju

tym jest szereg koszy wypełnionych znakami z języka chińskiego. Załóżmy, że osoba ta, podobnie jak autor myślowego eksperymentu, nie zna języka chińskiego, otrzymała jednak napisaną w ojczystym języku książkę reguł manipulowania znakami języka chińskiego. Reguły te opisują używanie symboli w sposób czysto formalny, opisują manipulowanie nimi w sposób syntaktyczny, nie semantyczny. Mogą mieć postać: „Wybierz ten znak z podwójnym zakrętasem z kosza numer jeden i połóż go za znakiem z dwoma zawijasami z kosza numer dwa”. Przyjmijmy teraz, że w pokoju pojawiają się jakieś nowe symbole, a osoba w nim siedząca otrzymuje instrukcje, jakie chińskie symbole ma wysłać z pokoju w odpowiedzi na te, które się pojawiły. Załóżmy, że siedzący w pokoju nie wie, iż wysyłane przez ludzi z zewnątrz do pokoju symbole nazywane są przez nich pytaniami, zaś symbole, które siedzący w pokoju wysyła na zewnątrz, nazywane są odpowiedziami na pytania. Przyjmijmy poza tym, że programiści napisali na tyle dobry program, że siedząca w pokoju osoba jest do tego stopnia dobra w manipulowaniu symbolami, że jej odpowiedzi są nierozróżnialne od odpowiedzi osoby faktycznie znającej język chiński. Zatem jakaś osoba zamknięta jest w pokoju, w którym wybiera symbole chińskie i wysyła je w odpowiedzi na inne pojawiające się w pokoju chińskie symbole. W sytuacji, jaką tu opisałem, nie ma możliwości, by w wyniku takiej manipulacji formalnie zdefiniowanymi symbolami nauczyć się języka chińskiego. III. Meritum mojego myślowego eksperymentu jest następujące: realizując taki

formalny komputerowy program z punktu widzenia obserwatora z zewnątrz zachowujemy się dokładnie tak, jak byśmy rozumieli język chiński, jednocześnie nie znamy ani jednego słowa z tego języka naturalnego. Jeśli wykonanie komputerowego programu symulującego rozumienie języka chińskiego nie jest wystarczające dla nas, byśmy ten język rozumieli, nie może być wystarczające także dla maszyny liczącej.329 Powyższy, obszerny fragment z książki Umysł, mózg i nauka Johna Searle’a podzieliłem na trzy części, posługując się przy tym oznaczeniami cyfr rzymskich (I, II, III). Część (I) pokazuje, jakie cele ma realizować program komputerowy, wedle czego stwierdzilibyśmy ze słusznością, iż będzie to program do translacji. Część (II) pokazuje sposób realizacji zadań programu, czyli zasady, jakimi kieruje się maszyna przy translacji. Część (III) jest konkluzją wcześniejszych fragmentów (I) i (II) i wyraża się w tezie: wedle wzorca wyrażonego w (I) i (II) nie jest prawdziwe stwierdzenie, iż maszyna kierująca się nimi jest maszyną rozumiejącą teksty wypowiadane w danym języku! Spróbuję teraz z uwagą przeanalizować poszczególne fragmenty (I), (II) i (III). 329

Searle 1995, ss. 28 – 29.

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

(14-12-22)

149

150

Sztuczna Inteligencja

Po zapoznaniu się z faktami dotyczącymi zasad przekładu tekstu z jednego języka na drugi Czytelnik wie, iż zadanie to nie należy do najłatwiejszych. Są powody, dla których można sądzić, iż w tłumaczeniu zatraca się wiele charakterystycznych cech samego utworu. Zatem pytanie pojawiajace się w części (I) powyższego fragmentu Searle’a, o to Czy w takiej sytuacji komputer rozumie język chiński, czy rozumie go dokładnie tak, jak użytkownicy języka chińskiego rozumieją swój ojczysty język?330 może być niezrozumiałe. Bo cóż oznacza stwierdzenie: rozumie go dokładnie tak, jak użytkownicy języka chińskiego rozumieją swój ojczysty język? Wedle argumentów przytoczonych za Piotrem Rutkowskim (por. ss. 146 – 147), zupełnie NIC! Gdyż nikt nie jest w stanie rozumieć język chiński tak jak użytkownik języka chińskiego (i to chyba nie każdy użytkownik), dla którego język ów jest językiem ojczystym! Jeśli zaś założymy, iż samo rozumienie polegać by miało na sensownym generowaniu pewnego zdania x na poprzedzające je ze strony współrozmówcy zdanie y, to program (w myśl tej procedury) generujący takie zdania x rozumie je — w myśl tej procedury (por. s. 83). Pozostaje pytanie o to, czy procedura ta może się odbywać tak jak w części (II) fragmentu Searle’a? Fragment (II) zdaje się dotykać zasad działania programów komputerowych. Więc — w dalszej kolejności — zdaje się dotykać także sensu pytania o myślenie maszyn, które to miałoby spełnić się na tego typu urządzeniach. Dodajmy — zasad myślenia maszyn wyłożonych w idei gry w naśladownictwo (imitation game), czyli maszyn myślących w sensie Turinga. W skrócie wyrazić go można za pomocą następujących punktów. 1. Mózgi są przyczynami umysłów. 2. Syntaktyka nie wystarcza dla semantyki. 3. Program komputerowy całkowicie określa jego formalna lub syntaktyczna

struktura. 4. Umysły zawierają treści psychiczne, mówiąc dokładniej, treści semantyczne.

Wniosek: nie ma takiego programu komputerowego, który sam w sobie wyposażyłby system w umysł. Mówiąc krótko, programy nie są umysłami, ani same w sobie nie wystarczają dla powstania umysłu.331 W rezultacie niemożność spełnienia warunków stawianych przez semantykę, czyli nieumiejętność „odczytywania” przez maszyny znaczenia tekstu, jest przysłowiową kulą u nogi dla osiągnięcia jednego z celów Sztucznej Inteligencji (por. tabela 2.1, s. 86). Obecnie jest już co najmniej kilka kontrargumentów związanych z argumentem Chińskiego Pokoju. Do tych, które przedstawię należą332: 330

Tamże, s. 28 – 29.

331

Tamże, s. 35.

332

Po więcej informacji sięgnij do: J. Kloch, Chiński Pokój. Eksperyment myślowy Johna Searle'a Internet oraz M. Kasperski, Kilka słów w kwestii Chińskiego Pokoju i dwu innych argumentów przeciw SI: R. Penrose'a i „z redukcjonizmu”, Internet (w tym tekście pokusiłem się o przedstawienie swojego własnego argumentu).

150 (14-12-22)

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

Rozdział 2.  Dzisiaj

151

 tzw. argument Jasnego Pokoju, autorstwa Paula M. i Patrici S. Churchland;  argumenty Stanisława Lema, wyłożone w eseju Tajemnica Chińskiego Pokoju.

Na końcu zaś wskażę jeszcze inne drogi rozwoju SI, związane z możliwościami i próbami realizacji postulatów semantyki w przypadku komputerów. Argument Jasnego Pokoju pojawił się w eseju Czy maszyna może myśleć?, autorstwa Paula i Patrici Smith-Churchland. W artykule tym czytamy między innymi: W roku 1972 Hubert L. Dreyfus opublikował bardzo krytyczną książkę na temat pokazowych symulacji inteligentnego działania. Dowodził w niej nieadekwatności i niepowodzeń tych symulacji w stosunku do rzeczywistego intelektu. Dreyfus sugerował, że w badaniach zaniedbano szeroką podstawę niezwerbalizowanej wiedzy, tych wszystkich ogólnych i podstawowych wiadomości, które ma każdy człowiek. Systemom komputerowym brakuje także tak zwanego zdrowego rozsądku, służącego do wydobywania z tej podstawowej wiedzy konkretnych wiadomości, których wymaga aktualny stan zmiennego otoczenia. Dreyfus nie zaprzeczał, że sztuczny fizyczny system może myśleć, lecz był wysoce krytyczny w stosunku do pomysłu, że może to zostać osiągnięte jedynie przez manipulację symbolami zgodnie z rekurencyjnie stosowanymi regułami.333 Jak wskazują autorzy powyższego fragmentu, zarzuty Huberta Dreyfusa zostały szybko odrzucone i powszechnie skrytykowane. I to właśnie, niejako na zgliszczach tej krytyki, w 1980 roku pojawił się Searle ze swoim argumentem Chińskiego Pokoju. Dowód Searle’a oparty jest na doświadczeniu myślowym wykazującym dwie podstawowe własności. Po pierwsze, opisał on maszynę SM, która realizuje — jak sądzimy — pewną funkcję przekształcającą sygnały wejściowe w wyjściowe, zdolną do „zaliczenia” testu Turinga w zakresie posługiwania się językiem chińskim. Po drugie, wewnętrzna struktura maszyny jest taka, że pomimo jej zachowania obserwator jest pewny, że ani cała maszyna, ani żadna z jej części nie rozumie po chińsku. Wszystko, co ta maszyna zawiera, to człowiek umiejący mówić wyłącznie po angielsku, postępujący zgodnie z pisaną instrukcją i manipulujący chińskimi ideogramami, które otrzymuje za pośrednictwem skrzynki pocztowej. Mówiąc krótko, system ten przypuszczalnie byłby w stanie spełnić warunki testu Turinga, mimo że nie rozumie po chińsku i nie zna znaczenia kierowanych do niego chińskich pytań.334 Idąc dalej w kierunku wyrażenia argumentu Searle’a w jak najprostszej formie Churchlandowie zamykają go w kolejnych punktach, znanych już Czytelnikowi ze strony 150. Aksjomat 1. Programy komputerowe są sformalizowane (syntaktyczne). Aksjomat 2. Ludzkie myślenie zawiera składnik intelektualny (semantyczny).

333

Churchland 1991, s. 18 — podkr. M. J. K.

334

Tamże, s. 19.

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

(14-12-22)

151

152

Sztuczna Inteligencja

Aksjomat 3. Składnia sama przez się nie jest ani konieczna, ani wystarczająca dla semantyki. Wniosek 1.

Programy nie są ani konieczne, ani wystarczające dla myślenia.335

W ostateczności — wiedząc, co każdy z kolejnych punktów wprowadza do dyskusji — stwierdzają, że trzeci aksjomat niekoniecznie jest prawdziwy. Być może ten aksjomat jest prawdziwy, jednak Searle nie może udawać, że o tym wie z całą pewnością336. Co więcej, założenie, że aksjomat ten jest prawdziwy, jest równoważne spłyceniu pytania o sens klasycznej AI. Założenie programu klasycznej AI polega na bardzo interesującym przypuszczeniu, że jeśli ustali się zestaw ruchów odpowiednio zaprojektowanego wewnętrznego tańca elementów syntaktycznych, jeśli odpowiednio dołączy się te elementy do wejścia i wyjścia systemu, to uzyska się możliwość osiągnięcia takich samych stanów intelektualnych, jakie znajdowane są w ludzkim mózgu. Spłycający charakter trzeciego aksjomatu Searle’a staje się jasny, jeśli porównamy go bezpośrednio z pierwszym wnioskiem jego pracy: Programy nie są ani konieczne, ani wystarczające dla myślenia. Widać wyraźnie, że jego trzeci aksjomat wnosi bezpośrednio 90 procent wagi tego prawie identycznego wniosku. To dlatego myślowy eksperyment Searle’a jest przeznaczony specjalnie do budowania aksjomatu 3. To jest istota Chińskiego Pokoju.337 W rezultacie też Churchlandowie budują (na podobnych zasadach co Searle) swój wywód, swoją własną argumentację dotyczącą zasad elektromagnetyzmu, sformułowanych przez ojca tego działu fizyki, szkockiego uczonego, Jamesa Clerka Maxwella (1831 – 1879)338: Rodzaj sceptycyzmu prezentowanego przez Searle’a ma wystarczająco wiele precedensów w historii nauki. W XVIII wieku irlandzki biskup George Berkeley uznał za niemożliwe, by fale ciśnienia w powietrzu były koniecznym i wystarczającym powodem rozchodzenia się dźwięku. Angielski poeta i artysta William Blake oraz niemiecki poeta przyrodnik Johann W. von Goethe uznali za niemożliwe do przyjęcia, by pewne małe cząstki mogły być koniecznym i wystarczającym powodem rozchodzenia się światła. (…) Po prostu to, czy ludzie mogą, czy też nie, coś sobie wyobrazić, nie ma nic wspólnego (nie ma wiele wspólnego; przyp. M. J. K.) z inteligencją. Aby zobaczyć, jak ta reguła może być zastosowana do przypadku Searle’a, rozpatrzmy specjalnie spreparowaną analogię. (…) 335

Tamże, s. 18.

336

Warto zaznaczyć, że wielki matematyk Kurt Gödel wierzył w konstrukcję takiej odpowiednio bogatej syntaktyki, w której byłyby możliwe do dowiedzenia zdania, tj. prawdziwe pod względem semantycznym, żargonowo: takiej, w której syntaktyka realizowałaby semantykę (za tę uwagę jestem bardzo wdzięczny prof. Jerzemu Perzanowskiemu). Tak samo zresztą zakładał W. Leibniz, którego projekt characteristica universalis opierał się na tej właśnie przesłance (por. ss. 35 – 38).

337

Churchland 1991, s. 20.

338

Maxwell teorię swoją sformułował w 1864 roku, a opublikował w 1873.

152 (14-12-22)

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

Rozdział 2.  Dzisiaj

153

Aksjomat 1. Elektryczność i magnetyzm są formami energii339. Aksjomat 2. Zasadniczą cechą światła jest jasność. Aksjomat 3. Energia nie jest ani konieczna, ani wystarczająca dla uzyskania jasności. Wniosek 1.

Elektryczność i magnetyzm nie są ani konieczne, ani wystarczające dla wyjaśnienia istoty światła.340

I proponują dalej: Wyobraźmy sobie, że taki argument wytoczono tuż po sformułowaniu przez Jamesa Clerka Maxwella w 1864 roku przypuszczenia, że światło jest falą elektromagnetyczną, ale jeszcze przed ogólnoświatowym uznaniem faktu tożsamości fal elektromagnetycznych i światła. Ten dowód mógłby posłużyć jako obiekcja wymuszająca odrzucenie czysto hipotetycznej koncepcji Maxwella, zwłaszcza gdyby został poparty następującym komentarzem wspierającym aksjomat 3. „Wyobraźmy sobie ciemny pokój, a w nim człowieka trzymającego duży magnes lub naładowany (elektrycznie) przedmiot. Jeśli ten człowiek będzie wymachiwał magnesem do góry i na dół, to zgodnie z teorią sztucznego oświetlenia (AL)341 proponowaną przez Maxwella powinno to wywołać koliste rozchodzenie się fal elektromagnetycznych, a zatem powinno zrobić się jasno. Jednak każdy z nas, kto bawił się magnesem lub naładowanymi kulami doskonale wie, że te formy energii (czy jakiejkolwiek innej siły), nawet jeśli są w ruchu, nie wytwarzają światła. Jest nie do pomyślenia, byśmy mogli uzyskiwać światło po prostu przez poruszanie magnesem w kółko!” (por. rysunek 2.13). Jak mógłby Maxwell odpowiedzieć na to wyzwanie? Mógłby zacząć od wyjaśnienia, że doświadczenie Jasnego Pokoju jest mylącym wyobrażeniem zjawiska świecenia, ponieważ częstotliwość oscylacji magnesu jest absurdalnie niska, ma się jak 1:1015. Na to jednak mógłby dostać odpowiedź, że częstotliwość nie ma tu nic do rzeczy, ponieważ pokój z wirującym magnesem powinien zawierać w sobie coś związanego z samą istotą światła, zgodnie zresztą z jego własną, Maxwella teorią. Te argumenty Maxwell mógłby zbijać twierdzeniem, że pokój jest rzeczywiście wypełniony światłem, jednak niestety jego jakość jest niewystarczająca, by to zauważyć (przy niskiej częstotliwości, z jaką człowiek jest w stanie poruszać magnesem, długość wytworzonych fal elektromagnetycznych jest bardzo duża, a ich energia jest o wiele za mała, by siatkówka oka mogła to zarejestrować). 339

Dokładniej należałoby tu mówić o polach magnetycznych i elektrycznych ich oddziaływaniach. Porównanie zaproponowane przez autorów jest więc w tym punkcie niezbyt precyzyjne — w warstwie słownych sformułowań, a nie w warstwie merytorycznej — z czysto fizycznego punktu widzenia. Nie zmienia to jednak jego przydatności jako argumentu w toczonej dyskusji. (Przyp. tłum. R. Tadeusiewicz, za cyt.)

340

Churchland 1991, s. 20 — podkr. M. J. K.

341

Artificial Luminance — żartobliwa analogia do powszechnie używanego skrótu AI. (Przyp. tłum. R. Tadeusiewicza, za cyt.)

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

(14-12-22)

153

154

Sztuczna Inteligencja

Rysunek 2.13. Jasny Pokój. Drgające siły elektromagnetyczne tworzą światło, nawet jeśli magnes, którym wymachuje człowiek, nie wydaje się produkować światła. Podobnie się dzieje w przypadku manipulacji symbolami, która, zgodnie z przyjętymi regułami, może doprowadzić do stworzenia inteligencji, nawet jeśli sterowany regułami system wewnątrz Chińskiego Pokoju Searle’a wydaje się wykazywać brak rzeczywistego rozumienia

Jednak w klimacie intelektualnym, który to rozważamy (lata sześćdziesiąte XIX wieku) taka taktyka byłaby natychmiast wyśmiana. „Jasny pokój, co panie Maxwell? Ciemno tu jak w piekle!”.342 W rezultacie też jedynym wyjściem, jakie proponują Churchlandowie, jest to, które zaproponowali przy analizie argumentu Chińskiego Pokoju. Jedyne, co mógłby zrobić (Maxwell; przyp. M. J. K.), to upierać się przy następujących trzech punktach. Po pierwsze, aksjomat 3. w powyższym rozumowaniu jest fałszywy. W istocie zaciemnia on kwestię mimo swojej intuicyjnej akceptowalności. Po drugie, eksperyment z Jasnym Pokojem nie dotyczy rozważanych zagadnień albo, mówiąc inaczej, nie wnosi nic do natury światła. I po trzecie — aby właściwie postawić problem światła i sztucznej jasności, potrzebny byłby cały program badawczy, by najpierw ustalić, czy w omawianych warunkach fale elektromagnetyczne mogą dokładnie odzwierciedlać właściwości światła.343 Konsensus sam się nasuwa! Należy udowodnić, że zauważalna „semantyczna ciemność” w Chińskim Pokoju jest ciemnością de facto. Jak piszą dalej autorzy Jasnego Pokoju, Searle

342

Churchland 1991, s. 20.

343

Tamże.

154 (14-12-22)

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

Rozdział 2.  Dzisiaj

155

nie ma prawa na podstawie tego spostrzeżenia uporczywie twierdzić, że żadna manipulacja symbolami, wykonywana zgodnie z ustalonymi regułami, nigdy nie zdoła wytworzyć zjawisk semantycznych.344 Argumenty Lema przeciw argumentowi Chińskiego Pokoju wydają się dosyć dobrze znane w literaturze polskiej i przyjmowane przez specjalistów345. Cały wywód przygotowany i zaprezentowany został w Tajemnicy chińskiego pokoju i, jak pisze sam autor, ucieka od rzeczowych argumentów „za” i „przeciw” na rzecz eksperymentu myślowego opracowanego na planie eksperymentu Searle’a. Lem pisze: Bierzemy tak zwany „puzzle”, który jako składna całość ukazuje jakiś naturalistyczny obraz albo jakąś fotografię. To może być kopia Rycerza Rembrandta albo fotografia wieży Eiffla, wszystko jedno, CO tam widać, byle naturalistyczna oczywistość obrazu była DANA. Następnie ten obraz rozcina się na takie małe, pokrętne fintifluszki-kawałki, z jakich zazwyczaj takie igraszki (puzzle) się składają, bacząc wyłącznie na to, żeby się formą każdy kawałek różnił od każdego na tyle, ażeby ich nie dało się dopasować w składną całość, zamieniając elementy błędnie miejscami. Na koniec odwracamy obraz i potrząsamy pudlem, w którym leżą te kawałeczki, aby porządnie je wymieszać. Potem przychodzi nasz eksperymentator, widzi same "lewe strony" tych kartonowych kawałeczków i ma z nich złożyć całość taką, ażeby każdy znalazł się tam, gdzie pasuje. Będzie to nieco pracochłonne, ale możliwe, skoro zamiany miejsc zostały udaremnione kształtem indywidualnie nadanym tym kawałkom. Jeżeli teraz odwrócimy całość obrazem do góry, to oczywiście zobaczymy obraz Rembrandta, Ledę z łabędziem czy też wieżę Eiffla, mimo że ten, kto składał kawałki, nie miał najbledszego pojęcia o tym, że składa nie bezsensowne kształty w całość obrazu, ale że odtwarza pewien bardzo wyrazisty, jednoznaczny OBRAZ. Przecież to jest całkowicie oczywiste i żadnej dodatkowej informacji w ogóle nie wymaga. Zamiast obrazu może tam się równie dobrze znajdować napis w polskim, w albańskim, chińskim czy jakimkolwiek innym z istniejących na tej planecie 5000 języków: może tam pojawić się napis „Kto rano wstaje, temu Pan Bóg daje” albo „Chłop żywemu nie przepuści”, albo „Ich weiss nicht, was soll es bedeuten, dass ich so traurig bin” (Heine, Lorelei) itd. Wszystko jedno, co się pokaże po odwróceniu lewej strony poskładanych należycie kawałków na stronę właściwą, tj. „prawą”, ale przecież ewidentne jest, że ten, kto składał, jak „program komputera”, NIC nie wiedział, czyli nie miał pojęcia, czyli ani na włos nie rozumiał, CO ukaże się na odwrocie, a nawet nie miał wyobrażenia o tym, ŻE tam się jakakolwiek koherentna całość znacząca pojawi. Czy to jest argument przeciw mniemaniu, iż komputer mógłby jednak rozumieć podobnie jak człowiek, co on robi, wykonując kolejne kroki nadane instrukcją? Moim zdaniem, ma to tyle wspólnego z „obaleniem”

344

Tamże, ss. 20 – 21. W co, przypominam, na przykład wierzyli K. Gödel i W. Leibniz (patrz: s. 152, przyp. 336)! Zatem spór o ten aksjomat Searle’a mógłby przerodzić się w spór pomiędzy zwolennikami Searle’a a zwolennikami Leibniza i Gödla. W tej debacie sam bliższy jestem drugim.

345

Por. Marciszewski 1998, s. 178.

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

(14-12-22)

155

156

Sztuczna Inteligencja

tezy o AI co teza, iż z kremowych ciastek można ułożyć napis negujący szansę wybuchu Etny. Jedno za grosz nie ma nic wspólnego z drugim.346 Żeby jeszcze bardziej uzmysłowić sobie to, co chciał przekazać Lem, przyjrzyjmy się kolejnemu fragmentowi jego artykułu. Tym razem relacji z życia samego autora. Obecnie jako skrótowy, autentyczny i oczywisty przykład zastosuję argumentum ad hominem, przy czym ten człowiek, to ja. Jestem już bardzo przygłuchy, bez aparatów wetkniętych w oboje uszu prawie nic nie rozumiem (skoro nie słyszę) z tego, co się do mnie mówi. Jeżeli w piekarni, w której kupuję pieczywo, obcy człek, rozpoznawszy mnie, bo mnie w telewizji widział, zwróci się do mnie, ja nie mogę przez wzgląd na całokształt sytuacji sięgać do guzików płaszcza, potem do kieszeni po pudełko z protezami słuchowymi, lecz usiłuję z tego, co on mówi do mnie, uchwycić chociaż jedno, dwa słowa. To zwykle się udaje, a jak nie, to on powtórzy, albo powie coś głośniej i nakieruje mnie na rozmyty, ale może i generalny sens swojej wypowiedzi. Nieporozumienia w rozmowach z głuchymi często się naturalnie zdarzają, ale nikt wtedy, nawet gdy nieporozumienie jest 100%, nie sądzi, że mówi do manekina albo do robota z takim komputerem w czaszce, który „tylko czysto formalnie działa”. Czysto formalnie działał ten, kto składał tablicę w obraz (puzzle), ten, kto składa niepojęte symbole chińskie, ale gdy on omyli się, to Chińczyk uzna raczej, że to tylko omyłka, a nie 100-procentowy brak wszelkiego rozumienia. Zresztą na ogół jest tak, że sens dla rozumienia współwyznacza konsytuacja i nie myślę, żeby pytający w piekarni pytał mnie o liczbę gwiazd w mgławicy Andromedy albo o najlepszy przepis na sporządzenie piernika z migdałami.347 W tym momencie widocznym staje się już, że faktycznie argument Chińskiego Pokoju nie dotyka sedna testu Turinga, więc w rezultacie nie może być istotnym (rzeczowym!) argumentem przeciwko zwolennikom AI. Wszystko dlatego, że pytania, jakie będą dostarczane maszynie, będą tak skonstruowane, że na podstawie zwyczajnych manipulacji na symbolach odpowiedzi na nie maszyna nie udzieli. Sens pomysłu Turinga tkwi właśnie w drugiej formie — niezwyczajnej manipulacji wykonanej na symbolach, z którymi przecież trudność jest związana, a o którą — zastanawiając się nad tym, Czy maszyny mogą myśleć? — pytamy! I słusznie dalej Lem zauważa, iż nie będziemy maszyny pytać się o rzeczy, o których sama nie wie (i nas się nie pytają, a jeśli pytają, to rozumieją fakt, iż odpowiedzieć nie możemy, bo i nie wiemy), ale też nie będziemy maszyny pytać o rzeczy, na których temat ma już gotowe — przez programistów wpisane — odpowiedzi, co i tak z przyczyn wyłożonych przy omawianiu wszechwiedzącego Gramofonu (por. ss. 70 – 71) i tzw. frame problem (por. s. 66) nie jest wykonalne! Po pierwsze: I Salomon z próżnego nie przeleje. Po drugie — chodzi nam o maszyny myślące, a nie o myślących programistów (tych już mamy). Ludzie parający się AI na razie dowiedzieli się, że trzeba dla gry w pytania i odpowiedzi stwarzać porządne RAMY (frames) sytuacyjne, ale wiadomo też z doświadczeń dnia powszedniego, że można pytać kucharkę o to, jak zasmażkę 346

S. Lem, Tajemnica chińskiego pokoju, Internet. Tekst, z którego pochodzi ów cytat, posiadałem w wersji elektronicznej, stąd brak oznaczeń stron, z których pochodzą dane cytaty.

347

Tamże.

156 (14-12-22)

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

Rozdział 2.  Dzisiaj

157

robi, ale się raczej nie należy spodziewać jej sensownej odpowiedzi na pytanie, dlaczego w tłokowych silnikach spalinowych nowszych modeli aut nie ma dwu zaworów (ssania i wydechu), tylko cztery albo chociażby trzy. Nie powie nic, bo pojęcia nie ma, co z „rozumieniem” albo i „nierozumieniem” gramatyki, idiomatyki, składni języka nie ma nic wspólnego. Żeby rozumieć wypowiedź, należy uchwycić jej sens i jej zakres znaczeniowy i last but not least jej desygnatywną orientacją specyficzną.348 Na końcu omawiania argumentu Chińskiego Pokoju i kontrargumentów przeciw niemu wytoczonych, chciałbym jeszcze zwrócić uwagę na jedną rzecz: wśród wielu odpowiedzi na zarzut Searle’a napływających z ośrodków badawczych i uniwersyteckich znalazła się taka, która rozumiejąc argument Chińskiego Pokoju jako pytanie: Jeżeli zamknięty w pokoju mężczyzna nic nie rozumie, tylko manipuluje znaczkami, to kto rozumie? stwierdzała349: człek sam nic nie rozumie, ale on plus instrukcje plus pokój „rozumie chiński”.350 Dlaczego zwracam uwagę na ten fakt? Gdyż jeżeli tak potraktujemy problem przedstawiony przez Searle’a (przypominam, wyrażony w 1980 roku), to okazuje się, że jest on postawiony wtórnie! Jak relacjonuje Lem przy innej zgoła okazji, bo w książce z 1964 roku, Summa technologiae: Fizyk i autor Science-Fiction w jednej osobie, A. Dnieprow, opisał w nowelce eksperyment, mający obalić tezę o „uduchowieniu” maszyny tłumaczącej z języka na język w ten sposób, że elementami maszyny, zastępującymi tranzystory czy przełączniki, stali się rozstawieni odpowiednio na dużej przestrzeni ludzie. Wykonując proste funkcje przekazu sygnałów, przetłumaczyła ta z ludzi zbudowana „maszyna” zdanie z języka portugalskiego na rosyjski, za czym jej konstruktor pytał każdego z ludzi, którzy byli „elementami maszyny”, o treść owego zdania. Nikt jej oczywiście z nich nie znał, bo z języka na język tłumaczył ów system jako pewna dynamiczna całość. Konstruktor (w noweli) wyciągnął z tego wniosek, że „maszyna nie myśli”.351

348

Tamże.

349

Relacjonuję za: S. Lem, Tajemnica chińskiego pokoju, a sam autor powołuje się na: D. R. Hofstadter, D. C. Dennett, The Minds I. Kontrargumenty te przedstawiają się następująco: „Berkeley („systemowa” odpowiedź: człek sam nic nie rozumie, ale on plus instrukcje plus pokój „rozumie chiński”), z Yale (odpowiedź obrazuje zajście w stylu „robota”), Massachusetts Institute of Technology z pomocą Berkeley (replika opata na symulacji mózgu), Stanford (kombinowana replika), Yale (próba redukcji ad absurdum: skąd wiadomo, że są jacyś INNI, co chiński rozumieją? — Z ich zachowania, bo do mózgu nikt im zajrzeć nie może, więc behawioralnie „pokój” jest równoważny „Chińczykowi”), znów Berkeley itd.” [S. Lem, Tajemnica chińskiego pokoju]

350

S. Lem, Tajemnica chińskiego pokoju, Internet.

351

Lem 1996a, s. 118.

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

(14-12-22)

157

158

Sztuczna Inteligencja

Na co, w odpowiedzi jeden z cybernetyków radzieckich zareplikował w piśmie, które umieściło opowiadanie, zauważywszy, że gdyby rozstawić całą ludzkość tak, by każdy człowiek odpowiadał funkcjonalnie jednemu neuronowi mózgu konstruktora w noweli, to układ ów myślałby tylko jako całość i żadna z osób, biorących udział w tej „zabawie w mózg ludzki” nie rozumiałaby, o czym ów „mózg” myśli. Z czego jednak doprawdy nie wynika, jakoby sam konstruktor pozbawiony był świadomości.352 *** W dzisiejszych czasach problem związany z realizowaniem przez maszyny semantyki próbuje się efektywnie rozwiązywać na co najmniej kilka sposobów, przy czym zagadnienia związane z semantyką rozumie się w następujący sposób: W badaniach języka naturalnego wyróżnia się zagadnienia syntaktyczne, gramatyczne, nieliniowego rozkładu gramatycznego (parsing), prozodii oraz zagadnienia semantyczne. Chociaż zagadnienia te są ze sobą powiązane w pierwszym przybliżeniu kwestie semantyczne traktowane są oddzielnie, poszukując znaczenia w relacjach danego symbolu do wiedzy, stanowiącej tło, w którym ten symbol może się sensownie pojawić.353 Do najczęściej stosowanych należą354: 1. Reprezentacja wiedzy za pomocą ram (o czym wyżej wspominał już między

innymi cytowany S. Lem; patrz: s. 156). 2. Wiedza w sieciach semantycznych. 3. Wykorzystanie sieci samoorganizujących się, zwanych w skrócie SOM

(od Self-Organizing Maps) lub siecią Kohonena355.

Pierwsza metoda, czyli reprezentacja za pomocą ram, polega na tworzeniu odpowiednich zestawów siatki pojęciowej wraz z relacjami (powiązaniami) poszczególnych elementów składających się na nią. Ramy zawierają wiedzę ogólną o obiektach, gromadząc opis cech danego obiektu. Nieznane cechy mogą mieć wartości domyślne, najczęściej spotykane, mogą mieć też procedury związane z używaniem wiedzy zawartej w ramach.356

352

Tamże, s. 118. Jeszcze więcej na temat argumentu Chińskiego Pokoju znajdziesz w: M. Kasperski, Kilka słów w kwestii chińskiego pokoju i dwu innych argumentów przeciw SI: R. Pernose’a i „z redukcjonizmu”, Internet.

353

W. Duch, Inteligentne metody szukania informacji medycznych, Internet.

354

Za: tamże.

355

Por. T. Kohonen, Self-Organizing Maps, w: „Springer Series in Information Sciences”, vol. 30; za: W. Duch, Inteligentne metody szukania informacji medycznych, Internet.

356

W. Duch, Inteligentne metody szukania informacji medycznych, Internet.

158 (14-12-22)

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

Rozdział 2.  Dzisiaj

159

W rezultacie też tworzenie ram może wyglądać tak jak poniżej (zakładając, że tworzymy ramę dla obiektu KOT czy KOTKA). 1. Wyznacz klasę obiektu i ewentualnie podklasę bądź podklasy — klasa: zwierzę,

podklasa: zwierzę domowe. 2. Określ cechy ogólne obiektu, takie jak na przykład wielkość: średni. 3. Określ cechy szczególne obiektu, takie jak na przykład właściciel (w przypadku

kota dachowca), ogólnie: osoba, a szczegółowo: Kamila, nazwa: zwykle Mruczek, a w wypadku obiektu szczególnego, którego właścicielem jest Kamila — Maciek. W rezultacie też ramy stworzone na podstawie powyższego procesu mogą wyglądać tak jak na rysunku 2.14. Rysunek 2.14. Reprezentacja wiedzy za pomocą ram

Oprócz widocznych zalet związanych z tworzeniem relacji między obiektami i hierarchii obiektów, tak ułatwiającej na przykład szukanie informacji, metoda ram ma podstawową wadę. Używanie ram nie rozwiązuje podstawowego problemu, jakim jest dobór odpowiedniej wiedzy kontekstowej do danej sytuacji, a więc dobór ram, które należy użyć. Reprezentacja wiedzy w postaci reguł lub ram działa bardzo dobrze, jeśli mamy do czynienia z niewielką, ściśle zdefiniowaną domeną wiedzy, dla której znanych jest niewiele faktów.357 Czyli wyrażając to w języku SI, tzw. frame problem (omawiany już na stronie 66). Kolejna metoda, sygnowana nazwą wiedzy w sieciach semantycznych, jest w pewnym sensie związana z metodą ram, lecz zachowuje jednocześnie znaczną plastyczność. Sieci semantyczne konstruuje się na zasadzie tworzenia węzłów, które odpowiadają za pojęcia (symbole) oraz powiązań, które odpowiadają za relacje między pojęciami (symbolami). Odbywa się to dokładnie tak jak na rysunku 2.15. 357

Tamże.

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

(14-12-22)

159

160

Sztuczna Inteligencja

Rysunek 2.15. Budowa przykładowej (uproszczonej) sieci semantycznej358

Sieci te świetnie nadają się do analizy tekstów, gdzie znajdują szerokie zastosowanie. Na ich korzyść głównie przemawia łatwość, z jaką analiza taka przebiega — wystarczy na wejściu poddać badaniu strukturę węzłów, które reprezentują pole pojęciowe, czyli zestawy wszystkich połączeń. Zmorą, która jednak pojawia się i przy tej próbie realizowania struktur semantycznych, jest znów frame problem. Proces tworzenia sieci semantycznych (…) uniemożliwia powstawanie spontanicznych asocjacji — wszystkie skojarzenia trzeba przewidzieć i w jawny sposób zaprojektować.359 Trzecia metoda powstała dzięki stworzeniu i wykorzystywaniu tak zwanych sieci samoorganizujących się (SOM). Obydwie dają sporo możliwości i najwierniej (ze stosowanych do tej pory sposobów) imitują ludzką metodę analizy języka. Sieci te zostały wykorzystane przy projekcie Discern360. Tym razem cały ciężar został położony na proces spontanicznego powstawania skojarzeń. W jaki sposób można obdarzyć symbole sensem tak, aby zawierały nie tylko arbitralne nazwy, ale i intencjonalne wskazówki, umożliwiające określenie podobieństwa między nimi, dodanie im otoczki wynikającej z kontekstu, w jakich się mogą pojawiać? Psycholodzy od dawna badali relacje podobieństwa semantycznego mierząc czasy reakcji na skojarzenia różnych słów ze sobą. Skojarzenia są naturalnym wynikiem organizacji sieci neuronowych kory mózgu, odpowiedzialnych za pamięć. Wierne modelowanie tych procesów jest jednak zbyt złożone. Uproszczone modele dają podobne rezultaty dużo mniejszym kosztem.361

358

Sieci takie przypominają w sporej mierze, choć nie całościowo, zasadę rozumienia języka za pomocą tzw. drzew derywacyjnych, stosowanych w gramatyce generatywnej Chomsky’ego; por. chociażby Piłat 1999, s. 56.

359

W. Duch, Inteligentne metody szukania informacji medycznych, Internet.

360

Por. R. Miikkulainen, Subsymbolic natural language processing: an integrated model of scripts, lexicon and memory, MIT Press, Cambridge 1993; za: W. Duch, Inteligentne metody szukania informacji medycznych, Internet.

361

W. Duch, Inteligentne metody szukania informacji medycznych, Internet.

160 (14-12-22)

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

Rozdział 2.  Dzisiaj

161

W tym momencie należałoby się zatrzymać i wyjaśnić, jakie są metody modelowania sieci neuronowej mózgu człowieka. Jednak tym zagadnieniem zajmę się już w następnym podrozdziale (patrz: 2.4 — „Sztuczny mózg — sztuczne sieci neuronowe (Neural Network). Ku metaforze komputerowej”, ss. 166 – 177), a tutaj pokażę tylko zasady działania sieci przy analizie języka z konkretnymi sieciami SOM nie analizując ich budowy strukturalnej. Jak pisze W. Duch, projekt Discern należy do jednego z najciekawszych projektów programu do analizy języka wychodzących poza symboliczną reprezentację wiedzy. (…) W projekcie tym użyto szczególnego rodzaju sieci neuronowych. (…) — O których wyżej już była mowa. — Są one odpowiedzialne za powstawanie spontanicznych skojarzeń pomiędzy symbolami, które mogą się pojawiać w podobnych kontekstach. Cały system do analizy tekstu składa się z gramatycznego parsera dla zdań i większych fragmentów tekstu, pamięci epizodycznej, modułu tworzenia zdań, odpowiadania na pytania i leksykonu. Symbole docierające do leksykonu tłumaczone są na odpowiadające im reprezentacje semantyczne. Można to zrobić przypisując im wektory liczb, które odpowiadają pobudzeniom grup neuronów w mózgu. Taka rozproszona, lub wektorowa, reprezentacja, pozwala odpowiednio dobrać algorytm uczenia, modyfikujący wartości składowych tych wektorów tak, by uwzględnić kontekst, w jakich mogą się one pojawić. Symbolom przypisuje się początkowo reprezentację ortograficzną, jak i fonologiczną; pojawiają się one w zdaniach, definiując różny sens użycia danego symbolu. Na rysunku poniżej (por. rysunek 2.16; przyp. M. J. K.) duże wartości elementów wektora reprezentującego postać ortograficzną, fonologiczną lub semantyczną danego symbolu przedstawione są jako ciemne pola, a małe wartości jako jasne pola. Grupy symboli, na przykład mężczyzna, kobieta, chłopiec, dziewczynka, chociaż różnią się znacznie z punktu widzenia pisowni czy brzmienia symbolu, przyczyniają się do powstania koncepcji semantycznej „człowiek”. Wektory reprezentujące ortograficzne czy fonologiczne reprezentacje symboli utworzyć można przypisując literom czy fonemom przypadkowe wartości (patrz: rysunek 2.16, lewa strona; przyp. M. J. K.), wektory reprezentacji semantycznej otrzymuje się z sieci Kohonena, ucząc ją przez pobudzanie elementów tej sieci (pełniących rolę neuronów) wektorami reprezentującymi symbole analizowanego tekstu (patrz: rysunek 2.16, prawa strona; przyp. M. J. K.). W wyniku takiego pobudzenia algorytm uczenia sieci Kohonena przypisze elementom tej sieci takie wektory, które będą zbliżone do wektorów symboli o podobnym znaczeniu, umieszczając te symbole obok siebie na mapie. Podanie mapie semantycznej wektora reprezentującego postać ortograficzną (i fonetyczną) symbolu spowoduje największe pobudzenie się tych jej elementów, które odpowiadają za postać semantyczną, i nieco mniejsze pobudzenie elementów powiązanych semantycznie z przedstawionym symbolem.362

362

Tamże.

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

(14-12-22)

161

162

Sztuczna Inteligencja

W ostateczności też, dzięki temu konkretnemu i jemu podobnym systemom reprezentacji i analizy semantycznych znaczeń, zdobywamy argumenty na rzecz tego, iż skonstruowanie maszyny myślącej w sensie Turinga jest możliwe. A szanse na to, iż ujrzymy jeszcze taką maszynę w tym stuleciu zdają się z dnia na dzień rosnąć. Dodam jeszcze na zakończenie tego podrozdziału, że już w 1966 roku powstał program, który skutecznie udawał człowieka. Konstruktorem programu był Joseph Weinzenbaum, program zaś ochrzczony został jako Eliza i udawał psychiatrę. Był tak dobry w swojej „profesji”, że po rozmowie z nim, pacjenci wyrażali chęć leczenia się właśnie za jego pomocą, miast u lekarzy będących ludźmi. Rysunek 2.16. Zasada funkcjonowania programu Discern. Po prawej — reprezentacja ortograficzna symbolu; w środku — reprezentacja fonologiczna symbolu; po lewej — koncepcje semantyczne

Prócz efektów zadawalających miały też miejsce i sytuacje humorystyczne. Do jednej z nich należy ta opisana przez Jamesa Martina w książce Dialog człowieka z maszyną cyfrową363 i zrelacjonowana później przez Marka Hołyńskiego. Martin wspomina tam o pewnym dialogu pomiędzy Elizą — programem udającym psychiatrę — a jednym z psychiatrów. Dialog ów, który przytacza w aneksie do tej książki, ma być przykładem biegłości programu komputerowego, biegłości wystarczającej, aby uniemożliwić zdemaskowanie maszyny. Ofiarą pierwszej udanej próby padł lekarz psychiatra, który nie zorientował się, że rozmawia z Elizą, a nie z kolegą po fachu364: 363

J. Martin, Dialog człowieka z maszyną cyfrową, WNT, Warszawa 1976.

364

Zdania pisane małymi literami należą do psychiatry, a pisane dużymi literami do programu Eliza — przyp. M. J. K.

162 (14-12-22)

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

Rozdział 2.  Dzisiaj

163

> Panie doktorze, mam okropne wieści. MÓWI PAN, ŻE MA PAN OKROPNE WIEŚCI. > Tak, w MIT istnieje program maszynowy, który nas zrujnuje. DLACZEGO PAN TAK SĄDZI? > Widziałem jego pracę. MÓWI PAN, ŻE WIDZIAŁ PAN JEGO PRACĘ. > To jest straszne — musi pan to zobaczyć. PAN MYŚLI, ŻE MUSZĘ TO ZOBACZYĆ? > Wydaje się pan przygnębiony. W PANA MNIEMANIU ZAPEWNE OBAJ WYDAJEMY SIĘ SOBIE PRZYGNĘBIENI. > Tak — zapewne. ROZUMIEM. > Ja także. MÓWI PAN, ŻE PAN TAKŻE. > Jedziemy obaj na tym samym wózku wobec maszyny. POROZMAWIAJMY JESZCZE O PANU. > Pan jest dla mnie podporą. DLACZEGO PAN UWAŻA, ŻE JESTEM PODPORĄ? > W takiej chwili chce pan rozmawiać o mnie? JAK PAN UWAŻA, DLACZEGO CHCĘ ROZMAWIAĆ O PANU? > Bo pan podziela moje odczucia wobec tej przeklętej maszyny. O CZYM TO PANU MÓWI? > Że, oczywiście, pan też nienawidzi maszyn. PAN MYŚLI, ŻE JA TEŻ NIENAWIDZĘ MASZYN. > Ależ tak, one są nieludzkie, prawda? BYĆ MOŻE, WŁAŚNIE TO POWINNIŚMY STWIERDZIĆ. > Na przykład żadna maszyna nie potrafiłaby rozmawiać tak jak pan. OCH! > Poza tym w programie maszyny nie ma nic twórczego. JEST PAN UPRZEDZONY. > Jestem pewien, że mam rację.

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

(14-12-22)

163

164

Sztuczna Inteligencja

CZY NIE MARTWI PANA PRZEKONANIE, ŻE MA PAN RACJĘ? > Nie, ani trochę, zupełnie nie, ani nawet troszeczkę. JEST PAN UPRZEDZONY. > Pan powiedział, że się ze mną zgadza, czyż nie tak? CZY TAK ZROZUMIAŁ PAN TO, CO POWIEDZIAŁEM? > Dlaczego nie próbuje pan mnie przekonać — maszyny bawią się liczbami — to wszystko. PAN CHCE, ABYM PRÓBOWAŁ PANA PRZEKONAĆ? > Nie potrafi pan. SĄDZI PAN, ŻE NIE POTRAFIĘ. > Na przykład czy w podobnej rozmowie maszyna mogłaby podjąć nowy temat? WYDAJE SIĘ, ŻE ZUPEŁNIE UNIKNĄŁ PAN ROZMOWY O SWOICH RODZICACH. > Zupełnie tak samo jak pan. PAN MYŚLI, ŻE TAK JAK JA. > Tak, i to pokazuje różnicę między człowiekiem a maszyną. ROZUMIEM.365 Na tym skończę przetoczony właśnie dialog. Zdaje się on potwierdzać tylko to, co zakomunikowałem wyżej, a co tak zręcznie kiedyś wysłowił Anthony Oettinger, a dziś przypomina Stanisław Lem: wiemy już, że w zasadzie test Turinga może zostać przez komputer o dostatecznej obliczeniowej mocy „złamany”, a ludzki rozmówca oszukany (gdy uzna, że rozmawia z człowiekiem), a przy tym jest to relatywizm DWUZAKRESOWY: zależy zarówno od sprawności komputera-programu, jak i od inteligencji człowieka-rozmówcy.366 Przy czym należy pamiętać, że od czasu powstania Elizy (1966) rozwiązania w zakresie analizy i rozumienia języka uległy już wielokrotnym usprawnieniom. Jeszcze pół wieku temu program ów funkcjonował na zasadzie poszukiwania w wypowiedzi współrozmówcy-człowieka słów kluczowych, by wokół nich „budować” dialog, a dziś buduje się modele oparte na analizie semantycznej. Niejednokrotnie zdarzają się też przypadki wykorzystujące w swej budowie rozwiązania mózgopodobne — sieci neuronowe (na przykład wyżej przedstawione sieci typu SOM czy sieci typu Kohonena), które w kolejnym rozdziale omówię szerzej.

365

Hołyński 1979, ss. 178 – 180, podkr. M. J. K.

366

S. Lem, Brain Chips, Internet.

164 (14-12-22)

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

Rozdział 2.  Dzisiaj

165

Dla opisywanych w tym podrozdziale programów typu IDS (Inteligent Dialogue Systems) od 1990 roku, kiedy to dr Hugh Loebner wpadł na pomysł, aby zacząć przeprowadzać ograniczony test Turinga, odbywa się coroczny konkurs Loebnera (por. s. 70). Startują w nim tylko programy napisane z myślą o prowadzeniu dialogu, a wspomniane „ograniczenie” testu Turinga polega na tym, że sędziowie mogą zadawać pytania wyłącznie z dziedziny, która wcześniej została zgłoszona przez twórcę programu. Do tej pory konkursy wygrały następujące programy:  1991 — PC-Therapist, Thinking Systems Software, Josepha Weintrauba;  1992 — Thinking Systems Software, Josepha Weintrauba;  1993 — Thinking Systems Software, Josepha Weintrauba;  1994 — Government of Canada Communications Research Center,

Thomasa Whalena;  1995 — Thinking Systems Software, Josepha Weintrauba;  1996 — Centre for Intelligent Information Processing, University of Western

Australia, Jasona Hutchensa;  1997 — Intelligent Research Ltd., Davida Levy'ego;  1998 — Robby Garner;  1999 — Robby Garner;  2000 — A.L.I.C.E, dr Richarda Wallace'a;  2001 — A.L.I.C.E, dr Richarda Wallace'a.  2002 — Elle, Kevina L. Coople’a.

Również Polacy mogą się poszczycić kilkoma takimi programami. Do bardziej rozwiniętych należy projekt Denise MYTH, zainicjowany przez informatyka z Gdańska, Szymona Jessę, a prowadzony przez grupę pasjonatów, wśród których między innymi i moją skromną osobę mogę wymienić367. Innym, znacznie uboższym projektem, jest program AnA, autorstwa Tomasza Kandefera368. Prowadzone są również inne zaawansowane badania z zakresu języka369.

367

Patrz: strona projektu: http://www.denise.gnu.pl/. Teraz także pod adresem http://www.ai-bot.net można zapoznać się z rezultatem innych badań, w których brałem udział i porozmawiać z komercyjną wersją programu Junior — Virtual Web Assistant.

368

Patrz: monograficzny numer czasopisma „Sofware 2.0”, N 2/2001, do którego dołączony jest CD-ROM z programem i artykuł: Kandefer 2001.

369

Patrz: http://www.icsr.agh.edu.pl/fleksbaz/; http://main.amu.edu.pl/~zlisi/projekty.htm.

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

(14-12-22)

165

166

Sztuczna Inteligencja

2.4. Sztuczny mózg — sztuczne sieci neuronowe (Neural Network). Ku metaforze komputerowej Po wielu latach prób mających na celu natchnienie inteligencją martwej materii maszyn nie można nie zauważyć, iż prace z zakresu Sztucznej Inteligencji mają wiele wspólnego z szerszymi, bardziej interdyscyplinarnymi badaniami nad całym ludzkim umysłem. Wystarczy, iż przyjmiemy, że umysł jest funkcją mózgu, a okaże się, że oprogramowanie (software) komputera powodujące to, że zachowuje się on inteligentnie można będzie porównać z pracą umysłu, zaś samą podstawę i ośrodek, w którym się to dokonuje, komputer (hardware) — z mózgiem. Oczywiście sztucznym mózgiem. Tak ujmuje to na przykład jeden z najwybitniejszych znawców problematyki relacji umysł-mózg, słynny neurolog, Michael Gazzaniga: Jak przygotować maszynę do tego, czego ma się nauczyć? Trzeba opracować dla niej program. Bez tej podstawy żadne urządzenie, takie jak na przykład komputer, nie będzie wiedziało, jak się uczyć. Odpowiednie zaprogramowanie mózgu rozwiązało problem również w wypadku naszego gatunku.370 Pomysł dotyczący tego, aby mózg potraktować jak komputer (hardware) a umysł jak oprogramowanie (software) ów komputer wspomagające, nie był obcy już A. Turingowi. Przecież w swoim tekście Computing machinery and intelligence (1950) rozważał on argumenty ZA i PRZECIW takiej metaforze („G. Argument wypływający z ciągłości systemu nerwowego”; patrz: ss. 65 – 66). Następnie wystarczy poddać analizie powstanie nazwy maszyny obliczającej, czyli po prostu komputera, który to termin, jeszcze za życia Turinga oznaczał „osobę wykonującą obliczenia”371. Kolejnym argumentem, który sprzyja traktowaniu komputera jak elektronowego mózgu człowieka, mogą być liczne publikacje ukazujące się w latach 50 – 60., które poprzez analogię przedstawiają podobieństwa tych dwu par: mózg-umysł; komputer (hardware)-oprogramowanie (software).372 Trzeba jednak zaznaczyć, że wiele osób już w tamtych czasach takie porównanie raziło373, a niektóre — razi do dziś. Aby dokonać analizy dyskusji toczącej się wokół tej metafory oraz możliwych implikacji dla Sztucznej Inteligencji, muszę dokonać ważnego rozróżnienia pomocniczego. A w zasadzie tylko je przypomnieć, 370

Gazzaniga 1997, s. 17.

371

Por. Hodges 1998, s. 18.

372

Do najgłośniejszych należały: J. von Neuman, The Computer and the Brain, Yale University Press, New Haven, 1958 (pol. wyd. J. von Neuman, Maszyna matematyczna i mózg ludzki, tłum. K. Szaniawski, Warszawa 1963), czy F.H. George, The Brain and the Computer, Pergamon, Oxford 1961. A w Polsce wiele miejsca temu zagadnieniu poświęcono w: Lem 1996a, W. Karczewski, Zjawiska elektryczne w organizmie, PWN, Warszawa 1963; W. Sluckin, Mózg i maszyny. Zarys cybernetyki, Wiedza Powszechna, Warszawa 1957 i innych.

373

„Norbert Wiener, gdy w roku 1948 proponował dla rodzącej się wtedy dyscypliny nazwę „cybernetyka” – „sterowanie i komunikacja w zwierzęciu i maszynie” (…) poprzestał na „zwierzęciu”: zestawienie „człowiek-maszyna” byłoby w owym czasie grubym nietaktem…” [Hołyński 1979, s. 188; cyt. org. za: N. Wiener, Cybernetics, Wiley, Nowy Jork 1948]

166 (14-12-22)

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

Rozdział 2.  Dzisiaj

167

gdyż treść jego została wyrażona już na stronie 65., przy omawianiu argumentu „G. wypływającego z ciągłości systemu nerwowego”. W przypadku metafory komputerowej można zatem postawić dwa pytania374: 1. Czy znaczy ona, że mózg jest podobny do komputera na zasadzie

funkcjonalnych podobieństw? 2. Czy znaczy ona, że mózg jest podobny do komputera na zasadzie

strukturalnych podobieństw? Ewentualnie dodatkowe: 3. Czy znaczy ona podobieństwo zarówno funkcjonalne, jak i strukturalne

komputera z mózgiem? Odpowiedzi, jakich można udzielić na powyższe pytania, są następujące. Na pytanie1. A. Biorąc pod uwagę definicję maszyny myślącej według Turinga, czyli takiej,

która pomyślnie zdaje egzamin z gry w naśladownictwo — TAK. B. Biorąc pod uwagę komputerową definicję myślenia: „myślenie to operacje

na informacjach” — TAK. C. Biorąc pod uwagę to, że ludzka inteligencja przynależy do sfery mentalnej,

a odpowiedni sprawdzian, na przykład analizy czy syntezy, z jakim mamy do czynienia przy odnajdywaniu najkrótszej drogi (problem komiwojażera), wykazuje odpowiednio duży stopień inteligencji bądź wyłączność na nią, to jeżeli maszyna powyższe zadania realizuje — TAK. D. Biorąc pod uwagę to, że niektóre nasze ludzkie sprawności związane są ze

sferą myślenia i inteligencji, na przykład rozwiązywanie zadań z matematyki czy sprawność dowodzenia twierdzeń z logiki, to jeżeli maszyna powyższe zadania realizuje — TAK. Na pytanie 2. A. Jeżeli przyjmie się, że do struktury mózgu nie przynależy tylko i wyłącznie jej

bioorganiczna podstawa (neurony), ale i procesy z nią związane (na przykład wysyłanie i odbieranie impulsów przez neurony) — TAK. B. Jeżeli przyjmie się, że komputer realizuje to, co mózg, ale robi to bardziej

ogólnie, w przybliżeniu, na przykład działając na komputerowej zasadzie wszystko albo nic, a nie na mózgowej zasadzie a może tak, a może nie, a kto to wie (realizowanej prze neurotransmitery chemiczne) — NIE. C. Jeżeli stwierdzi się, że komputer to coś więcej niż hardware, ale to również

software — to zasadę mózgowego sposobu przekazu informacji można realizować (na przykład tak, jak to było w przypadku programu Pandemonium i zastosowanej w nim hierarchii chórów), wówczas — TAK. 374

O samej metaforze komputerowej zob. także: Domańska 1992.

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

(14-12-22)

167

168

Sztuczna Inteligencja

Na pytanie 3. A. Odpowiednia kombinacja powyższych punktów wchodzących w ramy

(odpowiedzi na pytanie 1) i (odpowiedzi na pytanie 2) daje odpowiedź — TAK. Na przykład (1.A) + (2.A). B. Odpowiednia kombinacja powyższych punktów wchodzących w ramy

(odpowiedzi na pytanie 1) i (odpowiedzi na pytanie 1) daje odpowiedź — NIE. Na przykład (2.B, bez podpunktu (a)). Powyższy zestaw pytań i odpowiedzi można ułożyć w odpowiednie zestawienie, w którym uwzględni się przedstawicieli zwolenników i krytyków metafory komputerowej, wraz z argumentami (por. tabela 2.6). Tabela 2.6. Zestawienie przedstawicieli filozofii, nauk o mózgu, nauk kognitywnych i zwolenników idei Sztucznej Inteligencji wraz z poglądami na metaforę komputerową Przedstawiciel

Stanowisko

Argumenty

S.K. Veggeberg, neurobiolog

NIE

Mózg jednak to nie mikroprocesor, a umysł to nie program komputerowy. Mózg jest narządem napędzanym przez biochemię, nie przez elektryczność. [Veggeberg 1996, ss. 11 – 12] Mózg jest maszyną neurochemiczną. Prędkość działania i sprawność połączeń synaptycznych między neuronami determinują funkcjonowanie poszczególnych części mózgu. [Veggeberg 1996, s. 24]

M.S. Gazzaniga, neurobiolog

TAK

Odpowiednie zaprogramowanie mózgu rozwiązało problem również w wypadku naszego gatunku. [Gazzaniga 1997, s. 17]

M.A. Arbib, biocybernetyk, neurobiolog, matematyk

TAK

W mózgu występuje wiele pól projekcyjnych (map) połączonych ze sobą topologicznie. Powołamy się na ten fakt stwierdzając, iż „mózg jest uwarstwionym somatopowo komputerem. [Arbib 1977, s. 306; por. też: Tamże, ss. 308 – 309, 311]

A. Buller, inżynier genetyczny

TAK

Już tytuł jego książki: Sztuczny mózg. To już nie fantazje oraz nazwa projektu, w którym uczestniczy — CAM-Brain Machine.

J.R. Searle, filozof

NIE

Gdy byłem dzieckiem zapewniano nas, że mózg jest rodzajem telefonicznej centrali (…) byłem zdziwiony, gdy odkryłem, że Sherrington, wielki brytyjski neurofizjolog, uważał, że mózg działa jak system telegraficzny. Freud porównywał mózg z systemami hydraulicznymi i elektromagnetycznymi. Leibniz porównywał do młyna, a ktoś w starożytnej Grecji uważał, jak mi powiedziano, że mózg działa jak katapulta. W tej chwili oczywiście metaforą jest komputer cyfrowy. Wszystko to przy tym doskonale pasuje do różnych generalnie przesadnych bzdur, które ostatnio słyszymy na temat komputerów i robotów. [Searle 1995, s. 40] Ludzie nie kierują się regułami (…) w taki sam sposób, w tym samym znaczeniu tego zwrotu, jak komputery podlegają regułom, 375 komputery w ogóle nie stosują się do reguł , one tylko działają zgodnie z pewnymi formalnymi procedurami. (Searle 1995, s. 43]

375

Wyróżniony fragment jest niekoherentny (sprzeczny sam w sobie)! Przy czym nie wiem, czy to z winy tłumacza czy autora.

168 (14-12-22)

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

Rozdział 2.  Dzisiaj

169

Tabela 2.6. Zestawienie przedstawicieli filozofii, nauk o mózgu, nauk kognitywnych i zwolenników idei Sztucznej Inteligencji wraz z poglądami na metaforę komputerową — ciąg dalszy Przedstawiciel

Stanowisko

Argumenty

P.M., P.S. Churchland, neurofilozofowie

TAK

Zakładamy, że Searle nie próbuje twierdzić, że udany sztuczny rozum musi mieć wszystkie zdolności sprawcze mózgu, na przykład zdolność do zapadania na infekcję wirusowe, zdolność do alergii i tak dalej. Żądanie pełnej równoważności jest podobne do żądania, by każde sztuczne urządzenie latające składało jajka. [Churchland 1991, s. 23] Sztuczna inteligencja w niebiologicznych, lecz w potężnych maszynach równoległych pozostaje pociągającą i jasno widoczną perspektywą. [Churchland 1991, s. 23]

N. Chomsky, filozof, lingwista

TAK

Idea polega tu na uznaniu, że formalne reguły gramatyczne, jakich przestrzegają użytkownicy języka naturalnego, przypominają te, jakimi kieruje się komputer. [Churchland 1991, s. 41]

Kognitywiści, na przykład D. C. Dennett, filozof

TAK

Zdolności umysłowe muszą mieć teoretyczne przyczyny. Zakłada się, że skoro rezultatom działania systemu można przypisać znaczenie — czyli, na przykład, skoro nasza zdolność do nauczenia się języka czy zdolność do rozpoznawania twarzy, są władzami poznawczymi, którym można przypisać znaczenie — to musi tym samym istnieć jakaś teoria, uwewnętrzniona w naszym mózgu, będąca podłożem tej zdolności. [Churchland 1991, s. 41]

E. Pöppel, neuropsycholog

TAK

Ludzki mózg okazał się doskonałym modelem przetwarzania informacji nie tylko dlatego, że opracowuje dane równolegle. Przetwarzanie w mózgu odbywa się także sekwencyjnie — podobnie jak w klasycznych komputerach. Oznacza to, że starania informatyków i konstruktorów powinny iść w kierunku opracowania algorytmów, które umożliwiałyby wykonywanie operacji nie tylko paralelnie, lecz także na oba sposoby. Punkt newralgiczny to rozstrzygnięcie, w których momentach komputer powinien przełączać się z jednego trybu przetwarzania na drugi. [Pöppel, Edinghaus 1998, 216] Od piętnastu lat obserwujemy dynamiczny rozwój badań nad sieciami neuropodobnymi (…). W badaniach tych uwzględnia się fakt, że ludzka wiedza nie zawsze jest reprezentowana explicite, czyli dostępna bezpośrednio. Takie podejście pozwala znacznie przybliżyć się do skonstruowania modelu przetwarzania informacji w ludzkim mózgu. Jednak naukowcy borykają się z zasadniczym problemem, który trudno jest rozwiązać: skoro część naszej wiedzy ludzkiej, reprezentowanej w sieci neuronalnej, nie jest dostępna bezpośrednio, to wiedza ta pozostaje także częściowo nieujawniona. Jedynie rejestrując zachowania, jakimi steruje sieć neuronalna, można pośrednio wnioskować o tej wiedzy, ale i tak szczegóły jej reprezentacji w mózgu pozostają nieznane. [Pöppel, Edinghaus 1998, s. 218]

H. Putnam II, po okresie funkcjonalizmu

NIE

We współczesnych naukach kognitywnych na przykład panuje moda na postulowanie, że mózg jest (jakby; przyp. M. J. K.) komputerem, i na domniemywanie istnienia „reprezentacji” w tym mózgowym komputerze. (…)

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

(14-12-22)

169

170

Sztuczna Inteligencja

Tabela 2.6. Zestawienie przedstawicieli filozofii, nauk o mózgu, nauk kognitywnych i zwolenników idei Sztucznej Inteligencji wraz z poglądami na metaforę komputerową — ciąg dalszy Przedstawiciel

Stanowisko

Argumenty

H. Putnam II,

NIE

Niedawno wspomniałem mojemu przyjacielowi, światowej sławy psychologowi kognitywnemu, że jestem „realistą bezpośrednim” (…). Wyjaśniłem mu, że mówiąc, iż percepcja nie wymaga pośredników w umyśle w rodzaju bytów postulowanych przez teorię danych zmysłowych lub jej materialistyczne imitacje, nie twierdzę, że percepcja nie jest czynnością natury pojęciowej. Twierdzę raczej, że owa pojęciowa czynność nie zaczyna się od przybycia „do umysłu” jakiejś pozapojęciowej danej, którą następnie poddajemy „obróbce”. [Putnam 1998, ss. 455, 466; por. też Tamże: ss. 210 – 214, 252, 455 – 460, 466 – 469)]

TAK

Jerry Fodor w The Modularity of Mind przedstawia umysł/mózg jako organ wyprowadzający wnioski z danych uzyskanych na wyjściu „modułów percepcyjnych. [Putnam 1998s. 456]

— ciąg dalszy

J. Fodor, filozof

Sam pomysł języka umysłu (Mentalese bądź Language 376 of Thought ) jest tego przesłanką. Opiera się on na regułach: 1. Posiada skończoną bazę prostych terminów semantycznych. 2. Nieskończenie wiele semantycznych złożonych terminów na podstawie (1) i syntaktycznych reguł. 3. Nieskończenie wiele zdań generowanych na podstawie (1), (2) i reguł syntaktycznych. S. Greenfield I, neurofizjolog

NIE

Trudno pojąć, czemu niektórzy ludzie uważają mózg za komputer, czy chociażby próbują snuć między nimi analogie. [Greenfield 1999, s. 140]

S. Greenfield II, neurofizjolog

TAK

Porównanie mózgu z komputerem wykazuje pewne ich podobieństwa. Najbardziej owocne są porównania całości procesów toczących się w tych dwóch rodzajach struktur: biologicznej i mechanicznej. [Greenfield 1998, ss. 22 – 23]

J. Trąbka, informatyk, neurofizjolog

TAK/NIE

Mózg człowieka, jako wielki układ regulacyjny, pracuje na zasadach heurystycznych, tzn. sam sobie „obmyśla” algorytmy postępowania i sam przeprowadza optymalizację swoich programów. [Trąbka 1983, s. 72] Książka J. von Neumanna Maszyna matematyczna i mózg ludzki śmiało sugeruje porównanie komputera z mózgiem. Po latach okazało się, że bardziej zgodny ze stanem faktyczny byłby pod wieloma względami tytuł: „Olbrzymi komputer jako odległe podobieństwo do najprymitywniejszego mózgu”. [Trąbka 1983, s. 73]

S. Lem, eseista, prozaik, filozof

NIE

Jak nogi nie są ani śmigłami, ani kołami, tak komputer nie jest mózgiem i wszystkie rodzaje (setki już) i generacje komputerów nie zbliżają się budową do mózgu człowieka. [Kloch, Lem, Marciszewski 1995, s. 83]

G.E. Hinton, informatyk, psycholog,

TAK

Mózg jest niezwykłym komputerem. [Hinton 1992, s. 117]

376

Por. Piłat 1999, s. 52.

170 (14-12-22)

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

Rozdział 2.  Dzisiaj

171

W rezultacie też, co wynika z powyższego zestawienia, tak w badaniach z zakresu Sztucznej Inteligencji, jak i w naukach kognitywnych, widać olbrzymie zainteresowanie naukami o mózgu. Przy czym, należy to podkreślić z całą stanowczością, zainteresowanie niezależne jest od stanowiska przyjmowanego w powyższej dyskusji wokół metafory komputerowej. Zdecydowana większość naukowców jest przekonana, że procesy kognitywne cechujące ludzi i zwierzęta są bezpośrednim rezultatem aktywności złożonego układu nerwowego. Wielu filozofów podziela to przekonanie i sądzi, że wszelkie rozważania na temat ludzkiej natury, w tym przede wszystkim zdolności myślenia i rozumienia, odwoływać się powinny wprost do biologicznych własności ludzkiego organizmu. Wyrażają też pogląd, że sama filozofia, jeśli nie chce całkowicie utracić intelektualnego autorytetu i społecznego znaczenia, uwzględniać powinna wyniki, lub wręcz zaadoptować metody, nauk szczegółowych, przede wszystkim neurofizjologii. Przeświadczenie to znajduje oparcie zarówno w fakcie istnienia korelacji pomiędzy aktywnością układu nerwowego i obserwowalnym zachowaniem organizmu, jak i w znacznych sukcesach w modelowaniu zdolności kognitywnych, przede wszystkim percepcyjnych, za pomocą sztucznych sieci neuronowych, czyli tzw. „ANNs” (z ang. Artificial Neural Networks).377 Sieci neuronowe, które w skrócie będę określał NN (neural network), już od końca lat 50. uznane są za jedną z metod badawczych Sztucznej Inteligencji. Jak już podawałem wcześniej (por. s. 122) pierwsza sieć, zwana ówcześnie perceptronem, została skonstruowana przez Franka Rosenblatta (1958)378 i wszystkie kolejne albo opierały się na powyższej, albo wychodziły z klasycznego równania błony komórkowej HodgkinaHuxleya, za co zresztą autorzy jego otrzymali w 1964 roku Nagrodę Nobla379. Od tamtej pory zaś przybierała różnorakie określenia, takie jak: neuristor, neuromim czy neuroid380, a współcześnie po prostu — sieć neuronowa, sieć neuronowo-komórkowa, sztuczna sieć neuronowa bądź sieć neuropodobna. Zaś metoda modelowania procesów obliczeniowych za pomocą sieci nazwana jest koneksjonizmem381. Koneksjonizm reprezentowany jest nie tylko w badaniach nad Sztuczną Inteligencją, ale także jest rozważany w obrębie samych nauk kognitywnych, gdzie łączy się z przychylnością dla metafory komputerowej i koncentruje na konstruowaniu sztucznych, mózgopodobnych układów poznawczych382. W tym celu wykorzystuje struktury 377

Bielecki 1998, Internet

378

Por. Hołyński 1979, ss. 78 – 79.

379

A. L. Hodgkin, A. F. Huxley, A quantitative description of membrane current and its application to conduction and excitation in nerve, w: „Journal Physiology”, t. 117, 1952. Do sieci, które zostały całkowicie oparte na równaniu Hodgkina-Huxleya należą: sieć Fitzhugha (R. Fitzhugh, Impulses and physiological states in theoretical models of nerve membrane, w: ”Biophysical Journal”, 1961, t. 1) i sieci van Heerdena (P. J. van Heerden, Models for the brain, w: „Nature”, 1970, t. 225, ss. 177 – 178 i t. 227, ss. 410 – 411; P. J. van Heerden, The foundation of empirical knowledge, N. Y. Uitgevesij Wistik-Wassenaar, The Netherlands 1968). Za: Trąbka 1983, ss. 245 – 246.

380

Por. Trąbka 1983, s. 242.

381

Por. Hornsby 1999.

382

Por. Rumelhart 1999.

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

(14-12-22)

171

172

Sztuczna Inteligencja

neuronowe, których podstawową zaletą jest upodobniająca je do naturalnego mózgu możliwość rozproszonego przetwarzania równoległego informacji. W angielskiej terminologii nosi ona nazwę parallel distributed processing, w skrócie PDP, co niekiedy sygnowane jest zamiennie z nazwą koneksjonizm383. Jak wiadomo, mózg nasz jest zbudowany z olbrzymiej ilości neuronów384, które połączone ze sobą tworzą coś w rodzaju sieci informacyjnej. Pojedynczy neuron mózgopodobny wygląda następująco: Sztuczny neuron, będący podstawowym elementem budującym każdą sieć neuronową jest układem mającym wiele wejść (czyli odbierającym i przetwarzającym wiele sygnałów wejściowych z różnych źródeł) i jedno wyjście (por. rysunek 2.17).385 Rysunek 2.17. Budowa sztucznego neuronu wraz ze wzorem wiążącym informację wchodzącą z wychodzącą

Forma przetwarzania informacji wejściowych na informację wyjściową uzależniona jest od mogących się zmieniać (w trakcie uczenia) współczynników wi nazywanych wagami386. W rzeczywistym biologicznym neuronie odpowiednikiem wagi jest złożony twór o skomplikowanych właściwościach bioelektrycznych i biochemicznych, tak zwana synapsa.387 Takie pojedyncze neurony dalej wiąże się, wzorem naturalnego mózgu, w sieci, czyli strukturę wzajemnych relacji umożliwiającą wymianę informacji. W następnej kolejności sieć taka tworzy warstwy — poczynając od warstwy wejściowej, poprzez kolejne warstwy ukryte, a na warstwie wyjściowej skończywszy (patrz: rysunek 2.18). Ta warstwowa struktura ma odzwierciedlić naturalną strukturę mózgu. Wprawdzie nie aż taka regularną, ale jednak bez wątpienia właśnie warstwową budowę odnajdujemy w korze mózgowej ludzkiego mózgu. Wśród miliardów komórek nerwowych, tworzących pokrycie półkul mózgowych wyróżnia się z całą 383

Tak jest na przykład u D. C. Dennetta; por. P. Czarnecki, Koncepcja umysłu w filozofii D. C. Dennetta, Internet.

384

Dokładna ich liczba nie jest jeszcze znana i, w zależności od źródła, wynosi ona od 11 miliardów (Gazzaniga 1997, s. 62), 12 miliardów (Lem 1999, s. 166), 14 miliardów (Lem 1999, s. 18), 40 miliardów (W. Duch, Wstęp do kognitywistyki, Internet) do 100 miliardów (Greenfield 1998, 1999; Skangiel-Kramska 2000; Veggeberg 1996; Fishbach 1992; Wróbel 2000).

385

Tadeusiewicz 1998a, ss. 173 – 174.

386

Proces tu przedstawiony jest nieco nowszym rozwiązaniem metody uczenia się sieci. Wcześniej stosowany był tzw. algorytm propagacji wstecznej, który z dwu przyczyn został wyparty: po pierwsze — znacznie odbiegał od naturalnej formy uczenia się sieci, a po drugie — wykorzystywanie go w większych sieciach znacznie zwiększało czas nauki (por. Hinton 1992, ss. 118 – 120).

387

Tadeusiewicz 1998a, ss. 173 – 174.

172 (14-12-22)

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

Rozdział 2.  Dzisiaj

173

pewnością warstwę wejściową (odbierającą sygnały, zlokalizowaną tuż pod powierzchnią kory), warstwę przetwarzającą sygnały (to ona właśnie uczestniczy w myśleniu) położoną nieco głębiej i warstwę produkującą sygnały wyjściowe, sąsiadującą w głębi mózgu z substancją białą, będącą w istocie kłębowiskiem pokrytych białą osłonką mielinową wyprowadzających informację aksonów.388

Rysunek 2.18. Schematyczna budowa wielowarstwowej sieci neuronowej

Tak, najkrócej relacjonując, wygląda sztuczna sieć neuronowa. Jednak tym, co jest istotne (prócz strukturalnego podobieństwa między tą siecią a sieciami naturalnymi), jest sposób uczenia się ich. Sposób bardzo bliski naturalnemu uczeniu się sieci mózgu człowieka, przyjętemu wraz z wynikami badań Geralda Edelmana i — niezależnie od niego — Michaela Gazzanigi389.

388

Tamże, ss. 174 – 175.

389

Wystarczy tylko porównać głoszoną przez M. S. Gazzanigę koncepcję neuronalnego darwinizmu (Gazzaniga 1997) z pracami innych badaczy mózgu (por. chociażby [F]). Istotna jest tu również teoria Edelmana, wyboru grup neuronowych, w skrócie TNGS (Theory of Neuronal Group Selection), wykorzystywana w koneksjonizmie. Por.: G. Edelman, The Rememberded Present: A Biological Theory of Consciousness, Basic Books, New York, 1989 oraz Edelman 1998. Dodam jeszcze, iż niektórzy (na przykład Bielecki 1998) głoszą, iż podstawowym błędem koneksjonizmu, w tym również powyższych koncepcji Edelmana czy Gazzanigi, jest nie odróżnianie od siebie pojęć mózg-umysł i zamienne ich stosowanie. Wedle Bieleckiego w tym świetle dotychczasowe przymioty umysłu zwyczajnie przypisuje się mózgowi (Bielecki 1998). Jednak to nie jest prawdą. Wystarczy przeanalizować zjawisko uczenia się przyjęte przez koneksjonizm (czy teorie wyżej wymienionych autorów), a widać od razu, iż inną jakość posiada ono na poziomie neuronalnym i inną na poziomie mentalnym. W rezultacie to, co sugeruje Bielecki, może być wynikiem tego, że nie akceptuje on metod znoszących lub próbujących wyjaśnić w pojęciach monistycznych dualizm Kartezjusza (por. Tamże).

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

(14-12-22)

173

174

Sztuczna Inteligencja

Załóżmy, że rozważana sieć ma n wejść i k wyjść. Wiąże się to oczywiście z tym, że w sieci takiej jest n neuronów w warstwie wejściowej i k neuronów w warstwie wyjściowej. Przy takich założeniach ciąg uczący dla uczenia pojedynczego neuronu ma postać:



U  X (1) , z (1) , X ( 2) , z ( 2) ,..., X ( N ) , z ( N )



gdzie:

X ( j) , z ( j)

X ( j) z ( j) N

są parami danych pokazywanych na wejściu i wyjściu sieci (neuronu) w j-tym kroku uczenia; jest n-wymiarowym wektorem danych wejściowych w j-tym kroku; jest wymaganą odpowiedzią neuronu w j-tym kroku; jest liczbą posiadanych na etapie uczenia pokazów.

W przypadku całej sieci wielowarstwowej ciąg uczący ma postać:



U  X (1) , Z (1) , X ( 2) , Z ( 2) ,..., X ( N ) , Z ( N )



gdzie:

X ( j)

Z ( j)

jest n-wymiarowym wektorem danych wejściowych w j-tym kroku, zaś jest k-wymiarowym wektorem stanowiącym wymaganą odpowiedź neuronów wyjściowej warstwy sieci w j-tym kroku.390

Istota procesu uczenia polega na tym, że sieci przedstawia się przykłady zadań poprawnie rozwiązanych, a sieć najpierw sama próbuje rozwiązać zadanie, potem porównuje wynik swojego działania z rozwiązaniem podanym przez nauczyciela (zob. ramka powyżej; przyp. M. J. K.). Zwykle oczywiście w wyniku takiego porównania na początku procesu uczenia stwierdza się, że występuje pewien błąd — bo niby skąd taka nieuczona sieć miałaby wiedzieć, czego nauczyciel od niej żąda? Jeśli jednak błąd zostanie wykryty, to wówczas sieć (całkiem sama!) tak zmienia wartości współczynników („wag”) we wszystkich neuronach, żeby ten błąd zmniejszyć.391 Istota metody uczenia polega na tym, że ponieważ — generalnie — zachowanie sieci zależy od wartości wag występujących w niej neuronów, zatem dla każdej wartości wag możemy ustalić, jaki błąd będzie popełniała sieć.392 (…)

390

Tadeusiewicz 1998a, ss. 194 – 195.

391

Tamże, ss. 177 – 178.

392

Chodzi tu o łączny błąd popełniany przez sieć dla całego dostępnego zbioru zadań wykorzystywanych przy uczeniu, gdyż zależy nam na tym, żeby sieć poprawnie rozwiązywała wszystkie stawiane jej zadania, a nie tylko doskonaliła zdolność rozwiązywania jednego z nich kosztem zdecydowanego pogarszania jakości rozwiązywania pozostałych. (Przyp. za cyt.)

174 (14-12-22)

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

Rozdział 2.  Dzisiaj

175

Dla każdej sieci neuronowej jest taki idealny (optymalny) wektor wag wideal, dla którego wartość błędu jest najmniejsza. Jednak oczywiście twórca sieci nie wie, jakie jest położenie tego idealnego wektora i dlatego uruchamia proces uczenia w celu jego znalezienia. (…) Uczenie w sieci neuronalnej polega na tym, że następuje w niej odpowiednia zmiana współczynników wag reprezentujących wewnętrzną wiedzę neuronów sieci. W wyniku tego błąd w sieci systematycznie maleje.393 A jak przedstawia się to w praktyce? Można sobie wyobrazić (…), że sieć samoucząca się z kamerą telewizyjną może być wysłana w bezzałogowej sondzie kosmicznej na Marsa. Nie wiemy, jakie tam panują warunki, nie wiemy więc, jakie obiekty nasza sonda powinna rozpoznawać. Mało tego — nie wiemy nawet, ile klas obiektów się pojawi! Nie szkodzi, sieć sobie poradzi. Sonda ląduje i sieć zaczyna proces samouczenia. Na początku nie rozpoznaje nic, tylko obserwuje. Z czasem jednak proces spontanicznej samoorganizacji doprowadzi do tego, że sieć nauczy się wykrywać i rozróżniać między sobą różne typy sygnałów wejściowych, które pojawią się na wejściu: oddzielnie skały i kamienie, oddzielnie formy roślinne (jeśli będą), a oddzielnie zwierzęta. Jeśli damy sieci wystarczająco dużo czasu — może się tak wyszkolić, że potrafi odróżniać Marsjan od Marsjanek — chociaż jej twórca nie wiedział nawet, że oni istnieją! (oczywiście, o ile istnieją; przyp. M. J. K.).394 Powyższą sytuację hipotetyczną można potraktować jedynie jako pewną zabawę intelektualną, która jednak oddaje sedno metody samouczenia sieci, a powyższe wywody na temat samego uczenia można by nazwać „wstępem do wstępu metod NN395”, ale ze względu na temat pracy, informacje te powinny nam wystarczyć. Dzięki temu mamy już usystematyzowane wiadomości o metodach wykorzystywanych w badaniach Sztucznej Inteligencji — algorytmy, heurystyka, algorytmy genetyczne, sztuczne sieci neuronowe396 — jak i o celach stawianych w owych badaniach — wykorzystanie w dziedzinie złożonych gier, przy dowodzeniu twierdzeń, rozpoznawaniu obrazów, uczeniu się oraz rozumieniu mowy i języka. Przy czym, jak do tej pory mówiłem o zastosowaniu metody algorytmicznej i metody heurystycznej z pominięciem metody NN, co teraz nadrobię. W zasadzie metodę sztucznych sieci neuronowych wykorzystuje się wszędzie tam, gdzie wykorzystuje się metody klasyczne (jeśli tak potraktujemy metodę algorytmiczną i metodę heurystyczną) oraz w wielu innych projektach, o czym przekonać się można na podstawie poniższego zestawienia397.

393

Tadeusiewicz 1998a, ss. 177-178.

394

Tadeusiewicz 1998b, s. 22.

395

Por. Tadeusiewicz 1998a, s. 179.

396

Czytelnika chcącego zgłębić wybrane lub wszystkie wymienione tu metody odsyłam do Bibliografii.

397

Więcej informacji na ten temat znaleźć można na stronie internetowej W. Ducha [T], na której znajduje się lista sprawdzonych linków do szerokiego źródła wiedzy na ten temat, oraz w Bibliografii na końcu książki.

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

(14-12-22)

175

176

Sztuczna Inteligencja  Programy specjalistyczne, na przykład w dziedzinie medycyny398: ACORN

— program kardiologiczny, stosowany Accident & Emergency Department Westminster Hospital, London; POEMS (PostOperative Expert Medical System) — program wspomagający decyzje przy leczeniu pooperacyjnym, stosowany w St. James University Hospital, Leeds, U.K.; VIE-PNN (Vienna Expert System for Parenteral Nutrition of Neonates) — system do określania składu pozajelitowego odżywiania noworodków na oddziałach intensywnej opieki, stosowany w Neonatal Intensive Care Unit, Department of Pedriatics of the University of Vienna, Austria, Neonatal Care Unit, University of Graz Medical School, Austria Pediatric Clinic Glanzing, Vienna, Austria; i wiele innych399.  Programy do modelowania i symulacji, na przykład zaburzeń

neuropsychologicznych i chorób psychicznych400.

 Programy ekspertowe, wykorzystywane jako systemy doradcze401.  Systemy wnioskujące402.  Programy do analizy obrazu403, na przykład do analizy odręcznie pisanego

pisma404.

 Programy doradczo-decyzyjne oparte na analizach danych, na przykład

w przewidywaniu kursów walut, identyfikowaniu prekursorów komórek rakowych w wymazach Papa, ustawieniu zwierciadeł teleskopu tak, by jak najbardziej wyeliminować zniekształcenia wprowadzane przez atmosferę405.  Programy do odkrywania wiedzy w danych (data mining)406 i inteligentnego

przetwarzania danych407.

398

Tadeusiewicz 1998b, s. 22; W. Duch, Systemy Sztucznej Inteligencji rutynowo wykorzystywane w medycynie, Internet.

399

W. Duch, tamże.

400

W. Duch, Sieci neuronowe w modelowaniu zaburzeń neuropsychologicznych i chorób psychicznych, Internet.

401

Gomuła, Kucharski 2000.

402

Osowski 2001.

403

Kacprzak, Ślot 1995.

404

Hinton 1992.

405

Tamże, s. 119.

406

Por. K. Grąbczewski, W. Duch, R. Adamczak, Odkrywanie wiedzy w danych, Internet. Odkrywanie wiedzy w danych (również: „dogłębna analiza danych” bądź org. ang. data mining), krótko mówiąc, sprowadza się do odpowiedniej klasyfikacji danych, jak i sprecyzowania wszystkiego tego, co można uznać za wiedzę, pojętą jako podstawa podejmowania decyzji. „Pozwala to na odkrycie tej części wiedzy ekspertów, która miała największy wpływ na podejmowane decyzje pomimo tego, że często sami eksperci nie są w stanie przedstawić (…) uzasadnienia swojej diagnozy. Odkrywanie wiedzy w danych dla problemów klasyfikacji może też polegać na wyszukiwaniu tych cech, które najlepiej odróżniają od siebie różne klasy. Na przykład w medycynie bardzo istotnym jest (zarówno z punktu widzenia czasu dochodzenia do właściwej diagnozy, jak i koniecznych do poniesienia nakładów finansowych) kierowanie pacjentów na te badania, które potrafią jak najszybciej, najtrafniej,

176 (14-12-22)

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

Rozdział 2.  Dzisiaj

177

 Programy wspomagające artystów, na przykład przy tworzenia muzyki408

bądź przy tworzeniu grafiki komputerowej409.

 Programy do analizy i symulacji samego mózgu410.

2.4.1. Od sztucznych sieci neuronowych do sztucznego mózgu. Maszyna typu B w świetle projektu CAM-Brain Na końcu dyskusji o metaforze komputerowej i w ramach jej konsekwencji — teoretycznego pomysłu sztucznego mózgu — muszę zamieścić pewne sprostowanie. Wymienienie F. Rosenblatta jako ojca koneksjonizmu (por. s. 171) należy na pewno do klasycznej historii Sztucznej Inteligencji. Sam zresztą Rosenblatt w 1958, w jednym zwięzłym stwierdzeniu zdefiniował teoretyczne podstawy koneksjonizmu: „Informacja przybiera postać nowych połączeń, czyli kanałów informacji w układzie nerwowym (lub tworzy warunki, które są funkcjonalnie równoważne nowym połączeniom)”411.412 Jednak najnowsze badania wskazują, że pomysł ów nie był obcy samemu Turingowi!413 Turing opisywał podobne sieci (do perceptronu Rosenblatta; przyp. M. J. K.) już w 1948 roku, w mało znanym artykule pt. „Inteligentne maszyny”. najtaniej (a czasami wręcz odwrotnie, jeśli to pieniądze pacjenta; przyp. M. J. K.) i możliwie bezinwazyjnie doprowadzić do właściwej diagnozy.” [K. Grąbczewski, W. Duch, R. Adamczak, Odkrywanie wiedzy w danych, Internet, s. 1] 407

Por. na przykład komercyjny projekt Statistica Neural Networks, firmy SatSoft, http://www.statsoft.pl/.

408

Por. Szymska, Komponowanie muzyki przy pomocy algorytmów genetycznych, Internet. Wprawdzie artykuł dotyczy wykorzystywania algorytmów genetycznych, a nie sieci neuronowych, lecz dla zaznajomionego z tematem odbiorcy nie będzie trudne przełożenie jednej metody na drugą dla pozyskania identycznych skutków.

409

Znany program Aaron, autorstwa Raya Kurzweila.

410

Por.: Pöppel, Edinghaus 1998, ss. 200 – 219; A. Chojnowski, W. Duch, Analiza czasowych obrazów fMRI, Internet; W. Duch, Świadomość i dynamiczne modele działania mózgu; Tadeusiewicz 1998a.

411

Choć jeszcze inni (na przykład M. Bielecki) za manifest koneksjonizmu uważają tekst: D. E. Rumelhart, G. Hinton, J. L. McClelland, A general framework for parallel distributed processing, w: Parallel distributed processing, red. D. E. Rumelhart, J. L. McClelland, Cambridge, MA, MIT Press 1986; por. Bielecki 1998, przyp. 3.

412

Copeland, Proudfoot 1999, Internet Tekst posiadałem w wersji internetowej, stąd brak adnotacji związanymi ze stronami, z których pochodzą cytowane fragmenty.

413

Badania prowadzą B. Jack Copeland i Diane Proudfoot, którzy to kierują programem Turing Project w University of Canterbury w Nowej Zelandii. Głównym celem tego projektu jest rozwijanie i stosowanie idei Turinga z wykorzystaniem współczesnych technik.

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

(14-12-22)

177

178

Sztuczna Inteligencja

Praca ta powstała, gdy był zatrudniony w londyńskim National Physical Labolatory, i nie zyskała uznania szefa Turinga, sir Charlesa Darwina (wnuka wielkiego przyrodnika), człowieka o poglądach belfra, który skwitował ją określeniem „sztubackie wypociny”. A jednak ten proroczy artykuł był w rzeczywistości pierwszym manifestem z dziedziny sztucznej inteligencji. W opublikowanej dopiero w 1968 roku, czyli 14 lat po śmierci Turinga, pracy ten wielki matematyk nie tylko sformułował podstawy koneksjonizmu, lecz także błyskotliwie wprowadził wiele kluczowych koncepcji AI, z których część została później powtórnie odkryta przez innych.414 Zaś wspomniana idea koneksjonizmu, zawarta była w pomyśle tzw. maszyny typu B. Składa się ona ze sztucznych neuronów i układów, które modyfikują połączenia między nimi. Maszyny typu B mogą składać się z dowolnej liczby neuronów powiązanych w arbitralny sposób, lecz pod warunkiem, że każde połączenie między nimi przechodzi przez układ modyfikujący. Każdy z tych układów ma dwa połączenia „uczące”. Podając impuls do pierwszego z nich, przełączamy układ w stan „przepuszczania” — wtedy każdy sygnał 0 lub 1 przejdzie przezeń bez zmian. Podanie impulsu do drugiego połączenia wprowadza układ w stan „blokujący”: na wyjściu mamy zawsze 1 (niezależnie od wejścia), tak więc w tym stanie układ modyfikujący niszczy informację. Układ modyfikujący dopóty pozostaje w jednym ze swoich stanów („przepuść” lub „blokuj”), dopóki nie otrzyma impulsu na drugie połączenie uczące. Te właśnie pomysłowe połączenia pozwalają na trenowanie maszyn typu B za pomocą — jak to ujął Turing — „Odpowiednich ingerencji naśladujących uczenie”.415 Przy tym Turing wysunął hipotezę, że „kora mózgowa niemowlęcia jest taką niezorganizowaną maszyną typu B, która się «organizuje» w odpowiednim procesie uczenia się”.416 I rzeczywiście, biorąc pod uwagę dzisiejszą wiedzę na temat rozwoju mózgu w fazie ontogenezy (wzrostu i towarzyszącemu mu rozwojowi dziecka), idea Turinga bliska jest faktycznemu stanowi wiedzy z zakresu nauk o mózgu (w tym o rozwoju kory mózgowej). Niszczenie niektórych istniejących połączeń jest właśnie funkcjonalnie równoważne tworzeniu się nowych, co pozwala na budowę systemu wykonującego dane zadanie poprzez wybór sieci z nadmiarem połączeń i selektywne usuwanie niektórych z nich417. W maszynie typu B wykorzystuje się w czasie treningu 414

Copeland, Proudfoot 1999, Internet.

415

Tamże.

416

Tamże.

417

Współcześnie taką ideę powstawania i ginięcia połączeń neuronalnych na rzecz globalnych korzyści określa się mianem kodowania populacyjnego. Por. Hinton 1992, ss. 122 – 123. Ważne tutaj stają się też badania G. Edelmana i jego koncepcja wyboru grup neuronowych (TNGS) (por. przyp. 389, s. 173) oraz jego projekt Darwin III, o którym będzie mowa dalej (por. ss. 189, 190 – 191). Por.: Bielecki 1998; Edelman 1998.

178 (14-12-22)

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

Rozdział 2.  Dzisiaj

179

zarówno proces tworzenia, jak i niszczenia połączeń. Na początku maszyna typu B zawiera dowolne połączenie pomiędzy neuronami, a obwody modyfikujące są ustawione na losowe przepuszczanie jednego z dwóch stanów. Podczas treningu niszczy się niechciane połączenia poprzez przełączenie odpowiedniego obwodu modyfikującego w stan blokujący. Z drugiej strony, przełączając układ w stan przepuszczenia, tworzy się nowe połączenie. Tak więc selektywne przerywanie i tworzenie nowych połączeń pomiędzy neuronami pozwala na optymalizację początkowo losowej sieci, tak aby mogła wykonać zadaną czynność. Turing chciał badać także inne maszyny nieuporządkowane i marzył o tym, aby prace sieci neuronowych symulować na zwykłym komputerze. (…) Dopiero w 1954 roku (nawiasem mówiąc, w roku, w którym zmarł Turing) Belmontowi G. Farleyowi i Wesleyowi A. Clarkowi z Massachusetts Institute of Technology udało się przeprowadzić pierwszą komputerową symulację małej sieci neuronowej.418 I tak powstały pierwsze zalążki pomysłu maszyny neuronowej, którą zresztą niedawno wyprodukowano w MIT419 — pomysł Turinga znów się zmaterializował! W 1993 roku w Kyoto, w Japonii, pod szyldem firmy ATR (Advanced Telecommunications Research, czyli Instytutu Zaawansowanych Badań Telekomunikacyjnych) ukonstytuowała się grupa Budowniczych Sztucznego Mózgu (Brain Building Group)420. Na czele tej grupy stanął mało jeszcze wówczas znany badacz SI, Hugo de Garis, rodem z Australii, a obecnie na stałe zamieszkały w Belgii421 (tam też prowadzone były badania). To właśnie on wraz z dyrektorem firmy Genobyte, z pochodzenia Rosjaninem, Michaiłem Korkinem oraz Polakiem, inicjatorem gdańskiej grupy badawczej GABRI (Gdańsk Artificial Brain Research Initiative), Andrzejem Bullerem i dwoma azjatyckimi partnerami, Lishan Kangiem z Chin i Sung-Bae Cho z Korei prowadzą prace nad ambitnym projektem CAM-Brain Machine. Rusza projekt „CAM-Brain”422. Cel — sztuczny mózg składający się z miliarda neuronów! Inteligencja na poziomie małego kotka. Punkt wyjścia do konstrukcji sztucznego mózgu o inteligencji ludzkiej. (…) Tylko tyle, że struktura neuronowa powstanie i będzie funkcjonować jako zmieniająca się zawartość gigantycznego automatu komórkowego. (…) CAM to Cellular Automata Machine — maszynowa implementacja automatu komórkowego. (…). CAM-Brain to mózg w postaci elektronicznego automatu komórkowego.423 Projekt ten wymagał od samego początku zaawansowanej technologii. Na początku symulowano automat komórkowy na komputerze Sparc 10. Wzrost struktury złożonej z czterech neuronów trwał prawie trzy i pół minuty. Ponad trzy minuty zajmowała symulacja działania tej struktury i jej ocena. Proces 418

Copeland, Proudfoot 1999, Internet.

419

Chodzi o maszynę CAM8, o której dalej będzie mowa; por. Buller 1998, ss. 48 – 49.

420

Por. Tamże, ss. 54 – 55.

421

Por. Tamże, ss. 52 – 54.

422

Dane na temat tego projektu można znaleźć również na stronie: CAM-Brain Projekt, http://free.of.pl/ n/neuron/CAM/cam.htm.

423

Buller 1998, s. 55.

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

(14-12-22)

179

180

Sztuczna Inteligencja

ewolucji polegał na generowaniu dziesięciu komputerowych chromosomów, definiujących struktury neuronowe, symulowaniu rozwoju tych struktur i obliczaniu wskaźników przydatności, wyborze chromosomów przeznaczonych do krzyżowania i generowaniu kolejnego pokolenia chromosomów (por. to, co zostało do tej pory powiedziane na temat tworzenia algorytmów genetycznych, s. 64; przyp. M. J. K.), średnio gdzieś w setnym pokoleniu powstawał chromosom określający strukturę neuronową, która zachowywała się w pożądany sposób. Na otrzymanie takiej struktury potrzeba było zatem prawie 5 dni.424 Trzy lata później, w 1996 roku, reprezentanci firmy ATR złożyli zamówienie w MIT na maszynę, której działanie było takie jak automatu komórkowego, którego proces tworzenia wyżej przedstawiłem425. W ten sposób został skonstruowany automat CAM8. Pierwszy na świecie neurokomputer426. Cam to skrót od Cellular Automata Machine, natomiast 8 określa liczbę modułów pamięci komórkowej. Każdy taki moduł mógł zmienić na podstawie zadanych reguł wartość 25 milionów komórek w ciągu jednej sekundy.427 Zastosowanie CAM8 do projektu generowania kolejnych generacji algorytmów genetycznych skróciło ten czas (z wyżej wymienionych 5 dni, w przypadku pracy na Sparc 10; przyp. M. J. K.) do 50 sekund.428 Jednak algorytmy genetyczne to jeszcze nie wszystko. Na pełną architekturę CBM składa się pięć podsystemów: 

CA, czyli automat komórkowy, stworzony z dwóch identycznych modułów CoDi-1 Bit po 4096 komórek;



pamięć GPM (Genotype/Phenotype Memory) do przechowywania chromosomów lub opisów struktur neuronowych;



moduł FEU (Fitness Evaluation Unit) służący do automatycznej oceny struktur neuronowych;



moduł GAU (Genetic Algorithm Unit) realizujący algorytm genetyczny;



pamięć MIM (Module Interconnection Memory) do przechowywania struktury połączeń pomiędzy modułami CoDi.429

424

Tamże, s. 56.

425

Niektóre źródła podają, że teoretycznymi twórcami automatu komórkowego są J. von Neumann wraz z S. M. Ulamem. Trudno mi jednoznacznie spór ten rozstrzygnąć, zatem wspominam o wszystkich.

426

W zasadzie CAM8 został skonstruowany już na przełomie lat 80. – 90., a kontrakt z 1996 roku pozwalał na udostępnienie jego modelu firmie ATR.

427

Buller 1998, s. 49.

428

Tamże, s. 56.

429

Tamże, s. 61.

180 (14-12-22)

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

Rozdział 2.  Dzisiaj

181

Przy czym: [Moduł] CoDi to udoskonalona technika wykorzystywania automatu komórkowego do tworzenia i eksploatacji modułu neuronowego. Tutaj pojedyncza komórka przestrzeni roboczej jest ciałem neuronu, elementem dendrytu bądź elementem aksonu. (…) komórki te przekazują sobie sygnały wzrostu, wysyłane z ciała neuronu, i sąsiedztwo tych, których to dotyczy, zmienia swój status w sposób odpowiadający wydłużaniu się, zmianie kierunku wzrostu lub rozdwajaniu się aksonu czy dendrytu. W fazie eksploatacji dendryty danego neuronu zbierają jednobitowe sygnały (tzn. sygnały o wartości 1 lub 0), które, po przetworzeniu w ciele tego neuronu, rozprowadzane są przez aksony. Stąd nazwa CoDi-1 Bit od angielskiego Collect and Distribute, czyli „zbieraj i rozprowadzaj”.430 Na wytłumaczenie czeka jeszcze hierarchicznie ujęte działanie wszystkich pięciu podsystemów. Gdy używamy CBM do poszukiwania pożądanej struktury modułu CoDi, pracą systemu steruje moduł GAU. Pod jego kontrolą moduł FEU przeprowadza po kolei ocenę działania stu struktur neuronowych generowanych w automacie komórkowym, po czym przechowywane w GPM chromosomy dziesięciu najlepszych są krzyżowane i mutowane, a ich „potomstwo” stanowi kolejne pokolenie stu struktur neuronowych, które zostaje poddane ocenie. FEU przechowuje zbiór 2048 możliwych sygnałów na wejściu do modułu CoDi oraz tyleż samo pożądanych sygnałów, którymi powinien reagować moduł gotowy. Rozbieżności pomiędzy sygnałami otrzymywanymi a pożądanymi są sumowane, a ocena modułu stanowi jakąś funkcję tej sumy.431 W ostateczności też otrzymuje się strukturę złożoną z „klocków” CoDi, połączonych ze sobą tak, aby całość mogła stać się sztucznym mózgiem432. Mózg ten na początku miał należeć do małego kotka-robotka (robokoneko, od japońskich neko, czyli kot; ko, czyli dziecko i angielskiego robo-, skrótu od robota), z którym to projektem CAM-Brain był ściśle powiązany. Dlaczego „miał”? Dlatego, iż sam pokaz robokoneko był przewidywany na koniec 1999 roku433, czyli, jak łatwo obliczyć, trzy lata temu. A prócz tego, że nadal nie ma kotka-robotka (choć mamy psa Aibo, firmy Sony, o czym napiszę w podrozdziale następnym i kilka innych sztucznych milusińskich), projekt ten został przeniesiony z ATR do belgijskiej firmy Starlab434, zaś wszystkie materiały zostały ponoć utajnione435 (w co trudno mi uwierzyć, ale nie mi sądzić jak naprawdę jest, 430

Tamże, s. 60. Por. również: Zarys działania modelu CoDi, Internet; Buller 2000.

431

Buller 1998, s. 61.

432

Por. Tamże, s. 62.

433

Por. Tamże, s. 65.

434

Ośrodek został już zamknięty (por. s. 12). Pozostaje oczywiście pytanie, gdzie jest CAM-Brain?

435

Przynajmniej tak stwierdził A. Buller w korespondencji ze mną (e-mail z 6 lipca 2000). Cytuję: M. J. K.: Piszę do Pana, po pierwsze, ze względu na Pańską książkę „Sztuczny mózg…”, a konkretniej — ze względu na informację ze strony 42 tej pozycji. Są tam wykresy generacji sieci neuronowych, w których znalazł się błąd. A. B.: Błąd? A to dopiero… Gdybym miał tu przy sobie „wymienioną pozycję” zaraz bym sprawdził. A tak, to muszę wierzyć Panu na słowo.

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

(14-12-22)

181

182

Sztuczna Inteligencja

więc dla dobra sprawy załóżmy, że tak właśnie jest!). Powstaje jednak pytanie o to, czy projekt CAM-Brain ma szanse na powodzenie? Jeden z informatyków zaangażowanych w prace nad nim, Andrzej Buller, wychodzi z założenia, że to tylko kwestia czasu i pieniędzy436 (nie zauważając poważniejszych problemów, chociażby tych natury metodologiczno-filozoficznej). Jeszcze przy innej okazji, wyraża pełen optymizmu pogląd, przytaczając opowieść o Kolumbie. Opowieść, istotnie, na tę okoliczność wyborna. Morał z niej bowiem taki, że gdy się śmiało płynie przed siebie, to zawsze gdzieś się dopłynie. Jeśli nie do Indii, to do Ameryki.437 I jedyne, co można teraz zrobić, to, wzorem cytowanego tu Marciszewskiego, życzyć pomyślnych wiatrów. Jednakże niezależnie od wiatrów tym, co dzisiaj można już stwierdzić, a dla dyskusji tu przytaczanej ma to zasadnicze znaczenie, jest fakt skonstruowania pierwszego neurokomputera — CAM8 w laboratoriach MIT, który przynajmniej po części realizuje ideę Turinga, ideę maszyny typu B. M. J. K.: Najpierw sprawdzałem to na papierze, sugerując się 4 zasadami podanymi przez Pana w tej pozycji, na wyżej wymienionej stronie… A. B.: Skąd u filozofa taki prawniczy styl formułowania myśli?! M. J. K.:…potem zaś miałem możliwość sprawdzenia tego na Pańskim programie dołączonym na płycie magazynu „Chip”. A. B.: Do „Chipa” posłałem tylko tekst. Przypisując mi odpowiedzialność za jakiś program, o którym dowiaduję się od Pana, ktoś popełnił nadużycie. Ale ponieważ sprawa jest tak odległa w czasie, nie będę już interweniował. M. J. K.: A z pewnością już się Pan sam o tym zorientował, albo ktoś inny zwrócił na to uwagę, lecz jeżeli nie, to podaję prawidłowe wykresy generacji: (tu oczywiście znajdowały się odpowiednie rysunki). A.B.: Czyli nie chodzi Panu o „wykresy generacji sieci neuronowych”, tylko o starą poczciwą grę w „Życie” (której, nota bene, pomysłodawcą był John von Neumann, a która to gra jest przykładem automatu komórkowego; zob.: Matematyka, red. W. Waliszewski, s. 157; „Młody Technik”, 9/1984 — przyp. M. J. K.) M. J. K.: Chodzi oczywiście o piątą generację, za którą mylnie był podany rysunek 6 generacji. A.B.: Hmm… Czyli korekta niepotrzebnie „poprawiła” szósteczkę na piątęczkę, a ja tego nie zauważyłem. Cóż, już za późno, żeby wycofać nakład. Trudno. Stało się. Errare humanum est. M. J. K.: Po drugie, mam do Pana prośbę, gdyby mógł Pan odpowiedzieć mi na kilka pytań (za co z góry dziękuję). Oto lista: (…) 2) Jak bardzo jest zaawansowany projekt Robokoneko w Kyoto? A.B.: Japończycy zdecydowali się zmodyfikować założenia projektu, a sam projekt w znacznej części utajnić. (…) Z pozdrowieniami, Andrzej Buller, PhD Chief Scientist, Artificial Brain Project Starlab NV, Blvd Saint Michel 47 B-1040 Brussels, Belgium 436

Por. Buller 1998, chociażby Do Czytelnika, s. 117.

437

W. Marciszewski, Czy można i czy trzeba pokonać Barierę Turinga?, Internet.

182 (14-12-22)

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

Rozdział 2.  Dzisiaj

183

2.4.2. Cog, Aibo… Problem intencjonalności i problem ciała Aby sztuczny system poznawczy wykazywał zalążki procesu poznawania, musi być jak najbardziej zbliżony do naturalnych systemów poznawczych, na przykład do człowieka albo do innych zwierząt wyższych. Przypomnijmy jeszcze raz, jak przebiega przetwarzanie informacji w ludzkim mózgu: 1. za pośrednictwem układów zmysłów odbieramy różnorodne informacje; 2. magazynujemy je w pamięci; 3. oceniamy odebrane informacje pod względem ich wartości dla naszego samopoczucia oraz bezpieczeństwa fizycznego i psychicznego; 4. reagujemy na odebraną, ocenioną i zachowaną informację modyfikując nasze zachowanie, na przykład zmieniając pozycję ciała, przyjmując pokarm, nawiązując kontakt z innymi ludźmi.438 Do tej pory programy, które przedstawiałem i pokrótce omawiałem (prócz kilku wyjątków), były niejako konstruktami, dla których zwykło się stosować jedną wspólną nazwę — czarna skrzynka. Mianem czarnej skrzynki zwykło się określać system, którego zasada działania jest nieznana i nieistotna dla danych celów. Komputerowy model umysłu traktuje go jak system złożony ze współdziałających podzespołów, które z kolei same złożone mogą być z podsystemów itd. Znajdujące się na najniższym poziomie pierwotne procesory teoria poznania traktuje właśnie jako czarne skrzynki i czysto behawiorystycznie: interesuje ją funkcja wiążąca sygnał na wejściu z sygnałem na wyjściu — i to jest dziedziną teorii poznania — ale nie sposób przetworzenia pierwszego na drugi (co jest przedmiotem zainteresowania elektroniki lub neurobiologii). Opisując ową hierarchię systemów, teoria poznania wyjaśnia [ją] inteligencją, redukując ją do oddziaływania pozbawionych inteligencji podsystemów, ostatecznie ufundowanych na najniżej położonych w hierarchii czarnych skrzynkach. Model taki nie wyjaśnia jednak zjawiska intencjonalności, jako dany przyjmując po prostu fakt, że owe podstawowe czarne skrzynki same są systemami intencjonalnymi.439 Jednak warto zapytać o to, czy hipotetyczna neuromaszyna infiltrująca faunę i florę Marsa w opowieści R. Tadeusiewicza (por. s. 175) nie zachowywała się już intencjonalnie? Samo pojęcie intencjonalne, to Termin techniczny stosowany na oznaczenie pewnej cechy stanów umysłowych: że odnoszą się do czegoś lub że coś przedstawiają. Wywodzi się on od średniowiecznego słowa łacińskiego, intentio, scholastycznego pojęcia, które oznaczało idee czy przedstawienia rzeczy tworzone przez umysł, a w czasach bardziej współczesnych został przywołany w roku 1874 przez Franza Brentana, który mianem intencji określił „ukierunkowanie umysłu na przedmiot”. (…) To, co często nazywa się tezą Brentana, można ująć następująco: nie sposób żywić 438

Pöppel, Edinghaus 1998, s. 208 — podkr. M. J. K.

439

Block 1999. Por. również: Lem 1996, podrozdz. Czarna skrzynka, ss. 124 – 129.

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

(14-12-22)

183

184

Sztuczna Inteligencja

przeświadczenia, pragnienia czy nadziei tak, żeby nie było to przeświadczenie o czymś, pragnienie czegoś czy nadzieja na coś. (…) We współczesnej literaturze anglosaskiej termin „intencjonalność” często zastępuje się słowem aboutness, który w języku polskim oddać można tylko przez rozwlekłe „dotyczenie czegoś”.440 Zatem w przypadku sztucznych systemów kognitywnych proponuję zadać pytanie o to, kiedy zachowują się one w sposób taki, który wskazywałby na to, iż są w stanie intencjonalnym? To jest pytanie, które jest interesujące nie tylko ze względu na problematykę w pracy poruszaną. Część filozofów i teoretyków SI odpowiada — NIGDY441! I rzeczywiście — gdy tylko stwierdzimy, że umysł jest dany wyłącznie człowiekowi (a nie komputerom), a intencjonalność jest stanem umysłu ludzkiego (jak zakładał na przykład Franz Brentano442) — fakt występowania stanów intencjonalnych w maszynach (nawet w sztucznych umysłach) nie zachodzi. Jednak inni filozofowie stwierdzają: są takie przypadki, jak i argumenty, przemawiające na rzecz tych zdarzeń, w których pewne zachowanie maszyn można uznać za zachowanie umysłowe (mentalne), a w ramach niego, za zachowanie intencjonalne443. Spróbuję przeanalizować problem głębiej. Podstawowe pytanie, które się nasuwa dotyczy tego, czy faktycznie w przypadku umysłów naturalnych (ludzi) jest tak, że każde wewnętrzne pojęcie przedmiotu bytuje (jakoś) w umyśle, na przykład jako prototyp przedmiotów jednej rodziny — przykładowo stołów czy krzeseł? Czy w ogóle przedmioty zewnętrze mają swoje odpowiedniki w umyśle jako przedmioty wewnętrzne — reprezentacje444? Jest to pewien problem i, przynajmniej przy dzisiejszej wiedzy z zakresu nauk kognitywnych czy nauk o mózgu, rzecz rozważana może być tylko hipotetycznie. Jednakże, jeżeli przyjąć, że jest taki rodzaj przedmiotów mentalnych w umyśle człowieka, które są reprezentacjami przedmiotów fizycznych, to biorąc pod uwagę na przykład wspomniane już struktury sieci semantycznych, można stwierdzić na tej podstawie, iż maszyna może w istocie również mieć takie reprezentacje. Jeżeli zaś przyjmiemy za innymi filozofami umysłu (na przykład H. Putnamem), że nie ma takich przedmiotów prototypowych w naszych umysłach, to należy spytać dalej, czym w takim razie jest pamięć długoterminowa czy procesy asocjacyjne, i czym w rzeczywistości one manipulują? Krótko mówiąc, czym są w zasadzie ślady pamięciowe, których istnienia nie można podważyć, nie narażając się przy tym na śmieszność? 440

Crane 1999b.

441

Na przykład Franz Brentano (por. Crane 1999b, i kolejny przypis); H. Putnam (Putnam 1998); J. R. Searle (Searle 1995; Searle 1999a; Searle 1999b).

442

Por. Crane 1999b, gdzie, przypisując Brentanie wyżej sformułowany pogląd, powołuje się na jego dzieło: F. Brentano, Psychologie vom empirischen Standpunkt, Leipzig 1874; polskie wydanie: Tenże, Psychologia z empirycznego punktu widzenia, tłum. W. Galewicz, Wydawnictwo Naukowe PWN, Warszawa 1999.

443

Na przykład D. C. Dennett (Dennett 1997; Dennett 1995).

444

Por. Piłat 1999, ss. 61 – 69; Fodor 1999. Tak dla przykładu H. Putnam nie wierzy w istnienie takich przedmiotów prototypowych, co wyraża w stwierdzeniu przytaczanym już na s. 170.

184 (14-12-22)

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

Rozdział 2.  Dzisiaj

185

Aby pamiętać coś (przedmiot), musi być to coś (przedmiot) i drugie coś (podmiot), który pamięta coś (przedmiot), chyba że tym coś (przedmiotem) pamiętanym przez coś (podmiot) jest to samo coś (podmiot), które pamięta. Wyrażając się krótko, tak w przypadku procesów pamiętania, jak i percepcji, potrzebny jest przedmiot i podmiot. Intencjonalność zaś jest w zasadzie relacją pomiędzy przedmiotem a podmiotem zaistniałą w akcie poznania. Zatem można przyjąć, że odpowiedni system poznawczy, który spełniałby rolę bycia podmiotem, będąc nakierowanym (czy raczej nakierowując się) na przedmiot, powinien być systemem intencjonalnym445. Lecz co to znaczy — spełniający rolę bycia podmiotem? Czy to już nie oznacza, że będący umysłem? Można się jedynie zastanawiać, co jeszcze warto nazwać umysłem, a więc jaki minimalny zbiór własności przejawiać powinien dany system, by można jeszcze mówić o umyśle. Załóżmy, że jest to intencjonalność, rozumienie i świadomość. Czy cechy te przejawiać mogą tylko systemy biologiczne? Ewolucja zachowań robotów, sterowanych przez programy zachowujące mózgopodobną organizację przetwarzania informacji, którym zaprogramowano jedynie ogólne wartości (takie jak „lepiej jest mieć wrażenia, niż ich nie mieć”), pozwala uznać ich zachowanie za krok w kierunku intencjonalności (por. Edelman 1998; przyp. M. J. K.). Nie widać zasadniczych powodów, dla których granicą zbieżności coraz doskonalszych modeli tego typu nie miałyby być systemy intencjonalne, stawiające sobie coraz bardziej złożone cele.446 W ramach badań z zakresu Sztucznej Inteligencji prężnie rozwija się dziś dziedzina zwana robotyką kognitywną. Zajmuje się ona konstruowaniem całych systemów i hierarchii systemów wykorzystywanych do prac w środowisku zewnętrznym (a nie tylko wewnątrz komputera), więc posiadających maszynową implementację ciała, czym zajmę się teraz. Ostatnimi laty prężenie się rozwija dziedzina zwana Artificial Life, w skrócie AL (Sztuczne Życie447), której zasadniczym przedmiotem badań są sztuczne systemy poznawcze osadzone w równie sztucznym środowisku. Systemy te to bioty448 (biologiczne roboty), a zamieszkiwany przez nie wirtualny świat symulacji to biolandia. Wszystkie elementy, tak roboty, jak i bioty, charakteryzuje fakt podejmowania interakcji w świecie, w którym „żywot” przyszło im wieść. Skalę ocen, którą można by zastosować badając jakość tych interakcji, można nazwać skalą inteligencji, a sam sprawdzian wykonywanych zadań, testem na inteligencję. Skoro W znaczeniu szerszym inteligentnym jest ten lub to, co spełnia przynajmniej ten warunek, że skutecznie i sprawnie rozwiązuje stojące przed nim problemy.449 445

Por. Duch 2000a.

446

Tamże, s. 42.

447

Zobacz w Internecie polskojęzyczne źródło wprowadzające w tematykę AL: http://www.alife.pl.

448

Tak powszechnie zwykło się na nie mówić (por. chociażby: Buller 1998, ss. 17, 19, 20, 21, 24, 53), choć na przykład Lem używa określenia norny (?); zob. Lem 1999, s. 193. Zob. też oficjalną stronę polskiego projektu w ramach AL, Framstick, który jest prowadzony przez Macieja Komosińskiego i Szymona Ulatowskiego: http://www.frams.poznan.pl/.

449

Marciszewski 1995, s. 26.

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

(14-12-22)

185

186

Sztuczna Inteligencja

I to właśnie ciało — sensorium, czyli zbiór zmysłów, dzięki któremu „mamy świat”, plus cielesność, dzięki której wyznaczamy granice450 pomiędzy Ja i Nie-Ja (świat), plus motoryka, dzięki której możemy nasze zamysły realizować w świecie (podejmować w świecie złożone interakcje) — realizuje zasadę „otwartości na świat”, w której to możemy wykazywać się inteligencją, intencjonalnością, myśleniem451. Gdy ma się na uwadze maszynę informatyczną będącą ciałem organicznym, to maszynowo-informatyczny model umysłu wraz z kluczowym dlań pojęciem języka wewnętrznego pomaga wyjaśnić, dlaczego inteligencja tej maszyny nie da się imitować w elektronicznych urządzeniach cyfrowych. Oto argumentacja w tej sprawie, podzielona na trzy grupy zagadnień. 1. Odwieczny spór między aprioryzmem a empiryzmem, czyli pomiędzy

poglądem, że wiedza jest wrodzona, a poglądem, że jest w całości nabyta w doświadczeniu zmysłowym, dostarcza pomocnego kontekstu dla naszego problemu, a zarazem ukazuje się nam w nowym świetle. Każdy organizm ma zakodowane w swym języku wewnętrznym elementy wiedzy, czyli informacji, w postaci materialnych zapisów, czyli danych, [które są] odziedziczone po organizmach rodzicielskich, które je zawdzięczają procesowi ewolucji życia. Jest to aprioryczny składnik wiedzy, współwarunkujący pewne zachowania inteligentne, do których nie jest zdolne urządzenie cyfrowe pozbawione ewolucyjnego rodowodu. Elementy te ulegają przetwarzaniu w wyniku procesów pobudzanych przez spostrzeżenia zmysłowe. Jest to empiryczny składnik wiedzy. Skoro spostrzeżenia są reakcjami na bodźce fizyczne mające charakter falowy (fale świetlne, akustyczne etc.), a więc analogowy, będąc przy tym wspierane procesami z zakresu chemii organicznej (enzymy itp.), także analogowymi, to i ten empiryczny składnik wiedzy, nieodzowny w inteligentnym rozwiązywaniu problemów, dostępny jest tylko maszynom informacyjnym oprócz cyfrowego języka analogowego. 2. Wbrew stanowisku kartezjańskiemu, rozwiązywanie problemów poza

świadomością jest faktem zarówno wtedy, gdy błyskawicznie znajduje się trafne rozstrzygnięcie, nie mając czasu na uświadomienie sobie przesłanek i reguł rozumowania, jak i wtedy, gdy proces rozwiązywania rozciąga się w czasie, obejmując fazy nie tylko świadome, lecz i nieświadome (typowy przykład: obudzenie się z rozwiązaniem, którego nie było przed zaśnięciem). Podlegają temu prawu także wielkie odkrycia — najdojrzalszy owoc inteligencji. 450

Granice mojego ciała są granicami mnie. Dalej rozpościera się już tylko to, co Nie-Ja. W tych wypadkach zawsze odwołujemy się do przestrzeni, w której zanurzone są wszystkie przedmioty, wraz z naszymi ciałami.

451

Oprócz przytaczanego tu W. Marciszewskiego, uwagę na znaczenie problemu ciała zwraca S. Lem: „Co prawda, jeśliby się taki niewykonalny dzisiaj projekt dało nawet zrealizować (sztucznego mózgu — przyp. M. J. K.), niechybnie powstałaby potrzeba dołączenia do tej budowli modelu ciała, ponieważ bez stałego dopływu i odpływu impulsów — do mózgu z cielesnego sensorium oraz z ciała do mózgu — otrzymalibyśmy twór kaleki.” [S. Lem, Brain Chips, Internet] Zob. też: Lem 1999, ss. 19, 79, 115, 136, 168.

186 (14-12-22)

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

Rozdział 2.  Dzisiaj

187

Nie ma w tym żadnej zagadki, o ile się zważy, że i podjęty problem, i elementy wiedzy potrzebne do rozwiązania są fizycznie zapisane w języku wewnętrznym maszyny informacyjnej, która przetwarza owe zapisy także wtedy, gdy nie zachodzi świadome skierowanie uwagi na dany problem. Mamy tu do czynienia z kategorią zachowań nieświadomych, lecz celowych (do których też należą, przy całej ich odmienności, zachowania instynktowne) właściwych materii organicznej, a nieobecnych w funkcjonowaniu elektronicznych urządzeń cyfrowych. 3. Motywacyjne czynniki inteligencji dzielą się na dwie kategorie. Jedne stanowią

motywację do podjęcia problemu, drugie mają udział w motywacji wyboru rozwiązania. Pierwsze będziemy tu określać jako intelektualne bodźce, drugie (o których niżej, w punkcie 4) jako wartościowania. Na rolę tego rodzaju bodźców w inteligentnym postępowaniu zwróciliśmy uwagę na początku, gdy była mowa o luźnym i o maksymalistycznym pojmowaniu inteligencji. W tym pierwszym pomija się sprawę bodźców, a poziom inteligencji ocenia się po samym wyniku, nie bacząc, czy autor wyniku podjął problem sam z siebie, czy też miał go zadany z zewnątrz (jak wtedy, gdy człowiek zadaje pytanie komputerowi). Maksymalistyczne pojmowanie inteligencji wymaga, by zawierała się w niej także zdolność do samodzielnego stawiania pytań. W tej zaś materii trzeba się zgodzić ze zdaniem Peirce’a, że bez stymulowania przez stan wątpliwości nie byłoby starań o uformowanie sądu, czyli o rozwiązanie problemu. „Podrażnienie z powodu wątpliwości jest jedynym bezpośrednim motywem walki o uzyskanie poglądu (…) Zaczyna się ta walka wraz z wątpliwością, a ustaje wtedy, gdy wątpliwość ustąpi”452. Jeśli tak się rzeczy mają, to twórca sztucznej inteligencji staje przed zadaniem, by skonstruować zdolność nie tylko do wątpienia, ale i do przeżywania owego niepokoju; w takim zaś przeżywaniu są zaangażowane fizjologiczne procesy analogowe, takie jak wydzielanie hormonów, ciśnienie krwi, napięcie mięśni — słowem, „ciało i krew”.453 W ten sposób otrzymałem listę poważnych problemów do analizy. Poniżej spróbuję się z nimi zmierzyć. 1. Odnośnie sporu między aprioryzmem a empiryzmem. Oczywiście nie rozwiązały

go ani systemy oparte na klasycznych algorytmach, ani takie mechaniczne systemy złożone jak żółw G. Waltera, mysz C. Shannona czy ćma N. Wienera454, czyli pierwsze zaawansowane projekty SI wykorzystujące implementację ciała. Ale też do dziś nie został ten problem rozwiązany nawet w naukach o mózgu, 452

„The irritation of doubt is the only immediate motive for the struggle to attain belief (…) With the doubt, therefore, the struggle begins, and with the cessation of doubt it ends.” Ch. S. Peirce, The Fixation of Belief, w: „Popular Science Monthly”, 1877. Przedruk w: Readings in Philosophy, red. J. H. Randall, Barnes & Noble, New York 1959. (Przyp. za cyt.)

453

Marciszewski 1995, s. 38 – 40.

454

Por.: Trąbka 1983, s. 245; Penrose 1995, ss. 26 – 32.

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

(14-12-22)

187

188

Sztuczna Inteligencja

gdyż do tej pory nie mamy jednoznacznej odpowiedzi na pewien podproblem, który pojawia się w obrębie całej dyskusji, tzn. na problem Molyneuxa455. Zatem twierdzenie W. Marciszewskiego — że „trochę jest tak, a trochę tak” — jest sporym uproszczeniem. Dalej nie do końca zdajemy sobie sprawę z tego, jak głębokie struktury dane nam od organizmów rodzicielskich możemy modyfikować, a jak głęboko to, co zwiemy naszą modyfikacją, zdeterminowane jest genetycznie. Jednak podążmy tym tropem podwójnej, niejako, wiedzy — podległej prawom a priori (genetycznym) i modyfikacjom wynikającym ze współdziałania ze środowiskiem. Bardzo przekonujące tutaj staje się zastosowanie elementu losowego przy konstruowaniu na przykład sieci neuropodobnej456. Dzięki temu na przykład już dzisiaj można skonstruować sieć (a w przypadku Artificial Life sztuczny organizm — biota), która od początku ma dane pewne „skłonności”. „Skłonności” te stanowić może na przykład początkowy rozkład parametrów wag, w którym to na przykład — gdy weźmie się pod uwagę cztery takie parametry (ciemno — jasno, głośno — cicho) — sieć może mieć „wrodzone skłonności” do przebywania w rejonach ciemnych i stosunkowo cichych. Proszę również zauważyć, iż stwierdzenie „stosunkowo cichych”, a nie cichych ukazuje pewne moce tych skłonności (modalności), dzięki czemu uzyskujemy bardziej realny model takiej sieci. Odzwierciedla to — na etapie uczenia czy samouczenia sieci — „pojętność”, szybkość przebiegania procesu uczenia. Przekładając to na procesy uczenia się człowieka, można stwierdzić, że w wieku przedszkolno-szkolnym, gdy zainteresowani jesteśmy różnicami między chłopcami a dziewczynkami (to są nasze skłonności), szybciej uczymy się wierszyków o sprośnych treściach niż o treściach z walorami dydaktycznymi, których, nota bene, znajomości (dla dziecka, nie wiedząc czemu) wymagają od nas nauczyciele. 2. Nie znana jest nam istota rozwiązywania problemów poza świadomością. Jest

fakt niezaprzeczalny. Ale tak samo niezaprzeczalny (chociażby z intuicyjnego powodu) jest fakt ich występowania i tu trzeba przyznać rację Marciszewskiemu. Natomiast z racji tej nie wynika wcale, że sztuczne systemy kognitywne nie będą mogły realizować takiego sposobu rozwiązywania problemów. Należy zapytać, co to znaczy, że problemy są rozwiązywane poza świadomością? Jeżeli stwierdzimy, że świadomość to zdawanie sobie sprawy z… plus możliwość ingerencji w…, to nie widzę powodu, aby sztuczne układy tego nie mogły wykonać! Bez względu na to, czy rozwiązywanie odbywa się świadomie czy nieświadomie, to się przecież zawsze gdzieś odbywa. Można zaryzykować stwierdzenie, że w danym momencie odbywa się wiele procesów rozwiązywania problemu — świadome rozwiązywanie jednego problemu a innego nieświadome 455

„Problem relacji pomiędzy doznaniami wzrokowymi i dotykowymi. (…) Załóżmy, że niewidomy, który potrafi dotykiem odróżnić kulę od sześcianu, znienacka odzyskuje wzrok. Czy osoba taka będzie zdolna odróżnić te bryły bez porównania wrażeń wzrokowych i dotykowych? (…) Dokładne obserwacje pacjentów, którzy odzyskują wzrok dzięki ingerencji chirurgicznej — na przykład dzięki usunięciu zaćmy — nie pozwoliły rozstrzygnąć problemu Molyneuxa.” [Sanford 1999, s. 586] Na ten temat również: R. Piłat, Percepcja głębi, Internet.

456

Por. Tadeusiewicz 1998a, ss. 182 – 188.

188 (14-12-22)

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

Rozdział 2.  Dzisiaj

189

może się przecież odbywać w tym samym czasie, w tym samym systemie poznawczym. Wówczas: jeżeli maszyna będzie wykonywać czynność x tak, że będzie maszyna owa wykazywać się stanem intencjonalnym w czynności x, to powiemy, że czynność tę wykonuje świadomie. Procesy zaś rozwiązujące przy tej okazji problem y, w taki sposób, że powiedzielibyśmy, że wraz z nim nie jest w stanie intencjonalnym, będą przecież procesami nieświadomymi. Oczywiście wszystko to ma sens przy odpowiednich założeniach. 3. Motywacyjne czynniki inteligencji faktycznie odgrywają ważną rolę w naszym

życiu. Przy tym wpływ naszego ciała na wiele decyzji i motywacji jest nieodzowny (na przykład poczucie głodu wpływa na wiele naszych decyzji). Można spróbować takie motywacyjne czynniki zakodować w maszynie czy w sieci neuropodobnej, a potem można zakodować całą gamę wartościowań. Przykłady? Proszę bardzo457!  Żółw W. Greya Waltera — robot, miał zakodowaną wartość „życia”, więc

poruszał się korzystając ze swojego napędu, a gdy zasoby energii były bliskie zeru, obierał kurs na najbliższe gniazdko sieciowe, aby uzupełnić zapasy458.  Projekt Darwin III, zrealizowany przez grupę badawczą pod kierownictwem

G. Edelmana. Sieć neuronowa miała zakodowaną wartość „poznania” — system sensorów działał na zasadzie „światło jest lepsze niż brak światła” i pochodnej tej zasady „światło w centrum jest lepsze niż światło na obrzeżu układu wzrokowego”, co w rezultacie doprowadziło do pogoni sieci za światłem (umożliwiającym widzenie) i obiektów wytwarzającym światło459.  Model stada ptaków (boidy) (?) Craiga Rynoldsa. Bioty miały zakodowane

warunki współżycia w grupie: „po pierwsze, nie zbliżaj się za bardzo do niczego, także do innych osobników w stadzie; po drugie, staraj się dostosować prędkość swego lotu do prędkości otaczających cię osobników; po trzecie, leć zawsze w kierunku środka grupy, w której się znajdujesz”460. W rezultacie osobniki kierujące się tymi prawami szybko stworzyły zorganizowane stado.  Model stada drapieżnych ptaków (floye) (?) Ariela Dolana, który wykorzystywał

prawa boidów Rynoldsa, a prócz tego miał zakodowane warunki przetrwania stada: „trzymaj się blisko, ale nie za blisko, sąsiadów, a gdy spostrzeżesz intruza, leć do niego i atakuj”.461 457

Można oczywiście w tym momencie dodać, że na przykład w koncepcji memów (genów kultury), zapoczątkowanej przez książki R. Dawkinsa, Ślepy zegarmistrz (PIW, Warszawa 1994) i Samolubny gen (Prószyński i S-ka), powyższy pomysł, systemu wkodowywania czynników motywacyjnych oraz wartościowań jest jak najbardziej systemem odpowiednim i wcale nie jest systemem redukcyjnym (chyba że weźmiemy pod uwagę, iż koncepcja memów jest systemem redukcyjnym!). Por. „Świat Nauki”, 12/2000, w większości poświęcony koncepcji memów).

458

Por. Penrose 1995, s. 26.

459

Por. Edelman 1998, s. 129.

460

Por. Carlson 2001.

461

Tamże. W artykule tym można również znaleźć adresy internetowe stron, na których prezentowane są wyniki powyższych projektów (z możliwością zrealizowania swojego projektu włącznie!).

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

(14-12-22)

189

190

Sztuczna Inteligencja  Sądy estetyczne i gusta ulegają współcześnie metodom komputerowym.

Przykładem są tu badania Kena Y. Goldberga z University of California w Berkeley, który pracuje nad odpowiednim zestawem praw, które później będzie można zaimplementować maszynie.462 Na przykład takie prawo mojego autorstwa: „niekoniecznie jest tak, że przyjaciel mojego przyjaciela będzie dobrym kandydatem na mojego przyjaciela”, zaś „większym prawdopodobieństwem jest, że ktoś, kto jest przyjacielem mojego przyjaciela, będzie moim przyjacielem niż dowolny inny przyjaciel dowolnego innego przyjaciela, w tym mojego nieprzyjaciela”. *** Na końcu tego podrozdziału chciałbym wrócić do cytatu z jego początku, autorstwa E. Pöppela (por. s. 183). Został tam wyłożony pewien proces, który wygląda następująco: dochodzenie do informacji → analiza informacji → reakcja na informację. I tu zarysowana zostaje istota problemu ciała. Czytelnik wie już, że maszyna, która dostaje wszystkie informacje od swych konstruktorów, tzw. model czarnej skrzynki (por. s. 183), jest bardzo uciążliwym i mało interesującym modelem maszyny myślącej. Uciążliwość wynika z mnóstwa pracy konstruktorów, którą trzeba włożyć w początkach fazy uczenia się, czyli w czasie podawania poprawnie wybranych i poprawnie skonstruowanych przypadków wzorcowych (jest to konieczne tak w modelach maszyn specjalistycznych, na przykład do analizy obrazu, jak i w sieciach neuropodobnych, o czym wyżej była mowa). Brak interesujących implikacji może wynikać z faktu, że w zasadzie większość procesów jest przewidywana przez konstruktora. Rozwiązaniem okazuje się wyposażenie maszyn w sensorium, dzięki któremu, niczym nasz hipotetyczny neurorobot do rozróżniania Marsjan i Marsjanek (patrz: s. 175), maszyna sama będzie zbierać informacje, analizować i przetwarzać, oczywiście według reguł przez nas wcześniej wyznaczonych. Lecz co nam to daje? Otóż bardzo interesującą konstrukcję, której uczenie przebiega w formie zbliżonej do uczenia naturalnego ludzi (przynajmniej pojętego intuicyjnie): szukaj → zbieraj → szukaj analogii → wyciągaj wnioski!463 Darwin III „wybiera” pomiędzy obiektami poprzez wyciągnięcie ramienia, rozróżniając te, które są prążkowane i chropowate, od tych, które są prążkowane lub chropowate, ale nie mają obu tych własności naraz. Podobnie jak zwierzę, realizuje on zadanie w sposób indywidualnie zmienny, a nie zgodnie ze zdefiniowanymi z góry klasycznymi kryteriami. Znaczy to, że kategoryzuje jedynie na podstawie doświadczenia, a nie na podstawie zadanego programu. Darwin III jest modelem odwzorowania globalnego, które realizuje w sposób, który można nazwać ucieleśnionym. Takie globalne odwzorowanie jak u Darwina III stanowi minimalną organizację zdolną do kategoryzowania. Oczywiście rzeczywisty mózg zwierząt jest zdolny stworzyć bardzo wiele odwzorowań tego typu.

462

Por. Pescovitz 2000a.

463

Niżej opisane zaawansowane projekty SI można zaliczyć do miana robotyki kognitywnej. Por. Pöppel, Edinghaus 1998, ss. 210 – 211.

190 (14-12-22)

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

Rozdział 2.  Dzisiaj

191

Ruchy „ramienia” Darwina III także są raczej selekcjonowane niż powstają w wyniku instrukcji. Na przykład definiując wartość jako czynnik zwiększający prawdopodobieństwo wzmocnienia połączeń synaptycznych w tych repertuarach ruchowych, które są aktywne, gdy „ramię” automatu porusza się w stronę środka pola wzrokowego, otrzymujemy system, w którym początkowo nieukierunkowany repertuar ruchów rozszerza się na ruchy celowe.464 Rysunek 2.19. Projekt Nomad

Tak w skrócie przedstawia się zasada „zachowania” jednego z najbardziej ambitnych projektów, prowadzonego pod kierownictwem Noblisty Geralda Edelmana465. I gdyby nie jego jeszcze dość prymitywna (o)budowa, można by odnieść wrażenie, że jest to bardzo przekonujący system poznawczy, osadzony na niższym od ludzkiego stopniu rozwoju. Zaś ten wszystko zdradzający wygląd, to: Darwin III ma czteroprzegubowe ramię, receptory dotykowe na końcu ostatniego członu, neurony kinestetyczne w przegubach i ruchome oko. Zawiera modele neuronów składających się na wiele repertuarów, różnorodnych zarówno pod względem układów połączeń, jak i siły synaps. Mimo że pozostaje w jednym miejscu, Darwin III może poruszać okiem i ramieniem w dowolny sposób, ograniczony jedynie przez ich budowę.466 Innym jeszcze, zgoła równie ambitnym projektem, jest hybrydyczny system behawioralny (behavioral system), który powstaje z wielu osobnych przedsięwzięć: projektu Cog, teraźniejszego dyrektora MIT Artificial Intelligence Labolatory, Rodneya Brooksa467, obejmującego układ od pasa w górę, projektu Kismet Cynthi Breazeal (ostatnio 464

Edelman 1998, ss. 131 – 132 — wyróżnienie M. J. K.

465

Innym projektem prowadzonym przez ten sam zespół jest NOMAD (Neurally Organized Multiply Adaptive Device, czyli Wielostronnie Przystosowujące się Urządzenie o Organizacji Neuronalnej; pierwsze zdjęcie od góry), którego zasady działania są zbliżone do Darwina III, a oparte na wcześniej wspomnianej teorii TNGS (por. przyp. 389, s. 173), tak skutecznie rozwijanej przez Edelmana. Por. Edelman 1998, ss. 265 – 266. Warto nadmienić, iż prace nad tymi systemami i im podobnymi Edelman nazwał noetyką: „Urządzenia noetyczne (…) oddziałują na swoje środowisko poprzez selekcję i kategoryzację opartą na wartościach.” [Edelman 1998, s. 266]

466

Edelman 1998, s. 263.

467

Patrz: oficjalna strona projektu: http://www.ai.mit.edu/projects/humanoid-robotics-group/cog/cog.html oraz strona R. Brooksa: http://www.ai.mit.edu/people/brooks/index.shtml.

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

(14-12-22)

191

192

Sztuczna Inteligencja

sygnującej swą pracę nazwiskiem po mężu — Ferrell) (MIT), obejmującego układ mimiki twarzy468, jak i projektów pobocznych, w których uczestniczy dziewiętnastoosobowa grupa badawcza o nazwie Humanoid Robotics Group469, a także Lazlo470, obejmującego twarz (Humanoid Face Project), Coco471, mogącego dostarczyć alternatywnej konstrukcji sztucznego mózgu w całości opartego na ideach koneksjonizmu, Macaco472 (zwanego też M4), czyli alternatywnego modelu głowy, bardzo pomysłowych prac Jessicy Laury Banks, mających za cel budowę antropomoricznego wyglądu całości przyszłego sztucznego człowieka473 (androida), a przede wszystkim teoretycznego modelu umysłu dla takiego artefaktu, przygotowywanego przez Briana Scassellatiego474. Modelowanie wiedzy nie jest jedyną drogą do sztucznej inteligencji. Inteligencja ludzka jest wynikiem długich lat rozwoju, kontaktów społecznych, ucieleśnienia umysłu, jest więc inteligencją behawioralną. W 1994 roku rozpoczęto na MIT projekt Cog, którego celem jest zbudowanie humanoidalnego robota korzystającego z informacji zmysłowych w podobny do człowieka sposób. Jego mózg nie jest zaprogramowany za pomocą reguł logicznych, lecz rozwija się poprzez kontakty z otoczeniem. Na wzór ludzkiego mózgu wyposażono go w podstawowe mechanizmy orientacji, koordynację słuchu i wzroku, lokalizację dźwięków, sprzężenie percepcji i działania motorycznego, układ równowagi, koordynację ruchu głowy i rąk, rozpoznawanie twarzy, utrzymywanie kontaktu wzrokowego, skórę wrażliwą na dotyk, zdolność rozpoznawania dotykanych obiektów. Środowisko, w którym Cog się rozwija, znajduje odzwierciedlenie w jego mózgu, jego świecie wewnętrznym. Czy uda się w ten sposób dojść do inteligencji na poziomie symbolicznym, a więc rozumienia mowy, myślenia czy wyobraźni? Zobaczymy.475

468

Więcej danych na oficjalnej stronie projektu: http://www.ai.mit.edu/projects/humanoid-roboticsgroup/kismet/kismet.html oraz stronie C. Ferrell: http://www.ai.mit.edu/people/ferrell/ferrell.html.

469

Patrz oficjalna strona grupy: http://www.ai.mit.edu/projects/humanoid-robotics-group/people.html, ale również artykuł M. Kasperski, Android potrzebny od zaraz. O kategorii sztucznego człowieka w filozofii Sztucznej Inteligencji, Internet.

470

Patrz: oficjalna strona projektu: http://www.ai.mit.edu/people/edsinger/Research/HumanoidFaceProject/HumanoidFaceProject.htm.

471

Patrz: oficjalna strona projektu: http://www.ai.mit.edu/projects/humanoid-robotics-group/coco/.

472

Patrz: oficjalna strona projektu: http://www.ai.mit.edu/projects/humanoid-robotics-group/macaco/.

473

Patrz: strona J. L. Banks: http://www.ai.mit.edu/people/jessical/research.html.

474

Patrz: oficjalna strona B. Scassellatiego: http://www.ai.mit.edu/people/scaz/scaz.html oraz bezpośrednio 174 stronicowa jego praca omawiająca taki model: B. Scassellati, Foundations for a Theory of Mind for a Humanoid Robot, http://www.ai.mit.edu/people/scaz/papers/scassellati-phd.pdf.

475

Duch 2000b, s. 96. Zob. również: W. Duch, Sztuczny mózg? Sztuczna inteligencja?, Internet.

192 (14-12-22)

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

Rozdział 2.  Dzisiaj

193

A tak na ten temat wypowiada się Anne Foerst, biskup protestancki, zaangażowana w wyżej wymienione projekty jako doradca teologiczny476: Cog został zaprojektowany tak, aby przypominał ludzkie dziecko. Ma tułów dwie rączki, główkę, uszy i oczy. Mały — ten robot — uczy się posługiwać kończynami i poznawać świat dookoła, jak robi to niemowlę. Kismet to właściwie ona — uczy się wchodzić w interakcję z ludźmi poprzez mowę ciała i mimikę. Celem tego projektu jest analiza interakcji między ludźmi i robotami, a także między samymi ludźmi. (…) Poprzednie próby sprowadzały się do odtwarzania w maszynach bardzo abstrakcyjnych możliwości ludzkiej inteligencji: gra w szachy, przeprowadzanie dowodów matematycznych, powstawanie języka naturalnego. Teraz podejście jest takie: jeśli maszyny mają być naprawdę inteligentne muszą zostać wyposażone w ciało. Twierdzimy, że inteligencja nie może być rozpatrywana w oderwaniu od ciała. Sposób, w jaki ciało się porusza, rośnie, trawi żywność, starzeje się — to wszystko ma wpływ na to, co osoba myśli. Dlatego Kismet i Coga uczyniliśmy humanoidami. Cog porusza się i doświadcza otoczenia w sposób, w jaki mógłby to czynić ktoś uczący się chodzić na dwóch nogach. Doświadcza problemów z utrzymaniem równowagi, ze swoją wagą, z grawitacją i tym wszystkim, co my mu robimy, tak że ma on cielesne odczucia zbliżone do naszych. Cechy ludzkie zostały też nadane maszynom po to, żeby wywołać zachowania społeczne u ludzi, którzy się z nimi kontaktują. Inna sprawa, że jesteśmy przekonani, iż o naszym człowieczeństwie decydują nasze zachowania społeczne. Dlatego staramy się traktować Coga i Kismet mniej więcej w taki sposób, jak traktuje się dzieci. Jakby działały intencjonalnie, miały emocje, pragnienia, inteligencję. Staramy się im zapewnić jak najwięcej kontaktu z nami. Cog ma całe ciało, Kismet natomiast to przede wszystkim głowa i wyraz twarzy. Pracując z Cogiem skupiamy się przede wszystkim na kwestiach cielesności, natomiast przy Kismet — raczej na nauce emocjonalnych zachowań.477

476

Po co doradca teologiczny? „Są dwa powody. Po pierwsze, kiedy buduje się maszyny o cechach ludzkich, trzeba poczynić pewne założenia dotyczące samych ludzi. Teologowie zajmują się kulturowym i duchowym wymiarem tego szczególnego pytania, co to znaczy być człowiekiem. Kiedy opracowywane są projekty robotów, takich jak te, możemy spożytkować wiedzę będącą owocem dociekań teologicznych — po to, aby pogłębić nasze rozumienie człowieczeństwa. A zatem także tego, co zaszczepiliśmy w tych maszynach. Z innej strony, konstruując roboty zdolne do zachowań społecznych zmuszamy ludzi do traktowania ich w taki sposób, jakby były prawdziwymi osobami. Wówczas pojawiają się dosyć skomplikowane kwestie moralne. Na przykład, kim my tak naprawdę jesteśmy? Czy nie jest tak, że w zasadzie wszystkie nasze reakcje mają mechanistyczny, funkcjonalny charakter? A może istnieje jakiś znacznie głębszy wymiar relacji społecznych? A co z etyką? Właściwie dlaczego traktować kogoś innego po ludzku, z szacunkiem, jeśli jest on tylko rzeczą, mechanizmem? Na przykład często zastanawiamy się wspólnie nad takim problemem: gdzie postawiona powinna być bariera, poza którą roboty zaczną być tak rozwinięte, że już nie będzie nam wolno ich tak po prostu wyłączyć. To jest autentyczny problem — kiedy stworzenie zaczyna zasługiwać na uznanie za bezwarunkową wartość?”. [Dreyfus, Internet]

477

Dreyfus, Internet.

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

(14-12-22)

193

194

Sztuczna Inteligencja

Na pytanie o to, czy ów bardzo towarzyski Kismet zrobił coś, co naukowców zaskoczyło, Anne odpowiedziała: Kismet jeszcze nie jest dostatecznie wyuczona. Cog jest bardziej zaawansowany. Nasz były doktorant Matt Williamson, człowiek, który zbudował ramię Coga — nauczył go także posługiwać się nim. Aby nauczyć go koordynacji, Matt dotykał ciała robota, a potem robot sam miał dotykać tej samej części. Kiedy w końcu robot zrobił to, Matt wpadł do mojego gabinetu i zawołał: „Chodź, musisz to zobaczyć!”. Wyglądało to absolutnie jak zachowanie człowieka. Nie chodzi o to, że Cog zrobił coś niespodziewanego, ale że była to tak ludzka reakcja. Jakby był żywy!478 Do innych zaawansowanych projektów należą wymienione poniżej.  Projekt CYC (encyclopedia), który został rozpoczęty w 1984 roku479.

Stworzono podstawową ontologię, czyli opis tysięcy pojęć, pozwalających programom AI na zdefiniowanie wspólnej płaszczyzny porozumiewania się na poziomie symbolicznym. Kilka programów-ekspertów CYC może więc współpracować nad rozwiązaniem trudnego problemu, tworząc pewnego rodzaju „konsylium” i korzystając z wiedzy zgromadzonej w bazach danych, na przykład w Internecie. Opracowano specyfikacje i zrobiono wstępne próby systemu opartego na CYC, mającego doradzać prezydentowi USA w sprawach kryzysów politycznych, oraz systemu dowodzenia operacji wojskowych.480  Projekt SOAR.

Rozwijany przez Allana Newella, jednego z twórców klasycznej sztucznej inteligencji, oparty jest na stworzonej przez niego teorii działania umysłu i ma możliwość uczenia się, tworząc w czasie rozwiązywania problemu reguły działania wyższego rzędu. Stosowano go między innymi do tworzenia „agentów” uczących obsługi skomplikowanych urządzeń technicznych w środowisku wirtualnym, do prowadzenia „gier wojennych”, sterowania robotami.481  Projekty Act* i Act-R, które są prowadzone przez Johna Andersona od 1983

roku — pierwszy — i 1993 roku — drugi. Miały one za zadanie doprowadzić do organizacji umysłowo-podobnej. Act* już znalazł zastosowanie przy takich badaniach jak: wyjaśnianie własności pamięci, kolejności odpowiedzi i przypominania, uczenie się nowych słów, uczenie się elementów programowania i rozumowania geometrycznego w czasie dowodzenia twierdzeń482.

478

Tamże.

479

Zob. również: W. Duch, Sztuczny mózg? Sztuczna inteligencja?, Internet. Tam też Duch podaje między innymi, że projekt zaczął się w roku 1980, więc pomiędzy tym artykułem, a artykułem wyżej cytowanym zachodzi rozbieżność. Zob. też oficjalną stronę projektu: http://www.cyc.com/.

480

Duch 2000b, s. 96.

481

Tamże.

482

Por. tamże.

194 (14-12-22)

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

Rozdział 2.  Dzisiaj

195

 Projekt społeczności robotycznej, który jest przeznaczony do badania

zachodzących w nim funkcji, a prowadzony jest przez Thomasa Christallera z St. Augustin483.  Projekt jest prowadzony pod kierownictwem C. Ronalda Kube’a i Hong Zhanga

z University of Alberta, a jego zadaniem jest sprawdzenie zachowania społeczności robotycznej w sytuacji, gdy żaden z osobników pojedynczo nie jest w stanie podołać pewnej sytuacji. Zadanie, które postawili grupie tych urządzeń, polegało na przesunięciu ciężaru do określonego miejsca, przy czym każdy z robotów otrzymał tylko bardzo ogólnikową indywidualną instrukcję: znaleźć obiekt, wejść z nim w kontakt, ustawić się tak, aby znalazł się między nim a celem, pchać go do wyznaczonego miejsca. Chociaż roboty z założenia zostały zaprogramowane bardzo ogólnie, ich zachowanie uderzająco przypominało obyczaje mrówek (sfilmowany przebieg tych eksperymentów można obejrzeć w Internecie pod adresem http://www.cs. ualberta.ca/~kube/). Początkowo roboty poruszały się przypadkowo, próbując zlokalizować obiekt, następnie zaczynały go pchać. Jeśli nie mogły ruszyć ciężaru z miejsca, zmieniały swoje położenie względem niego. Każde niepowodzenie było wyraźnie widoczne, gdyż wówczas obiekt przesuwał się w kierunku niezgodnym z przeznaczeniem. Roboty stale zmieniały swoje ustawienie, gdy traciły kontakt z obiektem, przeszkadzały sobie wzajemnie lub obiekt zaczynał się kręcić w miejscu. Pomimo ograniczonych zdolności indywidualnych roboty zawsze osiągały w końcu cel. Jest jasne, że jednostki próbujące przesunąć ciężar mają znacznie większą szansę pomyślnego wykonania zadania, gdy współdziałają ze sobą. Ze względu na niezwykłą prostotę wzorowanego na mrówkach modelu (roboty nie muszą przecież się porozumiewać), możliwości miniaturyzacji i niewielkie koszty wdrożenia [jak na] to podejście wydaje się bardzo obiecujące.484  Projekt Asimo (tych, którzy sądzą jak ja niegdyś, że nazwa jest skróconą wersją

nazwiska znanego pisarza s-f i twórcy trzech praw robotyki Isaaca Asimova, śpieszę poinformować, że jest to akronim od Advanced Step in Innovative Mobility) jest spokrewniony z wcześniejszym generacyjnie P3, firmy Honda, w którym punktem centralnym prac była koordynacja ruchowa. Projektem między innymi zainteresowała się NASA, chcąc przeznaczyć go, w dalszej kolejności, do wysłania i badania przestrzeni kosmicznej.485  Projekt PSYCHE (European Brain Project), który ma za zadanie budowę

symulatora mózgu dla celów neuropsychologii.486

 I inne.487 483

Por. Pöppel, Edinghaus 1998, ss. 210 – 211.

484

Bonabeau, Théraulaz 2000

485

Dane za: http://www.honda-p3.com/english/html/asimo/frameset2.html.

486

Por. W. Duch, Sztuczny mózg? Sztuczna inteligencja?, Internet.

487

Por. strona W. Ducha [T].

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

(14-12-22)

195

196

Sztuczna Inteligencja

Do projektów przeznaczonych na komercyjny rynek należą nieżej wymienione.  Tamagotchi — cała rodzina elektronicznych stworzonek opracowana przez

japońską firmę Bandai, która w swym czasie podbiła światowy rynek.488 Wszystkie zostały zaprojektowane jako małe elektroniczne breloczki, po włączeniu których na ekranie wykluwał się kurczaczek (bądź w wersja późniejszych inne zwierzę, jak piesek czy kotek). Zabawa polegała na tym by odpowiednio zajmować się maleństwem — karmić, trzymać w hiegienie, usypiać, bawić się z nim. Tak pomyślana rozgrywka kończy się, gdy elektroniczny zwierzak umiera swą elektroniczą śmiercią; tylko rzecz polega na tym, by umarł szczęśliwy.

Dziś znacznie bardziej rozwiniętą wersją Tamagotchi jest komputerowa gra-symulacja o nazwie Black & White (por. s. 98), w której posiadamy do dyspozycji chowańca — nierozwinięte, młodziutkie cyberzwierzątko. Jest on tak zaprogramowany, iż może nabywać pewne umiejętności (przewidziane przez programistów), przyjmować na siebie zachowania swojego nauczyciela (na przykład przekazywane mu przez prowadzenie myszką — „lepiej jest chodzić skrótami niż na około”), a nawet samodzielnie podejmować akcje w świecie, które są zgodne z tym, czego go nauczyliśmy lub ze stanem jego cyberfizjologii (na przykład zjadanie ludzi, co przydarzyło się podczas mojej symulacji). Po kilkugodzinnej prezentacji tej gry-symulacji, muszę stwierdzić, iż jest to obiecująca strategia rozwoju rynku gier w najbliższym czasie. A panel gry, specjalnie przygotowany do prezentacji statystyk rozwoju „osobowości” naszego milusińskiego, jest bardzo dokładny i przekonujący.  Furby, firmy Tiger Electronics489, to pluszowa zabawka, której twórcy wyszli

założenia, że „lepiej bawić się, niż stać bezczynnie” (tę zasadę zdaje popierać i potwierdzać każde zdrowe dziecko). Na włochatym ciele tego stworka rodem z filmów Jima Hansona romieszczonych zostało kilka czujników: światła — informujący zwierzaka jaka jest aktualnie pora doby, dźwięku — pozwalający reagować na klaskanie bądź ludzką i Furbiańską mowę, dotyku — informujące o tym, czy Furby jest głaskany. By jeszcze bardziej uwiarygodnić to cybernetyczne zwierzątko, wyposażono go w takie typy zachowań jak: umięjętność śmiania się, prowadzenia Furbiańskich gier i zabaw, a nawet... mowy. Język jako przy tym skonstruowano jest złożony z elementów chińskiego, tajskiego i hebrajskiego. Prócz tego zwierzątko dobrze sobie radzi ze słownictwem angielskim.

488

Por. Miś 2000b.

489

Przynajmniej tak twierdzi M. Miś (por. Miś 2000b), jednak w innym artykule z „Wiedzy i Życia” czytamy, że firma produkująca Furby to Hasbro (por. Chromicki 2000). Przy czym rację ma M. Miś.; por. oficjalną stronę Tiger Electronic: http://www.tigertoys.com/ oraz http://www.furby.com.

196 (14-12-22)

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

Rozdział 2.  Dzisiaj

197

Rysunek 2.20. Projekt Furby

 Aibo to zabawka naprawdę na miarę XXI wieku490. Jest to wyprodukowany

w 10 tysiącach egzemplarzy przez japońską firmę Sony, cyber-pies491. Zdobywca pierwszych miejsc na Mistrzostwach Świata w Piłce Nożnej Robotów (Robo Cup)492.

Rysunek 2.21. Projekt Aibo

490

Tamże. Patrz też oficjalne strony: http://www.sony.com.sg/aibo/main.html i http://www.aibosite.com/; http://www.aibo.com/.

491

Liczba wyprodukowanych modeli odnosi się tylko do pierwszej generacji robota.

492

Zapoczątkowanych przez Marka Tildena, który zaczynał swoją pracę nad robotyką kognitywną od konstruowania pojedynczych egzemplarzy robotów z elektronicznych odpadów. Por. Dewney 1992. Same Mistrzostwa Świata w Piłce Nożnej Robotów (Robo Cup) są jedną z najbardziej prestiżowych imprez w ramach współzawodnictwa robotów, w tym oczywiście, robotów uczących się. W roku 1998 odbyły się w Paryżu (Francja), w 1999 — w Sztokholmie (Szwecja), w 2000 — Amsterdamie (Holandia), w 2001 — w Seattle (USA), Osace (Japonia) i w Fukuoce (Japonia), w 2002 — w Fukuoce i Busan (Japonia). Por. między innymi oficjalną stronę Robo Cup: http://www.robocup.org/.

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

(14-12-22)

197

198

Sztuczna Inteligencja

SONY w swojej kampanii wprowadziła Drugą Generację autonomicznych robotów! Aibo jest nowym rodzajem robota: autonomiczny, odczuwający swoje środowisko oraz będący w stanie uczyć się podobnie jak dojrzewający pies. Dla każdego Aibo doświadczanie przez niego świata przebiega inaczej, każdy odkrywa swoją własną niepowtarzalną osobowość — inną od każdego kolejnego Aibo. Posiada on 20 obszarów umożliwiających mu poruszanie przy zachowaniu całej gamy realizmu. Ma kilka zmysłów: dotyk (przez jego głowę, podbródek i plecy), słuch (stereo mikrofony), wzrok (kamera w jego głowie) oraz zmysł równowagi. Ponadto dzięki sensorowi na podczerwień, możliwość określania dystansu, możliwość regulacji szybkości poruszania się (na przykład bieg/chód) i zmysł odpowiedzialny za temperaturę. Zmysły te pozwalają Aibo adoptować się do otoczenia, pozostaje w interakcji z ludźmi — i dzięki wspólnym doświadczeniom, zarówno Aibo, jak i ludzie, wynoszą swoje doświadczenia! Z chwilą pojawienia się Aibo (kosztującego na początku, bagatela, 2,5 tysiąca dolarów493) również inne firmy wypuściły na rynek swoje modele robotów zabawek, mających zdolności uczenia się, a przy tym dostosowane do marketingowych potrzeb, gdyż stosunkowo tanie na przykład: I Puppy, pies (7,99 dolarów), Poo-Chi, pies (29,99 dolarów), Meow-Chi, kot, niedaleki kuzyn Poo-Chi (36,99 dolarów), Mega-Byte, pies (24,99 dolarów), Tekno the Robot Puppy, pies (39,99 dolarów), The Tekno Kitten, wersja kocia Tekno the Robot Puppy (39,99 dolarów), Super Poo-Chi, pies (49,99 dolarów), Big & Lil' Scratch Interactive Dogs, psia mama wraz ze szczeniaczkiem (59,99 dolarów), Rocket the Wonder Dog, pies (129,99 dolarów).494  MindStorms to projekt przygotowany przez firmę LEGO. Zestaw

mikrokomputera (wersja RCX lub Micro Scout) wraz z czujnikami spełniającymi rolę sensorów (czujniki dotykowe, świetlne), wybór siedmiu podstawowych zachowań, CD-ROM zawierający instrukcję i język programowania, zestaw klocków, z których możemy budować nasze modele robotów. Rysunek 2.22. Projekt LEGO MindStorms

493

Aktualnie modele Aibo kształtują się w cenach: 2500 dolarów (czyli około 11 250 PLN) — I generacji; 1500 dolarów (czyli około 6750 PLN) — II generacji + 90 dolarów (czyli około 405 PLN) za każdą kartę programującą funkcje (w tej chwili są dwie: Aibo Kid i Hello Aibo) + 150 dolarów (czyli około 675 PLN) za ładowarkę do akumulatorów (+ koszty wysyłki).

494

Por. anglojęzyczną stronę: http://www.robotbooks.com/artificial-intelligence.htm.

198 (14-12-22)

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

Rozdział 2.  Dzisiaj

199

Do tego dołożonych jest kilka osobnych zestawów (LEGO Mindstorms Robotics Invention System 1.5, LEGO Mindstorms Robotics Discovery Set, LEGO Mindstorms Droid Developer Kit, LEGO Mindstorms Dark Side Developer Kit, Expansion Sets, LEGO Mindstorms Vision Command, LEGO Mindstorms Exploration Mars Expansion Set and CD-ROM, LEGO Mindstorms Extreme Creatures Expansion Set and CD-ROM, LEGO Mindstorms RoboSports Expansion Set and CD-ROM, LEGO Mindstorms Ultimate Accessory Set) i wiele opracowań książkowych (The Unofficial Guide to LEGO Mindstorms Robots; Dave Baum's Definitive Guide to LEGO Mindstorms; Extreme Mindstorms; Lego Mindstorms for Dummies i CD-ROM), co powoduje, iż roboprzyjaciele stają się bogatsi i bardziej zróżnicowani. A wszystko po to, by wyprodukować w ostateczności bliską doskonałości, uniwersalną, uczącą się i przyjacielską dla dziecka zabawkę495 — sztucznego przyjaciela.

495

Por. oficjalną stronę MindStorms: http://www.legomindstorms.com.

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

(14-12-22)

199

200

200 (14-12-22)

Sztuczna Inteligencja

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r02-04.doc

Rozdział 3.

Jutro

Zupełnie błędny jest rozpowszechniony pogląd, że naukowcy posuwają się nieubłaganie od dobrze ustalonego faktu do dobrze ustalonego faktu, nigdy nie korzystając w swojej pracy z żadnych postępowych przypuszczeń. Jeśli tylko wiadomo, które fakty są udowodnione, a które są jedynie przypuszczeniami, to żadna szkoda nie może z takiego postępowania wyniknąć. Przypuszczenia mają duże znaczenie, gdyż sugerują użyteczne linie badań. Turing, s. 32.

3.1. Zmierzch klasycznych komputerów? W rozdziałach poprzednich zajmowałem się historią tworzenia się filozoficznych i naukowych podstaw Sztucznej Inteligencji wraz z formowaniem się samej dyscypliny. Jednakże większość z tego, co zostało do tej pory powiedziane — prócz kilku wyjątków (na przykład CAM8) — dotyczyło próby uformułowania sztucznej inteligencji w komputerze, który jest realizacją modelu maszyny Turinga. Maszyny te spełniały bowiem nasze oczekiwania i oczekiwania niektórych badaczy (przynajmniej do tej pory). Jednakże już wiemy, że droga ta niekoniecznie wiedzie ku spełnieniu naszej wizji — maszynie myślącej zaimplementowanej w komputerze. W ostateczności stwierdzić dziś należy, że sztuczna inteligencja to nie tylko problem teoretyczny (w tym oczywiście filozoficzny), ale i techniczny!

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r03-04.doc

(14-12-22)

201

202

Sztuczna Inteligencja

Do najczęściej dyskutowanych przyczyn stwarzających problemy, które już dziś napotykają modele sztucznej inteligencji oparte na klasycznych komputerach, należą wymienione poniżej. 1. Kurczące się obwody scalone o niskiej przepustowości informacji1. Jest to

problem wynikający z dążenia do ciągłej miniaturyzacji sprzętu komputerowego. Dzięki ciągłemu zmniejszaniu tranzystorów w układach scalonych komputery stają się coraz szybsze i potężniejsze. Jest oczywiste, że gdy w mikroukładzie upakowuje się małe, szybkie tranzystory, wiązki połączeń między elementami powinny kurczyć się w podobnej skali. Jednak kłopot polega na tym, że im cieńsza ścieżka połączenia, tym trudniej przepuścić przez nią sygnał elektryczny. Pojemności między cieniutkimi ścieżkami pogłębiają jeszcze ten problem. „Tranzystory stają się coraz szybsze, lecz połączenia działają coraz wolniej — a to najkrótsza droga do katastrofy” — mówi Kevin Martin z Georgia Institute of Technology (…).2 Uniknięcia tejże przyczyny szuka się w3: 

wprowadzaniu jako połączeń ścieżek miedzianych (od 1998 roku; mimo że w tej chwili jest to zasadniejsze niż używanie standardowych ścieżek metalowych, to przesył danych w bramce o długości 100 mm4 wydłuża się 70-krotnie!);



wprowadzeniu połączeń optycznych, dzięki którym nie ma problemu oporności elektrycznej (aktualnie prymat badań nad tym rozwiązaniem należy do MIT, ale projekt ten znajduje się jeszcze w przysłowiowych powijakach5);



prowadzone są także eksperymenty związane z metodami mniej konwencjonalnymi: stosowanie elementów termoelektrycznych (tzw. mroźnych kryształów)6 i nanotranzystorów7.

1

Ten problem jest jednym z najpoważniejszych i został wyznaczony jako N 1 w dokumencie zwanym „Międzynarodowymi Wytycznymi Technologii Półprzewodników” (International Technology Roadmap for Semiconductors), wyznaczającym kierunki badań światowych instytutów na najbliższe 15 lat. Por. Pescovitz 2000b.

2

Pescovitz 2000b, ss. 20 – 21.

3

Por. Tamże.

4

Długość bramki to wartość określająca w przybliżeniu drogę, jaką muszą przebyć nośniki w tranzystorze.

5

Por. również: wywiad z Markiem Melliarem-Smithem: Bishop, Giles, Das 2001.

6

„Nowa technologia daje możliwość poprawy szybkości komputerów o 100% przez proste obniżenie temperatury układów” zauważa Kanatzidis (Mercouri G. Kanatzidis to chemik z Michigan State Univeristy, który pracuje nad metodą mroźnych kryształów — przyp. M. J. K.).” [Martindale 2000, s. 21]

7

„Zespół naukowców ze Stanford Univeristy opracował technologię tranzystorów polowych, która za pomocą obecnych metod pozwoli wytwarzać elementy o wymiarach około 50 nm. Tranzystor nowej konstrukcji, zwany FinFET-em, ma bramkę o długości zaledwie 1,8 nm. Tak krótki kanał — warstwę 100 atomów krzemu — osiągnięto, stawiając pionowo bramkę tranzystora (zwykle FET-y mają konstrukcję planarną). Do praktycznego wykorzystania nowych tranzystorów niezbędne jest jeszcze opracowanie sposobu doprowadzania sygnałów do tak małych struktur.” [Nanotranzystory, s. 22]

202 (14-12-22)

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r03-04.doc

Rozdział 3.  Jutro

203

2. Niewystarczalność układów krzemowych8.

„Przewiduje się, że za mniej więcej 10 lat napotkamy przeszkody, które uniemożliwią dalsze doskonalenie układów elektronicznych na bazie krzemu” — wyjaśnia Phaedon Avouris, szef zespołu nanotechnologii w IBM Thomas J. Watson Research Center.9 Problem ten próbuje się rozwiązywać za pomocą metody wykorzystującej dorobek nanotechnologii, zwłaszcza tzw. nanorurek węglowych. Ciągła miniaturyzacja elementów krzemowych i precyzyjne sterowanie właściwościami elektronicznymi w mniejszej skali może wkrótce stać się źródłem nierozwiązywalnych problemów. Przemysł elektroniczny już teraz szuka materiałów alternatywnych.10 „Jedna z możliwości to technologia oparta na zupełnie nowym pierwiastku — Stwierdza Avouris. — a w tym przypadku węgiel to chyba najlepszy wybór.” (…) W ostatnich latach odnotowano wiele obiecujących wydarzeń związanych z elektroniką wykorzystującą nanorurki węglowe. W 1998 roku Avouris i Cees Dekker z Politechniki Delft w Holandii wykazali, że pojedyncza nanorurka może działać jak tranzystor. W minionym roku Dekker i Leon Balents z Lucent Technologies ogłosili, iż pojedyncza nanorurka z naturalnym złączem pomiędzy odcinkami o budowie prostej i spiralnej zachowuje się jak dioda prostująca — połówka tranzystora w jednej cząsteczce. Avouris zademonstrował też, że natężenie prądu przepływającego przez półprzewodzącą nanorurkę można zmieniać o pięć rzędów wielkości. „A więc to dobry przełącznik” — stwierdza.11 3. Efekt nadparamagnetyczny, będący fizyczną barierą dla rozwoju dysków

twardych12. Wraz z liczbą dostępnych informacji i zwiększającą się potrzebą obrotu nimi, rynek twardych dysków prężnie się rozwijał: w latach osiemdziesiątych tempo wzrostu pojemności dysków twardych zwiększało się co rok o 25 – 30%, w latach dziewięćdziesiątych — do 60%, aby pod koniec ubiegłego roku (tzn. 1999 — przyp. M. J. K.) osiągnąć 130%.13

W rezultacie też — oczywiście po przeprowadzeniu odpowiednich statystyk — należałoby stwierdzić, że Gęstość danych na magnetycznym dysku twardym wzrosła 13 000 000 razy w 40 lat po wprowadzeniu przez IBM pierwszego komercyjnego napędu w 1957 roku.14

8

Por. Mirsky 2000.

9

Mirsky 2000, ss. 20 – 22.

10

Por. problem powyższy i publikacje z nim związane oraz: Reed, Tour 2000.

11

Mirsky 2000, ss. 20 – 22.

12

Por. Toigo 2000.

13

Tamże, s. 43.

14

Tamże.

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r03-04.doc

(14-12-22)

203

204

Sztuczna Inteligencja

Jednakże pojawiają się pierwsze wątpliwości związane z rozwojem technologii miniaturyzacji i powiększania pojemności dysków twardych. W nadchodzących latach możemy osiągnąć w technologii granicę wyznaczoną przez efekt nadparamagnetyczny (SPE — Superparamagnetic Effect). Mówiąc najprościej, efekt nadparamagnetyczny występuje wtedy, kiedy całkowita energia układu spinów atomów tworzących pojedynczy bit (0 lub 1) zbliża się do energii termicznej w temperaturze otoczenia. Spełnienie warunku oznacza, że bity mogą losowo zmieniać swoją wartość z 0 na 1 i odwrotnie, powodując utratę zapisanych informacji.15 Udaną próbą rozwiązania powyższego problemu może okazać się metoda, która została zastosowana w komputerach pokładowych promów kosmicznych. Aby wykluczyć tego typu awarie, w bremeńskich komputerach zainstalowane zostały specjalne jednostki kontrolne zwane EDAC. W regularnych odstępach czasu porównują one zawartość układów RAM z zapisanymi sumami kontrolnymi. W razie napotkania różnicy jednostki te mogą sprawdzić, czy błąd kryje się w pamięci RAM czy też w sumie kontrolnej, i w razie potrzeby samodzielnie go skorygować.16 I chociaż mamy tu do czynienia ze zmianą informacji w pamięci RAM, a nie w pamięci stałej dysku twardego, można mieć nadzieję na zastosowanie takiej — analogicznej — metody do przypadku drugiego. Innym jeszcze lekarstwem na wszystkie wymienione tu dolegliwości mogą się stać alternatywne modele maszyn informatycznych. Posiadają one podstawową zaletę: nie będąc tylko tymczasową protezą, a całkowitym modelem, rokują spore szanse na to, że będą znacznie efektowniejsze i wydajniejsze od swych poprzedników.

3.1.1. Alternatywne modele maszyn informatycznych Można mówić o dwu alternatywnych drogach wiodących do nowych możliwości maszyn informatycznych:  komputerach kwantowych;  komputerach biologicznych, do której to rodziny zalicza się również

neurokomputery.

15

Tamże. Z podobnymi problemami muszą mierzyć się konstruktorzy pokładowych komputerów promów kosmicznych. Efekt taki zwany jest Single Event Upsets, czyli szkody wywołane promieniowaniem kosmicznym (…) Przykładem takiego zdarzenia jest uderzenie jednego protonu w komórkę pamięci RAM i przeprogramowanie jej. Zamiast jedynki w obszarze tym pojawi się zero lub odwrotnie. W następstwie takiej aplikacja może wykonać błędne polecenie i na przykład obniżyć o 20 stopni temperaturę na pokładzie stacji.” [Dębek 2001, s. 41]

16

Dębek 2001, ss. 41 – 42.

204 (14-12-22)

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r03-04.doc

Rozdział 3.  Jutro

205

O komputerach kwantowych głośno stało się przede wszystkim za sprawą R. Penrose’a. W swojej bodaj najgłośniejszej książce, Nowy umysł cesarza, pisał17: Zgodnie z niedawno wysuniętymi koncepcjami Davida Deutscha (1985) w zasadzie możliwe jest zbudowanie „kwantowego komputera”. (…) Obecnie nie jest jasne, jak można zbudować maszynę rzeczywiście działającą jak komputer kwantowy (…) ale wydaje się, że istnieje teoretyczna możliwość, iż komputery kwantowe mogą przewyższyć maszyny Turinga.18 Jako wytyczne działania komputera kwantowego (za D. Deutschem) Penrose przyjmował: Zasadnicza idea polega na wykorzystaniu kwantowego paralelizmu, zgodnie z którym musimy przyjąć, iż jednocześnie zachodzą całkowicie różne procesy, opisywane stanami należącymi do liniowej superpozycji. Na przykład foton może jednocześnie przejść przez półprzepuszczalne zwierciadło i odbić się od niego, lub też może przejść przez dwie szczeliny równocześnie. W przypadku komputera kwantowego takimi procesami są dwa różne rachunki, przy czym interesuje nas nie wynik obu rachunków, lecz coś, do czego potrzeba części informacji pochodzącej z superpozycji pary rachunków. Gdy oba rachunki są już wykonane, przeprowadzamy odpowiednią „obserwację” i otrzymujemy poszukiwaną odpowiedź.19 Takie urządzenie może działać szybciej, ponieważ wykonuje dwa rachunki jednocześnie!20 Oczywiście, jak sam Penrose przyznaje nieco dalej, z tego jeszcze nie wynikają korzyści, których byśmy nie znali wcześniej (na przykład dzisiaj można by użyć do tych dwu rachunków dwu komputerów klasycznych albo też jednego pracującego równolegle). Zalety kwantowego komputera stają się oczywiste dopiero wtedy, gdy trzeba wykonać bardzo dużą liczbę równoległych rachunków — być może nawet nieskończoną — przy czym nie interesuje nas wynik każdego z tych rachunków z osobna, a tylko odpowiednia ich kombinacja.21 Dzisiaj poczyniono już odpowiednie badania w tym kierunku. To, co jeszcze Penrose w 1989 roku22 nazwał „w zasadzie możliwością”, w niedługim czasie może stać się faktem.

17

W pozycji tej poświęcony jest cały podrozdział temu zagadnieniu (Komputery kwantowe, ss. 440 – 442); w polskiej literaturze zob. Lem 1999, s. 148.

18

Koncepcja, o której mowa, została wysunięta w: D. Deutsch, Quantum theory, the Church-Turing pronciple and the universal quantum computer, w: Proc. Royal Society, London 1985, ss. 97 – 117; dane za: Penrose 1995, s. 494.

19

W swojej pracy Deutsch korzysta z teorii „wielu światów”. Należy podkreślić, że nie ma to istotnego znaczenia. Koncepcja komputera kwantowego nie zależy od przyjętej interpretacji mechaniki kwantowej. (Przyp. za cyt.)

20

Penrose 1995, s. 441.

21

Tamże, s. 170.

22

W tym roku została napisana książka Nowy umysł cesarza.

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r03-04.doc

(14-12-22)

205

206

Sztuczna Inteligencja

Dotychczas udało się zbudować jedynie najprostsze elementy kwantowego komputera: bramki logiczne, które mogą przetwarzać jeden lub dwa qubity23. (…) Najważniejsze jest niezawodne przekazywanie kwantowych danych między różnymi bramkami logicznymi lub procesorami, zarówno wewnątrz kwantowego komputera, jak i w kwantowej sieci. (…) Poza tym Daniel Gottesman z Microsoftu i Isaac L. Cuang z IBM udowodnili ostatnio, że kwantowy komputer ogólnego zastosowania można zbudować z kilku podstawowych elementów: splątanych cząstek, kwantowych teleporterów i bramek, które przetwarzają sukcesywnie qubity.24 W efekcie otrzymujemy bardzo wydajną maszynę, która potrafi realizować tysiące operacji jednocześnie, co znacznie przyspiesza złożone procesy obliczania, na przykład przy łamaniu wszelkiego rodzaju kodów. Oprócz tego jest nadzieja, że komputery takie będą potrafiły zrobić to, z czym nie radzą sobie — co zarzuca im Penrose — komputery klasyczne. To znaczy, że będą potrafiły radzić sobie ze zdaniami typu Π125 (patrz: ss. 118 – 119). Od 10 lat szeroko omawiany jest pomysł skonstruowania i późniejszego wykorzystania komputerów biologicznych. Pomysł ten, rodem z literatury science-fiction, w dobie nanotechnologii i genetyki z dnia na dzień staje się coraz bardziej pociągający. Dziedzina wiedzy, która postawiła sobie za cel konstrukcję takiego artefaktu nosi nazwę bioinformatyki, a szerzej — bioinżynierii26. Na wzór XVIII-wiecznego filozofa Juliena O. de La Mettriego można spróbować spojrzeć na organizm ludzki jak na swego rodzaju maszynę, oczywiście maszynę naturalną27. Jak już Czytelnik mógł przekonać się na podstawie lektury rozdziału pierwszego, punktem wyjścia na rzecz takiego spojrzenia było medyczne wykształcenie La Mettriego (patrz: ss. 28 – 32). Współczesna wiedza medyczna jeszcze więcej może przynieść argumentów na rzecz takiej hipotezy. Kolejnym niejako skokiem redukcyjnym było (i jest) zastosowanie metafory komputerowej (patrz: ss. 166 – 170). Właśnie w rezultacie tych twierdzeń pojawiły się pierwsze pomysły i poczyniono badania w kierunku skonstruowania komputera biologicznego — biokomputera. Nawet jeśli założymy, że organizm ludzki nie jest żadną maszynerią, a mózg nie jest komputerem, czy bardziej sceptycznie — że nie mamy żadnych powodów, aby tak twierdzić, musimy przyznać, iż przyroda daje nam liczne wskazówki — w tym oczywiście wskazówki w dziedzinie informatyki. Jedną z nich jest świetna organizacja oraz rozwiązania techniczne powstałe w wyniku ewolucji. Przykładów jest wiele. 23

Qubit, to po prostu kwantowy bit (quantum bit); por.: Komputery kwantowe, s. 33; Gershenfeld, Chuang 1998.

24

Komputery kwantowe, s. 33.

25

Por. przedostatni akapit w: W. Marciszewski, Problem reprezentacji arytmetycznej rozumowań zapisywanych w kodzie neuronowym, Internet.

26

Jeszcze wcześniej zaś mawiało się o biocybernetyce (por. chociażby: Lem 1996a; Trąbka 1983), a nawet o neurocybernetyce.

27

Por. La Mettrie 1984. W ten sam sposób (jako naturalne maszyny) traktował ludzi G.W. Leibniz, wychodząc jednakże od innych założeń metafizycznych niż La Mettrie.

206 (14-12-22)

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r03-04.doc

Rozdział 3.  Jutro

207

 Pamięć limfocytów, która jest pomaga w procesie rozpoznawania genów

i antygenów organizmu rodzimego i odpowiednim reagowaniu na te drugie, może być świetnym punktem wyjścia do projektowania, na wzór pamięci biologicznej, pamięci stałej komputerów.28  Metabolizm bakterii może natomiast stanowić coś w rodzaju samoodnawialnego

źródła energii do wykorzystania na przykład w robotyce kognitywnej.29

 Kodowanie informacji w DNA może skutecznie zastąpić klasyczne kodowanie

za pomocą bitów (0 i 1). Human Genome Sciences (HGS), poważna firma30, z którą był wówczas (w 1995 roku — przyp. M. J. K.) związany z IGR (Institute for Genomic Research — przyp. M. J. K.), zgłosiła niedawno patent nie tylko na sekwencję nukleotydów w DNA, ale także na „czytany przez komputer nośnik, mający zakodowaną sekwencję nukleotydów.31 W ten sposób doszło do opatentowania zer i jedynek kodujących A, G, C i T32.  Zdolność do samoorganizacji i samowzrostu, a być może nawet samoreplikacji.33

Wykorzystuje się tu również fakt wymiany informacji między komórkami, dzięki czemu może powstać komputer posiadający zdolność do samoodnawiania (pokrywający się w tym momencie z możliwościami plastyczności mózgu), a przy tym tani, bo wykorzystujący fakt już istniejących i samoreplikujących się „części” (co oczywiście stanowi o późniejszym fakcie wielkich oszczędności firmy, która nie musiałaby ich więcej produkować). A jak wyglądałaby praca takiego biokomputera? We współczesnym komputerze do zapisu stosujemy tylko dwie cyfry: 0 i 1, czyli używamy kodu binarnego, natomiast wykorzystując DNA, korzystalibyśmy z czteroliterowego (A, T, C, G) kodu genetycznego. (…) W tradycyjnym komputerze informacje zapisuje się na twardym dysku lub na płycie kompaktowej (ewentualnie na dyskietce, przyp. M. J. K.). W komputerze biologicznym informacje można by zapisać w sekwencji podjednostek budulcowych DNA. Jeden bit informacji to jedna litera, na przykład A. Ta litera zajmuje w nici DNA około jednej milionowej milimetra. Tak więc w cząstce o długości jednego centymetra można zapisać ponad 1 MB informacji. Cząsteczka DNA 28

Por.: Pamięć limfocytów; Scott, Pawson 2000.

29

„Stuart Wilkinson, pomysłowy wynalazca z Univeristy of South Florida w Tampie, skonstruował robota napędzanego „baterią bakteryjną” (microbial fuel cell — czyli w skrócie MFC), którego nazwał gastrobotem. Jego źródłem energii jest elektryczność wytwarzana przez bakterie żywiące się substancjami organicznymi. Marzeniem Wilkinsona jest skonstruowanie kosiarki do trawy, która czerpałaby energię z samej trawy.” [Mięsożerny robot, s. 15] Por. też: Bateria z bakterii; Pierwsze silniczki DNA.

30

Jest to firma, która rozkodowała ludzki genom.

31

Stix 2001, s. 18.

32

Są to oczywiście pierwsze litery czterech kodujących aminokwasów: A (adenina), T (tymina), C (cytozyna) i G (guanina).

33

Por.: Robot, syn robota, s. 16. (org. w: „Nature” nr 6799/2000); Joy 2000.

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r03-04.doc

(14-12-22)

207

208

Sztuczna Inteligencja

jest 20 tys. razy cieńsza niż ludzki włos (który ma około 50 mikrometrów grubości). Wynika z tego, że w łebku szpilki (o objętości 1 milimetra sześciennego) można zmieścić 10 mld takich cząsteczek. Oznacza to, że przy użyciu zapisu biologicznego możemy pomieścić w łebku szpilki 100 tys. razy więcej informacji, niż zmieściłoby się na dysku o pojemności 100 gigabajtów. Jak widać, pojemność pamięci biologicznej jest miliardy razy większa niż pamięci konwencjonalnej. Molekularny sposób zapisu informacji w cząsteczce DNA wypracowany przez naturę w ciągu miliardów lat ewolucji jest w chwili obecnej górną granicą pojemności pamięci i znacznie przewyższa pojemność ludzkiego mózgu. Kopiowanie informacji w komputerze biologicznym odbywa się (…) tak, jak kopiuje się DNA przy podziale komórki. Co więcej, w jednej probówce możemy mieć wiele milionów kopii tej samej cząsteczki, czyli wiele kopii tej samej informacji. Istnieje metoda zwana PCR, która w ciągu kilku godzin pozwala na uzyskanie miliardów kopii tej samej cząsteczki.34 Kopiowanie informacji tą metodą jest zautomatyzowane, łatwe i stosunkowo tanie. (…) Jak wygląda porównanie szybkości komputera Pentium III 800 MHz i komputera biologicznego? W ciągu 1 sekundy procesor Pentium wykona maksymalnie 800 mln operacji. W tym czasie na jednej cząsteczce DNA zostanie wykonana w naszym komputerze biologicznym tylko jedna operacja. Na pierwszy rzut oka wygląda, że komputer biologiczny jest strasznie wolny. Ale nie zapominajmy, że w jednej probówce możemy zmieścić astronomiczną liczbę cząsteczek DNA (1020 lub więcej). W czasie jednej sekundy na każdej z tych cząsteczek zostaje wykonana jedna operacja, a więc w sumie w ciągu 1 sekundy komputer biologiczny może wykonać 1020 operacji, podczas gdy najnowszy Pentium III tylko 109. Oznacza to, że komputer biologiczny jest od niego 1011 (100 miliardów) razy szybszy!35 W rezultacie też komputer taki mógłby być przeznaczony do obliczeń znacznie bardziej skomplikowanych, na przykład do deszyfracji, ale również do operowania na przykład modułami percepcyjnymi na zasadzie równoległej obróbki danych ze wszystkich zainstalowanych sensorów w celu otrzymania całościowego obrazu sytuacji — tak, jak odbywa się to w naturalnych systemach kognitywnych, na przykład u człowieka. Powstaje oczywiście pytanie o to, ile z tych projektów można dzisiaj zrealizować? Albo przynajmniej — ile można się spodziewać z tego zrealizować? Miłośników szybkich komputerów, którzy chcieliby zobaczyć „genetycznego peceta”, czeka jednak przykre rozczarowanie. Takie zintegrowane urządzenie niestety jeszcze nie istnieje, a cały projekt nie wyszedł poza stadium testów wykonywanych w laboratoriach. Automaty potrafią jedynie powielać DNA metodą PCR, zaś sama analiza wyników wymaga już żmudnej pracy laboratoryjnej, w tym tradycyjnego przelewania roztworów z probówki do probówki. W 1994 roku zaprezentowano prototyp komputera, w którym dane zapisywano, wykorzystując umieszczone w probówce cząsteczki DNA. Pierwszy komputer biologiczny rozwiązywał jednak przez 7 dni problem, z którym dziecko uporałoby 34

Por. Odkrywanie przeznaczenia.

35

Hołyst 2000, ss. 18 – 20.

208 (14-12-22)

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r03-04.doc

Rozdział 3.  Jutro

209

się w kilkanaście sekund, a komputer jeszcze szybciej. Był to tzw. problem komiwojażera: siedem miast położonych wzdłuż jednej linii ponumerowano od 1 do 7. Trzeba wyznaczyć najkrótszą drogę, która zaczyna się w mieście 1., kończy w mieście 7. i przez każde miasto przechodzi tylko raz. Nie wiadomo, kiedy zobaczymy pierwszy komputer biologiczny na biurku, nie należy jednak tracić nadziei. Pierwsze komputery zbudowane w latach 40. i 50. XX wieku miały rozmiary przypominające małe hale technologiczne, a liczyły wolniej niż dzisiejsze kalkulatory. Dopiero odkrycie tranzystora krzemowego i stworzenie układów scalonych pozwoliło 20 lat później na produkcję pierwszych komputerów osobistych. Wymagało to geniuszu, a także pracy milionów ludzi, o czym warto pamiętać, marząc o komputerach DNA.36 Oczywiście, gdy powstaną pierwsze tego rodzaju biokomputery, powstaną też pierwsze pytania ze strony etyków o to, jaką wartość etyczną posiada wyłączenie takiego komputera z gniazdka? Czy to jeszcze jest sztuczny mechanizm czy już zalążki żywej istoty (quasiistoty?)? I w ten sposób przechodzimy znów do problematyki stricte filozoficznej.

3.2. Wybrane implikacje SI Jeden z ludzi, który miał spory wpływ na współtworzenie dzisiejszej rzeczywistości, Stanisław Lem, stwierdził przy okazji jednej ze swoich ostatnich publikacji, iż Każda bez wyjątku nowa technologia ma awers korzyści i zarazem rewers nowych, nieznanych dotąd bied.37 Stwierdzenie to, choć intuicyjnie oczywiste, jest moim zdaniem ze wszech miar warte zapamiętania! Problem maszyn myślących nie jest tylko problemem natury możliwości czy niemożliwości urzeczywistnienia jej. Jest również próbą wyrażenia w nowy sposób jednego z pytań postawionych w odległej przeszłości przez filozofów. Pytania o to, kim jesteśmy? Co stanowi o naszym człowieczeństwie? Problem maszyn myślących jest też zbliżony do natury problemu relacji człowiek-maszyna: Czy maszyna myśląca ma prawo odmówić człowiekowi wykonania zadań jej powierzonych? Czy wykorzystanie jej pracy nie jest w gruncie rzeczy powrotem niewolnictwa nowej generacji? Na pewno pytaniem o możliwości człowieka. Pytaniem, o granice jego aktywności i poznania. Pytaniem, o miejsca dla niego niedostępne, w których maszyny takie mogłyby w przyszłości go zastąpić.

36

Tamże.

37

Lem 1999, s. 7 — wytłuszczenie M. J. K.

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r03-04.doc

(14-12-22)

209

210

Sztuczna Inteligencja

3.2.1. Korzyści Większość korzyści, które jako społeczność ludzka możemy uzyskać z posiadania maszyn myślących czy inteligentnych systemów, w zasadzie można zaobserwować (i wypunktować) na podstawie lektury rozdziału 2. — „Dzisiaj”. Zwłaszcza z tej jego części, w której mowa była o rezultatach badań z zakresu Sztucznej Inteligencji. Teraz tylko usystematyzuję to, co poruszyłem wcześniej i dodam elementy niezbędne do wytworzenia całościowego obrazu tego zagadnienia. Przy czym podkreślić trzeba — na co zwracam szczególną uwagę — że we wszystkich niżej wymienionych obszarach były przeprowadzone już badania! Nie jest to więc zbiór implikacji hipotetycznych, a raczej zbiór implikacji, które zajść — prędzej czy później — będą musiały, gdyż ich początki widoczne są już dzisiaj.  Systemy eksperckie — są rodziną programów specjalizujących się w określonej

dziedzinie wiedzy. Można powiedzieć, że są rodzajem interaktywnej encyklopedii. Zadaniem ich jest współdziałanie ze specjalistą z danej dziedziny w celu uzyskania lepszych rezultatów jego pracy. Przykładami takich programów są systemy eksperckie z medycyny czy z obszarów dydaktyczno-pomocniczych (na przykład niektóre systemy pomocne przy dowodzeniu twierdzeń z logiki) itd.  Systemy jednozadaniowe — to robocza nazwa, którą ukułem na potrzeby tej

pracy. Do systemów takich zaliczyłbym wszystkie maszyny i programy, których celem jest wykonywanie jednego tylko zadania, na przykład analizy obrazu wzrokowego bądź słuchowego. Wykorzystywane są one na przykład do monitorowania stadionów i identyfikowania na nich pseudokibiców.  Systemy wielozadaniowe — to wszystkie te maszyny i programy, których

zadanie nadrzędne jest tak skomplikowane, że wymaga wstępnej pracy podsystemów, na przykład tworzenia obrazu sytuacji na podstawie różnych bodźców (obrazów) sensorycznych. System taki został wykorzystany w sondzie Pathfaider, która realizowała misję rozpoznawczą na Marsie.  Systemy specjalistyczne jednowymiarowe — przygotowane do zadań

wymagających od nich specjalizacji w jednym zakresie, na przykład w chirurgii.38

 Systemy specjalistyczne wielowymiarowe — to niejako systemy analizujące

wiele danych i wciąż nanoszące wiele poprawek, lecz w granicach jednej sytuacji. Do systemów takich zaliczyłbym te, które już w niedalekiej przyszłości będą zawiadywać ekosferą ludzkiego domostwa, na przykład będą dbać o to, by temperatura otoczenia była taka, jaką preferujemy, a także o to, aby nasze dziecko grzecznie bawiło się w jednym pokoju, a kiedy z niego wyjdzie, system będzie nas o tym informował.39  Systemy symulacyjne — skonstruowane i wyedukowane tak, by odtwarzać

naturalne warunki dla człowieka (na przykład symulatory pacjentów dla medycyny40) lub stwarzać takie warunki w świecie wirtualnym — domena Artificial Life. 38

Por. Pescovitz 2001.

39

Por. Gibbs 2001.

40

Por. Chory robot, s. 6.

210 (14-12-22)

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r03-04.doc

Rozdział 3.  Jutro

211

Prócz tego same badania nad sztucznymi systemami poznawczymi mogą pomóc nam osiągnąć wiedzę i wytworzyć technikę tam, gdzie jest ona potrzebna. Przykłady można mnożyć.  Całościowe badania nad Sztuczną Inteligencją — mają podstawową wagę dla

nauk kognitywnych, a z tego względu — także dla filozofii. Mogą uwierzytelniać bądź falsyfikować teorie umysłu (lub aspekty teorii umysłu). Tak jak filozofowie badacze sztucznej inteligencji obdarzają każdą nowa propozycję intuicyjnymi ocenami jej perspektyw, popartymi bardziej lub mniej a priori formułowanymi argumentami na rzecz uwzględnienia bądź pominięcia jakiejś własności. Ale w odróżnieniu od filozofów badacze ci nie zadawalają się owymi argumentami i intuicjami. Zostawiają sobie trochę miejsca na zaskoczenie wynikami, zaskoczenie, które może być wywołane tylko przez okazaną, nieoczekiwaną moc jakiegoś rzeczywiście wymyślonego systemu w czasie jego faktycznego działania.41  W zakresie transplantologii — już dziś buduje się układy, dzięki którym

niewidomi mogą zobaczyć, głusi — usłyszeć itd. 42

 W zakresie nauk — na przykład matematyki, czego przykładem może być

udowodnienie przez EQP hipotezy Robbinsa (patrz: ss. 114 – 117).  Czy w zakresie informatyki — co wiele razy wykazywałem.

A oczekiwać można jeszcze więcej. Można też stawiać nowe zadania. Można na przykład próbować rozwiązywać kolejne problemy matematyczne (listę takich problemów już ustalono na kolejnym kongresie matematycznym w Collège de France, Clay Mathematics Institut43, zorganizowanym na wzór XII Międzynarodowego Kongresu Matematyków, na którym przemawiał między innymi David Hilbert). Zupełnie inny rodzaj korzyści może przynieść rozwijający się rynek zaawansowanych zabawek elektronicznych oraz bliski mu rynek gier osadzonych w nurcie Artificial Life (z czołowym przedstawicielem, grą Sims). Podstawową korzyść mogą z tego rodzaju zabaw wyciągnąć dzieci, które dostając pod swoją opiekę małe stworzonka, będą mogły wyrabiać w sobie odruchy troski i odpowiedzialności. Choć związane jest z tym również i pewne niebezpieczeństwo, które wynika z faktu, iż nawet jeśli dziecko niewystarczająco zajmie się swoim milusińskim pupilem, to zawsze ma możliwość rozpoczęcia zabawy od początku. Tu mogą się zacierać granice pomiędzy życiem realnym a wirtualnymi rozgrywkami. Dziecko może wyrobić sobie mylny pogląd na świat, może pomyśleć, że oto mrówka, którą dzisiaj rozdepcze, po naciśnięciu jednego przycisku powróci jutro do życia. Zagrożenia też mogą być innego rodzaju, czasami bardziej błahe, czasami poważniejsze. Nimi zajmę się teraz.

41

Dennett 1995, s. 19.

42

Por. chociażby: Świat oczami kota, s. 6; Nowakowska 2000.

43

Prywatny instytut matematyczny z siedzibą w Massachusetts (USA), założony i sponsorowany przez amerykańskiego milionera Landona T. Claya (por. Sitarz 2000). Por. też Miś 2000a.

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r03-04.doc

(14-12-22)

211

212

Sztuczna Inteligencja

3.2.1. Zagrożenia Najczęściej wymienianym zagrożeniem, które niczym fatum krąży nad głowami ludzi zaangażowanych w badania nad Sztuczną Inteligencją, jest mit buntu robotów. Inteligentny system będzie posłuszny — albo nie zechce być posłuszny, ponieważ rozumie nakazy, prośby, sugestie, żądania i może słuchać albo się sprzeciwić.44 Mit buntu robotów powstał w wyniku mody panującej w literaturze science-fiction w latach 50. Wtedy to jeden z najwybitniejszych pisarzy tego gatunku, Isaac Asimov, opracował tzw. trzy prawa robotyki45: 1. Robot nie może być niebezpieczny dla człowieka. 2. Robot musi być zawsze posłuszny człowiekowi, chyba że jest to sprzeczne

z pierwszym prawem. 3. Robot musi unikać niebezpieczeństwa, chyba że jest to sprzeczne z pierwszym,

drugim lub obydwoma poprzednimi prawami. Zakodowanie ich robotom (i przez to rozwiązanie problemu niemożliwości nieprzestrzegania ich) spowodować by miało, zdaniem Asimova, że w ostateczności wydarzenie, takie jak bunt maszyn, nigdy nie mogłoby mieć miejsca. Można oczywiście zastanawiać się nad sensem i powodem takiego zachowania ze strony maszyn myślących. Włodzisław Duch, dla przykładu, zwraca uwagę na to, że bunt ze strony sztucznych inteligentnych systemów raczej nam nie grozi. Dlaczego? Powodem miałby być fakt, że nasz świat (z naszymi czterema wymiarami) byłby mało interesującą alternatywą dla systemów, które rozwinąć by się przecież miały ponad zdolności ludzi46. Inaczej mówiąc, podbój naszego świata przez maszyny byłby dla maszyn tak samo mało interesujący jak podbój świata orangutanów dokonany przez ludzi. Inaczej do sprawy podchodzi Stanisław Lem. Podkreśla on, iż sztuczne systemy myślące będą jednak systemami myślącymi, więc w ramach stosunków człowiek-maszyna, gdy będą to stosunki typu pan-niewolnik, może dojść do sytuacji konfliktowych47. I co wtedy? Czy prawa robotyki Isaaca Asimova będą spełniały pokładane nadzieje? Osobiście wątpię. Dlaczego? Powodów jest wiele, choćby te, które wyłożę niżej, gdyż związane są z niekoherentnością konsekwencji samych praw robotyki. Może krótko tylko o dwóch przypadkach: 1. Co będzie, gdy człowiek każe komputerowi zakochać się w sobie? 2. Co będzie, gdy każemy mu sprzeciwiać się spełnianiu części naszych poleceń?

44

Lem1999, s. 67.

45

Prawa robotyki za: Hołyński 1979, s. 7.

46

Por. strona domowa W. Ducha.

47

Por. Lem 1999.

212 (14-12-22)

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r03-04.doc

Rozdział 3.  Jutro

213

Rozważę problem 1. Miłość czy nawet zakochanie są to takie stany, których nikomu nie można narzucić — albo ktoś nas kocha, albo nie, ewentualnie udaje, że kocha. Do istoty miłości (i zakochania) należy czynnik własnej woli, wolności. To poszczególny podmiot z osobna decyduje, w kim „lokuje swoje piękne myśli” (jak to wyraził w Uczcie Platon). Czy zatem możliwa jest w ogóle taka sytuacja, w wyniku której można komuś/czemuś zakochać się w innej osobie? Odpowiedź jest prosta — NIE. Więc w takim razie, co z tym zadaniem mógłby zrobić sztuczny system myślący? Z drugiego prawa Asimova wynika, że musi podjąć się tego zadania — musi się zakochać we wskazanej przeze mnie osobie. Jednakże odwołując się do samej definicji miłości — jej istoty — nie mógłby tego uczynić. Zatem? Najprawdopodobniej doszłoby do „zapętlenia się” maszyny w wyniku powtarzania w nieskończoność procesu wyboru pomiędzy stronami konfliktu: drugim prawem Asimova i wyżej postawionym rozkazem. Rozważę problem 2. Sytuacja jest podobna do powyższej. Dotyczy również drugiego prawa — jeżeli system musi wykonać każdy rozkaz człowieka (jeżeli nie jest on sprzeczny z pierwszym prawem), to również musi przyjąć rozkaz sprzeciwiania się chociaż części rozkazów. W trakcie jego dalszego funkcjonowania będzie zachodziła sprzeczność pomiędzy drugim prawem robotyki, a powyższym zadaniem. Zatem? Najprawdopodobniej to, do czego prowadzi nas i pierwszy problem — zapętlenie, a w efekcie „zawieszenie”. Również takie problemy natury etycznej jak eutanazja czy aborcja powodują, iż powyższe prawa stają się bezużyteczne (następuje konflikt prawa pierwszego z drugim). Te problemy pokazują, iż z pewnością można by znaleźć ich o wiele więcej. Jeśli zatem prawa robotyki Asimova kiedyś zostaną zastosowane, będą wymagały poważnej korekty — dookreślenia. Kolejne pytanie etyczne, a być może i pewnego rodzaju przyszłe zagrożenie, pojawia się wraz z pytaniem o relacje człowiek-maszyna myśląca. Temat relacji „człowiek-maszyna” w naukowej fantastyce występuje przy okazji omawiania problemów: intelektroniki (czyli ukazywania zmechanizowanego rozumu w postaci wysoko zorganizowanego komputera), robotów (człekokształtnych urządzeń mechanicznych) i wreszcie androidów (manekinów imitujących ludzi).48 A relacje te mogą być rozmaite. Rozważmy przykład maszyn myślących, które przysłużyły nam się swoją pracą. Wówczas powstaje pytanie o to, czy możemy (czy mamy prawo) wyrzucić je później na złomowisko? Albo rozpatrzmy inną sytuację: załóżmy, że skonstruowaliśmy sztucznego człowieka — androida49... Czy mamy prawo zmuszać 48

Lekiewicz 1985, s. 160. Podział na: intelelektronikę, roboty i androidy, wprowadził S. Lem, w: Fantastyka i futurologia.

49

Na ten temat patrz: M. Kasperski, Android potrzebny od zaraz. O kategorii sztucznego człowieka w filozofii Sztucznej Inteligencji, Internet.

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r03-04.doc

(14-12-22)

213

214

Sztuczna Inteligencja

go do wykonywania kolejnych zadań? Czy mamy prawo rozporządzać nim jak zwyczajną maszyną? A co będzie, gdy maszyna ta okaże się „syntetyczną nałożnicą”?50 Lem stawia tu51 pytanie o możliwości moralnej oceny prawdopodobnych relacji „człowiek-maszyna". Temat ten stawiany był również w SF. Najczęściej pojawiał się w pytaniu o „moralną wymowę" wyrzucania zużytych robotów, które dobrze człowiekowi służyły.52 Problem nie ma jedynie znaczenia abstrakcyjno-filozoficznego, ponieważ domniemanie, jakoby pewna maszyna, która ma iść na złom, bo remont się nie opłaca, posiada świadomość, zmienia naszą decyzję z aktu zniszczenia przedmiotu materialnego jak gramofon, w akt unicestwienia osobowości, świadomej zagłady.53 Wszystko zależy oczywiście od tego, do jakiego porządku bytów zakwalifikujemy w przyszłości maszyny myślące. Czy zdolność myślenia, a może i zadomowiona w nich później świadomość, sprawi, że na tej podstawie stwierdzimy: Ona czuje. Ona żyje! Można jednak do powyższej sprawy podejść inaczej. Skłonność do patrzenia na stworzone przez siebie dzieła jako na obiekty ożywione i obdarzone duszą (sic! — przyp. M. J. K.) można określić jako pigmalionizm — przez odniesienie do postaci artysty z greckiej mitologii.54 I chociaż z wielu powodów powyższe stwierdzenie wydaje się najbardziej trafne w całej dyskusji dotyczącej praw maszyn myślących i przynależnym im bytowym statusie, to z wielu powodów nie do końca jest to stwierdzenie, które wszystkich usatysfakcjonuje. Bo skąd brać pewność, że to jeszcze pigmalionizm? Skąd będzie wiadomo, czy maszyna żyje, czy takowe jej ujmowanie jest tylko efektem naszej skłonności do nadmiernej personifikacji? Jednym z podstawowych problemów roztrząsanych przez filozofów wszystkich czasów jest pytanie, skąd wiemy, że drugi człowiek posiada duszę (przeżycia psychiczne — przyp. M. J. K.).55 Subiektywność doświadczenia i przeżywania sprawia, że jesteśmy niejako zamknięci w sobie, stąd możemy jedynie przypuszczać, ale nie wiedzieć z całą pewnością, że także innym dostępne są doznania 50

Por. Lem 1999, s. 19. Ciekawe rozważania w powyższej kwestii porusza autor literatury s-f, Philiph Dick, w powieści Możemy cię zbudować. Opowiada ona historię skonstruowania kilku androidów, przedstawiających takie postacie historyczne jak choćby Lincoln. Wraz z nimi pojawia się jednak konflikt. Powstaje on w chwili, gdy autorzy tych maszyn chcą na nich zbić majątek sprzedając je jak zwykły gadżet. Podobną kwestię porusza bardziej znana książka Dicka, Czy androidy śnią o elektrycznych owcach?, na kanwie której powstał film Ridleya Scotta, Blade Runner.

51

Najprawdopodobniej chodzi o książkę Lema, Opowieści o pilocie Prixie.

52

Lekiewicz 1985, s. 170.

53

Lem 1999, s. 195.

54

Pöppel, Edinghaus 1998, s. 213.

55

Por. Dretske 1999. Najtrudniejszą bodaj rzeczą w tej dyskusji i — jak się zdaje nową — jest moc stwierdzenia, czy automat żyje. W pewien sposób są to stwierdzenia wewnętrznie sprzeczne, na co zwracał uwagę między innymi Wittgenstein (por. Wittgenstein 2000, § 420; s. 249). W konflikt wchodzą tu opozycje automat (bezduszny i zmuszony do podjęcia każdego zadania) — życie (sfera wolności, zwłaszcza, gdy jeszcze zwiążemy je ze świadomością).

214 (14-12-22)

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r03-04.doc

Rozdział 3.  Jutro

215

podobne do naszych (…) mechanizm atrybucji automatycznie prowadzi do uznania innych ludzi za żywych i zdolnych do przeżywania. Postrzegamy ich a priori jako istoty ludzkie, nie musimy się zastanawiać, czy ludźmi są, czy nie są.56 Można to też ująć znacznie krócej i odnieść do maszyn. Nie możemy zdobyć całkowitej pewności i dowodu na to, że maszyna myśli, a myśląc przeżywa swoje stany psychiczne, gdyż zawsze można mniemać, iż chodzi tylko o symulację, doskonałą zewnętrznie, której korelatem wewnętrznym jest jakowaś pustka zupełnej „bezduszności”. Z kolei maszyny analogicznie nie są w stanie przeprowadzić dowodu na to, iż my, jako ich partnerzy, myślimy świadomie — jak one. Żadna ze stron nie wie, jakie stany doznaniowe druga strona podkłada pod hasło „świadomość”.57 I przy tym należy pamiętać o jednej rzeczy. Trzeba zrozumieć, że inteligencja — dowolna — nie tylko MOŻE, ale MUSI powstawać z podukładów, które, brane z osobna, „inteligentne” wcale nie są. Należy zauważyć, że również świadomość powstaje z połączenia, z właściwego zsynchronizowania pracy nadawczo-odbiorczej podsystemów, które nie są same „ani trochę świadome”.58 Kiedy weźmie się powyższe zasady pod rozwagę, to należy stwierdzić, iż to, czy maszyna będzie obdarzona świadomością czy nie i to, czy w ostateczności będzie należeć do porządku bytów żywych czy nie, jest tylko KWESTIĄ WIARY. Kwestią tego, w co chcemy (a może i wolimy?) wierzyć. Czyżby zatem rację miał Anzelm z Canterbury (1033 – 1109), mówiąc słynne: Fides quaerens intellectum?

56

Pöppel, Edingaus 1998, s. 213.

57

Lem 1973, s. 71.

58

Lem 1999, s. 150.

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r03-04.doc

(14-12-22)

215

216

216 (14-12-22)

Sztuczna Inteligencja

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\r03-04.doc

Podsumowanie „Niemożliwe jest to, czego zakazują nauki ścisłe. One jednak nie zakazują sztucznego rozumu.” Stanisław Lem, Bomba megabitowa, s. 117. Reasumując rozważania zawarte w niniejszej książce muszę stwierdzić, iż posługiwanie się takim ogólnym pojęciem jak sztuczna inteligencja czy (zamiennie) maszyna myśląca w wielu wypadkach nie ma sensu. A tam, gdzie mówi się o możliwościach czy niemożliwościach jej skonstruowania jest to najbardziej widoczne. Stąd pomysł, aby zdefiniować osobno poszczególne, historyczne typy maszyn myślących. Do kolejnych wprowadzonych w pracy definicji należą wymienione poniżej. 1. Maszyna myśląca w sensie Leibniza (patrz: s. 37)1. 2. Maszyna myśląca w sensie szerszym Leibniza (patrz: s. 38), którą można też

nazwać maszyną percepcyjno-analityczną. 3. Maszyna myśląca w sensie Turinga (patrz: s. 83), której myślenie będziemy

rozpatrywać w sensie testu Turinga (patrz s. 50). 4. Maszyna mózgopodobna (w sensie sztuczny mózg), na przykład komputery

neuronowe (por: podrozdział 2.4. „Sztuczny mózg — sztuczne sieci neuronowe [Neural Network]. Ku metaforze komputerowej”, ss. 140 – 165 oraz 2.4.1. „Od sztucznych sieci neuronowych do sztucznego mózgu. Maszyna typu B w świetle projektu CAM-Brain”, ss. 166 – 177). 5. Maszyny bądź programy specjalistyczne, zachowujące się inteligentnie, tzn.

uczące się i zmieniające swoje operatory (gdzie inteligencję, czy też poziom inteligencji, można mierzyć na podstawie jednej tylko wykonywanej przez nią funkcji, na przykład analizy obrazu). 6. Maszyny bądź programy ekspertowe (por. z przykładami, ss. 176 – 177), które

z racji pełnionej przez siebie funkcji można nazwać wzmacniaczami inteligencji2 czy raczej — wzmacniaczami wiedzy.

1

Wszystkie wymienione tu maszyny mogą być programami.

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\rP-04.doc

(14-12-22)

217

218

Sztuczna Inteligencja

I tak, według dokonanej tu klasyfikacji należy na zakończenie przytoczyć kilka stwierdzeń. 1. W obecnej chwili perspektywy na skonstruowanie maszyny myślącej w sensie

Leibniza, a mówiąc dokładniej — maszyny klasyfikującej wiedzę, są nikłe. Przyczyny są dokładnie takie, jakie wymienił sam Leibniz: trzeba by zbyt wiele osób, za dużo czasu, za dużo trudu i za dużo zapobiegliwości, aby móc kiedykolwiek mieć nadzieję, że takie dzieło powstanie (por. cyt. s. 37). Pewnym krokiem ku pomysłom Leibniza są na przykład: program Discern (por. ss. 160 – 162) czy idea sieci semantycznych (por. s. 160), jednak są to zbyt daleko posunięte analogie, które odnoszą się tylko do kwestii relacji i łączenia w relacje pewnej, wydzielonej grupy zwrotów podstawowych ze zwrotami od nich pochodnymi: mężczyzna → tata, nigdy mama; mężczyzna → brat, nigdy siostra itd., itp. Lecz z oczywistych względów nie jest to jeszcze realizacja ani characteristica universalis, ani tym bardziej calculus universalis. 2. Maszyny percepcyjno-analityczne w pewien sposób już istnieją. Jeżeli tylko

stwierdzimy, iż nie muszą mieć nic wspólnego z ideą characteristica universalis czy calculus universalis, to do tego typu maszyn można zaliczyć na przykład wszystkie systemy rozpoznawcze, w których główną zasadą ich działania jest schemat, który określiłbym krótko: Patrz i porównuj ze wzorcem. 3. Z maszyną myślącą w sensie Turinga jest bodajże największy kłopot. Związany

jest on z samym testem Turinga, o czym można było podczas lektury się przekonać. Główne pytanie („Czy kiedykolwiek zbudujemy maszynę, która przejdzie test Turinga?”) jest dla mnie pytaniem zbyt szerokim. Można zadać inne pytanie: „Czy skonstruowana już została maszyna, która by przeszła grę w imitację?” I według mnie odpowiedź brzmi: TAK! Za przykład mogą posłużyć takie wyniki jak: program Eliza (por. ss. 162 – 164), czy program Winograda (por. s. 77). Zdaję sobie jednakże w pełni sprawę z tego, że dla wielu mój entuzjazm może wydać się przesadzony (już słyszę te głosy krytyki), a samo przyznanie tym programom statusu maszyny myślącej sądem na wyrost, ale na obronę mojego stanowiska przedstawię kilka opinii.

2



Jeżeli test Turinga polega na tym, co zostało przedstawione na s. 50, to oszukanie przez Elizę lekarza dzwoniącego (patrz: ss. 162 – 164) jest w rzeczywistości wykazaniem, iż program ten spełnił wszystkie warunki testu.



Jeżeli — dalej — twierdzić się będzie, że NIE, gdyż program ten działał na zasadzie pewnego rodzaju parafrazowania zdań dzwoniącego, to należy stwierdzić, iż zdania te i tak nie były wprowadzone w bazę danych maszyny, więc za każdym razem były GENEROWANE! Kolejną rzeczą istotną dla tej dyskusji jest fakt, iż Turing nie wykluczał takiego rodzaju manipulacji.

Na temat samego pojęcia wzmacniacz inteligencji, patrz m.in.: S. Lem 1996a, ss. 120 – 124. Pierwszy te pojęcie najprawdopodobniej wprowadził Ross Ashby (W. R. Ashby, Wstęp do cybernetyki, Warszawa 1961).

218 (14-12-22)

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\rP-04.doc

Podsumowanie

219

Jeżeli dalej będzie się twierdzić, iż: „Nie jest to dobry przykład”, to nieco innym argumentem jest program Winograda. Jego „wnioskowanie” związane z pudełkiem jest co najmniej zastanawiające (patrz s. 77). 

Samo stwierdzenie, że „Są to przykłady programów, które w bardzo ograniczony sposób realizują intencję Turinga” można zakwalifikować do typu, o jakim pisał sam Turing, znanego jako argument E, który wypływa z różnych niemożności. Czyli wyraża się w tym wypadku w tezie: „Zgadzam się z tobą, iż Eliza i program Winograda mogą prowadzić rozmowę, zgadzam się nawet z tym, że program Eliza oszukał człowieka (dzwoniącego lekarza), lecz programy te nie mogą tak plastycznie rozmawiać, jak rozmawiają ludzie…” i tak w nieskończoność.



Jeżeli tym podobnych przypadków nie przyjdzie nam uznać za takie, które przeszły pozytywnie test Turinga albo przynajmniej przypadki kwalifikujące się do przejścia, to w ostateczności przyjdzie nam stwierdzić, że „Nie będzie nigdy tak dobrej maszyny, która test ów by przeszła”. Dlaczego? Ze względu na wyżej wymieniony argument E: „Zgadzam się z tobą, że to, z czym rozmawiam, w całym sensie znaczenia tego wyrazu rozmawia i to rozmawia dosyć rozsądnie. Ale sam widzisz, że nie wiedziało, że X! To jest na pewno maszyna. Mówię ci, przecież wszyscy ludzie wiedzą, że X!” Przy czym za X można podstawić dowolną rzecz. Reasumując — nie przestrzegając tezy, że „maszyny są jak ludzie — jedne są lepsze w tym, a drugie w i innym”, zawsze znajdą się głosy mówiące, iż nieumiejętność jakiegoś X, bądź niewiedza o tym X, dyskwalifikuje maszynę i pozbawia ją możliwości myślenia (por. ss. 58 – 60).

4. Maszyna mózgopodobna. Jeżeli przyjąć metaforę komputerową, to będzie to

oznaczało zgodę na twierdzenie, że są to wszystkie maszyny przetwarzające informację. Jeżeli jednak odrzucić metaforę komputerową wraz z jej konsekwencjami i przyjąć, że maszyną mózgopodobną są tylko maszyny o mózgowej organizacji, to maszynami takimi będą neurokomputery, na przykład CAM8, o którym była mowa (por. ss. 65, 180, 182). Kolejnym zaś krokiem, jeszcze bardziej upodabniającym maszyny do mózgu, może okazać się ziszczenie projektu CAM-Brain (por. podrozdział 2.4.1. —„Od sztucznych sieci neuronowych do sztucznego mózgu. Maszyna typu B w świetle projektu CAM-Brain”, ss. 177 – 182), na którego ostateczne wyniki jeszcze z pewnością trochę będziemy musieli poczekać. 5. Na temat maszyn specjalistycznych nie będę się dłużej rozpisywał, bo

i przykładów ich w pracy jest mnóstwo: począwszy od maszyn grających w szachy, programów rozwiązujących problem komiwojażera dla poszczególnych układów, do maszyn rozpoznających i analizujących obrazy. Rzeczą znamienną i godną podkreślenia przy poszukiwaniu dowodów istnienia maszyn myślących z lat 80. — został wówczas rozwiązany między innymi jeden z problemów G. Desarguesa (1593 – 1661) związany z geometrią rzutową i wykreślną — jest fakt udowodnienia przez tego rodzaju maszynę hipotezy Robbinsa! 6. Programy ekspertowe to, według mnie, jedna z najsłuszniejszych dróg rozwoju

badań Sztucznej Inteligencji. Samo wspomaganie ludzkiej wiedzy jest nie lada pomysłem i nie lada wyzwaniem.

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\rP-04.doc

(14-12-22)

219

220

Sztuczna Inteligencja

Jednak sądzę, że nie powinien to być główny nurt badań. Badania SI powinny koncentrować się raczej na konstruowaniu maszyn typu Darwin III (ss. 189, 190 – 191) czy Cog (por. ss. 191 – 195), czyli zaawansowanych systemach behawioralnych, na przykład możliwości stworzenia sztucznego szczura zdolnego do przetrwania w niesprzyjających warunkach — w przypadku badań całościowych; a w przypadku badań szczegółowych — powinny zmierzać w kierunku konstruowania systemów do rozpoznawania języka ze zdolnością podejmowania dialogu (czyli tak jak chciał Turing). We wstępie do pracy wskazałem jeszcze jedno pojęcie — artilekt, którego używałem w celu ogólnego oznaczenia sztucznego umysłu (patrz: s. 16). Moją intencją było zamknięcie w jednym pojęciu, zresztą już funkcjonującym, wszystkiego, co można powiedzieć o takim tworze. Dla jakich celów? Współcześni filozofowie, kognitywiści, czy nawet sami badacze SI posługując się zwrotem sztuczna inteligencja zbyt często wyrażają się nieprecyzyjnie. Nagminnie wręcz mówią o sztucznej inteligencji tak, jakby mieli do czynienia ze sztucznym człowiekiem (co kategorialnie nie jest tożsame ze sobą3), a co obejmuje tylko część robotyki kognitywnej. Tocząca się debata nad możliwością skonstruowania czegoś takiego jak sztuczna inteligencja, wymagała ode mnie przytoczonych tu definicji i rozróżnień, więc dziwi nieco fakt nierozróżniania czy niedefiniowania tego, o czym mowa. W rezultacie bowiem zdarzają się takie sytuacje jak w poniższym przykładzie „żywcem” wyciągniętym z ogólnoświatowej debaty nad możnością skonstruowania maszyny myślącej. Penrose mówi, że nie można symulować ludzkiego rozumowania, gdyż występują w nim przykłady myślenia nieobliczalnego — tu podaje zdania Π1. Edelman odpowiada, iż takie procesy można realizować na komputerach i podaje wyniki. Penrose twierdzi, iż jeżeli dokonały tego komputery, to w rezultacie dokonały tego obliczając. A mu chodziło o zdania nieobliczalne… I tak dalej… Aby zobaczyć fragment całej dyskusji skoncentrowanej na możliwości skonstruowania artilektu, proponuję porównać poniższe zestawienie (tabela P.1). Ważąc te „za” i „przeciw” skierowane w stronę artilektu i pamiętając o rzeczy tak znamiennej jak na przykład powoływanie się w przypadku problemu rozumienia języka przez maszyny jednych na tezy Searle’a, a innych na Gödla (por. przyp. 336, s. 152), mam wrażenie, iż wszystko to jest kwestią wiary (lub raczej założeń programu badawczego). Filozofowie mają tendencję do postrzegania projektów sztucznej inteligencji z pełnym wyższości lekceważeniem, z jakim traktuje się tych upartych głupców, którzy wciąż usiłują przeprowadzić kwadraturę koła lub trysekcję kąta przy użyciu kompasu i łaty: udowodniliśmy, że nie da się tego zrobić, więc rzućcie to! Ale tak się składa, że dowody nie są w tym wypadku geometryczne; obwarowane są założeniami dotyczącymi „wiarygodnych” warunków brzegowych i obfitują w idealizacje, 3

Por. M. Kasperski, Android potrzebny od zaraz…, Internet.

220 (14-12-22)

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\rP-04.doc

Podsumowanie

221

które mogą się tu okazać tak niewłaściwe jak owe uparte wywody aerodynamików, z których wynika, że trzmiele nie mogą latać.4 Problem staje się więc kwestią tego, czy coś takiego jak sztuczny umysł mieści się komuś w głowie czy też nie! Jak stwierdził przy pewnej okazji Lem: Argumenty obu stron jednych przekonują, natomiast innych nie, i już w tym po prostu widać, do jakiego stopnia odpowiedź na pytanie o sztuczne rozumienie jest dzisiaj także KWESTIĄ WIARY (że jest tak albo że jest owak).5 Tabela P.1. Zestawienie przedstawicieli wraz z poglądami na możliwość i niemożliwość skonstruowania maszyny myślącej wraz z argumentami. Stanowi ona w pewien sposób kontynuację zestawienia 2.6, (ss. 168 – 170) dlatego też warto porównać poniższą tabelę z treściami ujętymi w poprzedniej Przedstawiciel

Stanowisko

Argumenty

J. R. Searle

TAK*

Cokolwiek, co mogłoby być przyczyną umysłu, musiałoby mieć moc oddziaływania przyczynowego porównywalną z możliwościami mózgu. [Searle 1995, s. 43] M. J. K.: Wystarczy więc skonstruować taką maszynę, czego Searle nie głosi świadomie, a co jawnie wynika z powyższego cytatu. Dlatego też zaznaczyłem tę tezę gwiazdką (*). (Por. również poniższa wypowiedź Churchlandów.)

A. Buller, inżynier genetyczny

TAK

Wystarczy czas i pieniądze (sic! M. J. K.).

R. Penrose, fizyk, matematyk

NIE

Twierdzę zatem, że — ogólnie mówiąc — matematyczne zrozumienie nie polega na operacjach obliczeniowych; ma ono zupełnie inny charakter i zależy od naszej zdolności do uświadamiania sobie pewnych rzeczy. [Penrose 1997, s. 120]

G. Edelman, neurofizjolog, biochemik

TAK

Gerald Edelman (w odpowiedzi na zarzuty Penrose’a, — przyp. M. J. K.) przedstawił na przykład pewne koncepcje działania mózgu, które jego zdaniem wprowadzają elementy nieobliczalne. — Na co Penrose: cóż jednak robi Edelman? Symuluje działanie mózgu zgodnie z tymi koncepcjami na komputerze, jeśli istnieje komputer, który symuluje taki mechanizm, to mechanizm ten jest obliczalny. [Penrose 1997, s. 129]

S. Lem, TAK filozof, eseista, prozaik

Niemożliwe jest to, czego zakazują nauki ścisłe. One jednak nie zakazują sztucznego rozumu. [Lem 1999, s. 117]

Żeby jednak dać odpowiedź na pytanie o to, czy człowiek zrealizuje kiedyś mit o Golemie i skonstruuje sztuczny umysł, a później — być może sztucznego człowieka — przywołam słowa Lema: Niemożliwe jest to, czego zakazują nauki ścisłe. One jednak nie zakazują sztucznego rozumu.6 4

D. C. Dennett 1995, s. 21.

5

S. Lem 1999, s. 74.

6

Tamże, s. 117 — wytłuszczenie M. J. K.

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\rP-04.doc

(14-12-22)

221

222

Sztuczna Inteligencja

I to jest moja odpowiedź na pytanie 1., o to, „Czy maszyna może myśleć?”. A odpowiedzi na dalsze pytania postawione we „Wstępie”? Znalazły się już w samym tekście: Odpowiedź na pytanie 2., „Czy myśląca maszyna będzie sztucznym człowiekiem?”, rozważana była w podrozdziałach: 2.4.2. „Cog, Aibo…. Problem intencjonalności i problem ciała” (patrz: ss. 183 – 200) i podrozdziale dotyczącym implikacji — 3.2.2. „Zagrożenia”, gdy analizowałem problem relacji człowiek-maszyna (patrz: ss. 212 – 215). Odpowiedzią może okazać się także ostateczny finał projektu Cog i kolejne, inne projekty zmierzające w podobnym kierunku z zakresu robotyki kognitywnej7. Odpowiedź na pytanie 3. „Dlaczego budujemy maszyny myślące?”, została udzielona dość obszernie na stronach 210 – 211, więc tutaj nie będę się już powtarzał. Odpowiedź na pytanie 4. „Czy maszyna myśląca będzie posiadać prawa istoty myślącej?”, również była rozważana (por. ss. 214 – 215). Na ostateczną odpowiedź, jak w kwestii powyższej, musimy co prawda jeszcze poczekać — do chwili, gdy zostaną zdobyte kolejne osiągnięcia z zakresu robotyki kognitywnej. Choć szczerze wątpię, by kiedykolwiek doszło do oddania praw ludzkich w inne ręce. W dyskusji nad problemem praw maszyn myślących i tego, czy będą istotami żywymi, skłonny natomiast jestem przyznać rację E. Pöppelowi i z jego koncepcji pigmalionizmu (patrz: s. 215). Odpowiedź na pytanie 5. „Czy maszyna będzie należeć do porządku bytów żywych?” jest identyczna z odpowiedzią na pytanie wcześniejsze8. Odpowiedź na pytanie 6. „Co będzie, jeśli maszyny myślące, zasegregowane do bytów nieżyjących i przez to pozbawionych praw, myśląc zaczną się tych praw domagać?”. Mówiąc żartobliwie: Wyłączymy je z prądu! A odpowiadając jak najbardziej szczerze: Nie mam pojęcia. To jest temat już na oddzielną książkę.

7

Podjąłem się próby wyszczególnienia kolejnych aspektów kategorii sztucznego człowieka w artykule pt. Android potrzebny od zaraz…, Internet. 8 Podejmuję się częściowej analizy tego zagadnienia w artykule: Ku znaturalizowanej wersji sztucznej inteligencji, Internet.

222 (14-12-22)

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\rP-04.doc

Bibliografia Monografie [A] Encyklopedia filozofii, red. T. Honderich, Zysk i S-ka, Poznań, t. 1 – 2 1999. [B] Filozofia Sztucznej Inteligencji, „Znak”, 9(484)/1995. [C] Filozofia umysłu, red. B. Chwedeńczuk, Spacja, Warszawa 1995. [D] Maszyny matematyczne i myślenie, red. E. Feigenbaum, J. Feldman, PWN, Warszawa 1972. [E] Modele umysłu, red. Z. Chlewiński, w serii: Nowe Tendencje w Psychologii, Wydawnictwo Naukowe PWN, Warszawa 1999. [F]

Mózg a zachowanie, red. T. Górska, A. Grabowska, J. Zagrodzka, Wydawnictwo Naukowe PWN, Warszawa 1997; Wyd. II, Warszawa 2000.

[G] Psychologia i poznanie, red. M. Materska, T. Tyszka, Wydawnictwo Naukowe PWN, Warszawa 1992. [H] Sztuczna Inteligencja, nr monograficzny „Sofware 2.0”, 2(74)/2001 i 2(86)/2002. [I]

Umysł a rzeczywistość, red. A. Klawiter, L. Nowak, P. Przybysz, nr monograficzny „Poznańskie Studia z Filozofii Humanistyki”, 5(18)/1999.

Czasopisma [J]

„Kognitywistyka i Media w Edukacji”, red. U. Żegleń, B. Siemieniecki, W. Duch.

[K] „Świat Nauki”, Prószyński i S-ka. Materiały w większości dostępne są na stronie internetowej czasopisma. [L] „Wiedza i Życie”, Prószyński i S-ka. Materiały w większości dostępne są na stronie internetowej czasopisma.

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\rrB-04.doc

(14-12-22)

223

224

Sztuczna Inteligencja

Zasoby Internetu [M] Calculemus — Forum Logiki i Informatyki: http://www.calculemus.org/ [N] Denise MYTH: http://www.denise.gnu.pl/ [O] EEC Cracovia: http://www.neuron.of.pl/ [P]

Strona Stanisława Lema: http://lem.mcs.net.pl/ (strona już chyba nieistniejąca)

[R] Nauki Kognitywne (strona Autora): http://kognitywistyka.prv.pl [S]

Strona Marka Piotrowskiego: http://stud.ics.p.lodz.pl/~smayle/ai/

[T] Strona Włodzisława Ducha: http://www.phys.uni.torun.pl/~duch/ [U] Strona Pawła Kopczyńskiego: http://republika.pl/k0pper/index.html [V] Strona McCune’a (EQP): http://www-unix.mcs.anl.gov/AR/ [Z] Sztuczna Inteligencja – Centrum Informacyjne: http://www.ai.of.pl

Pozycje zasadnicze Algorytmy genetyczne, w: [P]. Alquié F. (1989), Kartezjusz, tłum. S. Cichowicz, Instytut Wydawniczy Pax, Warszawa. Arbib M.A. (1977), Mózg i jego modele, tłum. S. Bogusławski, S. Weinfeld, PWN, Warszawa. Arystoteles (1992), O duszy, w: Dzieła wszystkie, tłum. P. Siwek, Wydawnictwo Naukowe PWN, Warszawa, t. 3/7, s. 33 – 147. Bargieł D. (2002), Implementacja algorytmu genetycznego w C++, w: [H]. Bateria z bakterii, w: [L], N 4/2000. Beardsley T. (1997), Maszyneria myślenia, w: [K], N 10. Beckwith R., Rispoli M. (1999), Aspekty teorii umysłu. Rozmowa z Naomem Chomskym, w: [E]. Bednarczyk A. (1984), Filozofia biologii europejskiego Oświecenia, PWN, Warszawa. Bezmienow A. (1999a), Czy umysł może być nieświadomy?, w: [I]. Bezmienow A. (1999b), Akt spostrzegania jako pole oddziaływań, w: [I]. Biecek P., Ludzki mózg, rozproszone algorytmy genetyczne i Sztuczna Inteligencja, w: [V]. Bielecki M. (1998), Rozumienie sieci neuronowych, w: „Przegląd Filozoficzny”, R. VII, N 3(27); http://republika.pl/neokantyzm/Pilat/Wystapienia/m_bielecki.html. Birunt H., Sposoby polepszania propagacji wstecznej, w: [S].

224 (14-12-22)

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\rrB-04.doc

Bibliografia

225

Bishop D.J., Giles C.R., Das (2001), Narodziny komutacji optycznej, w: [K], N 3. Blackman D.E. (2000), Skinner B.F., w: Pionierzy psychologii, red. R. Fuller, Astrum, Wrocław, ss. 147 – 174. Block N. (1999), Czarna skrzynka, w: [A]. Błaszak M. (1999), Struktura paradygmatu kognitywistycznego, w: [I]. Bohr I. (2000), Odmienne stany świadomości. Co o ludzkim poznaniu mówią nam choroby mózgu?, w: [J], N 1 – 2. Bonabeau E., Théraulaz G. (2000), Mądrość roju, w: [K], N 6. Brodziak A., Budowa i działanie mózgu, http://salve.slam.katowice.pl/Mozg.htm. Bryniarski E., Chochro M. (1999), Komputerowa logika obrazów, w: [J], N 1. Buller A. (1998), Sztuczny mózg. To już nie fantazje, Prószyński i S-ka, Warszawa. Buller A. (2000), Inteligentny agent, w: [J], N 1 – 2. Buller A., Gramza M., Kujawa J., ABC inżynierii ewolucyjnej, w: [O]. Camp van D. (1992), Neuronowe komputery, w: [K], N 11. Carlson S. (2001), Sztuczne życie. Cyberptaki latają stadami, w: [K], N 1. Carter R. (1999), Tajemniczy świat umysłu, tłum. B. Kamiński, Oficyna Wydawnicza Atena, Poznań. Chalmers D. (1996), The Conscious Mind: In Search of a Fundamental Theory, Oxford University Press, Oxford. Charkiewicz P., Aniśko C., Podstawy działania algorytmów genetycznych, http://aragorn.pb.bialystok.pl/~radev/ai/alggen/files/. Chlewiński Z. (1992), Kształtowanie się umiejętności poznawczych, w: [G]. Chojnowski J., Duch W., Analiza czasowych obrazów fMRI, w: [T]. Chory robot, w: [L], N 11/2000. Chuderki A., Wykorzystanie metod Sztucznej Inteligencji w badaniach umysłu, w: [R]. Chumieja M., Algorytmy genetyczne. Ewolucyjny kształt, ruch i sztuka, w: [W]. Churchland P.M. (1995), Problem umysłu i ciała, w: [C]. Churchland P.M., Churchland P.S (1991)., Czy maszyny mogą myśleć?, w: [K], N 7. Churchland P.S, Czy neurobiologia potrafi nas nauczyć czegoś o świadomości?, tłum. L. Dobrzańska, w: [R]. Cichosz P. (2000), Systemy uczące się w sztucznej inteligencji, w: [J] N 1 – 2. Cieśla D., Narzędzia językoznawstwa kognitywnego — nie tylko dla językoznawców, http://venus.ci.uw.edu.pl/~rubikon/Nr5/ciesla.htm. Copeland B.J., Proudfoot D. (1999), Zapomniane pomysły Alana Turinga, w: [K], N 6.

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\rrB-04.doc

(14-12-22)

225

226

Sztuczna Inteligencja

Crane T. (1999a), Chińskiego Pokoju argument, w: [A]. Crane T. (1999b), Intencjonalność, w: [A]. Crick F., Koch Ch. (1992), Problem świadomości, w: [K], 11. Czarnecki P., Koncepcja umysłu w filozofii D.C. Dennetta, w: [R]. Damasio A.R. (1999), Błąd Kartezjusza, tłum. M. Karpiński, Rebis, Poznań 1999. A. R. Damasio A.R. (2000a), Tajemnica świadomości, tłum. M. Karpiński, Rebis, Poznań. Damasio A.R. (2000b), Jak rodzi się świadomość, w: [K], N 1. Damasio A.R., Damasio H. (1992), Mózg a mowa, w: [K] N 11. Dąbrowski T., Kwaśnicka H., Piasecki M., Zastosowanie algorytmu genetycznego do konstrukcji funkcji oceniającej w grze Othello, w: [V]. Descartes R. (1970), Rozprawa o metodzie, tłum. W. Wojciechowska, PWN, Warszawa. Descartes R. (1980), Rozprawa o metodzie, tłum. T. Żeleński (Boy), PIW, Warszawa. Descartes R. (1989a), Człowiek. Opis ciała ludzkiego, tłum. A. Bednarczyk, PWN, Warszawa 1989. Descartes R. (1989b), Medytacje, tłum. M, K. Ajdukiewicz, w: F. Alquié, Kartezjusz, tłum. S. Cichowicz, Instytut Wydawniczy Pax, Warszawa. Fragmenty: Meditationes de prima philosophia I, II, V i VI. Dennett D.C. (1995), Gdy filozofowie napotykają sztuczną inteligencję, w: [B]. Dennett D.C. (1997), Natura umysłów, tłum. W. Turopolski, CiS, Warszawa. Dewney A.K. (1992), Fotożerni, w: [K], N 11. Devlin K. (1999), Żegnaj, Kartezjuszu, tłum. B. Stanosz, Prószyński i S-ka, Warszawa. Dębek P. (2001), Komputery w kosmosie. Miasteczko orbitalne, w: „Chip”, N 4. Dębek P., Meszczyński M. (2001), Recenzja: Black & White. I ty zostaniesz bogiem, w: „Chip”, N 6. Dobrowolski R. (1992), Rozumienie tekstu, w: [G]. Domańska K. (1992), Metafora komputerowa w psychologii poznawczej, w: [G]. Dretske D. (1999), Inne umysły, w: [A]. Dreyfus C., Wywiad z A. Foerst, tłum. A. Stefański, http://www.cybrforum.pl/ t_androidy.html. Duch W. (1997a), Fascynujący świat komputerów, Nakom, Poznań. Duch W. (1997b), Pytanie dnia – komentarz do przegranej Kasparova z Deep Blue, w: „Gazeta Wyborcza”, N z 13 V. Duch W. (1998), Czym jest kognitywistyka?, w: [J], N 1 oraz w: [T]. Duch W. (2000a), Jaka teoria umysłu w pełni nas zadowoli?, w: [J], N 1 – 2 oraz w: [T].

226 (14-12-22)

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\rrB-04.doc

Bibliografia

227

Duch W. (2000b), Czy człowiek może skonstruować sztuczną inteligencję w: [J], N 1 – 2 oraz w: [T]. Duch W., Inteligentne metody szukania informacji medycznych, w: [T]. Duch W., Piąta generacja komputerów. Raport, w: [T]. Duch W., Sieci neuronowe w modelowaniu zaburzeń neuropsychologicznych i chorób psychicznych, w: [T]. Duch W., Systemy Sztucznej Inteligencji rutynowo stosowane w praktyce medycznej, w: [T]. Duch W., Sztuczny mózg? Sztuczna inteligencja?, w: [T]. Duch W., Świadomość i dynamiczne modele działania mózgu, w: [T]. Duch W., Wstęp do kognitywistyki, w: [T]. Duch W., Wstęp do sztucznej inteligencji, w: [T]. Dyszkiewicz A., Dyszkiewicz U., Koprowski R., Wróbel Z. (2000), Psychometryczna analiza osobowości i uzdolnień w procedurze interaktywnego dialogu z komputerem, w: [J], N 1 – 2. Dziarnowska V. (1999), Dlaczego wieża generowania i testowania wymaga przebudowy?, w: [I]. Edelman G.M. (1998), Przenikliwe powietrze, jasny ogień. O materii umysłu, tłum. J. Rączaszek, PWN, Warszawa. Falkowski K., Żybura M., Wnuk-Lipiński P., Niszowanie i koewolucja, w: [V]. Feichtinger H. (1988), Mikrokomputery, tłum. A. Niedzielak, Z. Wereszyński, A. Ziewiec, Wydawnictwa Komunikacji i Łączności, Warszawa. Fischbach G.D. (1992), Psychika a mózg, w: [K], N 11. Fodor J.A. (1999), Jak grać w reprezentacje umysłowe — poradnik Fodora, w: [E]. Folta K., Obliczenia DNA. Sieci neuronowe, w: [V]. Frydecka D., Psychologia ewolucyjna, w: [V]. Gazzaniga M.S. (1997), O tajemnicach ludzkiego umysłu. Biologiczne korzenie myślenia, emocji, seksualności, języka i inteligencji, tłum. A. Szczuka, Książka i Wiedza, Warszawa. Gazzaniga M.S. (1998), Podzielony mózg, w: [K], N 9. Gelernter D. (1999), Mechaniczne piękno, tłum. A. Radomski, CiS, Warszawa. Gelernter H. (1972), Realizacja maszyny dowodzącej twierdzeń geometrycznych, tłum. D. Gajkowicz, w: [D]. Gelernter H., Hansen J.R., Leveland D.W. (1972), Empiryczne badania maszyny dowodzącej twierdzenia geometryczne, tłum. D. Gajkowicz, w: [D]. Gershenfeld N., Chuang I.L. (1998), Molekularne komputery kwantowe, w: [K], N 8.

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\rrB-04.doc

(14-12-22)

227

228

Sztuczna Inteligencja

Gershon E.S., Rieder R.O. (1992), Choroby psychiczne i mózg, w: [K], N 11. Giaquinto M.D. (1999), Gödla twierdzenie, w: [A]. Gibbs W.W. (2001), Czy tak będziemy kiedyś mieszkać?, w: [K], N 1. Gnitecki J. (2000), Deskrypcyjne, predyskrypcyjne i symboliczne obrazowanie językowe w naukach pedagogicznych, w: [J], N 1 – 2. Goldman-Rakic P.S. (1992), Pamięć operacyjna i umysł, w: [K], N 11. Gomuła J., Kucharski T. (2000), Neuropodobny ekspertowy system doradczy — NEURONEX™, w: [J], N 1 – 2. Grace L. (2000), Komputery kwantowe, w: [K], N 7. Grąbczewski K., Duch W., Adamczak R., Odkrywanie wiedzy w danych, w: [T]. Greenfield S. (1998), Tajemnice mózgu, tłum. E. Turlejska, Diogenes, Warszawa. Greenfield S. (1999), Mózg, tłum. R. Zawadzki, CiS, Warszawa. Gurba K. (1995), Sztuczna inteligencja z naturalnymi ograniczeniami, w: [B]. M. Heller M. (1995), Recenzja: R. Penrose, Shadows of The Mind, w: [B]. Hinton G.E. (1992), Jak sieci neuropodobne uczą się na podstawie doświadczeń, w: [K], N 11. Hodges A. (1998), Turing, tłum. J. Nowotniak, Amber, Warszawa. Hodges A. (1999), Wang Hao, w: [A]. Hofstadter D.R. (1995), Dziwne pętle jako istota świadomości, w: [B]. Hołyst R. (2000), Komputer z probówki, w: [L], N nr 11. Hołyński M. (1979), Sztuczna inteligencja, Wiedza Powszechna, Warszawa. Hornsby J. (1999), Koneksjonizm, w: [A]. Huk M., Kwaśnicka H., Nowe podejście do wykorzystania programowania genetycznego w ekstrakcji wiedzy z sieci neuronowych, w: [V]. Hume D. (2001), Badania dotyczące rozumu ludzkiego, tłum. J. Łukasiewicz, K. Twardowski, DeAgostini, Warszawa. Ingarden R.S. (1998), Kognitywna dynamika mózgu a modalności: w: [J], N 1. Ingram J. (1996), Płonący dom. Odkrywając tajemnice mózgu, tłum. B. ChacińskaAbrahamowicz, M. Abrahamowicz, Prószyński i S-ka, Warszawa. Johnes S., O neuronalnym podłożu świadomości. Rozmowa z Susan Greenfield, tłum. K. Gawrońska, w: [R]. Johnson-Laird P.N. (1999), Modele umysłowe a myślenie probabilistyczne, w: [E]. Joy B. (2000), Dlaczego nie jesteśmy potrzebni przyszłości?, w: „Magazyn Sztuki”, N (24). Judycki S. (1999), Natura umysłu: zagadnienia podstawowe, w: [J], N nr 1.

228 (14-12-22)

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\rrB-04.doc

Bibliografia

229

Jurkowski M. (1986), Od wieży Babel do języka kosmitów. O językach sztucznych, uniwersalnych i międzynarodowych, KAW, Białystok. Kacprzak T., Ślot K. (1995), Sieci neuronowe komórkowe, Wydawnictwo Naukowe PWN, Warszawa-Łodź. Kandefer T. (2001), Konwersacja naturalna, w: [H]. Kandel E.R., Hawkins R.D. (1992), Biologiczne podstawy uczenia się i osobowości, w: [K],11. Kapłański P. (2001), LISP — alternatywna idea programowania, w: [H]. Kasperski M. (2001a), Wstęp do cognitive science, w: „G.N.O.M.”, N 2, [R]. Kasperski M. (2001b), A język lata, lata jak łopata. O problemie świadomości w filozofii Sztucznej Inteligencji, w: „G.N.O.M.”,N 3, [R]. Kasperski M., Android potrzebny od zaraz. O kategorii sztucznego człowieka w filozofii Sztucznej Inteligencji, w: [R] Kasperski M., Kilka słów w kwestii Chińskiego Pokoju I dwu innych argumentów przeciw SI: R. Penrose’a i „z redukcjonizmu”, w: [ R]. Kasperski M., Ku znaturalkizowanej Sztucznej Inteligencji, w: [ R]. M. Kasperski M., Sztuczny człowiek, czy Sztuczny Bóg? Rzecz o sztucznej inteligencji, świadomości i Bogu filozofów, w: [R]. Klawiter A. (1999), O naturze problemu kognitywnego, w: [I]. Klawiter A., Jak zrozumieć to, co najbliższe? O opisach, mapach i przewodnikach po krainie umysłu, http://main.amu.edu.pl/~insfil/mlodziez/klawiter.htm. Kloch J., Lem S., Marciszewski W. (1995), Czy maszyny zastąpią człowieka?, w: [B]. Kloch J., Chiński Pokój. Eksperyment myślowy Johna Searle'a, http://www. opoka.org.pl/biblioteka/F/FG/searle_2.html. Kurzweil R. (1999), Zespolenie dycha z maszyną, w: [K], N 12. Kim E.R., Toole B.A. (1999), Ada i pierwszy komputer, w: [K], N 7. Kimura D. (1992), Mózg a płeć, w: [K], N 11. Komputery kwantowe, w: [K], N 7/2000. Kobylański P. (2001), Prolog — język programowania sztucznej inteligencji, w: [H]. Kobylański P. (2002), Złożone struktury danych w Prologu, w: [H]. Kolańczyk, Uwaga w procesie przetwarzania informacji, w: [G]. Komosiński M. (2002), Sztuczne życie, w: [H]. Kopczyński P. (2001), Algorytmy genetyczne — elementy składowe, w: [H]. Kopczyński P., O algorytmach genetycznych, w: [U]. Kopczyński P., O szyfrowaniu. Algorytm DES, w: [U].

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\rrB-04.doc

(14-12-22)

229

230

Sztuczna Inteligencja

Kopczyński P., Poszukiwanie lokalne. Wprowadzenie do programowania w grach obliczalnych. O interpretacji wyrażeń arytmetycznych. O stereogramach, w: [U]. Kossobudzki P. (2000), Świat oczami kota, w: [L], N 10. Kotlarski K. (1998), Rozwój z perspektywy komputerowej, w: [J], N 1. Kowalski K. (1996), Świat według Penrose’a, w: „Rzeczpospolita”, N z 19 – 20 XI. Kowalski Ł., Algorytmy ewolucyjne w grach logicznych, w: [V]. Kozielecki J. (1992), Twórczość i rozwiązywanie problemów, w: [G]. Króliczak G. (1999a), Błędy percepcyjne czy percepcje normalne? Mechanizmy powstawania iluzji percepcyjnych, w: [I]. Króliczak G. (1999b), Problem automatyzmu procesów poznawczych, percepcji nieświadomej oraz automatycznych zachowań, w: [I]. Króliczak G., Czy iluzje zwodzą jedynie „oko”, lecz nie rękę?, w: [R]. Kurowski J. (2002), Człowiek kontra komputer Deep Blue — prawdy, mity, co dalej…, w: [H]. Kwaśnicka H., Algorytmy ewolucyjne w grach menedżerskich, w: [V]. Kwaśnicka H., K-Model: rozmiar populacji a charakter ewolucji, w: [V]. Kwaśnicka H., Sztuczna Inteligencja — meandry przeszłości i kierunki przyszłego rozwoju, w: [V]. Kwaśnicka H., Sztuczny mózg — fikcja czy rzeczywistość?, w: [V]. Kwaśnicka H., Szpunar E., Zastosowanie algorytmów genetycznych w pozyskiwaniu wiedzy z baz danych, w: [V]. La Mettrie de J.O. (1984), Człowiek-maszyna, tłum. S. Rudniański, PWN, Warszawa. Latawiec A. (1999), Między naturalną i sztuczną świadomością, w: [I]. Leibniz W.G. (1955), Nowe rozważania dotyczące rozumu ludzkiego, I. Dąmbska, PWN, Warszawa, Fragmenty. Leibniz W.G. (1995), Zasady filozofii, czyli monadologia, tłum. S. Cichowicz, w: G.W. Leibniz, Główne pisma metafizyczne, Toruń 1995. Leibniz W.G. (1998), Korespondencja z Antoine’em Arnauldem, tłum. S. Cichowicz, PWN, Warszawa. Lekiewicz Z. (1985), Filozofia science-fiction, KAW, Warszawa. Lem S. (1973), Golem XIV, w: Wielkość urojona, Czytelnik, Warszawa. Lem S. (1996a), Summa technologiae, t. 1 – 2, Interart, Warszawa. Lem S. (1996b), Tajemnica chińskiego pokoju, w: Tajemnica Chińskiego Pokoju, TAIWPN Universitas, Kraków; także w: [P]. Lem S. (1999), Bomba megabitowa, Wydawnictwo Literackie, Kraków.

230 (14-12-22)

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\rrB-04.doc

Bibliografia

231

Lem S., Brain Chips, w: [P]. Lem S., Brains Chips III, w: [P]. Lepieszkiewicz J. (1999), Lokalizacyjno-noematyczna koncepcja percepcji, w: [I]. Lillegard N. (1995), Sztuczna inteligencja a Biblia, w: [B]. Linda T., Abrich D., Optymalizacja kolonii mrówek w zastosowaniu do problemu komiwojażera, w: [V]. Logotheis N.K. (2000), Widzenie — okno na świadomość, w: [K], N 2. Lusted H.S., Knapp R.B. (1996), Impulsy neuronalne sterują komputerami, w: [K], N 12. Lyons J. (1998), Chomsky, tłum. B. Stanosz, Wyd. II Prószyński i S-ka, Warszawa 1998. Łęcki T. (2000), Genetyczny mikroprocesor, w: [L], N 2. Malinowski J. (1999), Reguły domyślania się a logika kognitywna, w: [J], N 1. Mańczyk A. (1999), Krótka geneza komunikacji, Zielona Góra. Mańczyk A. (2000), Komunikacja myśli, Oficyna Wydawnicza Politechniki Wrocławskiej, Wrocław. Marciszewski W. (1995), Czy inteligencji potrzebne jest ciało?, w: [B]. Marciszewski W. (1998), Sztuczna inteligencja, Znak, Kraków. Marciszewski W., Co sądziłby Leibniz o sztucznej inteligencji gdyby znał Cantora i Turinga, w: [M]. Marciszewski W., Czy klasa niezawodnych reguł wnioskowania pokrywa się z klasą reguł logicznych, w: [M]. Marciszewski W., Czy można i czy trzeba pokonać Barierę Turinga?, w: [M]. Marciszewski W., Czy robot może uznać za prawdę zdanie samopotwierdzalne?, w: [M]. Marciszewski W., Mikrokronika Informatyki. Od inspiracji Keplera do architektury von Neumanna, w: [M]. Marciszewski W., Problem reprezentacji arytmetycznej rozumowań zapisywanych w kodzie neuronowym, w: [M]. Martindale D. (2000), Mroźne kryształy, w: [K], N 7. McCook A. (2001), Kogoś mi przypominasz, w: [K], N 6. McCune W., Automated Deduction Systems and Groups, w: [Z], tłum. K. Gawrońska. McCune W., EQP, w: [Z], tłum. K. Gawrońska. McCune W., Robbins Algebras Are Boolean, w: [Z], tłum. K. Gawrońska. Meller A. (2001), Wywiad z dr inż. Andrzejem Bullerem, w: [H]. Meller A. (2002), Dialog z maszyną, w: [H]. Mięsożerny robot, w: [L], N 11/2000.

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\rrB-04.doc

(14-12-22)

231

232

Sztuczna Inteligencja

Minsky M. (1972), Na drodze do stworzenia sztucznej inteligencji, tłum. P. Kerntopf, w: [D]. Mirsky S. (2000), Frapujące rurki, w: [K], N 8. Miś B. (2000), Milion dolarów do wzięcia, w: [L], N 6. Miś M. (2000), Tamagotchi i Furby, w: [L], N 8. Molecki B., Algorytmy genetyczne a logika rozmyta, w: [V]. Moravec H. (2000), Metamorfozy robotów, w: [K], N 1. Morton A. (1999), Turinga maszyna, w: [A]. Nagel T. (1999), Qualia, w: [A]. Nagórko A. (2001), Antyszachy, w: [H]. Najder K. (1992a), Schematy poznawcze, w: [G]. Najder K. (1992b), Wprowadzenie do teorii pamięci, w: [G]. Nanotranzystory, w: [K], N 7/2000. Newell A., Shaw J.C., Simon H.A. (1972a), Programy grające w szachy i problem złożoności, tłum. D. Gajkowicz, w: [D]. Newell A., Shaw J.C., Simon H.A. (1972b), Badanie empiryczne przeprowadzone na maszynie do teorii logiki: Studium heurystyczne, tłum. D. Gajkowicz, w: [D]. Newell A., Simon H.A. (1972), GPS — Program, który symuluje myśl ludzką, tłum. D. Gajkowicz, w: [D]. Nęcka E. (1992), Struktura operacji intelektualnych a twórczość, w: [G]. Nęcka E. (2000), Uwagi psychologa na temat inteligencji, w: [J], N 1 – 2. Nowicki M., Syntaktyczne twierdzenia limitacyjne wyłożone sposobem Turinga, z konkluzjami Chatina, w: [R]. Nowak A., Przestrzenne mechanizmy przetwarzania informacji, w: [G]. Nowakowska E. (2000), Widok z komputera, w: „Polityka”, N 6. Nowy superkomputer firmy IBM, w: [L], N 9/2000. Odkrywanie przeznaczenia, w: [L], N 10/2000. Okrojek A., Generalizacja i uwierzytelnianie, w: [S]. Olszewski K., Bioboty — co to jest, wybrane projekty: cel, metodologia, osiągnięcia, w: [V]. Osipowicz K. (2002), Budowa komórkowych sieci neuronowych i ich zastosowania do rozpoznawania obrazów, w: [H]. Osowski S. (2001), Sieci neuronowe wykorzystujące systemy wnioskowania rozmytego, w: [H].

232 (14-12-22)

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\rrB-04.doc

Bibliografia

233

Osowski S., Linh T.H. (2002), Rozpoznawanie i klasyfikacja rytmów serca przy użyciu sieci neuronowych rozmytych, w: [H]. W. Palczewski W. (1999), Kultura umysłu, w: [I]. Pamięć limfocytów, w: [L], N 3/2000. Pawłowycz A., Stan dyskusji nad „gödlowskim” argumentem R. Penrose'a przeciwko programowi sztucznej inteligencji, http://staszic.ifispan.waw.pl/~rpilat/godel.html. Penrose R. (1995), Nowy umysł cesarza, tłum. P. Amsterdamski, Wydawnictwo Naukowe PWN, Warszawa. Penrose R. (1997), Makroświat, mikroświat i ludzki umysł, tłum. P. Amsterdamski, Prószyński i S-ka, Warszawa. Penrose R. (2000), Cienie umysłu, tłum. P. Amsterdamski, Zysk i S-ka, Poznań. Penrose, wywiad przeprowadzony przez dr P. Szymczaka, w: [L], N 9/2001. Pescovitz D. (2000a), Superpołączenia, w: [K], N 7. Pescovitz D. (2000b), Policzyć gust, w: [K], N 8. Pescovitz D. (2001), W poczekalni oraz Wzywamy dr Robota, w: [K], N 2. Pierwsze silniczki DNA, w: [L], N 11/2000. Piłat R. (1993), Czy istnieje świadomość?, IFiS PAN, Warszawa. Piłat R. (1999), Umysł jako model świata, IFiS PAN, Warszawa. Piłat R., Percepcja głębi, w: [R]. Piłat R., Nazwy i pojęcia barw, http://www.filozofia.pl/seminarium/pilat/index.php3. Piotrowski M., Podstawy działania algorytmów genetycznych, w: [S]. Piotrowski M., Uczenie bez nadzoru, w: [S]. Pogue D., Pułapki rozpoznawania mowy, w: [Z]. Posner M.J. (1999), Uwaga. Mechanizmy świadomości, w: [E]. Pöppel E., Edinghaus A.L. (1998), Mózg — tajemniczy kosmos, tłum. M. Skalska, PIW, Warszawa. Putnam H. (1998), Wiele twarzy realizmu, tłum. A. Grobler, Wydawnictwo Naukowe PWN, Warszawa. Pylyshyn Z.W. (1999), Cóż takiego jest w umyśle?, w: [E]. Raichte M.E. (1994), Obrazowanie procesów myślowych, w: [K], N 6. Reed M.A., Tour J.M. (2000), Obliczenia molekularne w elektronice, w: [K], N 9. Robot, syn robota, w: [L], N 11/2000. Rumelhart D.E. (1999), Architektura umysłu. Podejście koneksyjne, w: [E].

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\rrB-04.doc

(14-12-22)

233

234

Sztuczna Inteligencja

Rutkowski P. (2001), Jak wiele można przetłumaczyć?, w: [L], N 2. Sado M.G. (2001), Sztuczna pamięć — sieć Hopfielda, w: [H]. Scott A. (1999), Schody do umysłu, tłum. H. Barańska, WNT, Warszawa. Scott J.D., Pawson T. (2000), Wewnątrzkomórkowe szlaki sygnalizacyjne, w: [K], N 8. Searle J.R. (1995a), Umysł, mózg i nauka, tłum. J. Bobryk, Wydawnictwo Naukowe PWN, Warszawa. Searle J.R. (1995b), Umysły, mózgi i programy, tłum. B. Chwedeńczuk, w: [C]. Searle J.R. (1999a), Umysł na nowo odkryty, tłum. Z. Baszniak, PIW, Warszawa. Searle J.R. (1999b), Umysł, język, społeczeństwo, tłum. D. Cieśla, CiS, Warszawa. Searle J.R. (1999c), Świadomość, inwersja wyjaśnień i nauki kognitywne, w: [E]. Selfridge O.G., Neisser U. (1972), Rozpoznawanie obrazów przez maszynę, tłum. I. Zawicki, w: [D]. Selkoe D.J. (1992), Starzejący się mózg, starzejący się umysł, w: [K], N 11. Shatz C.J. (1992), Rozwijający się mózg, w: [K], N 11. Siech M., Procesy informacyjne w organizmach żywych, w: [S]. Sitarz A. (2000), Twierdzenia za 7 milionów dolarów, w: [L], N 11. Siuzdak K., Zastosowanie metod heurystycznych w grach logicznych, w: [V]. Skangiel-Kramska J. (2000), Neuroprzekaźniki i ich receptory, w: [F]. Skrzypczak W. (2000), Językoznawstwo kognitywne — zarys kluczowych zagadnień, w: [J], N 1 – 2. Smith B.C. (1999), Sztuczna inteligencja, w: [A]. Snowdown P. (1999), Funkcjonalizm, w: [A]. Stachowski B., Perceptrony proste i zagadnienie separowalności liniowej, w: [S]. Stanford D.H. (1999), Molyneux problem, w: [A]. Stemplewska K. (1992), Rozwój reprezentacji, w: [G]. Stęclik P., Zastosowanie algorytmów genetycznych przy uczeniu sieci neuronowych i sterowników rozmytych, http://piotr.cz.pl/dyplom/. Stix G. (2001), Kod kodu, w: [K], N 6. Surkont M., Algorytm AQ, w: [V]. Surkont M., Opis projektów „Oxygen” oraz „Principia Cybernetica”, w: [V]. Szumakowicz E. (2000), Rok Turinga albo problematyczność tak zwanej sztucznej inteligencji, w: „Kwartalnik Filozoficzny”, t. XXVIII, z. 3.

234 (14-12-22)

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\rrB-04.doc

Bibliografia

235

Szylejko A.W., Szylejko T.I. (1977), Cybernetyka bez matematyki, tłum. T. Nowosad, Wiedza Powszechna, Warszawa. Szymska M., Komponowanie muzyki przy pomocy algorytmów genetycznych, w: [V]. Sztuczna inteligencja?, rozmowa I. Krul ze Zbigniewem Michalczewiczem, w: [H], N 2/2002. Świat oczami kota, w: [L], N 10/2000. Tadeusiewicz R. (1998a), Badanie funkcjonowania mózgu za pomocą sieci neuronowych, w: [J], N 1. Tadeusiewicz R. (1998b), Czy maszyna może uczyć się sama?, w: [L], N 8. Tadeusiewicz R. (1995), Tryumf czy kapitulacja rozumu?, w: [B]. Tatarkiewicz W. (1990), Historia filozofii, t. 1 – 3, PWN, Warszawa. Toigo J.W. (2000), Uciec przed potopem danych, w: [K], N 8. Trąbka J. (1983), Mózg a świadomość, Wydawnictwo Literackie, Kraków-Wrocław. Trefil J. (1998), Czy jesteśmy niepowtarzalni?, tłum. E. Życieńska, Amber, Warszawa. Trzebski A. (2000), W obronie mózgu ludzkiego, w: [J], N 1 – 2. Turing A.M. (1972), Maszyny liczące a inteligencja, tłum. D. Gajkowicz, w: [D]. Turlejski K. (2000), Rozwój osobniczy mózgu ssaków, w: [F]. Uhr L., Vossler Ch. (1972), Program rozpoznawania obrazów, który wytwarza, ocenia i zmienia swoje operatory, tłum. I. Zawicki, w: [D]. Urchs M. (1998), Rewizja przekonań. Jak zmieniać przekonania w sposób racjonalny?, w: [J], N 1. Veggeberg S.K. (1996), Leczenie umysłu, tłum. E. Kołodziej-Józefowicz, Prószyński i S-ka, Warszawa. Wallich P. (2001), Moc na sprzedaż, w: [K], N 1. Webb B. (1997), Elektromechaniczny świerszcz, w: [K], N 5. Wenta K. (2000), Abstrakcyjna konceptualizacja w rozwiązywaniu zadań wspomaganych technikami komputerowymi, w: [J], N 1 – 2. Wiener D., Koncepcja świadomości Antonio Damasio przedstawiona w książce The Feeling of what happens: body and emotion in making of consiousness, Referat wygłoszony na Sympozjum Kognitywnym: Subiektywność a świadomość, Obrzycko 2000, zorganizowany przez UAM, w: [R]. Woźniak T. (2001), Rozpoznawanie znaków przez sztuczną sieć neuronową, w: [H]. Wściubiak M., Ewolucyjna optymalizacja wielokryterialna, w: [V].

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\rrB-04.doc

(14-12-22)

235

236

Sztuczna Inteligencja

Wittgenstein L. (2000), Dociekania filozoficzne, tłum. B. Wolniewicz, Wydawnictwo Naukowe PWN, Wyd. II, Warszawa. Włoszczyk M. (2001), Systemy eksperckie, w: [H]. Wróbel A. (2000), Neuron i sieci neuronowe, w: [F]. Zarys działania modelu CoDi, w: [O]. Zeki S. (1992), Obrazy wzrokowe w mózgu i umyśle, w: [K], N 11. Ziembiński Z. (1996), Logika praktyczna, Wydawnictwo Naukowe PWN, Wyd. XIX, Warszawa. Żegleń U. (1998), Wprowadzenie do problematyki filozofii umysłu, w: [J], N 1.

236 (14-12-22)

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\rrB-04.doc

Skorowidz osobowy D

A Aiken, H. M., 42 Angell, J. R., 80 Arbib, M. A., 168 Arystoteles, 31 Ashby, W. R., 71 Atanasoft, J., 42

B Babbage, C., 38, 40 Banks, J. L., 79 Bednarczyk, A., 28 Bernstein, A., 88 Berry, C., 42 Bielecki, M., 144, 173 Boole, G., 100 Botwinik, M., 89 Brentano, F., 184 Buller, A., 168, 182, 221

Daly, W., 89 de Morgan, A., 100 Dennett, D.C., 55, 139, 169 Descartes, R., 19, 25, 26, 27, 30, 36 Deutsch, D., 205 Dobosiewicz, W., 89 Dolan, A., 189 Dreyfus, H., 151 Duch, W., 19, 132, 134, 158, 212

E Edelman, G., 73, 173, 191, 221 Epikur, 29 Euler, L., 100

F Fodor, J., 73, 170 Frege, G., 104

Č

G

Čapek, K., 84

C Chalmers, D., 132 Champernow, D., 88 Chomsky, N., 169 Church, A., 53 Churchland, P. S., 55, 151, 169 Claparède, É., 80 College, T., 89 Cray B., 90 Crick, F., 55

Gazzanig, M., 62, 73, 166, 168, 173 Gelenter, D., 45 Gelernet, H., 112 Gödel, K., 43 Goldberg, K. Y., 190 Good, I. J., 89 Greenfield I. S., 55, 65, 170

H Hilbert, D., 43 Hinton, G. E., 170 Hobbes, T., 33 Hollerith, H., 39 Hołyński, M., 123, 162

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\s1 - po sprawdzeniu_MM.doc

237

238

Sztuczna Inteligencja

K

Rosser, J. B., 53 Russell, B., 103 Ryder, J. L., 89 Rynolds, C., 189

Kandefer, T., 165 Kartezjusz, 25, 26, 28, 29, 35 Kasparow, G., 59, 87, 90 Kasperski, M. J., 11 Kerli, G., 89 Kister, J., 88 Kleene, S. C., 53 Koch, C., 55 Kohonen, T., 158 Kowalski, K., 92 Kurzweil, R., 177

S

L La Mettrie, J. O., 28, 29, 31, 32, 49 Laplace, P. S., 39 Leibniz, G. W., 33, 34, 48, 71 Lem, S., 15, 28, 58, 69, 151, 156, 164, 170, 209, 212, 221 Levy, D., 90 Logotheis, N. K., 55 Lovelace, A., 38, 39, 60, 63 Lullus, R., 35

M Marciszewski, W., 69, 73, 92, 103, 117 Maxwell, J. C., 153 McCarthy, J., 19 Minsky, M. L., 69, 85, 112 Molyneux, P., 98

N Newell, A., 88, 112

Samuel, A. L., 88 Scott, A., 58 Searle, J. R., 17, 55, 58, 76, 148, 168, 221 Selfridge, O. G., 121 Shannon, C., 90, 101, 187 Shaw, J. C., 88 Simon, H. A., 112, 88 Skinner, B. F., 80 Spitley, D., 96 Stein, P., 88 Stibitz, G., 42

T Tales, 23 Temple, 58 Thorp, E., 89 Traver, G., 94 Trąbka, J., 170 Turing, A. M, 40, 41, 43, 54, 61, 68, 80, 88, 177

U Ulam, S., 88

V Veggeberg, S.K., 168 von Heller, A., 28 von Neumann, J., 45

O Oettinger, A., 145

P Pascal, B., 33 Penrose, R., 18, 49, 53, 120, 221 Platon, 24 Pöppel, E., 169, 190 Putnam II, H., 169 Putnam, H., 55, 58, 184

W Walden, W. E., 88, 89 Walter, G., 187 Wang, H., 112 Watsonn, J. B., 80 Weinzenbaum, J., 162 Wells, M., 88 Whiteheade, A. N., 103 Wiener, N., 101, 187 Winograd, T., 77 Wittgenstein, L., 56

Z

R Robbins, H., 114 Rosenblatt, F., 122, 177

238

Zeka, S., 55 Zuse, K., 42

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\s1 - po sprawdzeniu_MM.doc

Skorowidz rzeczowy A ACL2, 112 ACORN, 176 Act*, 194 Act-R, 194 AI, 16, 17, 90 silna, 17 słaba, 17

Aibo, 183, 197 akson, 173 AL, 153, 185 algebra Boole’a, 114 dwuwartościowa, 100 Robbinsa, 114

algorytm, 103 deterministyczny, 67 dnia wytężonej pracy, 66 genetyczny, 64, 177, 180 mózgowy, 117 probabilistyczny, 67 propagacji wstecznej, 172 stochastyczny, 67

algorytmizm, 18 AnA, 165 analiza mowy i języka, 140 android, 192, 213 ANNs, 171 ANR, 120 aprioryzm, 187 architektura CBM, 180 argument

arytmetyka, 79 elektronicznych maszyn cyfrowych, 101

ASCI White, 62 Asimo, 195 ATP, 113 ATR, 20, 181 autokineza, 49 automat CAM8, 180 komórkowy, 179

automatyka przemysłowa, 11 automatyzm maszyny, 48

B Baldurs Gate2, 99 Bariera Turinga, 114, 117, 119 baza wiedzy, 73 behavioral system, 191 behawioryzm, 79, 81 BESM, 89 bioinżynieria, 206 biokomputer, 47, 206 biolandia, 185 bioty, 185 bit, 101 bloki pamięci, 71 boidy, 189 Brain Building Group, 179 bramka logiczna, 100 Budowniczoy Sztucznego Mózgu, 179 bunt robotów, 16

Chińskiego Pokoju, 148, 151, 154, 155 Jasnego Pokoju, 151

Artificial Intelligence, 16, 19 Artificial Life, 185, 188, 210 artilekt, 16, 220 arystotelizm, 49

C calculemus, 16, 33 calculus universalis, 34 CAM, 179

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\s2 - po sprawdzeniu_MM.doc

239

240

Sztuczna Inteligencja

F

CAM8, 65, 180, 219 CAM-Brain Machine, 64, 179 CBM, 180 characteristica universalis, 34 Chess Genius, 90 Chiński Pokój, 150, 157 Cog, 183, 191, 192 cognitive science, 13, 21 COLOSSUS, 43 computation, 21 computational

Fast Fourier Tranformation, 144 FEU, 181 FFT, 144 filozofia, 21 Filozofia Sztucznej Inteligencji, 17, 20, 21 floye, 189 frame problem, 66, 159, 160 funkcjonalizm, 17, 79, 80, 81, 82 Furby, 196, 197

explanation, 79 sufficiency, 79

G

Computer Chess Challenger II, 90 Coq, 112 Cray 1, 47 CRPG, 96 CYC, 194 czarna skrzynka, 183 człowieczeństwo, 13

GABRI, 179 generacje komputerów, 46 generalizacja percepcyjna, 122 Go, 88 golem, 24 GPM, 181 GPS, 112 gra

funkcjonalne, 13 strukturalne, 13

człowiek, 23, 28

brydż, 88 Go, 88 szachy, 87 viva voce, 57 w naśladownictwo, 47, 150 warcaby, 88

D DANA, 155 data mining, 176 Deep Blue, 87 Deep Thought, 90 Deeper Blue, 90, 92 DES, 72 DNA, 207 drzewo rozgałęzień, 91 duch w maszynie, 27 dusza, 29

gramatyka generatywna, 73 uniwersalna, 36

grupa neuronowa, 173

H hardware, 25, 53, 166, 167 heureza, 66 heurystyka, 104 hipoteza

E EDAC, 204 EDVAC, 45 efekt nadparamagnetyczny, 204 Electronic Numerical Integrator And Computer, 42 elektronowy mózg, 166 Eliza, 218 empiryzm, 187 encyclopedia, 194 ENIAC, 42 Entscheidungsproblem, 53 EQP, 61, 102, 115, 211 EVES, 112

240

Robbinsa, 114 Sapira-Whorfa, 147

Hitech, 90 homo neandertalis, 52 homunculus, 27 Humanoid Robotics Group, 192

I IBM, 39, 42, 46 IBM 701, 88 ICOT, 20 idea Babbage’a, 39 IDS, 80, 165 IFIP, 90

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\s2 - po sprawdzeniu_MM.doc

Skorowidz

241

imitation game, 47, 150 Intel, 64 inteligencja, 17, 69, 93, 186 potworów, 96

inteligent monsters, 96 Intelligent Dialogue Systems, 80, 165 intencjonalność, 186 interakcjonizm, 27 International Joint Council on Artificial Intelligence, 19 Internet, 15, 72, 145, 177 intuicja, 18 inverted qualia, 133

J Jasny Pokój, 151 język mentalezyjski, 73 Morsa, 125 psychologiczny, 82 SI, 159 uniwersalny, 36

K Kaissa, 89 kalkulator Leibniza, 34 karty perforowane, 39, 42 klasyczny rachunek kwantyfikatorów, 118 klonowanie, 14 kod binarny, 45, 100 kodowanie DNA, 207 komputacjonizm, 17, 79 komputer, 166, 201 ABC, 42 ASCI White, 62 biologiczny, 204, 206 Cray 1, 47 EDVAC, 45 ENIAC, 42 generacje, 46 kwantowy, 204, 205 PC, 39 piątej generacji, 20 równoległy, 47 wektorowy, 47 wieloprocesorowy, 47

koneksjonizm, 171, 172 konkurs Loebnera, 70 konstruowanie maszyn myślących, 16 kosmiczny gramofon, 72 kwantowy bit, 206

L lingwistyka, 21 Logic Theory, 111 Logic Theory Machine, 102 LSI, 47 LT, 102, 109, 102, 109

Ł łamigłówka ośmiopolowa, 112

M M-220, 89 machine learning, 138, 140, 146 Mark I Computer, 42 Massachusetts Institute of Technology, 20 maszyna, 13, 28, 32, 59 analityczna, 38 analogowa, 65 arytmetyczna, 33 Babbage’a, 61 BESM, 89 COLOSSUS, 43 kalkulująca, 33 Mark I Computer, 42 mózgopodobna, 219 myśląca, 14, 15, 20, 24, 32, 217

w sensie Leibniza, 16, 37, 218 w sensie Turinga, 16, 83, 162, 218 naturalna, 206 neuronalna, 65 o skończonej liczbie stanów, 44 Pascala, 34 percepcyjno-analityczna, 218 specjalistyczna, 219 SSEC, 42 Turinga, 13, 17, 44, 45, 120 typu B, 177, 178 von Neumanna, 45 z Princeton, 45

Maszyna do Teorii Logiki, 102 materia, 26 MAUDE, 125, 12727 mechanicyzm, 28 memy, 189 MENACE, 88, 89 mentalese language, 73 metafizyka materialistyczna, 30 metafora komputerowa, 167 metaproblem, 21 meta-Sztuczna Inteligencja, 17

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\s2 - po sprawdzeniu_MM.doc

241

242

Sztuczna Inteligencja

O

metoda algorytmiczna, 175 Algorytmu Muzeum Brytyjskiego, 106 heurystyczna, 106, 107, 175 łańcuchowa, 105, 108 minimaksowa, 92 NN, 175 odrywania, 105, 108 podstawiania, 105, 107 przejść przez zero, 143

MFC, 207 Międzynarodowa Rada do Spraw Sztucznej Inteligencji, 19 mikroprocesor, 53 mind-body problem, 25 MindStorms, 198 mit buntu robotów, 16, 52 Golema, 23 o Laodamii, 24 o Pygmalionie, 24 o stworzeniu Pandory, 23 Talos i Dedal, 24

MIT, 20 m-konfiguracja, 44 Morse Automatic Decodar, 125 motoryka, 85 mózg, 17 mroźne kryształy, 202 myślący sztuczny system poznawczy, 20 myślenie, 18, 186

N nanorurki węglowe, 203 nanotranzystory, 202 NASA, 64 naturalny artefakt, 14 nauka kognitywna, 21 o mózgu, 13 o umyśle, 13

system, 65 Neural Network, 71, 161, 166, 171 neuristor, 171 neuroid, 171 neurojęzyk, 73 neurokomputer, 47, 180 neuromim, 171 neuron, 172 neuronalny darwinizm, 73 neuroscience, 13 nocyceptory, 81 NOMAD, 191 NSS, 88 NuPrl, 113

242

obliczanie rozproszone, 72 obrazy, 121 obwody LSI, 47 sprzężone, 71

OCR, 127, 131 ogólny rozwiązywacz problemów, 112 ograniczony test Turinga, 165 operacje arytmetyczne, 34 operacjonizm, 18, 79 oprogramowanie, 67, 166 Optical Character Recognition, 127

P pamięci ferrytowe, 46 Pandemonium, 128 panpsychista, 28 panpsychizm, 31 papuga, 58 parallel distributed processing, 172 parsing, 158 Path Search Nodes, 96 Pathfaider, 210 PC, 39 PDP, 172 Pentium II, 64 percepcja, 67, 122 perceptron, 122 POEMS, 176 pozazmysłowa percepcja, 68 prawa Asimova, 213 robotyki, 212

problem, 103 ciała, 183 inteligent monsters, 98 intencjonalności, 183 komiwojażera, 94, 96 Molyneuxa, 188 naturalnej celowości, 74 qualiów, 131, 135 ramy, 66 rozstrzygalny algorytmicznie, 17 sensybili, 131 sędziego, 69 Sztucznej Inteligencji, 86 umysłu i ciała, 25

procedury algorytmiczne, 18 proces heurystyczny, 104 program AnA, 165 Deep Blue, 92

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\s2 - po sprawdzeniu_MM.doc

Skorowidz

243

S

ekspertowy, 219 IDS, 80 Kaissa, 89 NSS, 89 OCR, 131

programowanie, 41 genetyczne, 64

projekt Act*, 194 Asimo, 195 CAM-Brain Machine, 64, 179 Cog, 191 CYC, 194 Darwin III, 189 Discern, 160 LT, 112 PSYCHE, 195 SOAR, 194

ProofPower, 113 prototyp, 184 przerzutnik Schmitta, 143 przetwarzanie danych, 176 PSYCHE, 195 psychologia, 21 funkcjonalna, 79 kognitywna, 21

samoświadomość, 60 SANR, 120 scripts, 94 selektywny model mózgu, 73 Self-Organizing Maps, 158 semantyka, 76, 158 sensorium, 85, 186, 190 sensorium commune, 26 sensus communis, 26 SI, 159, 209 sieci neuronowe, 144 sieć Kohonena, 164 neuronowa, 171, 173 neuropodobna, 188 samoorganizująca się, 158, 160 semantyczna, 159 SOM, 164

skala inteligencji, 185 skończona liczba stanów, 44 skończony proces dynamiczny, 90 skrypty, 94 zachowania się postaci, 96

PVS, 113

Q qualia, 131 qubit, 206

R rachunek lambda, 53 różniczkowy, 34

RAM, 204 reguły wnioskowania, 105 res cogitans, 25, 30 res extensa, 30 robokoneko, 181 robot, 11, 18, 84 robotyka kognitywna, 185 rok Turinga, 85 rozpoznawanie języka, 145 obrazów, 121, 129

rozumienie języka, 145 rzecz myśląca, 25 rozciągła, 25

rzeczywistość wirtualna, 94

słownik komputerowy, 145 SOAR, 194 software, 25, 53, 166, 167 SOM, 158 SPE, 204 SpikerSapi, 129 SSEC, 42 stany dyskretne, 65 strong AI, 17, 54, 82 symulacje, 98 obliczeniowe, 18

syntaktyka, 76, 158 SynTalk, 129 system ACT*, 139 behawioralny, 191 doradczy, 176 dowodzący, 112, 113, 114 ekspercki, 210 EQP, 61 inteligentny, 15 intencjonalny, 185 jednozadaniowy, 210 językowy, 34 LT, 110 o stanach dyskretnych, 65 percepcyjny, 124 specjalistyczny

jednowymiarowy, 210 wielowymiarowy, 210

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\s2 - po sprawdzeniu_MM.doc

243

244

Sztuczna Inteligencja

system symulacyjny, 210 wielozadaniowy, 210 wnioskujący, 176

szachy, 87 szereg Bernoulliego, 61 Szkoła Hilberta, 43 Sztuczna Inteligencja, 11, 13, 17, 20, 32, 168, 217, 220 silna, 17 słaba, 17

sztuczne sieci neuronowe, 65, 71, 166 Sztuczne Życie, 185 sztuczny

TPS, 113 translator, 145, 146 tranzystor, 46 trójwymiarowy świat, 94 twierdzenie Gödla, 43, 53

U uczenie maszyn, 138 układ scalony, 90 umysł, 16, 26, 27

V

człowiek, 192, 220 mózg, 16, 166, 177 umysł, 16

VIE-PNN, 176 virtual reality, 94 viva voce, 56, 57

szyfrowanie DES, 72

W

S

warcaby, 88 weak AI, 17 wiedza, 138 wirtualny komputer, 72 Wszechwiedzący Gramofon, 72 wszystko wiedząca maszyna, 70 wypowiedzenie, 141

świadomość, 18, 55, 57

T tablice kategorii, 143 Talos, 24 Tamagotchi, 196 teatr kartezjański, 27 teoria

niezdaniowe, 142

wzmacniacz inteligencji, 217 wzór doboru naturalnego, 64

automatów, 43 gier minimaksowa, 91 rekursji Stephena C. Kleene’a, 53 sztucznego oświetlenia, 153

Z

terminal, 46 test na inteligencję, 185 test Turinga, 11, 13, 14, 18, 32, 47, 51, 69, 70, 82, 83 konsekwencje, 78

atomowe, 142 typu Π1, 120

testament Turinga, 85 TextBridge, 127, 128 teza

zmysł nadrzędny, 26 wspólny, 26

obliczeniowej wyjaśnialności, 79 obliczeniowej wystarczalności, 79

The Complex Number Calculator, 42 the ghost in the machine, 27 Theory of Neuronal Group Selection, 173 TNGS, 173

244

zachowanie w języku, 81 zadania NP, 94 zamknięta skrzynka, 123 zbieraj i rozprowadzaj, 181 zdanie, 142

Ż żywa maszyna, 24

D:\Dane\eBooki\Ebook_Ania_SZ\SZTUIN\s2 - po sprawdzeniu_MM.doc