Wprowadzenie
Pod koniec lat siedemdziesiątych dokonano istotnego spostrzeżenia. Okazało się, że moc programu ekspertowego (w zakresie rozwiązywania danego problemu) tkwi w zakodowanej w nim wiedzy, a nie w formalizmie i schematach wnioskowania, których ten program używa.
Im pełniejsza jest wiedza, tym szybciej uzyskuje się rozwiązanie. Oznacza to, że aby zbudować inteligentny program, należy go wyposażyć w dużą ilość dobrej jakości, specyficznej wiedzy o danym przedmiocie.
Do tej pory, tak jak i inni projektanci systemów sztucznej inteligencji, skupiałem się na technicznych sprawach przeniesienia modelu sieci neuronowej na postać kodu programu, a następnie na badaniu i korelowaniu takiej implementacji pod względem realizacji założonych funkcji. Oczywiście wynikała z tego duża zawiłość i wielkość nakładu pracy polegająca na tym, że należało stworzyć wiele linii programu i zazwyczaj nie było można znaleźć prostej transformaty przejścia modelu na kod w postaci zapisu źródłowego. Okazywało się przy tym, że stopień skomplikowania kodu bardzo szybko rósł w funkcji ilości realizowanych funkcji. To sprawiało trudności przede wszystkim czasowe. Po realizacji programu okazywało się, że tak mało on potrafił, w porównaniu z czasem, jaki się w niego włożyło, choć pewne funkcje realizował doskonale np: przeszukiwanie śladów informacji w pamięci. Okazało się również, że inne algorytmy nie oparte o model sieci neuronów, również dobrze realizowały podobne funkcje, choć były o wiele prostsze. Ponadto, taki model sieci neuronowej rozpatrywany był od strony zachowania jednomodalnej grupy neuronów. Na wysokim poziomie ten model okazywał się niewystarczający i rokował dalszą komplikację przy uogólnianiu modelu do struktur wielomodalnych. Przy dodawaniu kolejnej funkcjonalności zdarzało się, że należało przebudowywać podstawy programowe projektu, co wymagało kolejnego wysiłku. Cała trudność zawierała się w tym, że cel do którego dążyło się, nie był konkretnie sprecyzowany, a rozwiązanie problemu bliżej nieznane.
Spostrzeżenie grupy ekspertów, omawiane na początku, że moc programu ekspertowego zależy od zawartej w nim wiedzy a nie od zastosowanej techniki sugeruje, że należy się skupić nie na technicznych sprawach a na regule uniwersalnej. Takie uniwersalne ujęcia, znane z innych dziedzin niezależne od zastosowanej techniki, przyniosły bardzo dobre rezultaty. Okazuje się, że poznanie takiej uniwersalnej reguły pozwala na późniejsze oprawienie jej w techniczną implementację. Ten uniwersalizm oznacza niezależność od stosowanej techniki oraz możliwość zastosowania najprostszych możliwych metod implementacji na przykład dla celów testowania oraz uwolnienie się od wiernego i żmudnego odwzorowania układów bionicznych. Przyjęcie takiej metody podejścia minimalizuje nakłady czasowe na prace projektowe. Cechuje się większym przyrostem oczekiwanych rezultatów i jest bardziej podatne na zmianę założeń w trakcie opracowywania projektu. Zakładam w niej, że istnieje jedna uniwersalna inteligencja niezależnie od zasobnika w których się ona znajduje. To założenie bardzo wszystko upraszcza oraz daje poczucie niezależności od aktualnych środków technicznych realizacji. Dodatkowo pokazuje, że nie trzeba się wzorować ściśle na strukturach biologicznych, które są tylko jedną z możliwych implementacji.
Do opracowywania modelu funkcjonowania sieci neuronowej grupy neuronów opierałem się na różnych materiałach dotyczących systemów ekspertowych. Rozpatrywałem własności takich języków sztucznej inteligencji jak Lisp i Prolog. Przeanalizowałem różne schematy wnioskowania i prześledziłem inne aspekty z zakresu sztucznej inteligencji. Swój model sieci węzłowej oparłem o język Delphi. Swoją wiedzę korelowałem z wiedzą zbieraną przy studiowaniu biologicznych struktur układu nerwowego człowieka zarówno od strony zachowania poszczególnych neuronów aż po takie struktury jak mózg. Rozpatrywałem również wyższe funkcje układu nerwowego jak stany psychiczne mózgu.
Przy pracach nad sieciami węzłowymi oprócz modeli w postaci działających kodów programowych posłużyłem się pewnymi aspektami uniwersalnymi, które teraz wydają mi się bardziej cenne niż ich implementacje, ponieważ przybliżają do tej uniwersalnej metody ujęcia inteligencji. W następnych częściach przestawię wyniki moich prac nad inteligencją z punktu widzenia możliwości przeniesienia inteligencji na maszyny.
Waldemar Wietrzykowski
Computational Neuroscience
Digital Intelligence Laboratory
email:![]()
Zobacz też
- Baza wiedzy dla techniki kosmicznej
- Wprowadzenie do opisu języka SymP
- Zanim skonstruowano pierwszy komputer
- Konstrukcja pierwszego kalkulatora mechanicznego
- Maszyna Różnicowa: część I, część II
- Pierwszy komputer
- Czy komputer potrafi myśleć?
- Myślące maszyny
- Kręgi Vesyper™
- "Biologiczna Sieć Pakietowa"™
- Telepatia
- Publications / Download
Linki