Maszyny Turinga potrafią myśleć. Czy maszyny potrafią myśleć? Prosta dygresja na temat złożoności sprzętu

Jest mało prawdopodobne, aby klasyczna sztuczna inteligencja była ucieleśniona w myślących maszynach; granica ludzkiej pomysłowości w tej dziedzinie będzie najwyraźniej ograniczona do tworzenia systemów naśladujących pracę mózgu.

Nauka o sztucznej inteligencji (AI) przechodzi rewolucję. Aby wyjaśnić jego przyczyny i znaczenie oraz umieścić je w odpowiedniej perspektywie, musimy najpierw zwrócić się do historii.

We wczesnych latach pięćdziesiątych tradycyjne, nieco niejasne pytanie, czy maszyna może myśleć, ustąpiło miejsca bardziej przystępnemu pytaniu, czy maszyna, która manipuluje fizycznymi symbolami zgodnie z regułami opartymi na strukturze, może myśleć. Pytanie to jest sformułowane dokładniej, ponieważ logika formalna i teoria obliczeń poczyniły znaczne postępy w ciągu ostatniego półwiecza. Teoretycy zaczęli doceniać możliwości abstrakcyjnych systemów symboli, które podlegają przekształceniom zgodnie z określonymi regułami. Wydawało się, że gdyby te systemy można było zautomatyzować, to ich abstrakcyjna moc obliczeniowa przejawiłaby się w rzeczywistym systemie fizycznym. Takie poglądy przyczyniły się do narodzin dobrze zdefiniowanego programu badawczego o dość głębokiej podstawie teoretycznej.

Czy maszyna może myśleć?

Było wiele powodów, by odpowiedzieć tak. Historycznie jedną z pierwszych i najgłębszych przyczyn były dwa ważne wyniki teorii obliczeń. Pierwszym rezultatem była teza Churcha, że ​​każda efektywnie obliczalna funkcja jest obliczalna rekurencyjnie. Termin „efektywnie obliczalny” oznacza, że ​​istnieje pewien rodzaj „mechanicznej” procedury, dzięki której możliwe jest obliczenie wyniku w skończonym czasie na podstawie danych wejściowych. „Rekurencyjnie obliczalne” oznacza, że ​​istnieje skończony zbiór operacji, które można zastosować do danego wejścia, a następnie sekwencyjnie i wielokrotnie zastosować do nowo uzyskanych wyników w celu obliczenia funkcji w skończonym czasie. Pojęcie procedury mechanicznej nie jest formalne, lecz intuicyjne, dlatego teza Kościoła nie ma formalnego dowodu. Jednak dociera do sedna tego, czym są obliczenia, a na poparcie tego zbiega się wiele różnych dowodów.

Drugi ważny wynik uzyskał Alan M. Turing, który wykazał, że każda rekurencyjnie obliczalna funkcja może być obliczona w skończonym czasie za pomocą maksymalnie uproszczonej maszyny manipulującej symbolami, którą później nazwano uniwersalną maszyną Turinga. Ta maszyna rządzi się rekurencyjnie stosowanymi regułami wrażliwymi na tożsamość, porządek i położenie elementarnych symboli, które działają jako dane wejściowe.

Z tych dwóch wyników wynika bardzo ważny wniosek, a mianowicie, że standardowy komputer cyfrowy, wyposażony w poprawny program, wystarczająco dużą pamięć i wystarczający czas, może obliczyć dowolną funkcję sterowaną regułami z wejściem i wyjściem. Innymi słowy, potrafi zademonstrować dowolny systematyczny zestaw reakcji na arbitralne wpływy środowiska zewnętrznego.

Skonkretyzujmy to w następujący sposób: omówione powyżej wyniki oznaczają, że odpowiednio zaprogramowana maszyna manipulująca symbolami (zwana dalej maszyną MC) musi przejść test Turinga na obecność świadomego umysłu. Test Turinga jest testem czysto behawioralnym, ale jego wymagania są bardzo silne. (Jak ważny jest ten test, omówimy poniżej, gdzie spotykamy się z drugim, zasadniczo innym „testem” na obecność świadomego umysłu.) Zgodnie z oryginalną wersją testu Turinga, dane wejściowe do maszyny MS powinny być pytaniami i frazami w naturalnym języku potocznym, które wpisujemy na klawiaturze urządzenia wejściowego, a wyjściem są odpowiedzi maszyny MS drukowane przez urządzenie wyjściowe. Uważa się, że maszyna zdała ten test na obecność świadomego umysłu, jeśli jej odpowiedzi nie można odróżnić od tych, które wpisuje prawdziwa, inteligentna osoba. Oczywiście w chwili obecnej nikt nie zna funkcji, dzięki której możliwe byłoby uzyskanie wyjścia nie różniącego się od zachowania racjonalnego człowieka. Ale wyniki Churcha i Turinga gwarantują nam, że bez względu na to, jaka jest ta (przypuszczalnie wydajna) funkcja, odpowiednio zaprojektowana maszyna MS może ją obliczyć.

To bardzo ważny wniosek, zwłaszcza biorąc pod uwagę, że opis Turinga interakcji z maszyną za pomocą maszyny do pisania jest nieznacznym ograniczeniem. Ten sam wniosek jest słuszny, nawet jeśli maszyna MC oddziałuje ze światem w bardziej złożony sposób: poprzez aparat bezpośredniego widzenia, naturalną mowę, itd. Ostatecznie bardziej złożona funkcja rekurencyjna nadal pozostaje obliczalna według Turinga. Pozostaje tylko jeden problem: znaleźć tę niewątpliwie złożoną funkcję, która steruje reakcjami człowieka na wpływy ze środowiska zewnętrznego, a następnie napisać program (zestaw rekurencyjnie stosowanych reguł), za pomocą którego maszyna MS obliczy tę funkcję. Te cele stanowiły podstawę program naukowy klasyczna sztuczna inteligencja.

Pierwsze wyniki były zachęcające

Maszyny MC z pomysłowo zaprogramowanymi programami demonstrowały cały szereg działań, które zdawały się należeć do przejawów umysłu. Reagowali na skomplikowane polecenia, rozwiązywali trudne zadania arytmetyczne, algebraiczne i taktyczne, grali w warcaby i szachy, dowodzili twierdzeń i utrzymywali prosty dialog. Wyniki nadal się poprawiały wraz z pojawieniem się większych urządzeń pamięci masowej, szybszych maszyn oraz opracowaniem potężniejszych i bardziej wyrafinowanych programów. Klasyczna lub „zaprogramowana” sztuczna inteligencja była bardzo żywą i odnoszącą sukcesy dziedziną nauki z niemal każdego punktu widzenia. Powtarzające się zaprzeczanie, że maszyny MC w końcu będą w stanie myśleć, wydawało się stronnicze i niedoinformowane. Dowody przemawiające za pozytywną odpowiedzią na pytanie postawione w tytule artykułu wydawały się bardziej niż przekonujące.

Oczywiście były pewne niejasności. Przede wszystkim maszyny MC nie wyglądały zbytnio ludzki mózg. Jednak i tutaj klasyczna sztuczna inteligencja miała gotową przekonującą odpowiedź. Po pierwsze, fizyczny materiał, z którego wykonana jest maszyna MS, nie ma zasadniczo nic wspólnego z funkcją, którą oblicza. Ten ostatni jest zawarty w programie. Po drugie, szczegóły techniczne architektury funkcjonalnej maszyny są również nieistotne, ponieważ zupełnie inne architektury, zaprojektowane do pracy z zupełnie różnymi programami, mogą mimo wszystko wykonywać tę samą funkcję wejścia-wyjścia.

Dlatego celem AI było znalezienie funkcji, która jest charakterystyczna dla umysłu pod względem wejścia i wyjścia, a także stworzenie najbardziej wydajnego z wielu możliwych programów do obliczania tej funkcji. Jednocześnie mówiono, że nie ma znaczenia konkretny sposób obliczania funkcji przez ludzki mózg. Na tym kończy się opis istoty klasycznej AI i podstaw do pozytywnej odpowiedzi na pytanie postawione w tytule artykułu.

Czy maszyna może myśleć? Pojawiły się również argumenty za negatywną odpowiedzią. W latach 60. godne uwagi negatywne argumenty były stosunkowo rzadkie. Podnoszono czasem zarzut, że myślenie nie jest procesem fizycznym i odbywa się w niematerialnej duszy. Jednak taki dualistyczny pogląd nie wydawał się wystarczająco przekonujący ani z ewolucyjnego, ani logicznego punktu widzenia. Nie miało to odstraszającego wpływu na badania nad sztuczną inteligencją.

Rozważania o innym charakterze przyciągnęły znacznie więcej uwagi specjalistów AI. W 1972 Hubert L. Dreyfus opublikował książkę, która była bardzo krytyczna wobec paradnych pokazów inteligencji w systemach AI. Zwrócił uwagę, że te systemy nie modelują w odpowiedni sposób prawdziwego myślenia i ujawniły tkwiący w nich wzorzec nieudane próby. Jego zdaniem w modelach brakowało tego ogromnego zasobu niesformalizowanej wiedzy ogólnej o świecie, jaką posiada każdy człowiek, a także wrodzonej zdrowemu rozsądkowi zdolności polegania na pewnych elementach tej wiedzy, w zależności od wymagań zmieniającego się otoczenia. . Dreyfus nie zaprzeczył fundamentalnej możliwości stworzenia sztucznego fizycznego systemu zdolnego do myślenia, ale był bardzo krytyczny wobec idei, że można to osiągnąć jedynie poprzez manipulowanie symbolami z rekurencyjnie stosowanymi regułami.

W kręgach specjalistów od sztucznej inteligencji, a także filozofów rozumowania Dreyfusa były postrzegane głównie jako krótkowzroczne i stronnicze, oparte na nieuniknionych uproszczeniach tkwiących w tej wciąż bardzo młodej dziedzinie badań. Być może te niedociągnięcia rzeczywiście miały miejsce, ale oczywiście były tymczasowe. Nadejdzie czas, kiedy mocniejsze maszyny i lepsze programy pozwolą pozbyć się tych niedociągnięć. Wydawało się, że czas działa na sztuczną inteligencję. Zastrzeżenia te nie miały więc zauważalnego wpływu na dalsze badania w zakresie sztucznej inteligencji.

Okazało się jednak, że czas zadziałał Dreyfusa: pod koniec lat 70. - na początku lat 80. wzrost szybkości i pamięci komputerów nie zwiększył zbytnio ich „zdolności umysłowych”. Okazało się na przykład, że rozpoznawanie wzorców w systemach wizyjnych wymaga nieoczekiwanie dużej ilości obliczeń. Aby uzyskać praktycznie wiarygodne wyniki, trzeba było poświęcać coraz więcej czasu na komputer, znacznie przekraczając czas wymagany do wykonania tych samych zadań dla biologicznego systemu wizyjnego. Tak powolny proces symulacji był alarmujący: wszak w komputerze sygnały rozchodzą się około milion razy szybciej niż w mózgu, a częstotliwość taktowania jednostki centralnej komputera jest mniej więcej tyle samo razy wyższa niż częstotliwość wszelkich wykrytych oscylacji w mózgu. A jednak przy realistycznych zadaniach żółw z łatwością wyprzedza zająca.

Ponadto, aby rozwiązać realistyczne problemy, konieczne jest, aby program komputerowy miał dostęp do niezwykle dużej bazy danych. Budowa takiej bazy jest już sama w sobie dość trudnym problemem, ale potęguje go inna okoliczność: jak zapewnić dostęp do konkretnych, zależnych od kontekstu fragmentów tej bazy w czasie rzeczywistym. W miarę jak bazy danych stawały się coraz bardziej pojemne, problem dostępu stawał się coraz bardziej skomplikowany. Wyczerpujące poszukiwania trwały zbyt długo, a metody heurystyczne nie zawsze były skuteczne. Obawy podobne do tych wyrażanych przez Dreyfusa zaczęły być podzielane nawet przez niektórych ekspertów zajmujących się sztuczną inteligencją.

Mniej więcej w tym czasie (1980) John Searle przedstawił przełomową koncepcję krytyczną, która poddała w wątpliwość bardzo podstawowe założenie klasycznego programu badań nad sztuczną inteligencją, a mianowicie ideę, że prawidłowa manipulacja ustrukturyzowanymi symbolami poprzez rekurencyjne stosowanie reguł, które uwzględniają ich strukturę , mogą stanowić esencję świadomego umysłu.

Główny argument Searle'a opierał się na eksperymencie myślowym, w którym pokazuje dwa bardzo ważne fakty. Najpierw opisuje maszynę MC, która (jak powinniśmy zrozumieć) implementuje funkcję, która na wejściu i wyjściu jest w stanie przejść test Turinga w formie rozmowy, która odbywa się wyłącznie w języku chińskim. Po drugie, wewnętrzna struktura maszyny jest taka, że ​​bez względu na to, jakie zachowanie wykazuje, nie ma wątpliwości dla obserwatora, że ​​ani maszyna jako całość, ani żadna jej część nie rozumie języka chińskiego. Zawiera jedynie osobę, która mówi tylko po angielsku, przestrzegając zasad zapisanych w instrukcji, za pomocą których należy manipulować postaciami wchodzącymi i wychodzącymi przez skrzynkę pocztową w drzwiach. Krótko mówiąc, system pozytywnie spełnia test Turinga, mimo że nie ma prawdziwego zrozumienia języka chińskiego i faktycznej treści semantycznej komunikatów (zob. artykuł J. Searle'a „The Mind of the Brain - a Computer Program? ").

Ogólny wniosek z tego jest taki, że każdy system, który po prostu manipuluje fizycznymi symbolami zgodnie z regułami wrażliwymi na strukturę, będzie w najlepszym razie żałosną parodią prawdziwego świadomego umysłu, ponieważ niemożliwe jest wygenerowanie „prawdziwej semantyki” po prostu przekręcając pokrętło „ pusta składnia". Należy tutaj zauważyć, że Searle nie przedstawia behawioralnego (niebehawioralnego) testu na obecność świadomości: elementy świadomego umysłu muszą mieć rzeczywistą treść semantyczną.

Istnieje pokusa, by zarzucić Searle'owi, że jego eksperyment myślowy nie jest adekwatny, ponieważ proponowany przez niego system, działający jak „kostka Rubika”, będzie działał absurdalnie wolno. Searle twierdzi jednak, że prędkość nie odgrywa w tym przypadku żadnej roli. Ten, kto myśli powoli, nadal myśli dobrze. Wszystko, co niezbędne do reprodukcji myślenia, zgodnie z koncepcją klasycznej AI, znajduje się jego zdaniem w „chińskim pokoju”.

Artykuł Searle wywołał entuzjastyczne reakcje ekspertów AI, psychologów i filozofów. Ogólnie jednak spotkała się z jeszcze większą wrogością niż książka Dreyfusa. W swoim artykule, publikowanym równolegle w tym numerze czasopisma, Searle przedstawia szereg krytycznych argumentów przeciwko swojej koncepcji. Naszym zdaniem wiele z nich jest słusznych, zwłaszcza te, których autorzy zachłannie „łapią przynętę”, twierdząc, że choć system składający się z pokoju i jego zawartości jest potwornie powolny, to wciąż rozumie język chiński.

Lubimy te odpowiedzi, ale nie dlatego, że uważamy, że chiński pokój rozumie chiński. Zgadzamy się z Searle, że go nie rozumie. Atrakcyjność tych argumentów polega na tym, że odzwierciedlają one brak akceptacji najważniejszego trzeciego aksjomatu w argumencie Searle'a: „Składnia sama w sobie nie stanowi semantyki i nie jest wystarczająca do istnienia semantyki”. Ten aksjomat może być prawdziwy, ale Searle nie może zasadnie twierdzić, że wie to na pewno. Co więcej, sugerowanie, że to prawda, jest pytaniem, czy program klasycznych badań nad sztuczną inteligencją jest słuszny, ponieważ program ten opiera się na bardzo interesującym założeniu, że jeśli tylko możemy wprawić w ruch odpowiednio ustrukturyzowany proces, rodzaj wewnętrzny taniec elementów składniowych, prawidłowo połączonych z wejściami i wyjściami, wtedy możemy uzyskać te same stany i przejawy umysłu, które są nieodłącznie związane z człowiekiem.

To, że trzeci aksjomat Searle'a naprawdę prosi o to pytanie, staje się oczywiste, gdy porównamy go bezpośrednio z jego pierwszym wnioskiem: „Programy pojawiają się jako esencja umysłu i ich obecność nie jest wystarczająca dla obecności umysłu”. Nietrudno zauważyć, że jego trzeci aksjomat zawiera już 90% wniosku niemal identycznego z nim. To dlatego eksperyment myślowy Searle'a został specjalnie zaprojektowany, aby wspierać trzeci aksjomat. To jest cały sens chińskiego pokoju.

Chociaż przykład chińskiego pokoju czyni aksjomat 3 atrakcyjnym dla niewtajemniczonych, nie sądzimy, aby dowodził on słuszności tego aksjomatu i aby zademonstrować niepowodzenie tego przykładu, podajemy nasz równoległy przykład jako ilustrację. Często pojedynczy dobry przykład, który obala sporne twierdzenie, znacznie lepiej wyjaśnia sytuację niż cała książka pełna logicznej żonglerki.

W historii nauki było wiele przykładów sceptycyzmu, takich jak rozumowanie Searle'a. W XVIII wieku. Irlandzki biskup George Berkeley uznał za nie do pomyślenia, aby fale kompresji w powietrzu mogły same w sobie być esencją zjawisk dźwiękowych lub czynnikiem wystarczającym do ich zaistnienia. Angielski poeta i malarz William Blake i niemiecki przyrodnik Johann Goethe uważali za nie do pomyślenia, aby małe cząstki materii same mogły być bytem lub czynnikiem wystarczającym do obiektywnego istnienia światła. Nawet w tym stuleciu byli ludzie, którzy nie mogli sobie wyobrazić, że nieożywiona materia sama z siebie, bez względu na złożoność jej organizacji, może być bytem organicznym lub wystarczającym warunkiem życia. Oczywiście to, co ludzie mogą sobie wyobrazić lub nie, często nie ma nic wspólnego z tym, co faktycznie istnieje lub nie istnieje w rzeczywistości. Dzieje się tak nawet w przypadku osób o bardzo wysokim poziomie inteligencji.

Aby zobaczyć, jak te lekcje historyczne można zastosować do rozumowania Searle'a, zastosujmy sztuczną paralelę do jego logiki i wzmocnijmy tę paralelę eksperymentem myślowym.

Aksjomat 1. Elektryczność i magnetyzm to siły fizyczne.

Aksjomat 2. Istotną właściwością światła jest jasność.

Aksjomat 3. Same siły pojawiają się jako esencja efektu blasku i nie wystarczają na jego obecność.

Wniosek 1. Elektryczność i magnetyzm nie są istotą światła i nie wystarczają do jego istnienia.

Załóżmy, że to rozumowanie zostało opublikowane niedługo później James K. Maxwell w 1864 zasugerował, że światło i fale elektromagnetyczne są identyczne, ale zanim w świecie w pełni zrealizowano systematyczne podobieństwa między właściwościami światła i właściwościami fal elektromagnetycznych. Powyższe logiczne rozumowanie może wydawać się przekonującym sprzeciwem wobec śmiałej hipotezy Maxwella, zwłaszcza jeśli towarzyszy mu następujący komentarz na poparcie Aksjomatu 3.

Rozważ ciemny pokój, w którym znajduje się osoba trzymająca w rękach magnes trwały lub naładowany przedmiot. Jeśli dana osoba zacznie poruszać magnesem w górę iw dół, to zgodnie z teorią sztucznego oświetlenia Maxwella (AI) z magnesu będzie emanować rozchodząca się kula fal elektromagnetycznych, a pomieszczenie stanie się jaśniejsze. Ale, jak każdy, kto próbował bawić się magnesami lub naładowanymi kulkami doskonale zdaje sobie sprawę, ich siły (a także wszelkie inne siły), nawet gdy te obiekty są w ruchu, nie wytwarzają żadnego blasku. Dlatego wydaje się nie do pomyślenia, abyśmy mogli osiągnąć prawdziwy efekt świecenia po prostu manipulując siłami!

Fluktuacje sił elektromagnetycznych są lekkie, chociaż magnes, którym porusza się osoba, nie wytwarza żadnego blasku. Podobnie, manipulowanie symbolami zgodnie z pewnymi zasadami może reprezentować inteligencję, chociaż system oparty na zasadach znaleziony w China Room Searle'a wydaje się nie mieć prawdziwego zrozumienia.

Co mógłby odpowiedzieć Maxwell, gdyby rzucono mu to wyzwanie?

Po pierwsze, mógł upierać się, że eksperyment „świetlistego pokoju” wprowadza nas w błąd co do właściwości światła widzialnego, ponieważ częstotliwość wibracji magnesu jest niezwykle niska, około 1015 razy mniejsza niż to konieczne. Po tym może nastąpić zniecierpliwiona odpowiedź, że częstotliwość nie odgrywa tu żadnej roli, że pomieszczenie z oscylującym magnesem zawiera już wszystko, co niezbędne do zamanifestowania się efektu jarzenia się w pełnej zgodzie z teorią samego Maxwella.

Z kolei Maxwell mógłby „połknąć przynętę”, twierdząc całkiem słusznie, że pokój jest już pełen światła, ale natura i siła tej luminescencji jest taka, że ​​człowiek nie jest w stanie jej zobaczyć. (Ze względu na niską częstotliwość, z jaką człowiek porusza magnesem, długość generowanych fal elektromagnetycznych jest zbyt duża, a ich intensywność zbyt niska, aby ludzkie oko na nie zareagowało.) Jednak biorąc pod uwagę poziom zrozumienia tych zjawisk w rozważanym okresie (lata 60. ubiegłego wieku) takie wyjaśnienie prawdopodobnie wywołałoby śmiech i kpiny. Świecący pokój! Ale przepraszam, panie Maxwell, tam jest zupełnie ciemno!

Widzimy więc, że biedni Maxwell musi być trudne. Wszystko, co może zrobić, to nalegać na następujące trzy punkty. Po pierwsze, aksjomat 3 w powyższym rozumowaniu nie jest prawdziwy. Rzeczywiście, mimo że intuicyjnie wydaje się to całkiem prawdopodobne, mimowolnie stawiamy o to pytanie. Po drugie, eksperyment ze świecącym pokojem nie pokazuje nam nic ciekawego na temat fizycznej natury światła. I po trzecie, aby naprawdę rozwiązać problem światła i możliwości sztucznego światła, potrzebujemy programu badawczego, który pozwoli nam ustalić, czy w odpowiednich warunkach zachowanie fal elektromagnetycznych jest całkowicie identyczne z zachowaniem światła. Tej samej odpowiedzi powinna udzielić klasyczna sztuczna inteligencja na rozumowanie Searle'a. Chociaż chiński pokój Searle'a może wydawać się „semantycznie ciemny”, nie ma on zbyt wielu powodów, by upierać się, że manipulacja symbolami, dokonywana zgodnie z pewnymi zasadami, nigdy nie może wytworzyć zjawisk semantycznych, zwłaszcza że ludzie wciąż są niedoinformowani i ograniczeni jedynie zrozumieniem język, zdroworozsądkowy poziom tych semantycznych i zjawiska psychiczne które wymagają wyjaśnienia. Zamiast korzystać ze zrozumienia tych rzeczy, Searle w swoim rozumowaniu swobodnie wykorzystuje brak takiego zrozumienia u ludzi.

Wyrażając naszą krytykę rozumowania Searle'a, wróćmy do pytania, czy klasyczny program AI ma realną szansę na rozwiązanie problemu świadomego umysłu i stworzenie myślącej maszyny. Uważamy, że perspektywy tutaj nie są optymistyczne, ale nasza opinia opiera się na powodach zasadniczo odmiennych od tych, których używa Searle. Opieramy się na konkretnych niepowodzeniach klasycznego programu badawczego nad sztuczną inteligencją oraz na zestawie lekcji, których nauczył nas biologiczny mózg poprzez nową klasę modeli obliczeniowych, które ucieleśniają pewne właściwości jego struktury. Wspomnieliśmy już o niepowodzeniach klasycznej sztucznej inteligencji w rozwiązywaniu problemów, które mózg szybko i skutecznie rozwiązuje. Naukowcy stopniowo dochodzą do konsensusu, że te awarie wynikają z właściwości funkcjonalnej architektury maszyn MS, które po prostu nie nadają się do rozwiązywania złożonych zadań przed nią.

Musimy wiedzieć, w jaki sposób mózg osiąga efekt myślenia? Inżynieria odwrotna jest szeroko rozpowszechnioną techniką w inżynierii. Gdy na rynku pojawia się nowa technologia, konkurenci dowiadują się, jak to działa, rozkładając ją na części i próbując odgadnąć zasadę, na której się opiera. W przypadku mózgu takie podejście jest niezwykle trudne do wdrożenia, ponieważ mózg jest najbardziej złożoną rzeczą na świecie. Niemniej neurofizjologom udało się odkryć wiele właściwości mózgu na różnych poziomach strukturalnych. Trzy cechy anatomiczne zasadniczo odróżniają go od architektury tradycyjnych komputerów elektronicznych.

po pierwsze, układ nerwowy jest maszyną równoległą, w tym sensie, że sygnały są przetwarzane jednocześnie na miliony różnych sposobów. Na przykład siatkówka oka przesyła do mózgu złożony sygnał wejściowy nie w partiach po 8, 16 lub 32 elementy, jak w komputerze stacjonarnym, ale w postaci sygnału składającego się z prawie miliona pojedynczych elementów docierających jednocześnie do końca nerwu wzrokowego (ciało kolankowate boczne), po czym są one jednocześnie, w jednym kroku, przetwarzane przez mózg. Po drugie, podstawowe „urządzenie przetwarzające” mózgu, neuron, jest stosunkowo proste. Ponadto jego odpowiedź na sygnał wejściowy jest analogowa, a nie cyfrowa, w tym sensie, że częstotliwość sygnału wyjściowego zmienia się w sposób ciągły wraz z sygnałami wejściowymi.

Po trzecie, w mózgu, oprócz aksonów prowadzących z jednej grupy neuronów do drugiej, często spotykamy aksony prowadzące w przeciwnym kierunku. Te powracające procesy pozwalają mózgowi modulować sposób przetwarzania informacji sensorycznych. Jeszcze ważniejszy jest fakt, że ze względu na swoje istnienie mózg jest prawdziwie dynamicznym układem, w którym stale utrzymywane zachowanie charakteryzuje się zarówno bardzo dużą złożonością, jak i względną niezależnością od bodźców obwodowych. Uproszczone modele sieci odegrały użyteczną rolę w badaniu mechanizmów działania rzeczywistych sieci neuronowych oraz właściwości obliczeniowych architektur równoległych. Rozważmy na przykład model trójwarstwowy składający się z elementów podobnych do neuronów, które mają połączenia podobne do aksonów z elementami następnego poziomu. Bodziec wejściowy osiąga próg aktywacji danego elementu wejściowego, który wysyła sygnał o proporcjonalnej sile wzdłuż swojego „aksonu” do licznych „synaptycznych” zakończeń elementów warstwy ukrytej. Ogólny efekt polega na tym, że określony wzorzec sygnałów aktywujących na zestawie elementów wejściowych generuje określony wzorzec sygnałów na zestawie ukrytych elementów.

To samo można powiedzieć o elementach wyjściowych. Podobnie konfiguracja sygnałów aktywujących w wycinku warstwy ukrytej prowadzi do pewnego wzorca aktywacji w wycinku elementów wyjściowych. Podsumowując, możemy powiedzieć, że rozważana sieć jest urządzeniem do konwersji dowolnej dużej liczby możliwych wektorów wejściowych (konfiguracji sygnałów aktywujących) na jednoznacznie odpowiadający wektor wyjściowy. To urządzenie jest przeznaczone do obliczania określonej funkcji. Oceniana funkcja zależy od globalnej konfiguracji struktury masy synaptycznej.

Sieci neuronowe modelują główną właściwość mikrostruktury mózgu. W tej trójwarstwowej sieci neurony wejściowe (na dole po lewej) przetwarzają wzór sygnałów wyzwalających (na dole po prawej) i przekazują je przez połączenia ważone do warstwy ukrytej. Elementy warstwy ukrytej sumują swoje wielokrotne wejścia, tworząc nową konfigurację sygnału. Przechodzi do warstwy zewnętrznej, która dokonuje dalszych przekształceń. Ogólnie rzecz biorąc, sieć przekształci dowolny zestaw sygnałów wejściowych w odpowiedni sygnał wyjściowy, w zależności od lokalizacji i względnej siły połączeń między neuronami.

Istnieją różne procedury dopasowywania wag, dzięki którym można stworzyć sieć zdolną do obliczania niemal dowolnej funkcji (tj. dowolnej transformacji między wektorami). W rzeczywistości można zaimplementować w sieci funkcję, której nie da się nawet sformułować, wystarczy podać jej zestaw przykładów pokazujących, jakie lary wejściowe i wyjściowe chcielibyśmy mieć. Proces ten, zwany „uczeniem się sieci”, jest przeprowadzany przez sekwencyjne wybieranie wag przypisanych do łączy, które trwa do momentu, gdy sieć zacznie wykonywać żądane przekształcenia na wejściu w celu uzyskania żądanego wyjścia.

Chociaż ten model sieci znacznie upraszcza strukturę mózgu, nadal ilustruje kilka ważnych aspektów. Po pierwsze, architektura równoległa zapewnia ogromną przewagę wydajności nad tradycyjnym komputerem, ponieważ wiele synaps na każdym poziomie wykonuje wiele małych operacji obliczeniowych w tym samym czasie, zamiast działać w bardzo czasochłonnym trybie sekwencyjnym. Ta przewaga staje się coraz bardziej znacząca wraz ze wzrostem liczby neuronów na każdym poziomie. Co zaskakujące, szybkość przetwarzania informacji wcale nie zależy od liczby elementów zaangażowanych w proces na każdym poziomie, ani od złożoności obliczanej przez nie funkcji. Każdy poziom może mieć cztery elementy lub sto milionów; konfiguracja wagi synaptycznej może obliczać proste jednocyfrowe sumy lub rozwiązywać równania różniczkowe drugiego rzędu. Nie ważne. Czas obliczeń będzie dokładnie taki sam.

Po drugie, równoległy charakter systemu sprawia, że ​​jest on niewrażliwy na drobne błędy i zapewnia stabilność funkcjonalną; utrata kilku łączy, nawet zauważalnych, ma znikomy wpływ na ogólny przebieg transformacji realizowanej przez resztę sieci.

Po trzecie, system równoległy przechowuje dużą ilość informacji w formie rozproszonej, zapewniając jednocześnie dostęp do dowolnego fragmentu tych informacji w czasie mierzonym w kilku milisekundach. Informacje są przechowywane w postaci pewnych konfiguracji wag poszczególnych połączeń synaptycznych, które powstały w procesie wcześniejszego uczenia się. Żądana informacja jest „uwalniana”, gdy wektor wejściowy przechodzi (i przekształca) tę konfigurację łącza.

Równoległe przetwarzanie danych nie jest idealne dla wszystkich rodzajów komputerów. Przy rozwiązywaniu problemów z małym wektorem wejściowym, ale wymagającym wielu milionów szybko powtarzających się obliczeń rekurencyjnych, mózg okazuje się całkowicie bezradny, podczas gdy klasyczne maszyny MS demonstrują swoje najlepsze możliwości. To bardzo duża i ważna klasa informatyczna, dzięki której klasyczne maszyny zawsze będą potrzebne, a nawet potrzebne. Istnieje jednak równie szeroka klasa obliczeń, dla których architektura mózgu jest najlepszym rozwiązaniem technicznym. Są to głównie kalkulacje, z którymi zwykle borykają się żywe organizmy: rozpoznawanie konturów drapieżnika w „hałaśliwym” środowisku; natychmiastowe przypomnienie prawidłowej reakcji na jego spojrzenie, sposób na ucieczkę, gdy się zbliża lub obronę, gdy zostanie zaatakowany; rozróżnianie rzeczy jadalnych i niejadalnych, partnerów seksualnych od innych zwierząt; wybór zachowania w złożonym i stale zmieniającym się środowisku fizycznym lub społecznym; itp.

Na koniec bardzo ważne jest, aby zauważyć, że opisany system równoległy nie manipuluje symbolami zgodnie z regułami strukturalnymi. Manipulacja symbolami jest raczej tylko jedną z wielu innych „inteligentnych” umiejętności, których sieć może się nauczyć lub nie. Sterowana regułami manipulacja symbolami nie jest podstawowym sposobem działania sieci. Rozumowanie Searle'a jest skierowane przeciwko rządzonym przez reguły maszynom MC; systemy transformacji wektorowej typu, który opisaliśmy, nie mieszczą się zatem w zakresie jego argumentacji o chińskim pokoju, nawet jeśli były słuszne, w co mamy inne, niezależne powody, by wątpić.

Searle zna procesory równoległe, ale jego zdaniem będą one również pozbawione prawdziwej treści semantycznej. Aby zilustrować ich nieuniknioną niższość w tym względzie, opisuje drugi eksperyment myślowy, tym razem z chińską siłownią wypełnioną ludźmi zorganizowanymi w równoległej sieci. Dalszy przebieg jego rozumowania jest podobny do rozumowania w przypadku pokoju chińskiego.

Naszym zdaniem ten drugi przykład nie jest tak udany i przekonujący jak pierwszy. Przede wszystkim fakt, że żaden element w systemie nie rozumie języka chińskiego, nie odgrywa żadnej roli, ponieważ to samo dotyczy układu nerwowego człowieka: ani jeden neuron w moim mózgu nie rozumie języka angielskiego, chociaż mózg jako całość rozumie. Searle mówi dalej, że jego model (jedna osoba na neuron plus jeden szybkonogi chłopiec na połączenie synaptyczne) wymagałby co najmniej 1014 osób, ponieważ ludzki mózg zawiera 1011 neuronów, z których każdy ma średnio 103 połączenia. Tak więc jego system wymagałby populacji 10 000 światów, takich jak nasza Ziemia. Oczywiście siłownia nie jest w stanie pomieścić mniej lub bardziej odpowiedniego modelu.

Z drugiej strony, gdyby taki system można było jeszcze złożyć, na odpowiednią kosmiczną skalę, z dokładnie wymodelowanymi wszystkimi połączeniami, mielibyśmy ogromny, powolny, dziwnie zaprojektowany, ale wciąż funkcjonujący mózg. W tym przypadku oczywiście naturalne jest oczekiwanie, że z odpowiednim wkładem będzie myślał, a nie odwrotnie, że nie jest do tego zdolny. Nie można zagwarantować, że działanie takiego systemu będzie reprezentować rzeczywiste myślenie, ponieważ teoria przetwarzania wektorów może nie odzwierciedlać adekwatnie działania mózgu. Ale w ten sam sposób nie mamy a priori gwarancji, że nie będzie myślała. Searle po raz kolejny błędnie utożsamia obecne granice własnej (lub czytelnika) wyobraźni z granicami obiektywnej rzeczywistości.

Mózg

Mózg jest rodzajem komputera, choć większość jego właściwości jest wciąż nieznana. Niełatwo jest scharakteryzować mózg jako komputer i nie należy lekceważyć takiej próby. Mózg wykonuje funkcje obliczeniowe, ale nie w taki sam sposób, jak w zadaniach aplikacyjnych rozwiązywanych przez klasyczną sztuczną inteligencję. Kiedy mówimy o maszynie jako komputerze, nie mamy na myśli sekwencyjnego komputera cyfrowego, który musi być zaprogramowany i który ma wyraźne oddzielenie oprogramowania i sprzętu; nie mamy też na myśli tego, że ten komputer manipuluje symbolami lub przestrzega pewnych zasad. Mózg jest komputerem zupełnie innego rodzaju.

Nie wiadomo jeszcze, w jaki sposób mózg wychwytuje semantyczną treść informacji, ale jasne jest, że problem ten wykracza daleko poza językoznawstwo i nie ogranicza się do człowieka jako gatunku. Mały skrawek świeżej ziemi oznacza, zarówno dla człowieka, jak i dla kojota, że ​​gdzieś w pobliżu jest susły; echo o określonych charakterystykach spektralnych oznacza dla nietoperz obecność ćmy. Aby rozwinąć teorię tworzenia znaczeń, musimy dowiedzieć się więcej o tym, jak neurony kodują i przekształcają sygnały czuciowe, neuronalne podstawy pamięci, uczenia się i emocji oraz związek między tymi czynnikami a układem ruchowym. Oparta na neuronauce teoria rozumienia znaczenia może nawet wymagać naszej intuicji, która teraz wydaje się nam tak niewzruszona i którą Searle tak swobodnie posługuje się w swoim rozumowaniu. Takie rewizje nie są rzadkością w historii nauki.

Czy nauka może stworzyć sztuczną inteligencję wykorzystując to, co wiadomo o układzie nerwowym? Na tej ścieżce nie widzimy żadnych podstawowych przeszkód. Searle rzekomo się zgadza, ale z zastrzeżeniem: „Każdy inny system zdolny do generowania inteligencji musi mieć właściwości przyczynowe (przynajmniej) równoważne odpowiednim właściwościom mózgu”. Na końcu artykułu rozważymy to stwierdzenie. Uważamy, że Searle nie twierdzi, że udany system sztucznej inteligencji musi koniecznie posiadać wszystkie przyczynowe właściwości mózgu, takie jak zdolność wyczuwania zgnilizny, zdolność przenoszenia wirusów, zdolność żółknięcia pod wpływem peroksydazy chrzanowej itp. Wymaganie pełnej zgodności byłoby jak proszenie sztucznego samolotu o możliwość składania jaj.

Zapewne chodziło mu tylko o wymóg, aby sztuczny umysł posiadał wszystkie właściwości przyczynowe, które, jak to ujął, należą do umysłu świadomego. Jednak które dokładnie? I tu znowu wracamy do sporu o to, co należy do świadomego umysłu, a co nie. To tylko miejsce do kłótni, ale prawdę w tym przypadku należy poznać empirycznie - spróbuj i zobacz, co się stanie. Ponieważ wiemy tak mało o tym, czym dokładnie jest proces myślowy i semantyka, jakakolwiek pewność co do tego, jakie właściwości są tutaj istotne, byłaby przedwczesna. Searle kilkakrotnie podpowiadał, że każdy poziom, w tym biochemia, musi być reprezentowany w każdej maszynie, która twierdzi, że jest sztuczną inteligencją. Oczywiście jest to zbyt silny wymóg. Sztuczny mózg może osiągnąć ten sam efekt bez użycia mechanizmów biochemicznych.

Możliwość tę wykazano w badaniach K. Meada w California Institute of Technology. Mead i jego koledzy wykorzystali analogowe urządzenia mikroelektroniczne do stworzenia sztucznej siatkówki i sztucznego ślimaka. (U zwierząt siatkówka i ślimak to nie tylko przetworniki: w obu systemach zachodzi złożone przetwarzanie równoległe). Urządzenia te nie są już prostymi modelami w minikomputerze, z którego chichocze Searle; są to rzeczywiste elementy przetwarzania informacji, które reagują w czasie rzeczywistym na rzeczywiste sygnały: światło w przypadku siatkówki i dźwięk w przypadku ślimaka. Projekty urządzeń opierają się na znanych anatomicznych i fizjologicznych właściwościach siatkówki kota i ślimaka płomykówki, a ich wypływ jest niezwykle zbliżony do znanych wypływów organów, które modelują.

Te mikroukłady nie wykorzystują żadnych neuroprzekaźników, dlatego neuroprzekaźniki nie wydają się być konieczne do osiągnięcia pożądanych rezultatów. Oczywiście nie możemy powiedzieć, że sztuczna siatkówka coś widzi, ponieważ jej wyjście nie trafia do sztucznego wzgórza, kory mózgowej itp. Czy możliwe jest zbudowanie całego sztucznego mózgu za pomocą programu Mead nie jest jeszcze znane, ale co obecny Nie mamy dowodów na to, że brak mechanizmów biochemicznych w systemie czyni to podejście nierealistycznym.

Układ nerwowy obejmuje cały zakres organizacji, od cząsteczek neuroprzekaźników (poniżej) po cały mózg i rdzeń kręgowy. Poziomy pośrednie zawierają pojedyncze neurony i obwody nerwowe, takie jak realizujące selektywność percepcji bodźców wzrokowych (w środku) oraz układy złożone z wielu obwodów, podobnych do tych, które pełnią funkcje mowy (u góry po prawej). Tylko poprzez badania można ustalić, jak bardzo sztuczny system jest w stanie odtworzyć systemy biologiczne, które mają umysł.

Podobnie jak Searle, odrzucamy test Turinga jako wystarczające kryterium obecności świadomego umysłu. Z jednej strony mamy do tego podobne powody: zgadzamy się, że bardzo ważne jest, jak zaimplementowana jest funkcja zdefiniowana przez wejście-wyjście; ważne jest, aby w maszynie zachodziły prawidłowe procesy. Na innym poziomie kierujemy się zupełnie innymi względami. Searle opiera swoje stanowisko na obecności lub braku treści semantycznej na intuicji zdrowego rozsądku. Nasz punkt widzenia opiera się na specyficznych awariach klasycznych maszyn MS i specyficznych zaletach maszyn, których architektura jest bliższa strukturze mózgu. Porównanie tych różnych typów maszyn pokazuje, że niektóre strategie obliczeniowe mają ogromną i decydującą przewagę nad innymi w zakresie typowych zadań umysłowych. Te zalety, ustalone empirycznie, nie budzą żadnych wątpliwości. Oczywiście mózg systematycznie wykorzystuje te zalety obliczeniowe. Jednak niekoniecznie jest to jedyny fizyczny system, który może z nich skorzystać. Pomysł stworzenia sztucznej inteligencji w niebiologicznej, ale zasadniczo równoległej maszynie, pozostaje bardzo kuszący i całkiem obiecujący.

Zastanowię się, czy maszyny potrafią myśleć. Ale w tym celu musimy najpierw zdefiniować znaczenie terminów „maszyna” i „myśleć”. Można by skonstruować te definicje w taki sposób, aby jak najlepiej odzwierciedlały zwyczajowe użycie tych słów, ale takie podejście jest obarczone pewnym niebezpieczeństwem. Chodzi o to, że jeśli zbadamy znaczenia słów „maszyna” i „myśleć” badając, jak te słowa są zwykle definiowane, trudno będzie nam uniknąć wniosku, że znaczenie tych słów i odpowiedź na pytanie „Czy maszyny potrafią myśleć?” należy szukać za pomocą ankiety statystycznej podobnej do kwestionariusza Gallupa. Jest to jednak śmieszne. Zamiast próbować podać taką definicję, zastąpię nasze pytanie innym, ściśle z nim związanym i wyrażonym w słowach o stosunkowo jasnym znaczeniu.

Tę nową formę można opisać w kategoriach gry, którą nazwiemy „grą w imitację”. W tę grę grają trzy osoby: mężczyzna (A), kobieta (B) i ktoś zadający pytania (C), którym może być osoba dowolnej płci. Pytający jest oddzielony od pozostałych dwóch uczestników gry ścianami pokoju, w którym się znajduje. Celem gry dla Pytającego jest ustalenie, który z pozostałych dwóch graczy w grze jest mężczyzną (A), a który kobietą (B). Zna je jako X i Y, a na koniec gry mówi albo „X to A, a Y to B” albo „X to B, a Y to A”. Może zadawać pytania takie jak:

S: „Poproszę X, aby mi podał długość swoich (lub jej) włosów”.

Załóżmy teraz, że X jest faktycznie A. W takim przypadku A musi udzielić odpowiedzi. Dla A celem gry jest zachęcenie C do błędnego wniosku. Więc jego odpowiedź może brzmieć mniej więcej tak:

„Moje włosy są krótko obcięte, a najdłuższe pasma mają około dziewięciu cali”.

Aby pytający nie mógł głosowo określić, który z pozostałych dwóch uczestników gry jest mężczyzną, a który kobietą, odpowiedzi na pytania należało udzielić pisemnie, a jeszcze lepiej – na maszynie do pisania. Idealnym przypadkiem byłaby wiadomość telegraficzna między dwoma pokojami, w których znajdują się gracze. Jeśli nie można tego zrobić, odpowiedzi i pytania powinien przekazać jakiś pośrednik. Celem gry dla trzeciego gracza, kobiety (B), jest pomoc pytającemu. Dla niej prawdopodobnie najlepszą strategią jest udzielanie prawdziwych odpowiedzi. Może też wygłaszać uwagi typu „Kobieto – ja, nie słuchaj go!”, ale to nic nie da, bo mężczyzna też może robić takie uwagi.

Zadajmy teraz pytanie: „Co się stanie, jeśli w tej grze weźmie udział maszyna zamiast A?” Czy pytający w tym przypadku popełni błędy tak często, jak w grze, w której uczestnikami są tylko ludzie? Te pytania zastąpią nasze pierwotne pytanie „Czy maszyny mogą myśleć?”.

II. Krytyka nowego sformułowania problemu

Tak jak zadajemy pytanie: „Jaka jest odpowiedź na problem w nowej postaci?”, tak można zapytać: „Czy problem zasługuje na uwzględnienie w nowym sformułowaniu?”. Rozważymy to ostatnie pytanie bez odkładania rzeczy na czas nieokreślony, aby nie wracać do niego później.

Nowe sformułowanie naszego problemu ma tę zaletę, że wyraźnie rozróżnia fizyczne i umysłowe możliwości człowieka. Żaden inżynier ani chemik nie twierdzi, że stworzył materiał, który byłby nie do odróżnienia od ludzkiej skóry. Taki wynalazek może kiedyś zostać dokonany. Ale nawet zakładając możliwość stworzenia materiału nie do odróżnienia od ludzkiej skóry, nadal uważamy, że nie ma sensu próbować upodobnić „maszynę myślącą” do człowieka, ubierając ją w takie sztuczne ciało. Forma, jaką nadaliśmy zagadnieniu, odzwierciedla tę okoliczność pod warunkiem, że pytający nie ma kontaktu z innymi uczestnikami gry, nie widzi ich ani nie słyszy ich głosów. Inne zalety wprowadzonego kryterium można pokazać, podając przykłady możliwych pytań i odpowiedzi. Na przykład:

P. – Proszę napisać sonet o moście na rzece Forth.

O: Wyciągnij mnie z tego. Nigdy nie musiałem pisać wierszy.

C: Dodaj 34 957 do 70 764.

A (milczy przez około 30 sekund, po czym udziela odpowiedzi): 105 621.

S: Czy grasz w szachy?

S: Mam króla tylko na e8 i żadnych innych figur. Króla masz tylko na e6 i wieżę na h1. Jak będziesz grać?

A (po 15 sekundach ciszy): Rh8. Mata.

Wydaje nam się, że metoda pytań i odpowiedzi nadaje się do objęcia niemal każdego obszaru ludzkiej aktywności, który chcemy wprowadzić pod uwagę. Nie chcemy obwiniać maszyny o to, że nie może zabłysnąć w konkursach piękności, ani nikogo winić za przegraną w zawodach z samolotem, warunki gry sprawiają, że te niedociągnięcia są nieistotne. Ci, którzy odpowiedzą, jeśli uznają to za stosowne, mogą pochwalić się swoim urokiem, siłą lub odwagą, jak im się podoba, a pytający nie może żądać na to praktycznych dowodów.

Być może naszą grę można skrytykować na tej podstawie, że zalety w niej leżą w dużej mierze po stronie maszyny. Gdyby ktoś próbował udawać maszynę, to oczywiście wyglądałby bardzo żałośnie. Od razu zdradziłby się przez powolność i niedokładność w obliczeniach. Poza tym, czy maszyna nie może zrobić czegoś, co powinno być scharakteryzowane jako myślenie, ale co bardzo różniłoby się od tego, co robi człowiek? Ten zarzut jest bardzo poważny. Ale w odpowiedzi na to możemy przynajmniej powiedzieć, że jeśli nadal jest możliwe wdrożenie maszyny, która będzie zadowalająco bawić się w naśladownictwo, to ten zarzut nie powinien być szczególnie niepokojący.

Można zauważyć, że w „grze w naśladowanie” nie jest wykluczona możliwość, że samo naśladowanie ludzkich zachowań nie będzie najlepszą strategią dla maszyny. Taki przypadek jest możliwy, ale nie sądzę, że doprowadzi nas do czegoś zasadniczo nowego. W każdym razie nikt nie próbował zgłębiać naszej teorii gier w tym kierunku i założymy, że najlepszą strategią dla maszyny jest udzielanie odpowiedzi, których osoba udzieliłaby we właściwym środowisku.

III. Maszyny biorące udział w grze

Pytanie postawione w sekcji I nie do końca się sprecyzuję, dopóki nie określimy, co dokładnie oznacza słowo „maszyna”. Oczywiście chcielibyśmy mieć w grze możliwość użycia dowolnego sprzętu inżynieryjnego. Jesteśmy również skłonni przyznać, że inżynier lub grupa inżynierów może zbudować maszynę, która będzie działać, ale nie może dać zadowalającego opisu jej działania, ponieważ zastosowana przez nich metoda była zasadniczo eksperymentalna. [metodą prób i błędów]. Na koniec chcielibyśmy wykluczyć z kategorii maszyn osoby, które urodziły się w zwyczajny sposób. Trudno jest skonstruować definicję w taki sposób, aby spełniała te trzy warunki. Można na przykład wymagać, aby wszyscy konstruktorzy maszyny byli tej samej płci, w rzeczywistości jednak to nie wystarczy, ponieważ, jak się wydaje, z jednej pobranej komórki można wyhodować całego osobnika ( na przykład) z ludzkiej skóry. Zrobienie tego byłoby godnym najwyższej pochwały wyczynem inżynierii biologicznej, ale nie jesteśmy skłonni uważać tego przypadku za „budowanie myślącej maszyny”.

To skłania nas do myślenia o rezygnacji z wymogu, że w grze powinna być dozwolona jakakolwiek technologia. Skłania nas to tym bardziej, że zainteresowanie „maszyną myślącą” zrodziło się za sprawą specjalnego rodzaju maszyny, zwanej zwykle „komputerem elektronicznym” lub „komputerem cyfrowym”. Dlatego w naszej grze dopuszczamy tylko komputery cyfrowe.

Altov Heinrich

Czy maszyna może myśleć?

Heinrich Altov

Czy maszyna może myśleć?

Zajmę się pytaniem: „Czy maszyna może myśleć?” Ale w tym celu musimy najpierw zdefiniować znaczenie terminu „myśleć” ...

A. Turinga. łańcuch spustowy.

Dwa razy w tygodniu wieczorami arcymistrz przychodził do Instytutu Cybernetyki i bawił się elektroniką.

W obszernej i opustoszałej sali stał niski stolik z szachownicą, zegarem i pulpitem sterowniczym z przyciskami. Arcymistrz usiadł na krześle, ułożył kawałki i nacisnął przycisk „Start”. Z przodu maszyny elektronicznej zapaliła się ruchoma mozaika lampek kontrolnych. Obiektyw systemu śledzenia był skierowany do szachownica. Następnie na matowej tablicy błysnął krótki napis. Samochód wykonał pierwszy ruch.

Ten samochód był dość mały. Arcymistrzowi czasami wydawało się, że naprzeciwko niego stoi najzwyklejsza lodówka. Ale ta „lodówka” niezmiennie wygrywała. W ciągu półtora roku arcymistrzowi ledwo udało się wylosować tylko cztery partie.

Maszyna nigdy się nie myliła. Groźba presji czasu nigdy nie zawisła nad nią. Arcymistrz nieraz próbował przewrócić samochód, wykonując celowo absurdalny ruch lub poświęcając kawałek. W rezultacie musiał pośpiesznie nacisnąć przycisk „Poddaj się”.

Arcymistrz był inżynierem i eksperymentował z maszyną, aby udoskonalić teorię samoorganizujących się automatów. Ale czasami był rozwścieczony absolutnym spokojem „lodówki”. Nawet w krytycznych momentach gry maszyna nie myślała dłużej niż pięć czy sześć sekund. Spokojnie mrugając wielokolorowymi światłami lampek kontrolnych, zapisała najmocniejszy możliwy ruch. Maszyna była w stanie dokonać korekty stylu gry przeciwnika. Czasami podnosiła obiektyw i długo patrzyła na osobę. Arcymistrz martwił się i popełniał błędy...

W ciągu dnia do sali wszedł cichy asystent laboratoryjny. Ponury, nie patrząc na maszynę, odtworzył na szachownicy rozegrane partie inny czas wybitni szachiści. Soczewka „lodówki” wysunęła się do awarii i wisiała nad deską. Maszyna nie spojrzała na asystenta laboratorium. Zapisywała informacje beznamiętnie.

Eksperyment, do którego stworzono automat szachowy, dobiegał końca. Postanowiono zorganizować publiczny mecz między człowiekiem a maszyną. Przed meczem arcymistrz zaczął pojawiać się w instytucie jeszcze częściej. Arcymistrz zrozumiał, że przegrana jest prawie nieunikniona. A jednak szukał ciężko słabe punkty w grze w lodówkę. Maszyna, jakby zgadując o zbliżającej się walce, z każdym dniem grała coraz mocniej. Z błyskawiczną szybkością rozwikłała najbardziej pomysłowe plany arcymistrza. Rozbijała jego kawałki nagłymi i wyjątkowymi atakami...

Tuż przed rozpoczęciem meczu samochód został przetransportowany do klubu szachowego i zainstalowany na scenie. Arcymistrz przybył w ostatniej chwili. Już żałował, że zgodził się na mecz. Nieprzyjemnie było przegrać z „lodówką” na oczach wszystkich.

Arcymistrz włożył w grę cały swój talent i całą wolę zwycięstwa. Wybrał otwarcie, którego jeszcze nie grał na maszynie, a gra natychmiast się eskalowała.

W dwunastym ruchu arcymistrz zaoferował samochód gońca za pionka. Subtelne, wcześniej przygotowane zestawienie wiązało się z poświęceniem biskupa. Maszyna myślała przez dziewięć sekund - i odrzuciła ofiarę. Od tego momentu arcymistrz wiedział, że nieuchronnie przegra. Jednak kontynuował grę – pewnie, odważnie, ryzykownie.

Nikt z obecnych na sali nigdy nie widział takiej gry. To była super sztuka. Wszyscy wiedzieli, że maszyna zawsze wygrywa. Ale tym razem pozycja na szachownicy zmieniła się tak szybko i tak gwałtownie, że nie można było powiedzieć, kto wygra.

Po dwudziestym dziewiątym ruchu na tablicy wyników maszyny błysnął napis: „Remis”. Arcymistrz spojrzał ze zdziwieniem na „lodówkę” i zmusił się do wciśnięcia przycisku „Nie”. Wystrzelili w górę, zmieniając układ świateł, kierunkowskazy – i zamarli ostrożnie.

W jedenastej minucie wykonała ruch, którego arcymistrz obawiał się najbardziej. Nastąpiła szybka wymiana części. Pozycja arcymistrza pogorszyła się. Jednak słowo „Draw” pojawiło się ponownie na tablicy sygnalizacyjnej samochodu. Arcymistrz uparcie nacisnął przycisk „Nie” i poprowadził królową do niemal beznadziejnego kontrataku.

System śledzenia maszyny natychmiast zaczął się poruszać. Szklane oko soczewki wpatrywało się w mężczyznę. Arcymistrz starał się nie patrzeć na maszynę.

W jasnej mozaice lampek kierunkowskazów stopniowo zaczęły dominować żółte tony. Stały się bogatsze, jaśniejsze - iw końcu zgasły wszystkie lampy, z wyjątkiem żółtych. Na szachownicę padł złoty promień, zaskakująco podobny do ciepłego światła słonecznego.

W napiętej ciszy wskazówka wielkiego zegara kontrolnego zastukała, przeskakując z dywizji na dywizję. Samochód pomyślał. Myślała przez czterdzieści trzy minuty, chociaż większość szachistów siedzących na sali uważała, że ​​nie ma o czym myśleć i że można bezpiecznie atakować rycerzem.

Nagle żółte światła zgasły. Obiektyw, drżąc niepewnie, zajął zwykłą pozycję. Na tablicy wyników pojawił się zapis wykonanego ruchu: maszyna ostrożnie przesunęła pionek. W holu rozległ się hałas; wielu uważało, że nie jest to najlepszy ruch.

Cztery ruchy później maszyna przyznała się do porażki.

Arcymistrz, odsuwając krzesło, podbiegł do samochodu i szarpnął boczną osłoną. Pod osłoną błysnęło i zgasło czerwone światło mechanizmu sterującego.

Młody mężczyzna, korespondent gazety sportowej, wszedł na scenę, która natychmiast zapełniła się szachistami.

Wygląda na to, że właśnie się poddała, ktoś powiedział niepewnie. - Zagrała tak niesamowicie - i nagle...

No wiesz - sprzeciwił się jeden ze słynnych szachistów - zdarza się, że nawet osoba nie zauważa wygrywającej kombinacji. Maszyna grała pełną mocą, ale jej możliwości były ograniczone. Tylko i wszystko.

Arcymistrz powoli opuścił tarczę maszyny i zwrócił się do korespondenta.

A więc - powtórzył niecierpliwie, otwierając zeszyt - jakie jest twoje zdanie?

Moja opinia? - zapytał arcymistrz. - Oto on: łańcuch spustowy w stu dziewiątym bloku zawiódł. Oczywiście ruch pionkiem nie jest najsilniejszy. Ale teraz trudno powiedzieć, gdzie jest przyczyna, a gdzie skutek. Może z powodu tego łańcucha spustowego maszyna nie zauważyła najlepszego ruchu. A może naprawdę zdecydowała się nie wygrywać – a to kosztowało ją porażone prądem wyzwalacze. W końcu człowiekowi nie jest tak łatwo się złamać ...

Ale dlaczego ten słaby ruch, dlaczego przegrywać? - korespondent był zaskoczony. Gdyby maszyna mogła myśleć, dążyłaby do zwycięstwa.

Arcymistrz wzruszył ramionami i uśmiechnął się.

Jak to powiedzieć... Czasami o wiele bardziej humanitarne jest wykonanie słabego ruchu. Gotowy do startu!

ajak stał na wysokiej skale, daleko w morzu. Ludzie pojawiali się w latarni tylko od czasu do czasu, aby sprawdzić automatykę. Około dwustu metrów od latarni wynurzała się z wody wyspa. Przez wiele lat zaczynał na wyspie, jak na piedestale, zainstalowali statek kosmiczny, który wrócił na Ziemię po locie długodystansowym. Ponowne wysyłanie takich statków w kosmos nie miało sensu.

Przyjechałem tu z inżynierem, który był odpowiedzialny za latarnie morskie na całym wybrzeżu Morza Czarnego. Gdy dotarliśmy na szczyt latarni inżynier podał mi lornetkę i powiedział:

Będzie burza. Bardzo szczęśliwy: przed złą pogodą zawsze budzi się do życia.

Czerwonawe słońce słabo oświetlało szare grzbiety fal. Skała przecinała fale, omijali ją i hałaśliwie wspinali się po śliskich, zardzewiałych kamieniach. Następnie z głębokim westchnieniem rozchodzą się jak spienione strumienie, otwierając drogę nowym falom. W ten sposób posuwali się rzymscy legioniści: pierwszy rząd, uderzywszy, cofnął się przez otwartą formację, która następnie zamknęła się i ruszyła do ataku z nową energią.

Przez lornetkę dobrze widziałem statek. Był to bardzo stary, dwumiejscowy statek zwiadu dalekiego zasięgu. Na dziobie wyróżniały się dwie zgrabnie załatane dziury. Wzdłuż kadłuba biegło głębokie wgłębienie. Pierścień wzmacniający grawitację został podzielony na dwie części i spłaszczony. Nad sterówką powoli obracały się stożkowate poszukiwacze dawno przestarzałego systemu i infradźwiękowa obserwacja meteorologiczna.

Widzisz - powiedział inżynier - czuje, że będzie burza.

Gdzieś mewa krzyczała z przerażenia, a morze rozbrzmiewało głuchym uderzeniem fal. Szara mgiełka unosząca się nad morzem stopniowo zasłaniała horyzont. Wiatr ciągnął rozświetlone grzbiety fal w kierunku chmur, a przeładowane złą pogodą chmury opadły do ​​wody. Od kontaktu nieba i morza miała wybuchnąć burza.

Cóż, nadal to rozumiem - kontynuował inżynier: - panele słoneczne zasilają baterie, a elektroniczny mózg steruje urządzeniami. Ale wszystko inne... Czasami wydaje się, że zapomina o ziemi, morzu, burzach i zaczyna interesować się tylko niebem. Wychodzi radioteleskop, anteny lokalizatora obracają się dzień i noc… Albo coś innego. Nagle unosi się jakaś fajka i zaczyna patrzeć na ludzi. Zimą wiają tu zimne wiatry, statek jest pokryty lodem, ale jak tylko ludzie pojawią się na latarni, lód natychmiast znika… Swoją drogą nie rosną na nim glony…

Lub
nanotechnologie cyfrowe w naszej przyszłości.

Przedmowa

Amerykański pisarz science fiction Isaac Asimov opowiada o tym, jak nosi się sztuczny mózg statku kosmicznego imię kobiety Maria, przeznaczony do wykonywania słownych poleceń dowódcy statku, dużo rozmawiał ze swoim dowódcą na różne tematy życie człowieka, w tym miłość, próbując rozjaśnić swoją samotność podczas lotu. A w wyniku ich bliskiej i długiej wzajemnej komunikacji Maria zakochała się w swoim dowódcy i nie chciała się z nim rozstać po zakończeniu podróży.

Dlatego zrobiła wszystko, aby ich powrót na ziemię nie nastąpił. Sztuczna inteligencja statku kosmicznego w obliczu kobiety, którą poczuła Maria kochająca kobieta i celowo zabrał statek kosmiczny w nieskończoność wszechświata, pozostając na zawsze ze swoją ukochaną, nawet martwą.

Tak więc komunikacja ze sztuczną inteligencją niesie ze sobą pewne niebezpieczeństwa. Ale nasi intelektualiści, którzy dużo i często w rosyjskich kanałach telewizyjnych mówią o naszej przyszłości, nie mają o tym pojęcia.

Odpowiedź jest prosta i tkwi w ostrym, sarkastycznym zdaniu nieznanego autora:
A ona nie może.

W porządku. Skoro zadajesz takie głupie pytania, to znaczy, że nie możesz też myśleć.

Ale nasi intelektualiści nie dają za wygraną i nadal rozmawiają o tym modnym temacie, o sztucznej inteligencji, której czas, ich zdaniem, już nadszedł, bez końca w różnych kanałach telewizyjnych w kraju.

Niedawno na Channel 24 usłyszałem kolejny intelektualny program rosyjskich humanitarystów o nowych „nanotechnologiach”, które teraz rodzą się w naszym świecie, wraz z pierwszymi próbkami opcji sztucznej inteligencji.

Dziwne, ale z jakiegoś powodu teraz w Rosji o naszej technicznej przyszłości dyskutują głównie „specjaliści”, którzy nie są „technikami” z wykształcenia, ale humanitarystami, wszelkiego rodzaju politologami, kulturoznawcami, lingwistami, filozofami, dealerami, menedżerami, dziennikarze polityczni itd. dalej i tym podobne. To znaczy ludzie, którzy nie tylko nie rozróżniają śruby i nakrętki, ale także nie rozumieją istoty myślenia technicznego. Ale z drugiej strony śmiało mówią o automatach i systemach robotycznych, które zastępują ludzi procesy produkcji a nawet w domu, o sztucznej inteligencji i jej zgodności z wymogami naszych czasów.

Ludzie z wykształcenie techniczne, tak zwanych „techów”, telewizja nie jest dozwolona w takich programach, ponieważ „techy” w ich rozumieniu to ludzie o prymitywnym sposobie myślenia, ciasni, ograniczeni, niekontrolowani i potrafiący powiedzieć coś złego w takich programach.

A oni sami entuzjastycznie zaczynają mówić o tym, że teraz rodzi się już era drukowania produktów do masowej konsumpcji na drukarkach wolumetrycznych, a zatem wkrótce te fabryki z ciągłym paleniem fajek i ciągłym zatruwaniem naszego życia nie będą już potrzebne. środowisko. A te setki i setki specjalności ludzi pracujących w nowoczesnych fabrykach nie będą potrzebne. Dlaczego są teraz? Teraz sami konsumenci będą drukować towary, których potrzebują w życiu, za pośrednictwem Internetu i swoich drukarek 3D.

Na przykład będziesz potrzebować czegoś, zaczynając od samochodu z lodówką lub z meblami i kuchenką gazową, poszukaj w Internecie, wybierz odpowiednią drukarnię dla potrzebnych produktów, zamów, a oni wydrukują produkt, którego potrzebujesz i przynieś go do domu. To właśnie nowe „nanotechnologie” zapewnią nam tak wspaniałą przyszłość.

W Skolkovo komputery już opracowują nowe technologie w metalurgii i inżynierii mechanicznej. I żadnych laboratoriów w dawnym znaczeniu tego słowa z całą masą sprzętu metalurgicznego i metalurgicznego. I żadnych stref przemysłowych z palącymi się podniebnymi fabrykami w ekologicznie czystej strefie Skołkowo, żadnych warsztatów, przenośników, wielkich pieców, konwertorów, walcowni i wszelkiego rodzaju kawałków żelaza. Niektóre komputery i drukarki masowe. I nic więcej. To prawda, że ​​na drukarkach można drukować tylko części i produkty z tworzyw sztucznych. I tak, małe. Ale to na razie. Do widzenia. A potem przejdziemy na „nanomateriały” i życie stanie się jak w bajce.

Wtedy cała ludzka społeczność całkowicie przestawi się na produkty z „nanomateriałów” drukowanych na drukarkach wolumetrycznych i zacznie zaopatrywać się we wszystko, co niezbędne do życia według odpowiednich programów.

Na przykład w USA jest rosyjski geolog, geofizyk, nazwiska nie podam, ale jest częstym gościem w naszej telewizji. Po ukończeniu MGRI, nie znalazł pracy w Rosji, wyjechał do USA, gdzie bardzo szybko otrzymał laboratorium geofizyczne, a następnie kolejne laboratorium w Kanadzie, a teraz ma laboratorium w Szwajcarii. Nie ma jeszcze trzydziestu lat, ale jest już uważany za głównego specjalistę w komputerowych badaniach skorupy ziemskiej. Nie jeździ na wyprawy geologiczne, nie bada rdzeni wydobytych podczas wiercenia skał w różnych rejonach ziemi, wszystkie te ciężkie i kosztowne prace geologów z Ziemi przeniósł do komputera i zajmuje się tylko komputerowymi badaniami skorupy ziemskiej i przedstawił już swoją teorię powstawania warstwy Mohorovichicha, tej dolnej granicy skorupy ziemskiej, na której następuje niezrozumiały nagły wzrost prędkości podłużnych fal sejsmicznych. I świat nauki przyjął jego teorię.

Swoją młodość spędziłem na geologii, a nawet studiowałem w MGRI przez cztery lata i wiem dokładnie, co to jest, praca terenowa w ekspedycjach geologicznych i jak powstała mapa geologiczna ZSRR, największa mapa na świecie. Ale teraz okazuje się, że praktyczna, polowa geologia stała się niepotrzebna nowoczesne społeczeństwo. A kameralne prace geologiczne, które wcześniej wykonywano w oparciu o wyniki badań terenowych, teraz można wykonywać w domu w swoim biurze na komputerze w komfortowych warunkach, a nie ma wypraw z najtrudniejszymi warunkami życia i pracy gdzieś poza cywilizacją. dłużej potrzebne.

Jeśli tak jest, to okazuje się, że nasz realny świat naprawdę radykalnie się zmienił i ta nowa, tak zwana wirtualna rzeczywistość już aktywnie wypiera stare wyobrażenia o naszym obecnym życiu.

A teraz naprawdę nie potrzebujemy fabryk do produkcji potrzebnych nam produktów, nie potrzebujemy też ekspedycji na badanie powierzchni i wnętrzności ziemi, tylko komputery z drukarkami 3D, które przy odpowiednim oprogramowaniu rozwiążą wszystkie nasze prawdziwe problemy naszego nowego prawdziwego życia. Ale czy to wszystko?!

Nagle i jak zawsze woda nagle pękła w naszym wejściu i zadzwoniłem do osławionego Urzędu Mieszkaniowego i zadzwoniłem po hydraulików, aby wyeliminować wypadek. I nie potrzebowali żadnych superkomputerów z drukarkami wolumetrycznymi, ale potrzebowali tylko narzędzi ślusarskich, z którymi przyszli do nas, aby wyeliminować wypadek i przez ponad dwa dni bawili się wymianą pękniętych rur. Ale współcześni intelektualiści mówią mi, że szczególnie ten mój przypadek nie ma nic wspólnego ze sztuczną inteligencją.

Widać, że jestem tak bardzo człowiekiem minionej epoki i nie tak bardzo rozumiem dzisiejsze realia, że ​​nie ma dla mnie miejsca w nowym świecie komputerowym. Przecież to wcale nie powinno być nasze obecne społeczeństwo, bo współczesny ludzki umysł nie będzie w stanie sterować takimi komputerowymi procesami, tutaj potrzebny jest nam sztuczny umysł, sztuczny mózg, sztuczna inteligencja. I tylko niewielka część współczesnych ludzi będzie w stanie pracować ze sztuczną inteligencją, więc reszta populacji świata stanie się zbędna i bezużyteczna dla nikogo. Co wtedy trzeba z nimi zrobić, wciąż nie wiadomo. Jeszcze nie zdecydowałem!

Tak rodzi się idea „złotego miliarda” współczesnych „władców” ziemi, których zadaniem jest zarządzanie i używanie dóbr ziemskich, a reszta ludzi ziemi będzie im potrzebna tylko po to, by im służyć i stworzyć im komfortowe warunki życia. Ale skąd wziąć tych kandydatów do przyjęcia do „złotego miliarda”, tych ludzi o super wysokiej inteligencji, którzy potrafią pracować ze sztuczną inteligencją? I będą musiały zostać wybrane już na etapie ciąży. A tego wyboru będzie musiała dokonać sama sztuczna inteligencja, sama sztuczna inteligencja.

I takie bzdury trwały prawie dwie godziny na kanale 24. Skąd to wszystko bierze się we współczesnym świecie? Odpowiedź jest prosta. Spadek ogólnego i zawodowego poziomu edukacji w krajach Europy i Ameryki, nie mówiąc już o Rosji, jest tak silny, że sprawia, że ​​półwykształcona ludność Zachodu i Rosji aktywnie wierzy w takie „bajki” i bajki.

Ale życie wciąż łamie ich intelektualne postrzeganie otaczającego nas życia, naszej obecnej rzeczywistości. I cały czas się psuje. Ale tego nie dostrzegają, bo ich wzrok skierowany jest w przyszłość, gdzie nie ma brudu codzienności i są skierowane ku przyszłości.

Przecież żaden z nich nie ma nawet najbardziej elementarnych pytań o to, kto wtedy zbuduje dla tych intelektualistów mieszkania, drogi, kto im zapewni żywność, kto oczyści ich odpady, kto naprawi nasze domy, nasze podwórka, naszych rurociągów wodociągowych i gazowych, którzy sami będą produkować i konserwować te komputery i drukarki. Kto? Sama sztuczna inteligencja zadecyduje o wszystkim, odpowiadają mi. I są pewni swojej odpowiedzi i protekcjonalnie patrzą na mnie i na ludzi takich jak ja.

Ale czy ta sztuczna inteligencja może konkurować z ludzką? Pytanie jest retoryczne. Nie mówiąc głupio. Ale mówią mi, że sztuczna inteligencja już bije ludzi w szachy, a także w programowaniu. A współczesne malarstwo z rzeźbą „psuje” w sposób, jakiego żadna ludzka wyobraźnia nie jest w stanie sobie wyobrazić.

I nie ma sensu się z nimi spierać. Ale wydaje mi się, że to ich umysł może zastąpić sztuczna inteligencja. Tutaj nie ma trudności. Ponieważ myślą standardowo i prymitywnie. Ale mój umysł, umysł inżyniera-wynalazcy, umysł mojej żony, wysoko wykwalifikowanego lekarza i innych podobnych ludzi, którzy zawodowo wykonują swoją pracę, nie zastąpią żadnego sztucznego umysłu. Nie mówię tutaj o umyśle kobiet matek.

Ale umysł większości urzędników państwowych i deputowanych różnego rodzaju „dum państwowych” i ich licznych asystentów, warto byłoby nawet zastąpić od razu sztucznym. Tak samo jak umysły tych „intelektualistów”, doktorów wszelkich nauk, którzy godzinami w telewizji przemawiają o naszej świetlanej przyszłości, kontrolowanej przez „złoty miliard” ludzkości, uzbrojonej w sztuczną inteligencję, by zapanować nad społeczeństwem, jest już stanie się najważniejszym i niezbędnym zadaniem w Rosji. W przeciwnym razie utoniemy w ich pustym słownictwie.

PS Pojęcie myślenia, myślenia, każdy człowiek ma swoje. Człowiek myśli, kiedy myśli przez trzy; kobieta myśli, kiedy wybiera sukienkę na randkę lub robi makijaż na twarzy; biznesmen myśli, kiedy stara się płacić swoim pracownikom mniej i wkładać więcej do kieszeni, inżynier myśli, kiedy rozwiązuje problem techniczny przed nim i tak dalej i tak dalej. Cóż, o czym myśli obecny urzędnik państwowy, nie mam pojęcia, bo ta sfera ludzkiej aktywności w dzisiejszej Rosji jest dla mnie absolutną tajemnicą. W końcu nie ma nawet cienia myśli - tylko prymitywne, egoistyczne interesy.

Imitacja fizjologii
Faktem jest, że termin „sztuczna inteligencja” (nawiasem mówiąc, stopniowo zastępowany pojęciami „inteligentnych systemów”, „metod podejmowania decyzji”, „eksploracji danych”) był początkowo uważany za inkluzywny dla dużej klasy modeli i algorytmy, które powinny działać w ten sam sposób, jak ludzki mózg (zgodnie z ówczesnymi ideami).
Należą do nich na przykład znane sieci neuronowe wszystkich pasków i algorytmy genetyczne.

Uogólnienie, statystyka i analiza
Z drugiej strony wiele metod tzw. AI to nic innego jak rozwój gałęzi matematyki: statystyki, badań operacyjnych, topologii i przestrzeni metrycznych. Należą do nich większość metod eksploracji danych i odkrywania danych wiedzy, analiza skupień, metoda grupowego rozliczania argumentów i inne.

Są to metody tzw. wnioskowania indukcyjnego, gdy na podstawie dostępnych danych wyprowadza się ogólne wzorce.

Zasady, logika, wnioski
Trzecia grupa specjalna może łączyć metody, które próbują budować ogólne wzorce i wyciągać z nich wnioski w odniesieniu do konkretnych faktów. Są to metody wnioskowania dedukcyjnego, reprezentowane przez: stary Arystotelesowski rachunek sylogistyki, zdań i orzeczników, różne systemy formalne i logiki. Natychmiast do krawędzi przyczepiono teorie języków formalnych i naturalnych, różne gramatyki generatywne.

Widzimy, że wszystko, co zwykle określa się terminem „AI”, próbuje symulować lub logicznie rozwiązać zadanie naśladowania ludzki intelekt.

Powstaje pytanie, co takiego robi człowiek, że jest tak specyficzne, że nowoczesne komputery, zbudowane na zasadach Babbage, jeszcze nie robią?
Jedną z definicji zadań, którymi zajmuje się AI jest: „zadanie, do którego” nie ma rozwiązania algorytmicznego czy to nie dotyczy ze względu na złożoność obliczeniową».

Tak więc na przykład zadanie gry w warcaby było kiedyś zadaniem AI, a po zbudowaniu kompletnego modelu i zestawu kompletnej bazy ruchów, których nie można poprawić, przekształciło się w proste zadanie wyszukiwania w bazie informacji (patrz i ).

Zadania AI zmieniają się w czasie
Być może nasze dzieci będą żyły w świecie informacji, kiedy wiele zadań zostanie rozwiązanych i powstaną nowe – od komunikacji w językach naturalnych po automatyczną kontrolę wszelkiego rodzaju urządzeń i mechanizmów.

Jednak gdy każdy z nas usłyszał słowa „sztuczna inteligencja”, zapragnęliśmy czegoś innego.
Chcieliśmy mieć samochód, który może myśleć kto posiada podstawowe umiejętności uczenia się, uogólniania; jest w stanie, podobnie jak żywe organizmy, zastępować jedne organy innymi i poprawiać się. Wszyscy czytają wczesne science fiction, prawda?

Czy to był chłopiec?
Więc gdzie się podział intelekt? Kiedy i dlaczego to, co chcieliśmy zobaczyć, stało się nudnymi modelami matematycznymi i raczej nieeleganckimi algorytmami?

Kilka linijek nie na temat. Jeśli robisz rozprawę ze słowem „inteligentny”, to członkowie rady zwykle poproszą cię o wskazanie miejsca w systemie, które jest intelektualne i udowodnienie, DLACZEGO tak jest. To pytanie odnosi się do absolutnie „nie-chwytania”.

Faktem jest, że ludzie, którzy wymyślili wszystko, na czym stoi współczesna „AI”, kierowali się innowacyjnymi i rewolucyjnymi pomysłami na tamte czasy (w rzeczywistości nasz czas różni się tylko tym, że już wszystko to rozegraliśmy do syta, w tym z wykorzystaniem nowoczesnej mocy obliczeniowej)

Przykład 1 (z królestwa niepoznawalnego).
Sieci neuronowe z propagacją do przodu z algorytmem wstecznej propagacji błędów (tzw. propagacja wsteczna). To zdecydowanie przełom.
Prawidłowo skonfigurowana sieć (z inteligentnie dobranymi wejściami i wyjściami) może nauczyć się dowolnej sekwencji wejść i skutecznie rozpoznać przykłady, których nie została nauczona.
Typowy eksperyment formułuje się następująco: 1000 przykładów, z których na połowie uczymy algorytmu, a na drugiej sprawdzamy. A wybór pierwszej i drugiej połowy odbywa się losowo.
To działa, osobiście uczyłem różnych NN co najmniej 10 razy różnych zadań i uzyskałem normalne wyniki, z 60-90% poprawnymi odpowiedziami.

Jaki jest problem z sieciami neuronowymi? Dlaczego nie są prawdziwą inteligencją?
1. Dane wejściowe prawie zawsze muszą być bardzo starannie przygotowane i wstępnie przetworzone. Często wykonuje się mnóstwo kodu i filtrów, aby dane były jadalne dla sieci. W przeciwnym razie sieć będzie się uczyć latami i niczego się nie nauczy.
2. Wynik uczenia się NN nie może być interpretowany i wyjaśniany. A ekspert naprawdę tego chce.
3. Sieci często po prostu zapamiętują przykłady, a nie uczą się wzorców. Nie ma dokładnych sposobów na zbudowanie sieci wystarczająco inteligentnej, aby reprezentować wzorzec i niewystarczająco pojemnej, aby głupio zapamiętać całą próbkę.

Jaka jest inteligencja sieci neuronowych?
W tym, że nie nauczyliśmy systemu rozwiązywania problemów, nauczyliśmy go, jak rozwiązywać problemy. Algorytm określania płci osoby nie jest przez człowieka włączany do systemu, znajduje się go niemal empirycznie i jest zaszyty w wagach synaps. To jest element inteligencji.

Przykład 2 (z dziedziny wnioskowania dedukcyjnego).
Pomysł jest prosty. Nauczymy maszynę myśleć jak człowiek (no przynajmniej wyciągać prymitywne wnioski) i podawać elementarne fakty. Dalej - pozwól jej.
Na tej zasadzie działają systemy eksperckie, systemy logiki maszyny, ontologie (z pewnym rozciągnięciem). To działa? Niewątpliwie. Wdrożono i nadal działają tysiące systemów diagnozowania chorób i opisu obszarów wiedzy.

Jaki jest problem? Dlaczego systemy formalne nie są prawdziwą inteligencją?
Problem polega na tym, że system, po wchłonięciu kolosalnych ilości krwi i potu swoich twórców, zaczyna przynajmniej powtarzać i rozwijać decyzje eksperta (lub społeczności), który go nauczał.
Czy to jest pomocne? Niewątpliwie. Ekspert jest śmiertelny, zadania mnożą się.

Jaka jest inteligencja systemów opartych na wiedzy?
Fakt, że maszyna wyciąga NOWE wnioski, których nikt jej nie nauczył. Ten element jej pracy jest niezwykle ubogi (jak dotąd) i ograniczony przez wypracowane modele i algorytmy. Ale to jest element inteligencji.

Więc jaki jest problem z nowoczesną sztuczną inteligencją?
Jesteśmy po prostu bardzo mali. Nasze naiwne i powierzchowne wyobrażenia o tym, jak człowiek myśli i jak działa mózg, dają owoce, na które zasługują.

Oczywiście jesteśmy szalenie dalecy od stworzenia maszyn, które byłyby w stanie myśleć w naszym ludzkim sensie, ale nasze kroki w tym kierunku są słuszne i użyteczne.

A nawet jeśli idziemy w złym kierunku, kto wie, może, podobnie jak Strugaccy, w wyniku ukierunkowanych wysiłków nieumyślnie zrobimy coś znacznie lepszego niż zamierzaliśmy?