Co to jest sztuczna inteligencja?

This is the translation. The original web-page (oryginalna strona): https://userweb.ucs.louisiana.edu/~isb9112/dept/phil341/wisai/WhatisAI.html

István S. N. Berkeley Ph.D.

([email protected])

Filozofia,
Uniwersytet z Luizjany w Lafayette
Perspektywa historyczna: wszystko brzmi tak dobrze…

Prawdopodobnie wszyscy słyszeli o sztucznej inteligencji (w skrócie AI), ale stosunkowo niewiele osób ma naprawdę dobre pojęcie o tym, co ten termin naprawdę oznacza. Dla większości ludzi sztuczna inteligencja jest powiązana z artefaktami, takimi jak Komputer Hal 9000 w filmie 2001: Odysa kosmiczna. Takie obrazy są produktem Hollywood, a nie czymś, co faktycznie dzieje się w dzisiejszych laboratoriach badawczych. Moim celem jest tutaj przedstawienie kilku podstawowych pomysłów związanych z AI i próba zaoferowania środków, dzięki którym ludzie mogą poradzić sobie z obecnym stanem wiedzy w tej dziedzinie.

Z grubsza mówiąc, Sztuczna Inteligencja to badanie stworzonych przez człowieka urządzeń i systemów obliczeniowych, które można zmusić do działania w sposób, który chcielibyśmy nazwać inteligentnym. Narodziny pola sięgają początków lat 50. XX wieku. Prawdopodobnie pierwszym znaczącym wydarzeniem w historii AI była publikacja pracy zatytułowanej „Maszyny liczące i inteligencja” przez brytyjski matematyk Alan Turing. W tym artykule Turing twierdził, że jeśli maszyna może przeszłość pewnego testu (który stał się znany jako „test Turinga”), wtedy mamy podstawy, by stwierdzić, że komputer był inteligentny. Test Turinga polega na człowieka (znanego jako „sędzia”) zadawania pytań za pośrednictwem terminala komputerowego do dwóch pozostałych jednostek, z których jeden jest człowiekiem, a drugi z nich jest komputer. Jeśli sędzia regularnie nie potrafił poprawnie odróżnić komputera od człowieka, komputer miał pozytywnie przejść test. W tym artykule Turing rozważył również szereg argumentów i sprzeciwów wobec idei, że komputery mogą wykazywać inteligencję.

Powszechnie uważa się, że AI urodził się jako dyscyplina na konferencji o nazwie „Dartmouth letni projekt badawczy na temat sztucznej inteligencji“, organizowana przez m.in., John McCarthy i Marvin Minsky. Na tej konferencji system znany jako LOGIC THEORIST wykazano Alan Newell i Herb Simon, LOGIC THEORIST był system, który odkrył dowody do twierdzeń logiki symbolicznej. Znaczenie tego systemu było to, że w słowach Feigenbaum i Feldman (1963: str. 108) LOGIC THEORIST był „…pierwszy najazd przez sztuczną inteligencję do wysokiego rzędu procesów intelektualnych.” Ten początkowy sukces szybko następuje numer z innymi systemami, które mogłyby wykonać pozornie inteligentnych zadań. Na przykład, system o nazwie “dendral” mógł zmechanizować aspekty rozumowania naukowych stwierdzono w chemii organicznej. Inny program, znany jako “mycin“, był w stanie interaktywnie diagnozowania chorób zakaźnych.

Podstawowa strategia leżąca u podstaw wszystkich tych sukcesów doprowadziła do zaproponowania przez Newell i Simona w 1976 r. Hipotezy o fizycznym systemie symboli. Hipoteza o fizycznym systemie symboli sprowadza się do destylacji teorii leżącej u podstaw dużej części pracy która trwała do tej daty i została zaproponowana jako ogólna hipoteza naukowa. Newell i Simon (1976: s. 41) napisali;

„Fizyczny system symboli ma niezbędne i wystarczające środki do ogólnego inteligentnego działania”.

Pomimo wielu kontrowersji dotyczących tego, jak dokładnie należy interpretować tę hipotezę, wyciągnięto z niej dwa ważne wnioski. Pierwszy wniosek jest taki, że komputery są fizycznymi systemami symboli, w odpowiednim znaczeniu, a zatem istnieją podstawy (jeśli hipoteza jest poprawna), aby wierzyć, że powinny być w stanie wykazywać inteligencję. Drugi wniosek jest taki, że ponieważ my, ludzie, również jesteśmy inteligentni, my również musimy być fizycznymi systemami symboli, a zatem jesteśmy w znacznym sensie podobni do komputerów.

Obecna perspektywa: problemy i sukcesy

Przy tych wszystkich pozornie pozytywnych wynikach i interesującej pracy teoretycznej wydaje się dość oczywiste pytanie: „Gdzie są inteligentne maszyny, takie jak HAL 9000”? Chociaż w tej dziedzinie osiągnięto wiele imponujących sukcesów, pojawiło się również wiele istotnych problemów, na które natrafiły badania nad AI. Jak dotąd nie ma HAL 9000 i realistycznie, upłynie sporo czasu, zanim takie systemy staną się dostępne, jeśli w ogóle kiedykolwiek okażą się możliwe.

Wczesne sukcesy w sztucznej inteligencji sprawiły, że badacze w tej dziedzinie byli niezwykle optymistyczni. Niestety optymizm został nieco niewłaściwie ulokowany. Na przykład w 1957 roku Simon przewidział, że komputer będzie mistrzem świata w szachy dopiero za dziesięć lat. Oczywiście, ten szczególny wyczyn nie został osiągnięty aż do tego roku, przez Deep Blue systemu. Są głębsze problemy, które prowadzą do AI jednak.

Dla większości ludzi, jeśli wiedzą, że Prezydent Clinton jest w Waszyngtonie, to wiedzą również, że prawe kolano Prezydenta Clintona również znajduje się w Waszyngtonie. Może się to wydawać trywialnym faktem i rzeczywiście dotyczy ludzi, ale nie jest trywialne, jeśli chodzi o systemy AI. W rzeczywistości jest to przykład tak zwanego „problemu wiedzy o zdrowym rozsądku”. System obliczeniowy wie tylko to, co zostało powiedziane w języku objaśniającym. Bez względu na możliwości systemu obliczeniowego, jeśli ten system wie, że prezydent Clinton był w Waszyngtonie, ale nie wie, że jego lewe kolano też tam jest, wtedy system nie będzie zbyt sprytny. Oczywiście można doskonale powiedzieć komputerowi, że jeśli dana osoba znajduje się w jednym miejscu, wówczas lewe kolano znajduje się w tym samym miejscu, ale to dopiero początek problemu. Istnieje ogromna liczba podobnych faktów, które również powinny zostać zaprogramowane. Na przykład wiemy również, że jeśli prezydent Clinton jest w Waszyngtonie, to jego włosy są również w Waszyngtonie, jego usta są w Waszyngtonie i tak dalej. Z punktu widzenia AI trudność polega na znalezieniu sposobu na uchwycenie wszystkich tych faktów. Problem wiedzy powszechnej jest jednym z głównych powodów, dla których nie mamy jeszcze inteligentnych komputerów przewidywanych przez science fiction, takich jak HAL 9000.

Problem wiedzy o zdrowym rozsądku jest bardzo głęboki w AI. Na przykład bardzo trudno byłoby komputerowi przejść test Turinga, gdyby nie posiadał wiedzy opisanej powyżej. Punktem można zilustrować poprzez rozważenie sprawy Elizy. ELIZA to system zaprojektowany przez Weizenbaum AI w 1966 roku, który miał naśladować psychoterapeuty. Istnieje wiele wariantów tego oprogramowania w tych dniach, z których sporo można pobrane. Chociaż w pewnym sensie ELIZA może być imponująca, to nie potrzeba wiele, aby system mylić, lub wyłączyć toru. Staje się jasne, bardzo szybko, że system jest daleki od inteligentny.

Odnotowano szereg odpowiedzi na problem zdrowego rozsądku wiedzy w społeczności badawczej AI. Jedną ze strategii jest próba budowania systemów, które są przeznaczone wyłącznie do pracy w ograniczonych obszarach. Jest to strategia, która kryje się za nagrody Loebner, nowoczesnej konkurencji dzień w oparciu o ograniczoną wersją testu Turinga. Niektóre z ostatnich wpisów na tym konkursie, takich jak TIPS systemu są naprawdę imponujące w porównaniu do ELIZA.

Innym, bardziej ambitna strategia została przyjęta przez AI badacz Doug Lenat. Lenat i jego współpracownicy pracują od wielu lat w systemie, który jest znany jako CYC. Celem projektu jest opracowanie CYC dużej bazy danych obliczeniowych i narzędzi wyszukiwania, które umożliwia dostęp do systemów AI całą wiedzę, która sprawia, że się zdrowym rozsądkiem. Projekt CYC próbuje spotkać się z problemem głowy Common Sense na wiedzy. W chwili obecnej, wyniki projektu dopiero zaczynają się pojawiać. Nie jest jeszcze jasne, czy ogromny wysiłek okazał się sukcesem.

Inni badacze przyjęli inną taktykę, aby spróbować poradzić sobie z tym problemem. Oni rozumieć, że człowiek ma zdrowego rozsądku, z powodu ogromnego bogactwa doświadczeń, które mamy jak dorosnąć i nauczyć. Wolą próbować radzić sobie z problemem zdrowego rozsądku poprzez przyjęcie uczenia maszynowego strategię. Być może, jeśli komputer może dowiedzieć się, w sposób podobny do człowieka, IT też będzie rozwijać się zdrowym rozsądkiem. Strategia ta jest nadal realizowany i że jest zbyt wcześnie, aby stwierdzić, czy to będzie sukces.

Innym problemem, który prowadzi badania AI na to, że zadania, które są trudne dla ludzi, takich jak matematyka, lub grając w szachy, okazują się być dość łatwe dla komputerów. Z drugiej strony, zadania, które ludzie łatwo znaleźć, jak nauka poruszania się w pokoju pełnym mebli lub rozpoznawania twarzy, komputery znaleźć stosunkowo trudne do zrobienia. To zainspirowało niektórych badaczy, aby spróbować opracować systemy, które mają właściwości (przynajmniej pozornie) Brain-podobne. Badania oparte na tej strategii zaczęło być znane jako dziedzinie sztucznych sieci neuronowych (zwane również koneksjonizm), A obecnie jest jednym z największych specjalistycznych podobszarów ramach AI. Na interesującym aspektem sztucznych sieci neuronowych jest to, że wiele z tych systemów także dowiedzieć się, co zawierające niektóre z zalet strategii uczenia maszynowego do rozwiązywania zdrowym rozsądkiem wiedzy problemu. Sztuczne sieci neuronowe systemy okazały się skuteczne w rozwiązywaniu wielu problemów, takich jak te, które dotyczą rozpoznawania wzorców, które okazały się trudne dla innych podejść.

Ważne jest, aby uświadomić sobie jednak, że nie każdy akceptuje pomieszczeń, które działa na podstawie badania AI. Cały projekt AI znalazł się pod ostre krytyki od czasu do czasu. Jeden znany krytyk jest Herbert Dreyfus. On twierdził, na różnych podstawach, że całe przedsiębiorstwo AI jest skazane na niepowodzenie, a to sprawia, że założenia dotyczące świata i umysły, które nie są do obronienia, gdy krytycznie ocenione. Innym znanym krytykiem AI jest John Searle. Searle zaproponowała argument oparty na eksperyment myślowy, znany jako argumentu chińskiego pokoju, Argument ten może służyć do wykazania, że ​​celem budowy inteligentnych urządzeń nie jest możliwe. Chociaż argument ten został pierwotnie opublikowany w 1980 roku, wciąż jest gorącym tematem dyskusji na grupach dyskusyjnych internetowych takich jak comp.ai.philosophy.

Czy krytycy AI są poprawne, czy nie, tylko czas pokaże. Jednak nie zostały dwa ważne zestawy konsekwencjami, które pojawiły się od momentu początkowego momentu powstania tej dziedzinie. Pierwszy z nich został narodziny nowej i ekscytującej dyscypliny akademickiej, które zaczęło być znane jako „Kognitywistyka”. Nauki kognitywne podzielają z AI podstawową przesłankę, że w pewnym sensie aktywność umysłowa ma charakter obliczeniowy. Cel kognitywistyki jest jednak inny niż AI. Kognitywni naukowcy postawili sobie za cel odkrycie tajemnic ludzkiego umysłu. To niemałe zadanie, biorąc pod uwagę, że ludzki mózg jest najbardziej skomplikowanym urządzeniem znanym ludzkości. Na przykład, nawet przy różnych założeniach upraszczających, wydaje się wysoce prawdopodobne, że liczba odrębnych możliwych stanów pojedynczego ludzkiego mózgu jest w rzeczywistości większa niż liczba atomów Wszechświata! Niemniej zdobyte doświadczenia i postępy w dążeniu do celu AI, a także postępy w innych dyscyplinach, wydają się wskazywać, że projekt kognitywistyki jest opłacalny, choć trudny do osiągnięcia.

Drugi zestaw konsekwencji, które powstały w wyniku badania sztucznej inteligencji, jest być może nieco mniej oczywisty. Obecnie istnieje wiele programów i systemów wykorzystujących owoce badań nad sztuczną inteligencją. Chociaż nie mamy jeszcze HAL 9000, wiele wczesnych celów AI zostało osiągniętych, choć nie w jednym wielkim systemie. Być może jednak najsmutniejsze jest to, że sztuczna inteligencja rzadko zdobywa uznanie za swój wkład w inne dziedziny. W kręgach akademickich jest powiedzenie, że „najlepsze owoce sztucznej inteligencji stają się zwykłą starą informatyką”. Gdy uczymy się robić coraz więcej, to, co kiedyś było prawie cudowne, staje się przyziemne. Teraz, gdy cel naprawdę dobrego komputera do gry w szachy został zrealizowany, jest prawdopodobne, że to również nie będzie już nas ekscytować ani zaskakiwać. Jednak w AI jest jeszcze wiele trudnych i ekscytujących granic. Istnieje również wiele drażliwych pytań, które należy przemyśleć. W poniższych artykułach postaram się przedstawić niektóre z fascynujących prac wykonywanych w sztucznej inteligencji, aby wkład tego programu badawczego w świat, jaki znamy, był lepiej znany i rozumiany.

© István S. N. Berkeley Ph.D. 1997. All rights reserved.

Sugerowana вalsze сzytanie
Campbell, J., (1989), Тieprawdopodobne Maszyna, Simon & Schuster (Nowy Jork).

Copeland, J. (1993), Sztuczna Inteligencja, Blackwells (Oxford).

Churchland, P. (1988), Materia i świadomości, MIT Press (Cambridge, MA).

Haugeland, J. (1985), Sztuczna inteligencja sama idea, MIT Press (Cambridge MA).

Bibliografia
Feigenbaum, E. i Feldman, J. (1963) Komputery i Myśl, McGraw-Hill (New York).

Haugeland, J. (1981) Umysł Projekt MIT Press (Cambridge, MA).

Newell, A. Simon, H., (1976), „Informatyka jako badań empirycznych: Symbole i Szukaj” przedrukowany w Haugeland (1981: str. 35-66).