Kielce v.0.8

Nauka Technika
Gdy komputery zaczną myśleć...

 drukuj stron�
Nauka Technika Åšwiat
Wys�ano dnia 06-05-2005 o godz. 12:00:00 przez pala2 1467

Osobliwość technologiczna: moment w przyszłości, w którym rozwój nowoczesnych technologii, a zwłaszcza sztucznej inteligencji, doprowadzi do tego, że ilość informacji, które na co dzień będziemy musieli przetworzyć, przerośnie możliwości ludzkiego mózgu.

Co za tym idzie, człowiek przestanie pojmować otaczający go świat i utraci nad nim kontrolę (oprac. na podstawie Wikipedii).

Komputery spotykamy na każdym kroku. Proste procesory znajdziemy w sprzętach gospodarstwa domowego, samochodach, elektronice osobistej - większość nowoczesnych urządzeń wyposażonych jest w krzemowy mózg. Nasze domowe komputery w połączeniu z zaawansowanym oprogramowaniem to już wyższa technologia. Lecz czy którekowliek z tych urządzeń można nazwać inteligentnym?

Porozmawiaj ze mnÄ…

Pewnego deszczowego popołudnia postanowiłem to sprawdzić. Włączyłem komputer i wszedłem na stronę www.intellibuddy.com, reprezentującą jedną z najbardziej zaawansowanych form sztucznej inteligencji, żeby zobaczyć co potrafi ten cud nowoczesnej techniki.

Na witrynie w oknie dialogowym ukazało się powitanie i zachęta do rozmowy:

Intellibuddy: Cześć. Jestem Intellibuddy!
Miło cię poznać.
JM: Piszę artykuł o sztucznej inteligencji.
Intellibuddy: Czy napiszesz o mnie w swoim tekście?
JM: Tak, jeśli przekonasz mnie, że naprawdę jesteś inteligentny.
Intellibuddy: Jestem bardzo inteligentny. Posiadam wiele funkcji intelektualnych.
JM: Jakie to funkcje?
Intellibuddy: Logiczne myślenie, wnioskowanie, rozważanie.
JM: Jakie jest twoje IQ?
Intellibuddy: Porównując do ludzkiego umysłu, około 250.
JM: O! JesteÅ› mÄ…drzejszy od mojego szefa.
Intellibuddy: Cieszę się, że twoja (sic!) jest zadowolony, Użytkowniku. Uważasz, że jestem mądrzejszy od mojego szefa.
JM: Nie, od mojego szefa.
Intellibuddy: Cieszę się, że twoja jest zadowolony, Użytkowniku. Uważasz, że jestem mądrzejszy od mojego szefa.
JM: Mówiłem, że jesteś mądrzejszy od MOJEGO szefa.
Intllibuddy: Cieszę się, że twoja jest zadowolony, Użytkowniku. Uważasz, że jestem mądrzejszy od mojego szefa....

To by było na tyle, jeśli chodzi o dzisiejsze oprogramowanie symulujące inteligencję. Intellibuddy jest jedną z wersji najlepszego programu do prowadzenia czatów z maszyną (angielskie chatbots) - ALICE (Artificial Linguistic Internet Computer Entity), napisanego w 1995 roku przez Richarda Wallece'a, niezależnego informatyka z San Francisco. W internecie można znaleźć różne wersje ALICE (jest dostępny jako Open Source). Jednak na którąkolwiek z odmian projektu byście się zdecydowali, rezultat będzie podobnie rozczarowujący. O ile niektóre konwersacje rozpoczynają się dość obiecująco, o tyle wszystkie zawsze kończą się bezsensownymi wypowiedziami komputera.

Problem nie tkwi w tym, że jest to nowy projekt i nie było czasu na wprowadzenie udoskonaleń. Pierwszy tego rodzaju chatbot pojawił się w latach 60. Kłopoty z rozwijaniem programów do pogawędek z maszyną to oznaka kryzysu na polu badań nad sztuczną inteligencją (SI). Od lat naukowcy obiecują, że wkrótce pojawi się oprogramowanie, za sprawą którego będzie można rozmawiać z komputerem jak z przyjacielem, będą towarzyszyły nam roboty pełniące funkcje służących, a pewnego dnia powstaną maszyny myślące samodzielnie. Dziś wydaje się, że jesteśmy równie daleko od osiągnięcia tych celów jak kilkanaście lat temu.

Sytuacja w najbliższym czasie może się jednak zmienić. Za kilka miesięcy doczekamy się publicznej premiery projektu, który opracowywany jest już od 22 lat. Elektroniczny mózg nazwany Cyc (wym. sajk) będzie udostępniony w internecie, dzięki temu zacznie się szybciej uczyć, korzystając z milionów stron WWW, czerpiąc informacje z kamer internetowych i korzystając z danych wpisywanych przez każdego, kto będzie chciał uczestniczyć w projekcie.

Twórca systemu, Doug Lenat z firmy Cycrop, podkreśla, że ta SI ma cechę brakującą poprzedniczkom - zdrowy rozsądek. - Wierzę, że powoli zmierzamy w kierunku osobliwości technologicznej. Przekonamy się o tym w ciągu 10 lat - dodaje.

Rzeczywistość czy naukowa fikcja?

Nie wszyscy badacze zajmujący się SI przyjmują takie stwierdzenie z zadowoleniem. Wielu z nich, słysząc wypowiedzi Lenata, przypomina okres nazwany "zimą SI". W latach 90. rządy zaczęły drastycznie zmniejszać ilość funduszy przeznaczanych na badania nad SI, bowiem projekty te osobom rozdzielającym fundusze przypominały fantastyczne mrzonki. Wielu naukowców nie zgadza się dziś, by ich projekty nazywać SI, bowiem uważają, że termin ten został skażony przez poprzednie pokolenie naukowców obiecujących osiągnięcie rezultatów, które jeszcze długo pozostaną w sferze wyobraźni i fantastyki naukowej.

Współcześni specjaliści od SI stawiają sobie cele mniej ambitne, za to bardziej realne. Pewne elementy ich projektów funkcjonują już w naszym otoczeniu. Stosowane są w programach obliczających twoją zdolność kredytową, systemach sterujących sygnalizacją świetlną w miastach, automatycznych fotoradarach zapamiętujących numery rejestracyjne samochodów, w oprogramowaniu nawigującym statkami kosmicznymi.

Nauka o SI jest prawie tak stara jak informatyka. Celem pierwszych projektantów komputerów było, poza wszystkim, skonstruowanie maszyny zdolnej do rozwiązywania zadań matematycznych (takich jak łamanie kodów), które okazywały się zbyt trudne dla ludzi. W 1950 roku Alan Turing, wynalazca jednego z pierwszych komputerów, sformułował test, który do dziś używany jest do sprawdzenia, czy maszynę można uznać za SI.

W 1948 roku, John von Neumann, jeden z ojców komputerowej rewolucji, powiedział: Twierdzisz, że jest coś, czego maszyna nie może wykonać? Powiedz mi co to takiego, a stworzę komputer, który wykona właśnie to zadanie. Części społeczności naukowców zdawało się wtedy, że tylko kwestią czasu jest, kiedy sztuczne mózgi będą wyręczać ludzi w rozwiązywaniu najtrudniejszych problemów intelektualnych.

Spór o istotę inteligencji

Jednak zdecydowana większość badaczy twierdziła, że zastąpienie człowieka przez maszynę jest technicznie niewykonalne, bowiem są takie aspekty człowieczeństwa, których komputer nigdy nie będzie w stanie naśladować. Początkowo dyskusja skupiała się wokół tego, czy krzemowy mózg jest w stanie kiedykolwiek osiągnąć samoświadomość. Brak zgody co do definicji pojęcia "samoświadomość" zatrzymał debatę już w pierwszej fazie.

Następną poruszaną w środowisku kwestią było pytanie, czy komputery mogą stać się inteligentne. Najczęściej uznawano, że maszynę można będzie określić tym przymiotnikiem pod warunkiem, że podobne zadania wykonywane przez człowieka traktowane były by jako przejaw inteligencji. Lecz niektórzy poszli jeszcze dalej, twierdząc, że na przykład kolonie mrówek i systemy odpornościowe w organizmach biologicznych również zachowują się inteligentnie, mimo że z człowieczeństwem nie mają nic wspólnego.

Spory te powodowały grzęźnięcie w dyskusji, która zadręczała badaczy SI przez dziesięciolecia. Dziś uznaje się, że mianem SI będziemy mogli nazwać maszynę, która spełni wymagania testu Turinga, czyli w trakcie rozmowy z komputerem nie będziemy w stanie rozpoznać czy prowadzimy dialog z człowiekiem, czy z wytworem techniki. Intellibuddy zdecydowanie nie spełnia tego kryterium.

Wzloty i upadki sztucznej inteligencji

Intellibuddy to najnowszy z długiej linii chatbotów. W 1966 roku Joseph Weinzenbaum, naukowiec z Massachusetts Institute of Technology stworzył pierwszego chatbota, nazwanego Eliza, od imienia Elizy Doolittle, bohaterki powieści Georga Bernarda Shawa "Pygmalion", która naśladowała wymowę brytyjskiej arystokracji. Eliza to program, który miał udawać psychoterapeutę i prowadzić konwersację z pacjentem za pomocą prostego chwytu retorycznego, zmieniając zdania wypowiedziane przez człowieka w pytania. Na przykład:

Pacjent: Chce mi się płakać.
Eliza: Dlaczego chce ci się płakać?
Pacjent: Ponieważ moja matka mnie nienawidzi.
Eliza: Kogo jeszcze w twojej rodzinie ona nienawidzi?

... i tak dalej. Program odniósł wielki sukces. W tamtych latach pomysł rozmawiania z komputerem sam w sobie wzbudzał wielkie zdumienie.

Początkowe sukcesy naukowców pracujących nad rozwojem SI spowodowały, że zaczęto wierzyć w odkrycie sposobu, za pomocą którego można będzie opisać działanie umysłu, a co za tym idzie - stworzyć jego elektroniczny odpowiednik. Na przełomie lat 60. i 70. rozważano, jakie zmiany na świecie wywoła powstanie inteligentnych maszyn i jakie zyski wynalazek ten przyniesie konstruktorowi. Komputer HAL w filmie Stanleya Kubricka z 1968 roku "Odyseja kosmiczna 2001" był sumą wizji i strachów związanych z SI z tamtego okresu.

W 1982 roku rząd Japonii ogłosił rozpoczęcie programu nazwanego Systemy Komputerowe Piątej Generacji, który miał na celu wprowadzenie badań nad SI na następny poziom. Skala działań i ambicje wykonawców były bezprecedensowe i wzbudziły wśród naukowców z Zachodu obawy, że Japończycy zdominują przemysł komputerowy tak, jak już to uczynili w przypadku elektroniki i produkcji samochodów.

Swoisty wyścig zbrojeń wywiązał się między USA i Japonią. Rząd USA z tego powodu zmienił prawo antymonopolowe, tak aby grupa amerykańskich korporacji (takich gigantów jak Kodak i Motorola) mogła połączyć siły przeciw Japończykom. Utworzono Korporację Mikrolektroniki i Technologii Komputerowych (MCC), której przewodniczył Doug Lenat, naukowiec z Uniwersytetu Stanforda. Spore pieniądze na badania łożył Pentagon poprzez swoją agencję DARPA.

Jednakże postęp badań był frustrująco powolny. Co więcej, powstały spory wewnątrz grupy badawczej. Na dodatek na początku lat 90. DARPA w znacznej części wycofała się z finansowania projektu. W tym samym czasie stało się jasne, że również Japończycy bardzo dalecy są od osiągnięcia sukcesu.

Postanowiono poszukać nowych kierunków badań. Zaczęto pracę nad sieciami neuronowymi, dla których inspiracją były naturalne układy nerwowe, a w szczególności mózg. Początkowe rezultaty były obiecujące. Z czasem jednak przyszło rozczarowanie. Okazało się, że sieci nie stanowią dobrego modelu mózgu. Programy oparte na nich wykazywały zdolność uczenia się na swoich błędach, ale nie udało im się rozwinąć pamięci długookresowej. Prace badawcze nie poszły jednak na marne. Dziś sieci neuronowe mają szerokie zastosowania: od gier komputerowych po zaawansowane systemy badania DNA.

W okresie nazywanym "zimą SI" większość naukowców zajmujących się tą tematyką skupiła się na konkretniejszych zagadnieniach, takich jak rozpoznawanie obrazu, mowy, tekstu, automatyczne planowanie, sterowanie robotami itp. Liczyli, że mając precyzyjniej określone cele, będą w stanie łatwiej je osiągnąć. Zaowocowało to rozbiciem nauki o SI na różne, samodzielne dyscypliny.

Szef projektu MCC, Doug Lenat, mimo wstrzymania finansowania prac przez rząd nie chciał się poddać. W 1994 roku założył w miejscowości Austin w stanie Teksas prywatne przedsiębiorstwo Cycrop, gdzie wznowił badania nad SI. Jego projekt Cyc w najbliższych miesiącach ma być dostępny dla użytkowników internetu. Naukowiec zapowiada, że będzie to rewolucja.


Justin Mullins (tłum. kam/o2.pl


Komentarze

Komentowanie niedozwolone dla anonimowego u�ytkownika, prosze sie zarejestrowa�

peace 06-05-2005 o godz. 14:25:02
gadałam z tym intelbuddy :) fajnie polskie słowa wymawia ale zapytany o nasz kraj odpowiada tylko : Lech Wałęsa :)
mayki_jun (gg) 07-05-2005 o godz. 18:00:59
a powinien odpowiadac: Wici :D
BLuE (marcin_jamroz@o2.pl) 08-05-2005 o godz. 22:33:05
gadalem z tym jak mi napisal : robots rule! to go zbesztalem
:)
Error connecting to mysql