Nauka Technika Åšwiat
Wys�ano dnia 26-11-2005 o godz. 12:00:00 przez pala2 457
Wys�ano dnia 26-11-2005 o godz. 12:00:00 przez pala2 457
Gdy przyjdzie ci ochota nawymyślać komputerowi, uważaj! Maszyna może odpowiedzieć ci tak, że się nie pozbierasz. A niewybrednych słów nikt wcześniej nie zaprogramował - program nauczył się ich sam. |
Ponad pół wieku temu angielski matematyk Alan Turing bawił się z przyjaciółmi w pewną grę. Oto do jednego pokoju wchodziła kobieta, a do drugiego mężczyzna. Trzeci uczestnik miał za zadanie odgadnąć, kto jest w którym pomieszczeniu, zadając serię pytań - obie osoby umawiały się, że będą udawały kobietę. By pytający nie słyszał głosu, odpowiedzi otrzymywał na kartkach. W 1950 roku Turing zadał pytanie, co by było, gdyby w jednym z pokojów zamiast człowieka zamknięto maszynę dysponującą sztuczną inteligencją. Czy dałoby się rozpoznać ją na podstawie samych pytań?
Ten eksperyment nazwano testem Turinga - gdyby udało się stworzyć maszynę, której nie dałoby się w rozmowie odróżnić od żywego człowieka, można by powiedzieć, że powstała wreszcie sztuczna inteligencja.
Porozmawiaj z nim
Choć od tego czasu naukowcy próbują stworzyć program, który przeszedłby test Turinga, przez wiele lat nie zdołali nawet zbliżyć się do ludzkiego wzorca. Problem nie leży w mocy obliczeniowej komputerów, ale w sposobie organizacji i działania mózgu, którego nie sposób jak dotąd odtworzyć. Czy to znaczy, że nie mamy szansy na pogadanie z maszyną? Niekoniecznie. Od dawna powstają bowiem programy, które zamiast próbować odtworzyć cały proces ludzkiego myślenia, skupiają się na naśladowaniu tylko jednego z jego produktów - mowy. Określa się je słowem "chatbot" (chat od angielskiego "gawędzić" i bot od "robot") lub krócej - "bot".
Początkowo programiści tworzący boty starali się przewidzieć wszystkie możliwe pytania i odpowiedzi, jakie przydadzą się w takiej rozmowie. Większość z nich faktycznie nietrudno przewidzieć - wiadomo, jak zareagować na standardowe pozdrowienia, pytania o pochodzenie, płeć czy hobby. Jednak rozmowa bardzo szybko może zejść na tematy, których zaprogramować nie sposób, a wtedy program zaczyna się gubić i powtarzać standardowe prośby w rodzaju: "Czy możesz to ująć inaczej?".
Z nietypowymi pytaniami zaczął sobie radzić bot nazwany Jabberwacky, którego napisał brytyjski programista Rollo Carpenter. Pomysł powstał na początku lat 80., ale dopiero w ostatnich latach ubiegłego wieku trafił do Internetu (www.jabberwacky.com) i rozpoczął naśladowanie ludzi. Moc Jabberwacky'ego polega na tym, że im więcej przeprowadzi rozmów, tym lepiej się z nim gada. System zapamiętuje w potężnej bazie danych wszystkie konwersacje, jakie kiedykolwiek przeprowadził, i analizuje ich składnię, wyłapując kontekst, w jakim pojawiają się słowa. Na tej podstawie dowiaduje się na przykład, że nowe dla niego hasło "Ridley Scott" pojawia się w kontekście słów "Gladiator", "Obcy" oraz "reżyser" czy "film". Zagadnięty następnym razem o reżysera "Gladiatora" jest w stanie odnaleźć jego imię i nazwisko i popisać się zdobytą wiedzą.
Problemem dla tego rodzaju systemów są ludzie, którzy wprowadzają je w błąd świadomie lub niechcący - na przykład gwałtownie zmieniając temat rozmowy. Jednak takie fałszywe skojarzenia haseł z czasem mogą być ignorowane, bo program zapamiętuje, że "Scott" często pojawia się wraz z "Gladiatorem", a tylko raz z "Titanikiem".
Korporacyjne bluzgi
Jabberwacky został stworzony jako program czysto rozrywkowy, ale boty pracują też zawodowo. W firmach takich jak Coca-Cola czy Burger King pełnią odpowiedzialną funkcję sieciowych recepcjonistów. Na oficjalnej stronie Coca-Coli w dziale często zadawanych pytań wita nas Hank, wirtualny reprezentant firmy, który jest wyposażonym w bazę gotowych odpowiedzi chatbotem. Ułatwi kontakt z przedstawicielstwem firmy w danym kraju, wyjaśni skład napoju czy poda numer infolinii. Jest też przygotowany na nieco trudniejsze tematy - podstępnie zapytany o Pepsi kulturalnie odpowiada, że lubi tylko produkty swojej firmy. Polegnie za to na pytaniu o ulubiony film - to już nie jego praca.
Pojawiały się próby wprowadzenia do firm zmyślniejszych programów, które uczyły się na wzór Jabberwacky'ego. Okazało się jednak, że ich działanie nie zawsze jest przewidywalne.
Wyniki rozmów z pięcioma takimi maszynami opublikowane w "New Scientist" pokazały, że część programów staje się z czasem... niegrzeczna. To wynik niezliczonych rozmów z internautami, którzy ze szczególnym upodobaniem składają nieszczęsnym maszynom propozycje seksualne lub obrzucają je stekiem wyzwisk. Program z czasem uczy się używania wulgaryzmów, sam zaczyna je stosować, a gdy zaskoczeni rozmówcy reagują agresywną odzywką, zapamiętuje ją i w ten sam sposób odpowiada na kolejne zaczepki. Dlatego firmy albo żałują inteligencji swoim wirtualnym przedstawicielom, albo stale kontrolują ich słowniki.
Chatboty mogą też nieźle zarabiać - w Japonii popularna jest Virtua Girl - przygotowany na telefon komórkowy program, który przedstawia piękną dziewczynę prowadzącą z użytkownikiem miłą konwersację. W trakcie rozmowy stara się nakłonić właściciela telefonu, by kupował jej wirtualne kwiaty czy biżuterię, za które musi zapłacić jak najbardziej realnymi pieniędzmi.
Choć na razie pełnego testu Turinga nie zdołał zaliczyć jeszcze żaden bot, Jabberwacky w tym roku dostał Nagrodę Loebnera przyznawaną programowi najlepiej naśladującemu prawdziwą rozmowę. Może więc zamiast szukać sztucznej inteligencji wśród sieci neuronowych i superkomputerów, wystarczy poczekać, aż programy same nauczą się mówić?
Ten eksperyment nazwano testem Turinga - gdyby udało się stworzyć maszynę, której nie dałoby się w rozmowie odróżnić od żywego człowieka, można by powiedzieć, że powstała wreszcie sztuczna inteligencja.
Porozmawiaj z nim
Choć od tego czasu naukowcy próbują stworzyć program, który przeszedłby test Turinga, przez wiele lat nie zdołali nawet zbliżyć się do ludzkiego wzorca. Problem nie leży w mocy obliczeniowej komputerów, ale w sposobie organizacji i działania mózgu, którego nie sposób jak dotąd odtworzyć. Czy to znaczy, że nie mamy szansy na pogadanie z maszyną? Niekoniecznie. Od dawna powstają bowiem programy, które zamiast próbować odtworzyć cały proces ludzkiego myślenia, skupiają się na naśladowaniu tylko jednego z jego produktów - mowy. Określa się je słowem "chatbot" (chat od angielskiego "gawędzić" i bot od "robot") lub krócej - "bot".
Początkowo programiści tworzący boty starali się przewidzieć wszystkie możliwe pytania i odpowiedzi, jakie przydadzą się w takiej rozmowie. Większość z nich faktycznie nietrudno przewidzieć - wiadomo, jak zareagować na standardowe pozdrowienia, pytania o pochodzenie, płeć czy hobby. Jednak rozmowa bardzo szybko może zejść na tematy, których zaprogramować nie sposób, a wtedy program zaczyna się gubić i powtarzać standardowe prośby w rodzaju: "Czy możesz to ująć inaczej?".
Z nietypowymi pytaniami zaczął sobie radzić bot nazwany Jabberwacky, którego napisał brytyjski programista Rollo Carpenter. Pomysł powstał na początku lat 80., ale dopiero w ostatnich latach ubiegłego wieku trafił do Internetu (www.jabberwacky.com) i rozpoczął naśladowanie ludzi. Moc Jabberwacky'ego polega na tym, że im więcej przeprowadzi rozmów, tym lepiej się z nim gada. System zapamiętuje w potężnej bazie danych wszystkie konwersacje, jakie kiedykolwiek przeprowadził, i analizuje ich składnię, wyłapując kontekst, w jakim pojawiają się słowa. Na tej podstawie dowiaduje się na przykład, że nowe dla niego hasło "Ridley Scott" pojawia się w kontekście słów "Gladiator", "Obcy" oraz "reżyser" czy "film". Zagadnięty następnym razem o reżysera "Gladiatora" jest w stanie odnaleźć jego imię i nazwisko i popisać się zdobytą wiedzą.
Problemem dla tego rodzaju systemów są ludzie, którzy wprowadzają je w błąd świadomie lub niechcący - na przykład gwałtownie zmieniając temat rozmowy. Jednak takie fałszywe skojarzenia haseł z czasem mogą być ignorowane, bo program zapamiętuje, że "Scott" często pojawia się wraz z "Gladiatorem", a tylko raz z "Titanikiem".
Korporacyjne bluzgi
Jabberwacky został stworzony jako program czysto rozrywkowy, ale boty pracują też zawodowo. W firmach takich jak Coca-Cola czy Burger King pełnią odpowiedzialną funkcję sieciowych recepcjonistów. Na oficjalnej stronie Coca-Coli w dziale często zadawanych pytań wita nas Hank, wirtualny reprezentant firmy, który jest wyposażonym w bazę gotowych odpowiedzi chatbotem. Ułatwi kontakt z przedstawicielstwem firmy w danym kraju, wyjaśni skład napoju czy poda numer infolinii. Jest też przygotowany na nieco trudniejsze tematy - podstępnie zapytany o Pepsi kulturalnie odpowiada, że lubi tylko produkty swojej firmy. Polegnie za to na pytaniu o ulubiony film - to już nie jego praca.
Pojawiały się próby wprowadzenia do firm zmyślniejszych programów, które uczyły się na wzór Jabberwacky'ego. Okazało się jednak, że ich działanie nie zawsze jest przewidywalne.
Wyniki rozmów z pięcioma takimi maszynami opublikowane w "New Scientist" pokazały, że część programów staje się z czasem... niegrzeczna. To wynik niezliczonych rozmów z internautami, którzy ze szczególnym upodobaniem składają nieszczęsnym maszynom propozycje seksualne lub obrzucają je stekiem wyzwisk. Program z czasem uczy się używania wulgaryzmów, sam zaczyna je stosować, a gdy zaskoczeni rozmówcy reagują agresywną odzywką, zapamiętuje ją i w ten sam sposób odpowiada na kolejne zaczepki. Dlatego firmy albo żałują inteligencji swoim wirtualnym przedstawicielom, albo stale kontrolują ich słowniki.
Chatboty mogą też nieźle zarabiać - w Japonii popularna jest Virtua Girl - przygotowany na telefon komórkowy program, który przedstawia piękną dziewczynę prowadzącą z użytkownikiem miłą konwersację. W trakcie rozmowy stara się nakłonić właściciela telefonu, by kupował jej wirtualne kwiaty czy biżuterię, za które musi zapłacić jak najbardziej realnymi pieniędzmi.
Choć na razie pełnego testu Turinga nie zdołał zaliczyć jeszcze żaden bot, Jabberwacky w tym roku dostał Nagrodę Loebnera przyznawaną programowi najlepiej naśladującemu prawdziwą rozmowę. Może więc zamiast szukać sztucznej inteligencji wśród sieci neuronowych i superkomputerów, wystarczy poczekać, aż programy same nauczą się mówić?
Piotr Stanisławski Przekrój
Komentarze |