Każdy chce spotkać Wall-E


28 września 2015

Piotr Pietrzak

Każdy chce spotkać Wall-E

Historia hitów kinowych pełna jest futurystycznych i - głównie katastroficznych - opowieści o humanoidalnych robotach sterowanych sztuczną inteligencją (AI - Artificial Intelligence). Obrazy te dotykają zacierających się granic pomiędzy sztuczną, a naturalną dla człowieka inteligencją. Przypomnieć należy system HAL9000 z filmu „2001: Odyseja kosmiczna” (1968), „Łowca Androidów” (1982), „Terminator” (1984), „Matrix” (1999) czy opowieść o robocie marzącym o zostaniu prawdziwym człowiekiem – „A.I. - Sztuczna Inteligencja” (2001).

Bunt robotów to synonim zagłady, być może dlatego już w 1942 roku w swojej książce pt.: "Zabawa w berka" Isaac Asimov przedstawił trzy prawa robotów, które stanowić mogą po dziś dzień „wentyl bezpieczeństwa” w pracach nad sztuczną inteligencją:

  1. Robot nie może skrzywdzić człowieka, ani przez zaniechanie działania dopuścić, aby człowiek doznał krzywdy.
  2. Robot musi być posłuszny rozkazom człowieka, chyba, że stoją one w sprzeczności z Pierwszym Prawem.
  3. Robot musi chronić sam siebie, jeśli tylko nie stoi to w sprzeczności z Pierwszym lub Drugim Prawem.

Gdzie jesteśmy z pracami nad AI?

Musimy na początek zdać sobie sprawę, że komputery:

  • potrafią już rozpoznawać obrazy, porównywać je, wyszukiwać i identyfikować na nich obiekty – dobrym przykładem zastosowania takich technologii jest Google Maps, gdzie przy użyciu właśnie tego typu technologii naniesiono wiele numerów domów na siatkę ulic na podstawie wykonanych zdjęć, czy też system IBM Watson w zastosowaniach medycznych - zwłaszcza w obszarze rozpoznawania określonego typu nowotworów
  • potrafią słuchać – identyfikować dźwięk, zamieniać go w tekst
  • potrafią mówić – syntetyzować mowę na podstawie zapisanej informacji
  • uczyć się i wyciągać wnioski – a nie jedynie ograniczać się do analizy posiadanej informacji i udzielania odpowiedzi w zamkniętym obszarze wiedzy.

Te rozwiązania rozwijają się błyskawicznie - trzeba pamiętać, że od powstania pierwszego systemu eksperckiego Dendral na Uniwersytecie Stanforda (1965) upłynęło zaledwie 50 lat. Ten system jako pierwszy umożliwił identyfikację i analizę związków organicznych, które dotychczas nie były znane chemikom. Z kolei rozwiązanie Artura Lee Samuela z IBM, które zapoczątkowało rozwój algorytmów samouczących i sztucznej inteligencji, w którym to komputer sam ze sobą grał w warcaby, aby przeprowadzić proces samouczący, a następnie w 1962 roku wygrywać z ludźmi IBM, ma zaledwie 53 lata. W porównaniu z ewolucją i drogą, którą przeszła ludzkość, jest to mgnienie oka.

O SyNAPSE i układach poznawczych

W związku z tym, że na algorytmach z przeszłości nie można budować rozwiązań z przyszłości, uruchamiane są dedykowane projekty umożliwiające rozwiązanie w sposób optymalny bardzo konkretnych problemów. Dopiero ich integracja przybliża nas do budowy czegoś, co można nazwać „Superinteligencją”. Jednym z przykładów takiego projektu może być SyNAPSE (Systems of Neuromorphic Adaptive Plastic Scalable Electronics). Jest to projekt uruchomiony w IBM przed wielu laty, tworzący podstawy technologiczne pozwalające na budowę - w łatwiejszy i efektywny kosztowo sposób - systemów wzorowanych na działaniu ludzkiego mózgu . Pierwsze osiągnięcia projektu zostały zaprezentowane już w 2009 roku. Wówczas, przy współpracy z różnymi ośrodkami naukowymi, udało się stworzyć symulację kory mózgowej kota.

Obecnie nawet superkomputer przetwarza dane wielokrotnie wolniej niż kot, wyposażony w 1 mld komórek neuronowych połączonych 10 bilionami synaps. Kolejne wyzwania są nieporównywalnie trudniejsze, bo struktura kociej kory mózgowej to nie więcej niż 5 % tego, czym dysponuje ludzki mózg. Wynika to z faktu, że mikroprocesory zaledwie część czasu wykorzystują na efektywne liczenie - w dużej mierze to nadal oczekiwanie na odszukiwanie niezbędnych danych, które po wykorzystaniu trzeba ponownie „odłożyć na półkę”.

Stąd ruch w stronę komputerów poznawczych (Cognitive Computing – w tym IBM Watson) opartych o uczenie maszynowe, ze szczególnym uwzględnieniem podejścia zwanego deep learningiem, które znacznie ulepszyło uczenie maszyn hierarchicznych reprezentacji danych.

Docelowo marzeniem naukowców jest stworzenie komputera, który będzie mógł symulować i naśladować możliwości mózgu w zakresie uczuć, percepcji, działania, interakcji i świadomości. Celem nie jest budowa robota zachowującego się jak człowiek, lecz systemu gotowego do analizowania w czasie rzeczywistym strumieni ciągłych danych, który pomoże przedsiębiorstwom, lekarzom, chemikom, farmaceutom w podejmowaniu lepszych decyzji nie bazujących jedynie na danych wejściowych, ale również na procesie zautomatyzowanego wnioskowania.

Wyobraźmy sobie, że układy podobne do SyNAPSE wkrótce mogą umożliwić np. zbudowanie inteligentnych okularów dla niewidomych. Będą one analizować obraz w czasie rzeczywistym, identyfikować przeszkody i pomagać w nawigowaniu po mieście. Liczba zastosowań i możliwych rozwiązań, zarówno dla CC, jak i AI jest nieograniczona.

Zainteresował Cię nasz blog i chcesz wiedzieć więcej?

Zapisz się na nasz newsletter

Na Twój e-mail wyślemy ciekawe informacje związane z blogiem i IBM