W raporcie „Hype Cycle for Emerging Technologies”, traktowanym powszechnie jako wyznacznik medialnego cyklu życia nowych technologii, firma analityczna Gartner ogłosiła, że Big Data stopniowo przestaje być trendy. Kolejną technologią, która trafi na ustach mediów, będzie „maszynowe uczenie” (machine learning). Podobną prognozę wysnuwa Shawn DuBravac, główny ekonomista i szef działu badań w Consumer Electronics Association (CEA), zwiastujący drugą epokę cyfrową”, której katalizatorem ma być właśnie machine learning. Obserwując dynamikę rynku IT Gartner twierdzi, że społeczeństwa informacyjne znajdują się obecnie u progu „cyfrowego humanizmu”, który otworzy nowy rozdział w ich historii. Czy branża IT stworzy „człowieka 2.0”? A jeśli tak, to jakie będą konsekwencje tego „nowego aktu stworzenia”?

Ucz się maszyno, ucz

Machine learning nie jest bynajmniej czymś nowym. To technologia powracająca, z całkiem bogatą przeszłością. Pierwszych oznak tego trendu możemy doszukać się już w maszynie zaprojektowanej przez Alana Turinga (lata ’30 XX wieku), uchodzącej za protoplastę dzisiejszych komputerów. Na nowo o machine learning świat zaczął mówić kilka lat temu, ale dyskusja przeszła w zasadzie bez echa, ponieważ branża IT nie dysponowała jeszcze wyspecjalizowaną infrastrukturą danych ani narzędziami pozwalającymi zarządzać zasobami cyfrowymi na tyle swobodnie, by w pełni wykorzystać potencjał maszynowego uczenia się. Co zatem zmieniło się od tego czasu? Przede wszystkim doszło do eksplozji Big Data w Sieci: dane generowane są dziś w zawrotnym tempie i w niespotykanych dotąd ilościach. Obecnie internet według Oracle liczy już ponad 8 ZB danych, ale do 2020 roku powiększy się do 45 ZB, a na jednego mieszkańca Ziemi – jak szacuje IDC – przypadnie tym samym ponad 5 GB danych. To oznacza gigantyczny zasób wiedzy dla maszyn, które bez danych nie mogłyby myśleć. Żeby jednak te dane miały jakikolwiek sens– muszą trafić na warsztat badaczy danych, którzy odcyfrują te współczesne hieroglify, rozpoznają w nich powtarzające się wzorce i odnajdą powiązania między poszczególnymi elementami rozrzuconych informacji. Dlatego bez cienia przesady można powiedzieć, że to właśnie badacze i analitycy danych (data scientists oraz data miners) są współczesnymi „dziećmi Turinga”.

Na czym polega fenomen maszynowego uczenia?

W skrócie rzecz ujmując: chodzi o nauczenie komputerów myślenia zbliżonego do tego, jakim dysponuje człowiek. „Mózgiem” maszyny będą algorytmy zasilane szeregiem różnorodnych danych (patrz: Big Data). Dzięki nim komputer będzie w stanie podjąć najbardziej optymalną (czytaj: najbardziej racjonalną) decyzję sam z siebie, bez konieczności nadzorowania całego „procesu myślowego” przez człowieka. Mówimy tu o myśleniu rachującym, kalkulującym, przebiegającym w uschematyzowany sposób. Kluczem jest oczywiście dostęp do odpowiednich danych oraz takie zaprogramowanie urządzenia, które w pełni zautomatyzuje decyzje maszyny i wyeliminuje z tego procesu wszelką przypadkowość. Zaszczepienie maszynie algorytmów ewolucyjnych, bo takie jest ich fachowe określenie, pozwala maszynie rozwijać się autonomicznie

Naukowcy już od kilku lat pracują nad rozwojem tej nowej dziedziny nauk ścisłych, jaką okazał się cognitive computing.  W tej pionierskiej pracy Salakhtudinov oraz Tenenbaum zaprezentowali opracowany przez siebie algorytm, którego implementacja pozwoli maszynom nie tylko na uczenie się, lecz również na szybsze wyciąganie wniosków oraz… kreatywność. Komputer napotykający na nowe zagadnienie najpierw sprawdzi, czy miał do czynienia z podobną sytuacją już wcześniej, a następnie – bazując na swoich „doświadczeniach” – wyciągnie wnioski z minionych procesów i dopasuje swoje postępowanie do aktualnej sytuacji. Prościej rzecz ujmując: maszyna „odrobi lekcje” i przestanie popełniać te same błędy. Ważniejszy jest jednak fakt, że będzie również w stanie generować zupełnie nowe informacje, czyli wymyślać/wytwarzać racjonalne scenariusze, których wcześniej nie miała w swojej pamięci. Będzie w stanie projektować czy też – mówiąc ludzkim językiem – „myśleć perspektywicznie”. Nietrudno odgadnąć, że docelowym zadaniem machine learning jest zbudowanie Superkomputera lub Superkomputerów.

Joshua Tenenbaum, choć spogląda na rozwój tego kierunku z wielkim optymizmem, mimo wszystko chłodzi przedwczesny entuzjazm związany z pojawieniem się Superkomputera: – Daleko jeszcze nam do tego, aby zbudować komputer o inteligencji dziecka, ale po raz pierwszy osiągnęliśmy to, że maszyna jest w stanie nauczyć się i wykorzystywać szeroką klasę konceptów w sposób, który jest trudny do odróżnienia od ludzkiego – mówi profesor MIT.

Myślące maszyny

Z fazy pustego futuryzmu i fantazjowania o „myślących maszynach”, przechodzimy stopniowo do urzeczywistnienia scenariusza cyfrowej przyszłości. Na horyzoncie widać już pierwsze jaskółki.

Przykładem jest Google i algorytm Smart Reply. Pozwala on na analizę treści przychodzącego do użytkownika maila, a następnie sugeruje mu trzy warianty gotowych, automatycznych odpowiedzi. Wystarczy jedno kliknięcie w którąś z opcji, by odpowiedzieć nadawcy, który przypuszczalnie nawet się nie zorientuje, że nie odpisał mu  człowiek, lecz komputer. Co więcej – każda z „inteligentnych odpowiedzi” w Smart Reply ma być utrzymana w podobnym stylu, w jakim zredagowano oryginalną wiadomość. To jednak nie koniec nowości. Konkurent Google, czyli Microsoft, stworzył bardziej zaawansowaną aplikacją, wyposażoną w sztuczną inteligencję. Łączy ona funkcje komunikatora, chatbota, doradcy użytkownika oraz wyszukiwarki. Mowa o aplikacji Cortana, która działa już na kilku rynkach na świecie, w tym w Polsce. Dzięki Cortanie zamiast wpisywać zapytania w oknie przeglądarki – użytkownik może je zadać w ramach „rozmowy” z maszyną. Cortana jest „cyfrową asystentką” użytkownika: zapamiętuje jego gusta i preferencje, przypomni mu o spotkaniach i podpowie mu, co  warto dzisiaj zobaczyć. Nad podobnym rozwiązaniem pracuje i sam Google, który już teraz może pochwalić się projektem DeepDream, powstającym w laboratoriach największej wyszukiwarki świata czy prototypami inteligentnych samochodów, którymi kieruje nie człowiek, a maszyna.

DeepDream, to – jak określają go sami twórcy – „artystyczna sieć neuronowa”. Projekt ma na celu ukazanie tego, „jak maszyna widzi świat”. Sama z siebie, bez zdalnego sterowania  przez człowieka czy ludzkiej ingerencji w jej proces tworzenia świato-obrazu. Maszynowa percepcja świata zaprezentowana w DeepDream opiera się na zastosowaniu sieci neuronowych, połączonych z algorytmami sztucznej inteligencji oraz mechanizmami machine learning. Dzięki tym komponentom maszyna uniezależniła się od człowieka i sama zbudowała autorski sposób postrzegania i prezentowania rzeczywistości. Stała się cyfrowym malarzem, artystą, który zaczął odmalowywać rzeczywistość za pomocą własnej palety kolorów i własnego pędzla. Internauci sami mogą sprawdzić, jak DeepDream widzi świat i jak go odmalowuje. Wybrane obrazy z portfolio komputera-artysty można obejrzeć na stronie www.deepdreamit.com. Z kolei użytkownicy, którzy chcą sprawdzić, co cyfrowy malarz Google jest w stanie zdziałać z ich zdjęciami, mogą odwiedzić stronę www.deepdreamgenerator.com i po zalogowaniu przesłać swoje fotografie. Po kilku sekundach zobaczą, jak ich obrazy postrzega „wyobraźnia maszyny”. Na rynku pojawiło się również kilka aplikacji pozwalających korzystać z technologii DeepDream na pecetach i smartfonach.

Maszyny lepsze w rozpoznawaniu kłamstwa niż ludzie

Myliłby się ten, kto wiązałby machine learning wyłącznie z biznesem i przemysłem. Maszyny można nauczyć rozpoznawania ludzkich zachowań, w tym zwłaszcza tego jednego, z którym sami ludzie mają wielki kłopot: kłamania. Naukowcy z Uniwersytetu Michigan opracowali już oprogramowanie pozwalające wykrywać kłamstwa, wykorzystując właśnie maszynowe uczenie się. Być może w niedalekiej przyszłości zastąpi ono wariografy. Oprogramowanie przetrawiło niemal 120 materiałów wideo z rzeczywistych procesów sądowych oraz przesłuchań świadków, a do tego otrzymało wszelkie dane związane z tymi procesami, opracowane przez naukowców. Już w fazie testów skuteczność maszyny okazała się imponująca: trafnie rozpoznała próbę oszustwa w 75 proc. przypadków. Dla porównania: ludzie podczas testów trafnie rozpoznawali kłamstwa tylko w 50 proc. przypadków.

Pozostając w temacie ludzkich zachowań – na uwagę zasługuje oprogramowanie, nad którym pracuje obecnie Microsoft. Ma ono przysłużyć się porządkowi publicznemu i zapewnić większe bezpieczeństwo obywatelom USA. Mowa o projekcie Predictive Policing, rozwijanym we współpracy z amerykańskim wymiarem sprawiedliwości. Projekt bazuje na machine learning, Big Data oraz zaawansowanych algorytmach wykorzystujących rozbudowane sieci neuronowe. Wyposażone w to oprogramowanie komputery będą przetwarzać zachowania osób skazanych przez sądy za przestępstwa i na podstawie tych danych – przewidywać prawdopodobieństwo wejścia w kolejny konflikt z prawem, w okresie do pół roku od zwolnienia z więzienia. Już na tym etapie skuteczność Predictive Policing sięga… 91 proc.

Polacy również mają swój wkład w machine learning. To właśnie nad Wisłą powstało narzędzie behavioralengine.com, czyli największa w tej części Europy inteligentna platforma DMP (Data Management Platform), która na bieżąco gromadzi i przetwarza anonimowe dane z ponad 70 mln urządzeń i 20 mln realnych użytkowników sieci. Dziennie przetwarza ponad 5 TB danych i monitoruje ponad pół miliona witryn internetowych. Zna zachowania oraz preferencje praktycznie każdego internauty znad Wisły i potrafi dopasować treść wyświetlanych komunikatów reklamowych do profilu konkretnego użytkownika oraz sugerować mu strony czy przedmioty, które mogą go zaciekawić. Dzięki temu przeglądanie internetu nad Wisłą stało się mniej uciążliwe, a gigantyczne reklamy przesłaniające treści na stronach powoli stają się przeżytkiem. Zastosowanie maszynowego uczenia w reklamie internetowej sprawiło, że internet przestał w końcu wyglądać jednakowo dla każdego z nas. Zaczął w końcu bardziej odpowiadać naszym zainteresowaniom.

Cortana, Smart Reply, DeepDream, Predictive Policing czy behavioralengine – to oczywiście jedynie wierzchołek góry lodowej trendu, który moglibyśmy określić mianem „smartyzacji świata”. Niebagatelną rolę odgrywa w nim oczywiście rozwój Internetu Rzeczy, a więc wszystkich „smart przedmiotów”, które zalewają globalny rynek i „uczą się” zachowań swoich użytkowników.

Kim jest (będzie) człowiek 2.0?

Kościół katolicki ma ponad 2 tysiące lat historii i liczy obecnie około 1,2 mld wiernych. Facebook ma raptem 12 lat, a zgromadził już ponad 1,5 mld użytkowników. To tylko jeden z bardziej wymownych przykładów świadczących o tym, że stoimy u progu nowej epoki cyfrowej, w której technologia zaczyna odgrywać rolę niemal religijną i trans-narodową. Producenci gromadzą dziś wokół siebie nie tyle klientów, co raczej wyznawców. To pierwszy wyróżnik człowieka 2.0: zapośredniczenie życia społeczeństwa w nowe technologie. Drugim jest przeistoczenie świata w świat online.

Według prognoz e-Marketera do 2018 roku co drugi człowiek na Ziemi będzie internautą. Google twierdzi, że w ciągu 48 godzin produkujemy już więcej danych niż w okresie od początku powstania cywilizacji do 2003 roku, a większość z nich wygenerowaliśmy w ciągu ostatnich 2 lat. Już teraz życie cyfrowe ma niebagatelny wpływ na nasze „życie offline”, a samo rozróżnienie powoli staje się bezzasadne. Na rynku pracy niebawem zadebiutuje pokolenie Z, które nie pamięta czasów bez internetu – i nie wyobraża sobie rzeczywistości bez przymiotnika „cyfrowa”. Terminy „offline” i „online” znajdą więc zastosowanie tylko wśród tych ludzi, którzy będą pamiętali czasy bez globalnej sieci.

Tym samym w łańcuchu ludzkiej ewolucji coraz wyraźniej krystalizuje się nowe ogniwo: homo cyberneticus. Wielu widzi w nim kolejną utopię, następca socjalistycznego robotnika i kapitalistycznego mieszczanina. Tym razem jednak utopia ma znacznie większe szanse, by stać się rzeczywistością.

Uczenie maszynowe nie daje (jeszcze) czarno-białych odpowiedzi. Maszyny nie myślą i nie będą myśleć za nas, lecz raczej: obok nas i razem z nami. W ten sposób rozszerzą granice naszego rozumienia, pozwalając uporać się z problemami uchodzącymi wcześniej za nierozwiązywalne. Dzięki danym już teraz mamy możliwość uzyskania niemal nieograniczonej liczby punktów widzenia na interesujące nas zagadnienia, a dzięki współpracy z przetwarzającymi te dane maszynami – będziemy mogli właściwie widzieć wszystko, jak na dłoni. Dlatego nie ma przesady w twierdzeniu, że człowiek 2.0 będzie niczym cyfrowy bóg, a nadchodząca druga epoka cyfrowa, okaże się de facto epoką humanizmu cyfrowego.