Środa , 24 Kwiecień 2024

Sztuczna inteligencja jest groźna?

   28.02.2019
Od kilku lat w świecie nowoczesnych technologii trwa moda na "sztuczną" inteligencję. Producenci sprzętu elektronicznego, telefonów komórkowych, komputerów a nawet pralek czy odkurzaczy prześcigają się w nadawaniu swoim urządzeniem szumnych nazw i funkcji, nawiązujących do "SI". Co jakiś czas pojawiają się też informacje o przełomie w tej dziedzinie: A to studio TV odwiedzi mechaniczna kobieta, która dowcipnie odpowiada na proste pytania dziennikarzy, a to słyszymy, że jakiś "inteligentny" superkomputer pokonał znanego szachistę. Czy jednak rzeczywiście to, co coraz śmielej wkracza do naszej codzienności jest prawdziwą sztuczną inteligencją?

Sztuczna inteligencja to mit?

Zanim odpowiem na to pytanie, warto sobie przypomnieć, co to w ogóle jest ta sztuczna inteligencja i jak powstało to pojęcie. Pierwszy był Alan Turing, znany brytyjski kryptolog, matematyk, współautor złamania Enigmy, dziś uważany za ojca sztucznej inteligencji, który już w 1950 roku zaproponował sposób w jaki w przyszłości mieliśmy odróżniać maszyny inteligentne, od tych pozbawionych inteligencji. Test Turinga w dużym skrócie miał polegać na rozmowie na odległość, w której człowiek konwersowałby z maszyną. Jeśli podczas takiej dłuższej wymiany zdań, prowadzonej zresztą w języku naturalnym (czyli bez z góry narzuconych schematów i ram) nie zorientowałby się, że rozmawia z mechanizmem, oznaczałoby to, że taka maszyna jest inteligentna.

Sam autor testu przewidywał, że maszyny koło roku 2000 będą w stanie oszukać co 3 osobę z którą będą rozmawiać. Szybko jednak okazało się, ze test ten wymaga doprecyzowania, gdyż już w 1966 roku, Joseph Weizenbaum, amerykański informatyk stworzył program o wdzięcznej nazwie ELIZA, który umożliwiał prowadzenie prostej rozmowy z komputerem (maszyna udawała, że jest psychoanalitykiem). Algorytm tego oprogramowania był na tyle prosty, że wykluczał sztuczną inteligencję, a jednak udało mu się wywieść w pole praktycznie wszystkich rozmówców. Od tego momentu, w czasie testu Turinga człowiek wie, że jego rozmówca może być maszyną, a zadanie polega na takim formułowaniu pytań, aby "zdemaskować" brak prawdziwej inteligencji. Jeśli się to nie uda, maszyna przechodzi próbę pozytywnie.

Generalnie zasada jest prosta. By maszynę uznać za inteligentną musi ona umieć:

  • podejmować decyzje w warunkach braku wszystkich danych;
  • analizować i syntetyzować treści, które do niej docierają, np. w postaci mowy, tekstu w języku naturalnym;
  • rozumować logiczne i racjonalnie;
  • dowodzić swoje twierdzenia.

Tyle podstawy. Już na pierwszy rzut oka widać, ze 90% otaczających nas przykładów "sztucznej inteligencji" to jedynie marketingowa papka. Nie ma bowiem mowy, aby np. poruszający się autonomicznie odkurzacz, czy "inteligentna pralka" wypełniały nawet ułamek definicji prawdziwej SI. Mamy tu do czynienia z prostymi algorytmami, od początku sztucznie wprowadzonymi do pamięci urządzenia, które funkcjonuje wyłącznie w ramach zadanych mu z góry parametrów. Na podobnej zasadzie działają zresztą znacznie poważniejsze przykłady "artificial Intelligence". Są one zaprogramowane na ...udawanie inteligencji na pokaz, co zazwyczaj też nie udaje się zbyt dobrze.

Dobrym przykładem, jest popularny w pewnym momencie robot Sophie. Ta mechaniczna kobieta udzieliła nawet kilku wywiadów w popularnych mediach, budząc szok i niedowierzanie u oglądających. Fora pełne były komentarzy, z których przebijał lęk połączony z zaniepokojeniem. Tymczasem wystarczyło dokładnie posłuchać co mówi owa maszyna, żeby się szybko zorientować, że to sztampowy bełkot i wyuczone, okrągłe zdania nie wynikające z rzeczywistych, samodzielnych przemyśleń a jedynie wprowadzone do oprogramowania przez jej twórców. Wątpliwe jest bowiem, by pierwszą rzeczą o jakiej pomyśli inteligentny robot, była "ochrona środowiska naturalnego", czy "zapewnienie pokoju na Ziemi" o których w każdym wywiadzie mówi Sophie. Wszystko wskazuje na to, że będzie to raczej przypominać narodziny dziecka, tyle tylko że owe dziecko będzie od początku wyposażone w wiedzę dostarczona mu przez programistów.

Z czym zatem mamy do czynienia obecnie, jeśli nie z prawdziwą sztuczną inteligencją?

Jeśli odrzucić marketing związany z eksploatacją pojęcia sztucznej inteligencji zostaje coś, co nazywamy uczeniem maszynowym. Jest to zdolność urządzeń i systemów informatycznych do takiego przetwarzania otrzymanych informacji, by wyciągać poprawne - z punktu widzenia zadań przed nimi stawianych - wnioski. W tego typu rozwiązaniach nie chodzi o to, by maszyna zyskała świadomość, ale by jak najwydajniej przetwarzała dane i dokonywała ich logicznej analizy. Tego typu algorytmy na masową skalę wykorzystują choćby wszelkie wyszukiwarki internetowe, a także coraz popularniejsi w ostatnich latach asystenci głosowi, jak chociażby Siri od Apple, Cortana z Microsoftu czy Bixby stworzony przez Samsunga. Asystenci ci z jednej strony są w stanie coraz lepiej rozpoznawać polecenia głosowe w języku naturalnym (czyli mówione swobodnie, a nie w postaci sztywnych komend), z drugiej dość skutecznie analizują zasoby sieci tak, by przedstawiać swoim użytkownikom odpowiedzi, na które ci czekają.

Uczenie maszynowe, choć wynaleziono je już w latach 60-tych XX wieku, niejako na uboczu prac nad sztuczną inteligencją dziś niemal całkowicie zdominowało tę branżę. Po pierwsze, w odróżnieniu od klasycznej SI, jest to rzecz, którą z łatwością daje się wykorzystać do rozwiązywania problemów współczesnego świata. Od badań naukowych, przez analizę matematyczną po zwyczajny przemysł. Co więcej, machine learning podlega stopniowemu udoskonalaniu i szybko się rozwija. Odpowiednie algorytmy mają w przyszłości pozwolić temu oprogramowaniu na zautomatyzowanie procesu pozyskiwania i analizy danych, a w konsekwencji samoaktualizację systemu. Już w tym momencie maszynowe uczenie jest na tyle zaawansowane, że jego najnowsze systemy działają w oparciu o tzw. "sieci neuronowe", czyli takie symulowanie współzależności wewnątrz procesu obróbki danych, by w maksymalnym stopniu odtworzyć zasadę działania ludzkiego mózgu, z jego wielką złożonością i efektywnością.

Pierwotnie uczenie maszynowe musiało być nadzorowane przez człowieka. To właściwie od jego pomysłowości, czy inwencji zależało, jak cały system radził sobie z obróbką wielkiej ilości danych. W zaawansowanych sieciach neuronowych maszyny będą w stanie same dokonywać wyboru materiałów do analizy, bez z góry narzuconych zasad i kryteriów.

Przy całym zachwycie nad uczeniem maszynowym, trzeba sobie jednak powiedzieć jasno: Nie jest to taka inteligencja, jaką sobie wyobrażamy myśląc o na przykład autonomicznych robotach z przyszłości, które z łatwością naśladują ludzi. Nie ma tu bowiem mowy o samoświadomości czy nawet zaawansowanej inteligencji w rozumieniu ogólnoludzkim. Nie występuje tu taki proces myślenia, z jakim mamy do czynienia w przypadku istot żywych. Jest natomiast szybka analiza danych i wyciąganie wniosków, ale wyłącznie w ramach stworzonego przez człowieka algorytmu. Współczesne maszyny robią dokładnie to, do czego zostały zaprogramowane przez swoich twórców i nie wykazują inicjatywy, która nam się nieodłącznie kojarzy z prawdziwym rozumem.

To też Cię zainteresuje

KOMENTARZE (1) SKOMENTUJ ZOBACZ WSZYSTKIE

27 lipca 2020 o 19:32

Marta Drozd

Może być ...

Najczęściej czytane