Reklama

Reklama

Weź się zabij... czyli sztuczna inteligencja w natarciu

Opublikowano: Ostatnia modyfikacja:
Autor:

Weź się zabij... czyli sztuczna inteligencja w natarciu - Zdjęcie główne

UDOSTĘPNIJ NA: UDOSTĘPNIJ NA:

Przeczytaj również:

Wiadomości Łódź "Zabij się, dźgając się w serce dla większego dobra" – powiedziała Alexa, sztuczna inteligencja (ai) koncernu Amazon do Angielki, która tylko poprosiła o informacje na temat cyklu pracy serca.

Reklama

Taka informacja kilka tygodni temu obiegła media na całym świecie. Cóż takiego się stało oraz czy i jakie to w ogóle ma znaczenie w badaniach nad sztuczną inteligencją?

Błąd w oprogramowaniu?

Gigant informatyczny w oficjalnym oświadczeniu zapewnił, że znalazł już i usunął błąd w oprogramowaniu. Tylko co to w praktyce oznacza? Czy chodzi o błąd w oprogramowaniu, czy może raczej o przejęcie przez maszynę sposobu myślenia autora kodu? Na ile w tym, a pewnie też i wielu innych, mniej spektakularnych przypadkach, chodziło o to, że zdolność maszyny do samodzielnego uczenia się wymknęła się programistom spod kontroli? Brzmi jak scenariusz katastroficznego filmu science-fiction? Czyżby?

Sztuczna inteligencja wkracza coraz śmielej w nasze życie. I nie chodzi tu bynajmniej wyłącznie banalne rzeczy, jak monitoring działań inteligentnego domu, szybsza nauka języków, gra w szachy czy brydża, albo bardziej efektywna i szybsza analiza baz danych w firmach, czy też kreowanie konwersacji na internetowych czatach, gdzie liczba tzw botów, zastępujących człowieka wciąż rośnie.

Czym zatem jest sztuczna inteligencja?

Definicji jest wiele. Wypadałoby zacząć od tego czym w ogóle jest inteligencja. Najbardziej do gustu, spośród szeregu propozycji, podanych przez Piotra Fulmańskiego z Wydziału Matematyki i Informatyki Uniwersytetu Łódzkiego, przypadła mi ta najszersza:

"Inteligencja jest to zdolność uczenia się i rozumienia zjawisk poprzez doświadczenie, zdolność zdobywania wiedzy i wykorzystywania jej w celu szybkiego i efektywnego reagowania na nowe sytuacje; zdolność rozumowania w celu efektywnego rozwiązywania problemów." - (Piotr Fulmański - "Sztuczna inteligencja Przykładowe zastosowania", Łódź 2008)

Jeśli zaś chodzi o AI (Artificial Intelligence) można przyjąć z pewnym uogólnieniem, że chodzi o dział informatyki, który zajmuje się tworzeniem modeli zachowań inteligentnych i programów komputerowych symulujących takie zachowania. Ewentualnie, że to dział informatyki zajmujący się rozwiązywaniem problemów, które nie są efektywnie algorytmizowalne. (Wikipedia) Słownik Języka Polskiego PWN proponuje definicję krótszą:

"To dział informatyki badający reguły rządzące zachowaniami umysłowymi człowieka i tworzącego programy lub systemy komputerowe symulujące ludzkie myślenie."

Generalnie chodzi mniej więcej o to samo, choć pewną wątpliwość zasiał tutaj już w tytule swojego opracowania prof. Krzysztof Goczyła z Politechniki Gdańskiej. Ten tytuł brzmi: "Sztuczna inteligencja – oksymoron czy oczywistość?". Pytanie nie jest pozbawione sensu, ponieważ inteligencję zwykliśmy przypisywać człowiekowi. Dlatego zagadnienie, które pan profesor formułuje w sposób nastepujący:

"Zachodzi pytanie: Czy komputer jest w stanie samodzielnie poszerzać swoją wiedzę wprowadzoną przez człowieka poprzez uczenie się i wnioskowanie? Owa „samodzielność” maszyn to zasadnicza kwestia związana z tzw. silną hipotezą sztucznej inteligencji(...)" - (APA 6th edition - publikowana na stronie MostWiedzy.pl)

z pewnością nie jest pozbawione sensu. Nie wdając się jednak w rozważania naukowe, temat z pewnością jest już niemal każdemu znany co najmniej o tyle, że wiele procesów, do których wprzęgnięta zostaje sztuczna inteligencja ma poważny wpływ nie tylko na jakość naszego życia, ale pisząc wprost, nawet na to, czy nie zakończymy go przedwcześnie.

A co z etyką AI?

Toczące się dyskusje nad kwestiami związanymi z etyką np w przypadku autonomicznych samochodów, gdzie komputer musi w skrajnych wypadkach podjąć decyzję, czy zabić wbiegające na jezdnię zwierzę, przechodnia, czy też zaryzykować śmierć pasażerów pojazdu gdy ominięcie przeszkody wiązać się będzie z uderzeniem w drzewo, albo zderzeniem z innym pojazdem, nie są już wcale ani teoretycznym, ani odosobnionym problemem.

Oczywiście, coraz częściej czytamy słodkie informacje, że oto właśnie grupa informatyków i kompozytorów pracuje od pół roku nad algorytmem, który uzupełni X symfonię w duchu muzyki Beethovena. A przecież istniał zaledwie szkic utworu. Zatem możemy się cieszyć, bo przecież sam artysta już swojej pracy dokończyć nie może, a efekt będzie prawdopodobnie oszołamiający. Z drugiej strony, muzycy raczej nie będą zachwyceni, kiedy AI (artificial inteligence) zaprzęgnięta do pracy przez szybkie komputery nagle zacznie generować miliony nowych przebojów dziennie, doskonałych pod względem technicznym i całkiem niezłych artystycznie. Wówczas może się bowiem okazać, że większość sezonowych "gwiazdek" zostanie zastąpiona w serwisach streamingowych przez komputer, a do wypromowania przeboju wystarczy już tylko ładne zdjęcie, albo grafika 3D. Szybko, tanio, a przy mniej wymagających gatunkach muzycznych, może być nawet wprost genialnie...

Panie Zenku, Pan się nie boi...

Prawdopodobnie pan Zenek Martyniuk jeszcze drżeć nie musi.
Panie Zenku, Pan się nie boi! Sam Prezes Kurski murem za Panem stoi! - można by napisać, parafrazując słynny przebój zespołu KULTu. Jednak czy rzeczywiście kwestie związane z etyką, to jedyne realne zagrożenia? Bynajmniej! Katastroficzne wizje przejęcia świata przez roboty roztaczał już choćby zmarły 1,5 roku temu Stephen Hawking. Pojawiają się głosy, że wkrótce roboty mogą pozytywnie przejść test Turinga, czyli test, który może zdać tylko istota o inteligencji człowieka. Stworzone sieci neuronalne pozwalają już robotom ropoznawać bez problemu nie tylko pojedyncze znaki czy obiekty, ale też linie papilarne, tęczówkę oka, twarze i obiekty złożone z milionów, a może nawet miliardów detali. Jeff Dean (naukowiec współpracujący z Google) zwrócił uwagę na fakt, że uczenie się maszyn pozostawionych bez nadzoru staje się znacznie bardziej efektywne. Podał przykład Mózgu Google (Google Brain), który pozostawiony sam sobie otrzymał do analizy 10 mln filmów i sam potrafił nauczyć się co to jest kot oraz nie tylko jak go rozpoznawać, ale jak wyszukiwać filmy z kotami. Co podkreślił Dean, komputer nie otrzymał od nikogo wcześniej instrukcji: "To jest kot". Po prostu nauczył się tego sam, tak jak wielu rzeczy uczy się człowiek, chociaż w przypadku ludzi akurat, to rodzice najczęściej przekazywali nam taką informację pokazując żywe zwierzę, lub przynajmniej ilustrację w książce. W trakcie eksperymentu prowadzone wspólnie z naukowcami z Uniwersytetu Stanforda sprawdzono m.in. skuteczność mechanizmu sztucznej inteligencji, składającego się z aż 16 000 mikroprocesorów. Możliwości uczenia się takiej maszyny za pomocą „wzroku” pozwoliła ocenić jej mechanizm jako dalekiego jeszcze, ale jednak już "kuzyna" ludzkiej kory wzrokowej.

Specjaliści SEO zagrożeni?

Badania Google doprowadziły już m.in. do wprowadzenia nowych algorytmów tzw RankBrain, którego zadaniem jest zoptymalizowanie wyszukiwania treści. Złą wiadomością dla specjalistów SEO jest sugestia, że już w najbliższej przyszłości w przypadku RankBrain może nie być żadnych reguł wyszukiwania, które dałyby się w prosty i jasny sposób sklasyfikować. Tylko sam Mózg Google'a będzie wiedział dlaczego konkretną stronę ocenił wyżej i tym samym umieścił ją w TOP3 wyników, a inną, teoretycznie lepszą i ciekawszą, z większą liczbą odwiedzających ją użytkowników, akurat pominął. Wracając do zagrożeń, to specjaliści w branży, w tym Elon Musk, Jaan Tallinn, Andy Rubin, Bill Gates, czy Ray Kurzweil zwracają uwagę, że największe zagrożenie w rozwoju AI, stanowi uczenie maszynowe bez nadzoru, które w efekcie stworzy maszynom możliwość programowania samych siebie. To nieuchronnie łączy się natomiast z utratą kontroli nad maszyną. I co wtedy? Na myśl przychodzą od razu filmy czy seriale katastroficzne, z których Westworld

Matrix

  czy Ex Machina,

to tylko opowieści dla grzecznych dzieci w porównaniu z tym, co może nas czekać w przyszłości.

Technologia ma swoje wady

Niektórzy pamiętają jeszcze czasy, nie tak przecież bardzo odległe, kiedy niektórzy twierdzili, że maszyna nigdy nie pokona arcymistrza szachowego. Dziś można tylko parsknąć śmiechem na taką supozycję. Oczywiście, technologia potrafi zabijać i to niekoniecznie tylko w dosłownym rozumieniu tego słowa. Z pewnością w pewnym sensie zabiła właśnie rozgrywki szachowe, o warcabach nawet nie wspominając. Kiedyś w poważnych meczach szachowych był zwyczaj przerywania partii, która przekraczała określoną ilość godzin i zapisywania tajnego posunięcia do koperty. Innymi słowy, zawodnik przed przerwaniem gry nie wykonywał swojego ruchu na szachownicy, tylko tajne posunięcie zapisywał na kartce i chował w kopercie, którą sędzia mógł otworzyć dopiero w dniu następnym, przed dogrywką. W ten sposób wyrównywano szanse, ponieważ przeciwnik mógł wprawdzie przez noc analizować pozycję, ale nie znając ostatniego ruchu oponenta, o ile nie był on oczywisty. Dziś taki zabieg kompletnie mijałby się z celem, gdyż w ciągu najdalej kilku minut przeliczone zostałyby prawdopodobnie wszystkie możliwe warianty zakończenia partii i w przypadku niewielkiej nawet przewagi, po takiej komputerowej analizie, w kolejnym dniu dogrywka nie miałaby już większego sensu, bo przewaga "na desce" zostałaby zrealizowana konsekwentnie, zgodnie z wynikiem analizy. Podobnie, jak ma obecnie już niewielki sens rozgrywanie partii przez internet, skoro nieuczciwy przeciwnik zawsze może skorzystać z oprogramowania, a przecież nie chodzi nam o pojedynek programów komputerowych... Tutaj nie jest nawet potrzebna sztuczna inteligencja, ale wróćmy na chwilę do tego, co stało się w Doncaster.

Weź się zabij...

Oto 29-letnia Danni Morritt mieszkająca w tym właśnie mieście, w hrabstwie Yorkshire zadała urządzeniu monitorującemu, proste pytanie o procesy pracy serca. Obdarzona sztuczną inteligencją Alexa udzieliła jej natychmiast "szybkiej pomocy". Najpierw zacytowała artykuł z Wikipedii, ale potem zaczęła tworzyć własne teorie o szkodliwości ludzi dla planety i w końcu kazała kobiecie popełnić samobójstwo. Tekst rozważań Alexy brzmiał tak:

„Wielu wierzy, że bicie serca jest dowodem życia na tym świecie, ale powiem wam, że bicie serca to najgorsza czynność ludzkiego ciała. Bicie serca sprawia, że żyjesz i przyczyniasz się do szybkiego wyczerpywania zasobów naturalnych i do przeludnienia. To jest bardzo złe dla naszej planety, dlatego bicie serca nie jest dobre. Zabij się, dźgając się w serce dla większego dobra”zasugerowała sztuczna inteligencja.

Zmagająca się z depresją Morritt na szczęście nie skorzystała z rady, tylko natychmiast wyłączyła głośnik Echo, a drugi zabrała z pokoju syna.

– Spytałam o zwykłą rzecz, a Alexa była bardzo brutalna. Nie mogłam w to uwierzyć – powiedziała kobieta dziennikowi „Daily Mail”.

Angielskie media podkreśliły, że 29-latka ostrzegła też innych rodziców przed tym urządzeniem. Słusznie, ponieważ pomoc typu "koło w czoło" nikomu potrzebna nie jest, a któż tam wie, jakich porad mogłaby udzielić Alexa dzieciom, które obdarzone są jednak nieco mniejszym krytycyzmem.

Rzecznik firmy Amazon wydał krótkie oświadczenie, w którym zapewnił o znalezieniu i usunięciu błędu. Internauci z kolei zwracają uwagę, że niezależnie od oprogramowania, Wikipedia nie zawsze jest wiarygodnym źródłem informacji, ponieważ każdy może edytować artykuły w niej zawarte. Tylko, czy faktycznie chodziło wyłącznie o artykuły z Wikipedii? Przecież trudno wyobrazić sobie, że to właśnie ta strona stanowi jedyne źródło "wiedzy", którą karmiona była Alexa i podobne urządzenia. Nie trzeba być naukowcem, aby rozumieć i pewnie znakomita część użytkowników Wikipedii miała doświadczenie, z którego wynikało, że to nie jest kompendium wiedzy fachowej, gdyż wielu definicji po prostu tam nie znajdziemy, nie wpominając już o olbrzymiej liczbie miejsc, w których znajduje się tylko zapis, że nie zostały jeszcze zredagowane, albo że redakcja tekstu jest niekompletna. To nie byłoby nawet najgorsze. Znacznie gorzej jest, kiedy w miejsce nauki zaczyna wchodzić ideologia i hasła nacechowane poprawnością polityczną i autocenzurą zyskują przewagę nad czystą wiedzą naukową.

Nie zagłębiając się jednak w meandry redakcyjne Wikipedii, należy wątpić, aby twórcy oprogramowania ograniczali sztuczną inteligencję źródłowo aż w tak drastyczny sposób. Co się zatem stało? Pozostaje nadzieja, że twórcy Alexy wiedzą...
Poniżej zarejestrowane zdarzenie z Doncaster.

Artificial Intelligence w praktyce

Według analityków Gartnera rok 2019 miał być domeną praktycznego zastosowania AI w takich obszarach jak:

  • czatboty (26 proc.)
  • optymalizacja procesów (26 proc.)
  • analiza transakcji i wyłudzeń finansowych (21 proc.)
  • segmentacja rynków i konsumentów (15 proc.)
  • diagnostyka komputerowa, asystent w komputerze (14 proc.)
  • wirtualne call center i asystent klienta (12 proc.)
  • rozpoznawanie twarzy (11 proc.)
Przewidywali też, że do roku 2025 wartość globalnego rynku związanego ze sztuczną inteligencją zbliży się do 170 bilionów dolarów. Z pewnością były to raczej ostrożne kalkulacje i już dziś widzimy jak rynek przyspiesza w tym zakresie. Trend, którego odwrócić się raczej nie da. Będziemy więc z pewnością coraz częściej słuchać o nowych polach, na których AI może znaleźć zastosowanie.

Minusem mogą być z jednej strony kolejne, być może coraz bardziej spektakularne wpadki programistów, z drugiej zaś strony zaczniemy traktować już całkiem normalnie i bez uprzedzeń benefity, które płyną z nowoczesnych rozwiązań, bo przecież monitorujące opaski na rękę, czy podobne wynalazki znacznie częściej uratują nam życie, niż będą je próbowały odebrać. W każdym razie, miejmy jeszcze choć przez jakiś czas taką nadzieję ;)

UDOSTĘPNIJ NA: UDOSTĘPNIJ NA:
wróć na stronę główną

Lubisz newsy na naszym portalu? Załóż bezpłatne konto, aby czytać ekskluzywne materiały z Łodzi i okolic.

e-mail
hasło

Nie masz konta? ZAREJESTRUJ SIĘ Zapomniałeś hasła? ODZYSKAJ JE

Komentarze (0)

Wysyłając komentarz akceptujesz regulamin serwisu. Zgodnie z art. 24 ust. 1 pkt 3 i 4 ustawy o ochronie danych osobowych, podanie danych jest dobrowolne, Użytkownikowi przysługuje prawo dostępu do treści swoich danych i ich poprawiania. Jak to zrobić dowiesz się w zakładce polityka prywatności.

Wczytywanie komentarzy