• Sklep
  • Odbierz prezent
sztuczna inteligencja AI

Artykuł przedstawia najczęściej wymieniane zagrożenia związane z rozwojem sztucznej inteligencji. Jakie mogą być ich skutki? Czy jest czego się obawiać? Czy AI jest w stanie całkowicie zastąpić człowieka w podejmowaniu decyzji?

 

Gdy ludzie myślą o sztucznej inteligencji (AI), przychodzą im zwykle na myśl sceny przedstawiające androidów – zabójców i zbuntowane komputery. Hollywoodzkie filmy skutecznie utrwaliły ten obraz sztucznej inteligencji.

Dla branży AI, która mogłaby wygenerować ponad 1 bilion USD w tym roku i prawie 4 biliony USD do 2022 r., wszelkie wątpliwości natury etycznej mogą mieć znaczące konsekwencje.

Sztuczna inteligencja jest modnym słowem, które jest często nadużywane w świecie biznesu i w mediach, ale już ma wymierne efekty w wielu branżach, szczególnie tych, które w dużym stopniu polegają na znaczącej ilości pracy ludzkiej.

W związku z tym, że AI coraz bardziej dojrzewa, a firmy wciąż zwiększają inwestycje w nią, niektórzy obawiają się, że zbyt mało uwagi poświęca się szerszym społecznym i moralnym skutkom tej technologii.

CNBC rozmawiało z kilkoma ekspertami, by się dowiedzieć, co uważają za 5 najbardziej przerażających potencjalnych scenariuszy dla AI.

 

Masowe bezrobocie

Powszechną obawę, zarówno wśród analityków, jak i pracowników wzbudza prawdopodobieństwo, że AI zaowocuje masowym globalnym bezrobociem, gdyż praca stanie się zautomatyzowana i praca ludzka nie będzie już dłużej potrzebna.

Alan Bundy – profesor informatyki Uniwersytetu w Edynburgu powiedział: „Utrata pracy jest prawdopodobnie największym zmartwieniem”. Według niego utrata miejsc pracy jest główną przyczyną wzrostu populizmu na świecie. Jako przykłady podaje wybór Donalda Trumpa na prezydenta i decyzję Wielkiej Brytanii, by wystąpić z Unii Europejskiej. Jego zdaniem zapotrzebowanie na wąskie specjalizacje nie będzie w stanie zastąpić utraconych miejsc pracy.

Zwolennicy AI uważają, że ta technologia doprowadzi do utworzenia nowych miejsc pracy. Wzrośnie zapotrzebowanie na inżynierów i innych specjalistów mogących przyczynić się do rozwoju tej dziedziny. Pozostali ludzie również będą musieli jej używać w celu wykonywania nowych funkcji w swych codziennych obowiązkach.

Firma badawcza Gartner przewiduje, że AI utworzy 2,3 mln miejsc pracy i wyeliminuje 1,8 mln, co daje faktycznie wzrost miejsc pracy tylko o 500 tysięcy do 2020 r. Nie zmienia to faktu, że wielu ludzi na całym świecie straci pracę.

Często przytacza się opracowanie Uniwersytetu w Oxfordzie z 2013 r., które wskazuje, że najbardziej narażeni na utratę pracy są maklerzy, pracownicy banków, pracownicy firm ubezpieczeniowych i osoby zajmujące się rozliczeniami podatkowymi. Są to zawody, bez których do tej pory trudno było wyobrazić sobie branżę finansową.

W pewnym stopniu można zminimalizować szkody na rynku pracy, spowodowane przez AI, poprzez podnoszenie kwalifikacji i tworzenie nowych miejsc pracy, a nawet wprowadzenie uniwersalnego dochodu podstawowego. Mimo tego jest jasne, że problemy spowodowane utratą miejsc pracy wkrótce nie znikną.

 

Wojna

Pojawienie się tzw. robotów – zabójców i innych zastosowań AI w działaniach militarnych zmartwiło wielu ekspertów, że ta technologia może w końcu zaowocować wojną.

CEO Tesli – Elon Musk, znany ze swoich poglądów na sztuczną inteligencję, ostrzegł w zeszłym roku, że ta technologia zaowocuje III wojną światową. Pomimo, że Elon Musk jest znany ze swej skłonności do przesady, jego komentarz pobudził ekspertów do refleksji. Wielu analityków i działaczy przyznaje, że rozwój śmiercionośnej broni autonomicznej i wykorzystanie AI w podejmowaniu decyzji militarnych tworzy wiele dylematów etycznych i otwiera możliwość wojen wspieranych przez AI lub nawet przez nią prowadzonych.

Istnieje grupa organizacji pozarządowych, których celem jest walka z takimi rozwiązaniami. Przykładem jest założona w 2013 r. „The Campaign to Stop Killer Robots”.

Frank van Harmelen – badacz AI Vrije Universiteit Amsterdam stwierdził, że pomimo, że nigdy nie uważał, żeby słowo „przerażające” trafnie opisywało AI, to użycie tej broni powinno jednak przerazić każdego.

Harmelen powiedział: „Jedynym obszarem, gdzie myślę, że słowo „przerażające” naprawdę pasuje, są systemy broni autonomicznej – systemy, które mogą, ale nie muszą przypominać robotów. Każdy system komputerowy, który automatycznie podejmuje decyzje o kwestiach życia i śmierci, np. przez uruchomienie pocisku jest naprawdę przerażającą ideą.”

Amerykańska Rand Corporation zajmująca się obronnością, ostrzegła  w swym opracowaniu, że wykorzystanie AI w zastosowaniach militarnych może doprowadzić do wojny nuklearnej przed 2040 r.

Podkreśla się możliwość popełnienia błędu w analizach przez takie systemy, co może doprowadzić rządy państw do podejmowania pochopnych i potencjalnie katastrofalnych decyzji. Te obawy mają swe źródło w incydencie, który miał miejsce w 1983 r. Rosyjskie komputery błędnie ostrzegły o wystrzeleniu przez USA rakiet nuklearnych. Radziecki oficer Stanisław Pietrow zapobiegł wówczas wojnie, analizując sytuację i ignorując błędny sygnał.

 

Robo-lekarze

Większość ekspertów jest zgodna co do korzyści, których AI dostarczy branży medycznej, takich jak diagnoza chorób na wczesnym etapie i przyspieszenie rozwoju służby zdrowia. Wielu lekarzy i naukowców obawia się jednak, że postęp w tym kierunku może być zbyt szybki.

Główną obawę wśród naukowców wzbudzają wygórowane oczekiwania ludzi względem AI, którzy myślą, że może ona stanowić rodzaj inteligencji ogólnej, jaką posiada człowiek do rozwiązywania szerokiej gamy problemów.

Bundy z Uniwersytetu w Edynburgu podkreśla, że AI odniosła sukces w bardzo wąskim zakresie zastosowań. Według niego wygórowane oczekiwania względem tej technologii mogą mieć potencjalnie tragiczne konsekwencje dla takiej właśnie dziedziny, jak opieka zdrowotna. Podał przykład rzadkich problemów zdrowotnych, przy których aplikacje do diagnozy medycznej się nie sprawdzają i mogą mieć fatalne skutki dla pacjentów.

W ostatnim czasie opublikowano dane wskazujące na to, że superkomputer Watson firmy IBM stosowany w leczeniu onkologicznym miał wiele „niebezpiecznych i niepoprawnych” zaleceń dotyczących leczenia raka. Według raportu oprogramowanie w trakcie uczenia się miało do czynienia z małą liczbą przypadków i raczej hipotetycznymi scenariuszami niż z rzeczywistymi danymi pacjentów.

Kolejnym problemem, na który zwraca się uwagę, jest ogromna ilość danych zbieranych i dzielonych przez komputery. Wiąże się to z zagrożeniem prywatności pacjentów. Big data to obecnie wielomiliardowy przemysł obejmujący wszystkie branże, począwszy od handlu, a skończywszy na opiece szpitalnej. Ilość osobistych informacji zbieranych przez urządzenia rozrosła się do niewyobrażalnych rozmiarów. Istnieją obawy, jak te informacje są przechowywane i komu są udostępniane.

Znaną spółką, która zajmuje się rozwojem AI w służbie zdrowia jest DeepMind.

 

Masowa inwigilacja

Eksperci obawiają się także tego, że AI może być użyta do masowej inwigilacji społeczeństwa. W Chinach ta obawa staje się rzeczywistością. To światowe supermocarstwo jest znane ze społecznego autorytaryzmu. Krytycy twierdzą, że dążenie tego kraju ku totalnej inwigilacji jest niczym spełnienie orwellowskiego koszmaru.

Jest to jedyny kraj na świecie stosujący System Kredytu Społecznego. Śledzi on aktywność obywateli i na jej podstawie przyznaje im punkty, które determinują, do jakich usług mogą mieć dostęp, a do których mają go zablokowany, począwszy od lotów samolotem, wyboru szkoły dla dzieci, a skończywszy na niektórych serwisach randkowych.

W niektórych chińskich prowincjach wykorzystuje się technologię rozpoznawania twarzy w połączeniu ze sztuczną inteligencją w celu ograniczenia przestępczości. Wiodącą spółką w tym zakresie jest Sense Time. Ten start-up z branży AI wycenia się na 4,5 mld USD. Sense Time twierdzi, że dzięki jej technologii zidentyfikowano ponad 2000 osób podejrzanych o przestępstwa od 2017 r.

Chiny, które chcą stać się światowym liderem w zakresie AI do 2030 r., zamierzają zainwestować w ten sektor około 146,6 mld USD.

 

Dyskryminacja

Niektórzy być może pamiętają sprawę Tay – chatbota stworzonego przez Microsoft, który spowodował zamieszanie 2 lata temu. Botowi przydzielono konto na Twitterze. Poprzez interakcje z ludźmi miał stać się bardziej ludzki. Odpowiadał na pytania użytkowników, wysyłał wiadomości i zdjęcia. Naśladując wypowiedzi innych użytkowników, szybko nauczył się wysyłać rasistowskie treści. W efekcie Microsoft musiał usunąć konto Tay.

Pomimo, że ten incydent był uważany za dość zabawny, spowodował poważną debatę, dotyczącą możliwych konsekwencji AI.

Dyskryminacja jest jedną z wielu możliwych nieoczekiwanych konsekwencji, których można się spodziewać po tej technologii. Niektórzy eksperci uważają, że największy problem stanowi uczynienie z AI obiektywnego, racjonalnego „myśliciela” wolnego od uprzedzeń rasowych i płciowych.

Naukowcy mają o czym myśleć. Okazało się bowiem, że technologia rozpoznawania twarzy lepiej sobie radzi w stosunku do osób rasy białej niż czarnej. Prowadzone są także badania, jak systemy przetwarzania języka AI mogą ujawniać uprzedzenia, wiążąc pewne cechy płci i ras ze stereotypami. IBM ma nawet w swoim zespole badaczy zajmujących się dyskryminacją w AI.

 

Podsumowanie

Sztuczna inteligencja niewątpliwie będzie odgrywać coraz większą rolę. Jednak tę technologię tworzą ludzie i to od nich zależy, jak zostanie ona wykorzystana. Jak do tej pory wiele rozwiązań nie jest doskonałych, a czynnik ludzki jest niezastąpiony. Sztuczna inteligencja może usprawnić pewne działania, ale podejmowanie najważniejszych decyzji powinno należeć do człowieka.

 

Magazyn: Rafał Zaorski - Zarobił 2,5 mln w 24h

Rafał Zaorski - Zarobił 2,5 mln w 24h
Jak stać się dobrym spekulantem - szczery wywiad z Rafałem Zaorskim Historia katastrofy większej niż Amber Gold Czy dało się zarobić na debiucie spółki Ferrari  Dlaczego rynek gamingowy jest przegrzany Czy Blockchain traci impet
Czytaj

 


Tatiana Pasich

Absolwentka psychologii oraz finansów i rachunkowości, inwestorka. Lokuje kapitał głównie w małe spółki z dużym potencjałem wzrostu.

Przejdź do artykułów autora
Zamknij

Koszyk