Wersja kontrastowa

Dokąd zaprowadzi nas Sztuczna Inteligencja?

Fot. Franciszek Vetulani
Fot. Franciszek Vetulani
Prof. zw dr. hab. Zygmunt Vetulani

W dniu 16 kwietnia 2018 odbyła się publiczna VIII Debata Akademicka p.t. „Dokąd zaprowadzi nas sztuczna inteligencja?” zorganizowana przez Uniwersytet im Adama Mickiewicza oraz Uniwersytet Ekonomiczny w Poznaniu.  
Wystąpienia panelistów zostały zorganizowane w dwie tury, w których mieli oni odnieść się do szergu pytań. Trzecia tura stanowiła dyskusję z udziałem audytorium.

Pytania I tury: Sztuczna Inteligencja - co kryje się pod tym pojęciem i jaki jest jego zakres? Tajemna wiedza, którą posiadła niewielka grupa uczonych i „straszy” nią społeczeństwa? A może jest to wiedza, która bardzo szybko stanie się udziałem nas wszystkich? Przy tak złożonej problematyce usystematyzowanie pojęć wydaje się nieodzowne. Czy mówiąc i pisząc o Sztucznej Inteligencji wszyscy myślimy o tym samym?

Pytania II tury: Czytając niektóre opracowania trzeba postawić pytanie: co dalej i dokąd zmierza świat? Sztuczna Inteligencja niesie za sobą nie tylko korzyści, ale również obawy o rolę i miejsce człowieka w kontakcie z przyrodą, nauką oraz techniką. Czy już powinniśmy bać się skutków rozwiązań, które przyniosą nam najbliższe lata, szczególnie gdy tak mało wiemy o Sztucznej Inteligencji?
Zaproszenie do debaty przyjąłem z radością, słusznie spodziewając się, że będzie pretekstem do uporządkowania pewnych przemyśleń. Pierwsze z nich dotyczy tytułowego terminu „sztuczna inteligencja”.

Terminu „sztuczna inteligencja” używam w jednym z dwóch znaczeń.
a) Sztuczna Inteligencja to dyscyplina stawiająca sobie za cel tworzenie artefaktów zaopatrzonych w funkcjonalności i kompetencje intelektualne uważane za typowe dla człowieka (a ogólniej dla istot obdarzonych inteligencją). W tym znaczeniu Sztuczna Inteligencja nie jest nauką (nie ma bowiem na celu odkrycia prawdy) ani wiedzą (bo niczego nie mówi o świecie), lecz dyscypliną inżynieryjną stawiającą pytania naukowe w kwestiach ważnych dla inżynierów. W węższym sensie Sztuczną Inteligencję można uważać za dział inżynierii służący do modelowania informatycznego zachowań określanych mianem „inteligentne”.
b) W drugim ze znaczeń używanym w określeniach typu „robot obdarzony sztuczną inteligencją” termin ten oznacza zbiór narzędzi, przede wszystkim software (programy, bazy wiedzy, modele komputerowe, interfejsy itp.) służący do realizacji artefaktów, o których mowa w punkcie a) – powyżej.
W miarę stopniowego (już zresztą rozpoczętego) materializowania się wizji świata złożonego – między innymi – z „artefaktów obdarzonych (sztuczną) inteligencją”, termin „sztuczna inteligencja” będzie mógł być zasadnie stosowany jako nazwa nauki o tym świecie. (Jednak jeszcze nie teraz).
Za ilustrację wizji świata nasyconego technologią informatyczną (elementami „sztucznej inteligencji” w znaczeniu b) proponuję uznać 10-punktową prognozę technologiczną sporządzoną na rok 2050 przez wybitnego informatyka australijskiego, specjalistę z zakresu Sztucznej Inteligencji, prof. Toby Walsh’a  (Sydney, University of New South Wales), w formie następujących dziesięciu obrazów.  

Czytaj też: Humanistyka kontra badania kliniczne

Obraz 1. Nie będziemy mogli prowadzić samochodów („You are banned from driving”)
Po prostu nie będzie takiej potrzeby, zaniknie infrastruktura zorientowana na potrzeby indywidualnego kierowcy, a w końcu zaniknie powszechna dziś umiejętność prowadzenia pojazdu. Podobnie jak w ciągu 50 lat XX wieku prawie całkowicie zagubiła się umiejętność jazdy konnej w Europie. Już teraz coraz częściej mieszkańcy wielkich aglomeracji, takich jak np. Paryż, rezygnują z własnych samochodów. W końcu, ze względu na bezpieczeństwo, indywidualne poruszanie się samochodami zostanie zakazane, a przemieszczanie się osób zapewni globalna infrastruktura komunikacyjna.
Już obecnie wykorzystywane są technologie pozwalające w określonych przypadkach na przekazywanie sterowania urządzeniom. Przykładem niech będzie wykorzystywanie od dawna pilota automatycznego w ruchu lotniczym (za protoplastę dzisiejszych autopilotów lotniczych uchodzi urządzenie wykorzystujące żyroskop wyprodukowane w roku 1912(sic!) przez Sperry Corporation; z kolei w roku 1947 samolot US Air Force Douglas C-54 Skymaster odbył samodzielny lot łącznie ze startem i lądowaniem). Stopniowo „wyjeżdżają z laboratoriów” kołowe pojazdy autonomiczne. Testowane są legislacje w zakresie zarządzania ruchem drogowym, na razie w wydzielonych tytułem eksperymentu regionach. Pociągi bezzałogowe obsługują np. metro w Kopenhadze czy sieć kolei miejskiej w Tajpej.

Obraz 2. Będziemy mieli codzienny kontakt z lekarzem („You see the doctor daily”)
No może nie dosłownie, lecz za pośrednictwem sprzętu osobistego (np. typu dzisiejszego smartfona). Umożliwi on, dzięki odpowiednim urządzeniom peryferyjnym, bezustanne (24/24), nieodczuwalne dla człowieka, monitorowanie stanu zdrowia, kondycji, samopoczucia itp. Software będzie miał dostęp do kodu genetycznego pacjenta oraz mapy jego podatności na choroby i zagrożenia. Cały, uzyskany z otoczenia technologicznego i wstępnie przetworzony przez system, obraz pacjenta będzie przekazywany do lekarza osobistego (chyba jednak wciąż będącego człowiekiem).
Elementy tej technologii oraz związanej z nią pragmatyki medycznej już istnieją (np. holtery czy urządzenia wspomagające trening wytrzymałościowy i kontrolę wydolności sportowców pozwalające na ciągły monitoring bez istotnego wpływu na bieżącą aktywność).

Obraz 3. Marylin Monroe wraca do filmu („Marilyn Monroe is back in the movies”)
Walsh prognozuje rewolucję mediów rozrywkowych poprzez wprowadzenie interaktywnych awatarów i zanurzenie widza w rozszerzonej rzeczywistości, gdzie będzie on miał okazję pogawędzić np. z Marylin Monroe. Przestrzega on przy tym przed możliwymi uzależnieniami i socjopatiami z nimi związanymi. Przewiduje reakcje społeczne żądające delegalizacji w świecie wirtualnym „zaludnionym” przez roboty antropoidalne zachowań nielegalnych w realu.  
Dodajmy, że wersje literackie robotów antropoidalnych znacznie wyprzedziły rozwój technologii umożliwiających ich realizację. Pierwszym wielkim dziełem teatralnym w tym zakresie była sztuka R.U.R  którą w roku 1920 wystawił w Pradze Karel Čapek, któremu przy okazji zawdzięczamy słowo „robot”. W klasyce polskiej (i jednocześnie światowej) temat problemów styku człowieka z maszyną–robotem ze zdolnością samodzielnego myślenia podjął Stanisław Lem w tomie opowiadań „Opowieści o pilocie Pirxie” (1968). Z kolei w roku 1982 furorę zrobił kultowy film „Łowcy androidów” Redley’a Scott’a z Harrisonem Fordem w roli głównej.
Zauważmy, że równolegle do mocnego wkroczenia technologii sztucznej inteligencji do domeny rozrywki, idea wykorzystania rzeczywistości wirtualnej oraz rzeczywistości rozszerzonej z funkcjonującymi w niej robotami humanoidalnymi opuściła sektor rozrywki i zaczęła się realizować w aplikacjach użytkowych. Za przykład może posłużyć obszar polityki socjalnej. Zaawansowane prace technologiczne w zakresie robotów socjalnych wyposażonych w sztuczną inteligencję (początkowo materialnych potem też wirtualnych) prowadzone są od lat 1990. W XXI wieku prace te nabrały szerokiego rozmachu w Japonii (np. Hiroshi Ishiguro), gdzie z antropoidalnymi robotami wielu badaczy wiąże nadzieje na rozwiązanie szeregu problemów z zakresu opieki socjalnej w starzejącym się społeczeństwie japońskim.

Obraz 4. Komputer Cię zatrudni i wyrzuci z pracy („A computer hires and fires you”)
Walsh zauważa, że systemy AI będą w coraz większym stopniu przejmowały zarządzanie czynnościami zawodowymi, rytmem i organizacją pracy, monitorowaniem i oceną wydolności pracownika i stawia niejako retoryczne pytanie „czy możemy powierzyć podejmowanie decyzji o zatrudnieniu, a przede wszystkim o zwolnieniu z pracy, komputerom?” („should we hand over decisions like hiring and especially firing to a computer?”).
Pytanie jest retoryczne o tyle, o ile oczywista jest odpowiedź negatywna większości zainteresowanych (a zainteresowanymi są potencjalnie wszyscy). Nie jest jednak rzeczą oczywistą i prostą implementacja ostatecznej i znaczącej kontroli człowieka w przypadku nadania wysokiej autonomii systemom sterującym.

5. Porozmawiasz ze swoim pokojem („You talk to rooms”)
Człowiek będzie ulegał przemożnej pokusie, żeby wchodząc do swego pokoju powiedzieć „zapal światło” czy skierować do telewizora pytanie „kto wygrał?”, mając na myśli właśnie zakończony mecz piłkarski. Internet of Things – pisze Walsh – wyeliminuje wklepywanie tekstu na rzecz pytań zadawanych głosem. Zapewne mało ludzi oprze się takim pokusom. Dodajmy, że wszystkie niezbędne elementy technologii potrzebne do realizacji tej wizji są dostępne i zrealizuje się ona powszechnie znacznie wcześniej niż w roku 2050. Wspomnę tylko, że już w latach 1990 do budynku jednego z czołowych laboratoriów informatycznych we Francji (LIMS/Orsay) wchodziłem przy pomocy magicznego hasła w stylu „Sezamie otwórz się” wypowiadanego w kierunku drzwi. System zaimplementowali studenci tegoż laboratorium.

6. Robot okrada bank („A robot robs a bank”)
Kolejny element wizji, jak będzie wyglądał świat za nieco ponad 20 lat odnosi się do cyber-przestępczości. Wobec wszechobecności technologii informatycznej (w szczególności sieciowej) Walsh zwraca uwagę na plagę złośliwego i destrukcyjnego oprogramowania z jednej strony, a przestępstw wyłudzania internetowego, z drugiej. Coraz powszechniejsze uprawianie na wielką skalę piractwa komputerowego przez włamywanie się do systemów może grozić destabilizacją gospodarczą (w szczególności bankową) czy polityczną (np. wyborczą) na skalę państw lub wręcz na skalę globalną. Jako przykład możliwego impaktu przestępczości sieciowej tego typu Walsh wskazuje reakcję światowej opinii publicznej na domniemane rosyjskie ataki hakerskie celem uzyskania wpływu na wybory prezydenckie w USA. Wg Walsha należy się spodziewać, że zaawansowane techniki ochrony przed cyber-atakami wykorzystujące technologie AI mogą z czasem zostać zastosowane do przeprowadzania ataków omijających te techniki. W konsekwencji do przeciwdziałania kryminalnym systemom AI trzba będzie przeciwstawić jeszcze doskonalsze systemy AI, nakręcając tym samym spiralę rywalizacji pomiędzy działaniami kryminalnymi a obroną przed nimi, przy czym obie strony będą starały się wykorzystać najnowsze osiągnięcia w zakresie AI.

7. Piłkarze będą przegrywać z imitującymi ich drużynami autonomicznych robotów („World soccer champions lose to a robot team”)
Walsh spodziewa się, że drużyny antropoidalnych robotów będą systematycznie wygrywać rywalizację piłkarską z ludźmi. Prognoza ta jest całkowicie uzasadniona. W rzeczy samej, prace w tym kierunku zainicjowali Japończycy już ponad 20 lat temu. Z ich inicjatywy (Hiroaki Kitano) rozpoczęła się rywalizacja zespołów informatycznch mająca za perspektywiczny cel stworzenie – do roku 2050 – drużyny robotów antropoidanych wygrywającą mecz o mistrzostwo świata. Cykl zawodów w konkurencji robotów rzeczywistych bądź wirtualnych pod nazwą RoboCup został zainaugurowany w roku 1997 i jest kontynuowany do chwili obecnej. Drugie zawody z tego cyklu były afiliowane przy mistrzostwach świata w piłce nożnej w Paryżu w roku 1998. Wyzwanie okazało się stymulujące dla badań podstawowych w różnych działach informatyki. Prace (co prawda przyczynkowe) prowadzone były także w UAM i PP.

8. Pojazdy-duchy zapełnią planetę („Ghost ships, planes and trains cross the globe”)
Ta obserwacja jest nawiązaniem do obrazu pierwszego: autonomiczne samochody, statki powietrzne, pociągi staną się regułą, a nie – jak obecnie – pionierskim wyjątkiem. W tym zakresie Walsh prognozuje, że zapewne najdłużej ręcznie sterowane pozostaną samoloty, ale ostatecznie „po kilku dekadach bezpiecznych (bezzałogowych) lotów towarowych rozpocznie się debata, czy samoloty posażerskie nadal winny być pilotowane przez ludzi”.  Ta deklaratywna ostrożność wynika zapewne z emocjonalnego postrzegania wypadków lotniczych kończących się z reguły fatalnie dla wszystkich uczestników. Tym niemniej idea automatycznego pilota jest od dawna stosowana (porównaj komentarz do obrazu pierwszego). Biorąc pod uwagę same tylko aspekty technologiczne, należłoby się spodziewać znacznie szybszych zmian niż przewiduje Walsh (2050). Ostożność prognozowania postępu w powszechnym dostępie w zakresie mobilności wynika nie tyle z przeszkód natury technicznej, co psychologicznej, a mianowicie z oceny ryzyka dla beneficjentów technologii.

9. Dziennik telewizyjny powstaje bez udziału człowieka („TV news is made without humans”)
Jak trafnie twierdzi Walsh, w zasadzie wszystkie elementy składowe do urzeczywistnienia takiego projektu są dostępne, a eksperymenty dotyczące automatycznego relacjonowania zdarzeń były już prowadzone (np. w zakresie zdarzeń sportowych w challange’u RoboCup). Dostrzega on jednak problemy etyczne związanie z opiniotwórczym charakterem mass mediów i co za tym idzie z otwartym polem do nadużyć (brak łatwej do zidentyfikowania odpowiedzialności indywidualnej za przekaz, a w szczególności za jego błędy, w tym krytyczne). Zachodzi też ryzyko utraty kontroli nad informacją na rzecz algorytmów (i ich trudnych do identyfikacji twórców i programistów). Ta ostatnia okoliczność stwarza pole do nadużyć i ich niemożliwych do przewidzenia kosztów.

10. Człowiek nadal żyje po śmierci („Humans live on after death”)
Walsh przewiduje, że człowiek, niezależnie od poglądów religijnych, będzie chciał wziąć w swoje ręce własne życie po śmierci w formie, którą da mu technologia. „Będzie rzeczą powszechną pozostawienie po swojej śmierci chatbota, który będzie mówił jak Ty, będzie znał historię Twojego życia i pocieszy Twoją rodzinę po Twej śmierci”.  Nie trudno zauważyć, że jest to sposób zapewnienia sobie nieśmiertelności, które to zapewnienie wiecznego życia po śmierci ongiś przybierało inne, pozareligijne, formy, np. pamiętnikarstwa. Niezależnie od pośmiertnego wykorzystania zaopatrzonych w wybrane formy sztucznej inteligencji własnych cyfrowych portretów, wg. Walsha, tego typu cyfrowe interaktywne artefakty będą wykorzystywane już za życia portretowanych, przede wszystkim przez celebrytów, a ogólniej przez osoby publiczne.

* * *

W komentarzu do zaprezentowanej w formie powyższych 10-ciu obrazów wizji nieodległej przyszłości Toby Walsh przewiduje, że rozliczne choć łatwe do zidentyfikowania kwestie etyczne – antycypowane już w dziełach science fiction (jak np. film „Blade Runner”, 2017) – wywołają w przyszłości ożywione dyskusje, w których pojawią się pytania w rodzaju: „Co będziesz mieć przeciwko botowi, który będzie twierdził, że jest Tobą? Czy masz prawo wiedzieć czy jesteś w interakcji z robotem czy z człowiekiem? Czy AI-botom należy zakazać udziału w debacie politycznej? Kto może wyłączyć Twojego bota po Twojej śmierci? Czy boty mają mieć prawo do zabierania głosu?”  I dodaje: „To będzie interesująca przyszłość.”

* * *

Możliwość komunikacji przy pomocy mowy z przedmiotami, które nas otaczają, w najmniejszym stopniu będzie obca dla małych dzieci czy też dla (nielicznych już na Ziemi) reliktowych społeczności animistycznych. Jest ona, jak się wydaje, atawistycznym reliktem wierzeń pierwotnych kultur, w których rozróżnienie pomiędzy światem bytów niebędących ludźmi a ludźmi nie było ostre (jako, że wszystkie byty posiadają duszę). Dobrym przykładem literackim „naturalnej” komunikacji pomiędzy człowiekiem a obiektami baśniowymi z jego otoczenia, jest słynne zdanie magiczne otwierające bramy skarbca „Sezamie otwórz się” w znanej opowieści z „Tysiąca i jednej nocy” o Ali Babie i 40 rozbójnikach. Rewolucja technologiczna, która rozgrywa się na naszych oczach jest bardzo głęboka, gdyż odnosi się do środowiska, w którym my – ludzie – żyjemy i polega na wysyceniu tego środowiska artefaktami – wytworami naszej działalności i oraz informacją w różnej postaci. W obecnej fazie tej rewolucji otaczające nas środowisko informacyjne stopniowo staje się interaktywne (bankomaty, maszyny sprzedające, internetowe punkty informacyjne lub serwisy), choć jeszcze nie „inteligentne” czy autonomiczne.
Bariera dostępności technologii rozpoznawania mowy pękła na naszych oczach dzięki powszechnej dostępności, np. w naszych smartfonach, aplikacji reagujących na komendę głosową. Technologia przetwarzania sygnału mowy na tekst w połączeniu z technologią rozumienia tekstu prowadzi do możliwości sterowania urządzeniami przy pomocy złożonych wypowiedzeń w języku naturalnym, zrozumiałych bez trudu dla człowieka, zaś zaprojektowanie i realizacja wielu takich urządzeń nie wykracza obecnie poza możliwości dobrze przygotowanego studenta informatyki. Ten stan rzeczy stwarza, że wizje do tej pory filozoficzne i literackie nabierają wiarygodności w oczach opinii publicznej.
Jednocześnie technologia rozumienia mowy, czyniąca na naszych oczach błyskawiczne postępy, stwarza olbrzymie nowe możliwości niepożądanego dostępu do prywatnej (do tej pory) sfery poglądów, opinii czy upodobań. Niezależnie od możliwości zaopatrzenia robota (czy awatara) w kompetencję językową nieodróżnialną od ludzkiej, technologia rozumienia mowy stwarza obszerne pole do profilowania i inwigilacji osób dla celów komercyjnych, marketingowych czy politycznych. Ostatnio rozgłosu nabrała afera firmy Cambridge Analitica, która dotknęła 87 milionów ludzi, których prywatne czaty realizowane na Facebooku były poddawane przetwarzaniu w celu profilowania i prognozowania zachowań wyborczych. W tym ostatnim przypadku karierę robią spekulacje na temat domniemanego zmanipulowania wyborów prezydenta Trumpa poprzez tworzenie modeli upodobań politycznych dla wybranych grup wyborców. W kontekście możliwości tkwiących w technologiach AI dotyczących rozumienia mowy ludzkiej Walsh ostrzega przed zagrożeniami dla prywatności, rożnorodności i demokracji.  

* * *

Zasadnicze pytanie, które przewijało się przez debatę było „czy należy się tego wszystkiego bać?”. Pytanie to – powszechnie zadawane wobec wspomnianych powyżej coraz lepiej widocznych zmian w otoczeniu człowieka – jest tej samej natury co pytanie o to „czy należy bać się ognia”. Tej samej natury będzie moja odpowiedź: nie, nie należy bać się technologii, lecz człowieka, który może z niej zrobić dowolny użytek. Chyba, że ...

* * *

... chyba, że technologie sztucznej inteligencji umożliwią skonstruowanie robota, który będzie obdarzony świadomością swojego istnienia, instynktem samozachowawczym i wolą zadośćuczenienia temu instynktowi oraz wiedzą porównywalną lub większą w stosunku do wiedzy człowieka. Zauważmy, że warunek sformułowany w poprzednim zdaniu odwołuje się do pojęć, które mają dla nas sens, gdy odnosimy je do ludzi (świadomość, instynkt samozachowawczy, wiedza) a nie do artefaktów. Należy je zatem uważać za pewien skrót retoryczny w stosunku do precyzyjnego sformułowania, które winno brzmieć: „technologie sztucznej inteligencji umożliwią skonstruowanie robota, który będzie zachowywał się tak, jak zachowywałby się człowiek obdarzony świadomością swojego istnienia, instynktem samozachowawczym i wolą podporządkowania się temu instynktowi oraz odpowiednią wiedzą o świecie, a ponadto byłby w decyzjach i działaniach autonomiczny wobec człowieka.
Tak, w takim wypadku człowiek powinien się bać, tak jak mógłby się obawiać innego, rywalizującego z nim i silniejszego fizycznie drugiego człowieka.

* * *

Na razie jednak sytuacja, jak ta opisana powyżej, pojawia się – na nasze szczęście – tylko w literaturze science fiction zainspirowanej atrakcyjnym dramaturgicznie wątkiem buntu robotów stanowiącego zagrożenie bytu naszego gatunku (na przyklad we wspomnianej powyżej sztuce R.U.R. Karela Čapka).

* * *

Pytania prof. Walsh’a stanowią wersję „light” pytań o charakterze etycznym związanych z technologiami AI prowadzącymi do powstania artefaktów spełniającycg warunki testu Turinga. Wersje „hard” będą dotyczyły autonomicznych robotów wojennych dysponujących sztucznym intelektem, świadomością istnienia instynktem samozachowadczym oraz wielką siłą rażenia.

* * *

Bardziej niż przytoczone we wstępie pytania postawione przez organizatorów debaty zainspirowały mnie niedawne wydarzenia, zresztą z tymi pytaniami korespondujące. Mam na myśli ostatnią inicjatywę, do której zostalem zaproszony przez prof. Toby Walsha. Był nią list otwarty do Profesora Sung-Chul Shin, prezydenta południowokoreańskiego uniwersytetu KAIST (Korea Advanced Institute of Science & Technology/Korea Płd.)  w związku z decyzją aktywnego włączenia się tej uczelni w globalny wyścig zbrojeń w zakresie broni autonomicznych wykorzystujących mechanizmy sztucznej inteligencji (a w szczególności zdolnych do rozwijania działań bojowych poza bieżącą kontrolą ze strony człowieka). W tym celu, 20 lutego 2018, KAIST wraz z Hanwaha Group, jednym z największych koncernów zbrojeniowych w Korei Południowej, powołał do życia Centrum Badań na Rzecz Konwergencji Obrony Narodowej i Sztucznej Inteligencj (Research Center for the Convergence of National Defense and Artificial Intelligence), którego zadanie zostało określone jako „rozwijanie technologii Sztucznej Inteligencji dla wykorzystania ich w uzbrojeniu wojskowym i włączenie się w globalne współzawodnictwo w rozwijaniu autonomicznych broni”. List ten został podpisany przez 57 naukowców z 30 krajów świata, w których prowadzi się poważne badania z zakresu sztucznej inteligencji. List nawołuje do całkowitego bojkotu przez środowisko naukowe wszelkich form współpracy z KAIST.
Znamienne dla stanowiska istotnej części elity naukowej, prowadzącej prace z zakresu sztucznej inteligencji, będą zacytowane poniżej dwa fragmenty z uzasadnienia deklaracji bojkotu.  „Bronie autonomiczne, raz zostaną wytworzone, będą stanowiły trzecią rewolucję w uzbrojeniu. Uczynią wojny szybszymi i na większą skalę niż kiedykolwiek w przeszłości. Uzyskają potencjał na to, by być instrumentem terroru. Despoci i terroryści będą mogli użyć ich przeciw niewinnej ludności bez jakichkolwiek etycznych ograniczeń. Raz otwarta puszka Pandory będzie trudna do zamknięcia. Podobnie jak to miało miejsce z oślepiającą bronią laserową, możemy po prostu zdecydować, aby broni tych nie rozwijać. Nalegamy na KAIST, aby poszedł tą drogą i w zamian podjął pracę nad wykorzystaniem Sztucznej Inteligencji do poprawy ludzkiego życia, a nie aby mu szkodzić.”
Formuła ogłoszenia bojkotu była następująca: „W chwili gdy Narody Zjednoczone dyskutują nad tym, jak powstrzymać zagrożenia dla bezpieczeństwa międzynarodowego ze strony broni autonomicznych, jest rzeczą godną pożałowania, że prestiżowe instytucje takie jak KAIST wydają się przyspieszać wyścig zbrojeń w kierunku rozwijania tych broni. Tym samym publicznie deklarujemy, że będziemy bojkotować wszystkie formy współpracy ze wszystkimi jednostkami KAIST aż do czasu, gdy Prezydent KAIST przedstawi zapewnienie, o którym słyszeliśmy, ale którego nie otrzymaliśmy, że Centrm nie będzie rozwijało autonomicznych broni pozostawionych poza istotną kontrolą ze strony człowieka. Przykładowo, nie będziemy wizytować KAIST, nie będziemy przyjmować gości z KAIST, a także współpracować z jakimikolwiek projektami, w których KAIST bierze udział.”
Należy odnotować, że odpowiedź adresata była natychmiastowa. Rektor KAIST zareagował następującą deklaracją: „Jako instytucja akademicka, w bardzo wysokim stopniu cenimy sobie prawa ludzkie i standardy etyczne (...) Raz jeszcze stwierdzam, że KAIST nie będzie prowadził żadnych badań skierowanych przeciwko ludzkiej godności włączając rozwój broni autonomicznych pozbawionych znaczącej kontroli ze strony człowieka.”
Zapewnienie to zostało potraktowane z uwagą przez sygnatariuszy listu i bojkot został odwołany. Tym niemniej nie ma wiadomości o ewentualnym zamknięciu powołanego już Centrum. Trwa jednocześnie debata na forum ONZ, zainicjowana przez ten i inne listy oraz petycje, która dotyczy ewentualnego zakazu badań i prac prowadzących do trzeciej wielkiej rewolucji w zakresie technologii wojennej, którą będzie wprowadzenie na arenę działań militarnych autonomicznych robotów wojennych zaopatrzonych w technologie sztucznej inteligencji.

Czy będzie skuteczna?

Zygmunt Vetulani

Poznań, dnia 16.04.2018
* * *

LIST OTWARY I LISTA SYGNATARIUSZY
Open Letter:
As researchers and engineers working on artificial intelligence and robotics, we are greatly concerned by the opening of a “Research Center for the Convergence of National Defense and Artificial Intelligence” at KAIST in collaboration with Hanwha Systems, South Korea’s leading arms company. It has been reported that the goals of this Center are to “develop artificial intelligence (AI) technologies to be applied to military weapons, joining the global competition to develop autonomous arms.”
At a time when the United Nations is discussing how to contain the threat posed to international security by autonomous weapons, it is regrettable that a prestigious institution like KAIST looks to accelerate the arms race to develop such weapons. We therefore publicly declare that we will boycott all collaborations with any part of KAIST until such time as the President of KAIST provides assurances, which we have sought but not received, that the Center will not develop autonomous weapons lacking meaningful human control. We will, for example, not visit KAIST, host visitors from KAIST, or contribute to any research project involving KAIST.
If developed, autonomous weapons will be the third revolution in warfare. They will permit war to be fought faster and at a scale greater than ever before. They have the potential to be weapons of terror. Despots and terrorists could use them against innocent populations, removing any ethical restraints. This Pandora’s box will be hard to close if it is opened. As with other technologies banned in the past like blinding lasers, we can simply decide not to develop them. We urge KAIST to follow this path, and work instead on uses of AI to improve and not harm human lives.
FULL LIST OF SIGNATORIES TO THE BOYCOTT
Alphabetically by country, then by family name.
1.    Prof. Toby Walsh, USNW Sydney, Australia.
2.    Prof. Mary-Anne Williams, University of Technology Sydney, Australia.
3.    Prof. Thomas Either, TU Wein, Austria.
4.    Prof. Paolo Petta, Austrian Research Institute for Artificial Intelligence, Austria.
5.    Prof. Maurice Bruynooghe, Katholieke Universiteit Leuven, Belgium.
6.    Prof. Marco Dorigo, Université Libre de Bruxelles, Belgium.
7.    Prof. Luc De Raedt, Katholieke Universiteit Leuven, Belgium.
8.    Prof. Andre C. P. L. F. de Carvalho, University of São Paulo, Brazil.
9.    Prof. Yoshua Bengio, University of Montreal, & scientific director of MILA, co-founder of Element AI, Canada.
10.    Prof. Geoffrey Hinton, University of Toronto, Canada.
11.    Prof. Kevin Leyton-Brown, University of British Columbia, Canada.
12.    Prof. Csaba Szepesvari, University of Alberta, Canada.
13.    Prof. Zhi-Hua Zhou,Nanjing University, China.
14.    Prof. Thomas Bolander, Danmarks Tekniske Universitet, Denmark.
15.    Prof. Malik Ghallab, LAAS-CNRS, France.
16.    Prof. Marie-Christine Rousset, University of Grenoble Alpes, France.
17.    Prof. Wolfram Burgard, University of Freiburg, Germany.
18.    Prof. Bernd Neumann, University of Hamburg, Germany.
19.    Prof. Bernhard Schölkopf, Director, Max Planck Institute for Intelligent Systems, Germany.
20.    Prof. Manolis Koubarakis, National and Kapodistrian University of Athens, Greece.
21.    Prof. Grigorios Tsoumakas, Aristotle University of Thessaloniki, Greece.
22.    Prof. Benjamin W. Wah, Provost, The Chinese University of Hong Kong, Hong Kong.
23.    Prof. Dit-Yan Yeung, Hong Kong University of Science and Technology, Hong Kong.
24.    Prof. Kristinn R. Thórisson, Managing Director, Icelandic Institute for Intelligent Machines, Iceland.
25.    Prof. Barry Smyth, University College Dublin, Ireland.
26.    Prof. Diego Calvanese, Free University of Bozen-Bolzano, Italy.
27.    Prof. Nicola Guarino, Italian National Research Council (CNR), Trento, Italy.
28.    Prof. Bruno Siciliano, University of Naples, Italy.
29.    Prof. Paolo Traverso, Director of FBK, IRST, Italy.
30.    Prof. Yoshihiko Nakamura, University of Tokyo, Japan.
31.    Prof. Imad H. Elhajj, American University of Beirut, Lebanon.
32.    Prof. Christoph Benzmüller, Université du Luxembourg, Luxembourg.
33.    Prof. Miguel Gonzalez-Mendoza, Tecnológico de Monterrey, Mexico.
34.    Prof. Raúl Monroy, Tecnológico de Monterrey, Mexico.
35.    Prof. Krzysztof R. Apt, Center Mathematics and Computer Science (CWI), Amsterdam, the Netherlands.
36.    Prof. Angat van den Bosch, Radboud University, the Netherlands.
37.    Prof. Bernhard Pfahringer, University of Waikato, New Zealand.
38.    Prof. Helge Langseth, Norwegian University of Science and Technology, Norway.
39.    Prof. Zygmunt Vetulani, Adam Mickiewicz University in Poznań, Poland.
40.    Prof. José Alferes, Universidade Nova de Lisboa, Portugal.
41.    Prof. Luis Moniz Pereira, Universidade Nova de Lisboa, Portugal.
42.    Prof. Ivan Bratko, University of Ljubljana, Slovenia.
43.    Prof. Matjaz Gams, Jozef Stefan Institute and National Council for Science, Slovenia.
44.    Prof. Hector Geffner, Universitat Pompeu Fabra, Spain.
45.    Prof. Ramon Lopez de Mantaras, Director, Artificial Intelligence Research Institute, Spain.
46.    Prof. Alessandro Saffiotti, Orebro University, Sweden.
47.    Prof. Boi Faltings, EPFL, Switzerland.
48.    Prof. Jürgen Schmidhuber, Scientific Director, Swiss AI Lab, Universià della Svizzera italiana, Switzerland.
49.    Prof. Chao-Lin Liu, National Chengchi University, Taiwan.
50.    Prof. J. Mark Bishop, Goldsmiths, University of London, UK.
51.    Prof. Zoubin Ghahramani, University of Cambridge, UK.
52.    Prof. Noel Sharkey, University of Sheffield, UK.
53.    Prof. Luchy Suchman, Lancaster University, UK.
54.    Prof. Marie des Jardins, University of Maryland, USA.
55.    Prof. Benjamin Kuipers, University of Michigan, USA.
56.    Prof. Stuart Russell, University of California, Berkeley, USA.
57.    Prof. Bart Selman, Cornell University, USA.

 

Nauka Wydział Matematyki i Informatyki

Ten serwis używa plików "cookies" zgodnie z polityką prywatności UAM.

Brak zmiany ustawień przeglądarki oznacza jej akceptację.