Wersja graficzna

Prof. Vetulani. Sztuczna inteligencja – groźba czy nadzieja?

Fot. A. Wykrota
Fot. A. Wykrota

Profesor Zygmunt Vetulani z Wydziału Matematyki i Informatyki UAM o tym,  czy należy bać się sztucznej inteligencji.

 

Pytanie tytułowe nie jest retoryczne, jeśli weźmiemy pod uwagę sukces społeczny i medialny idei, która kryje się za terminem „sztuczna inteligencja”. Wyobraźnia ludzka niemal zawsze wyprzedzała wielkie odkrycia i wynalazki. Rokujące sukces wizje i pomysły na stworzenie automatów o funkcjach intelektualnych porównywalnych do ludzkich musiały poczekać na pojawienie się komputerów. 

 

Ada Lovelace, pierwsza programistka nieistniejącego jeszcze, lecz już opisanego przez Charlesa Babbage’a komputera, twierdziła, że przyszłe komputery będą tworzyły dzieła malarskie i muzykę. Sto lat po jej pracach na konferencji w Dartmouth (1956), poświęconej wyjaśnieniu modnej w środowisku matematycznym idei myślących maszyn, matematyk John McCarthy zaproponował termin „sztuczna inteligencja” jako nazwę nowej dziedziny badań nad tymi cechami inteligencji, które będzie można symulować komputerowo. W literaturze naukowej pojawiały się następnie różne definicje tego pojęcia, aż do momentu, kiedy stało się ono pojęciem pospolitym, choć coraz mniej zrozumiałym i budzącym kontrowersje… 

 

Ja odnoszę termin „sztuczna inteligencja” do obszaru badań, których celem jest odpowiedź na pytanie, co należy zrobić, aby maszyny stały się zdolne do realizowania operacji myślowych do tej pory uważanych za specyficzne dla człowieka. Wśród pierwszych wyartykułowanych wyzwań dla sztucznej inteligencji było nadanie maszynom kompetencji w zakresie zachowań właściwych ludziom, takich jak myślenie, podejmowanie świadomych i kontrolowanych decyzji, rozwiązywanie problemów, doradzanie, rozumienie języka, komunikacja z człowiekiem w języku naturalnym itd., które potocznie uważa się za zachowania inteligentne. 

 

Czas pokazał, że można rozwijać różne wizje dotyczące rozwoju technologii sztucznej inteligencji – zarówno optymistyczne, jak i mroczne. 

 

Niesłychany rozwój mocy obliczeniowych na przestrzeni ponad 70 lat doprowadził do wzrostu oczekiwań co do wykorzystania technologii tam, gdzie możliwości ludzi wydają się ograniczone. Udaje się osiągnąć spektakularne efekty, jednak prawie zawsze pozostawiają one niedosyt, na przykład gdy okazuje się, że wygranie rywalizacji z człowiekiem w pojedynczych wyzwaniach, jak choćby gra w szachy czy go, bywa iluzją. W ostatnich dniach prasa donosiła, że program KataGo, uchodzący za najlepszy program komputerowy do gry w go, przegrał z „przeciętnym graczem”. Przedtem KataGo wygrał z arcymistrzem, Koreańczykiem Lee Se-dolem, który po porażce z maszyną uznał za właściwe zmienienie dotychczasowego zawodu profesjonalnego zawodnika go.

 

Możliwości obliczeniowe pierwszych generacji komputerów wdrożonych według pomysłów Babbage’a zdominowały wyścig technologiczny od końca II wojny światowej do teraz. Wśród groźnych doniesień, dotyczących aspektów technologii sztucznej inteligencji, była bulwersująca informacja o projekcie uruchomienia centrum badawczego AI and Weapons na południowokoreańskim uniwersytecie KAIST, którego celem było włączenie się w globalne współzawodnictwo w rozwijaniu autonomicznych robotów do celów militarnych. Reakcja środowisk inteligenckich i biznesowych przybrała formę protestu w postaci groźby całkowitego bojkotu uczelni w razie kontynuowania tak określonych badań. Fakt poruszenia tego przypadku na forum ONZ świadczy o tym, że do debaty publicznej weszła kwestia uznania za krytycznie niebezpieczne, na równi z bronią masowego rażenia, technologie wojenne wykorzystujące techniki sztucznej inteligencji wymykające się kontroli człowieka. 

 

Staje się rzeczą zrozumiałą, że – pod groźbą samozagłady o charakterze apokalipsy – ludzkości nie wolno przekroczyć progu, którym jest uzyskanie przez roboty wojenne autonomii decyzyjnej w połączeniu ze świadomością własnego istnienia i instynktem samozachowawczym. Tymczasem, na razie ogólnikowo, w niektórych miejscach na świecie rozważa się włączenie technik sztucznej inteligencji do oficjalnej doktryny wojennej…

 

Czy powinniśmy w świetle powyższych rozważań bać się sztucznej inteligencji? Wielokrotnie wyrażałem opinię, że zagrożenia nie stanowi technologia, lecz człowiek, który jest jej dysponentem. I ten pogląd podtrzymuję.

 

zob. też Prof. Igor Iatsunskyi.Energetyka wodorowa

 

 

 

 

 

 

Nauka Wydział Matematyki i Informatyki

Ten serwis używa plików "cookies" zgodnie z polityką prywatności UAM.

Brak zmiany ustawień przeglądarki oznacza jej akceptację.