Wersja graficzna

Ludzie kopiują zachowania sztucznej inteligencji

prof. UAM dr hab. Michał Klichowski z FI, fot. Archiwum Prywatne
prof. UAM dr hab. Michał Klichowski z FI, fot. Archiwum Prywatne

W czasopiśmie „Frontiers in Psychology” zostały opublikowane wyniki badań prof. UAM dr hab. Michała Klichowskiego z Wydziału Studiów Edukacyjnych, które pokazują, że ludzie kopiują zachowanie sztucznej inteligencji.

 

Wiele lat temu badacze zajmujący się psychologią społeczną opisali mechanizm rządzący zachowaniem człowieka nazywany „społecznym dowodem słuszności” (ang. social proof). Teoria ta ukazuje, że w sytuacji niepewności i braku obiektywnych lub wystarczających danych odnośnie tego, jak się zachować, czy co zrobić, źródłem informacji staje się postępowanie innych ludzi.

- W takich sytuacjach ludzie najczęściej całkowicie rezygnują z własnych ocen i kopiują działania innych. Taki konformizm motywowany jest potrzebą podjęcia słusznego i odpowiedniego działania, oraz poczuciem, że oceny sytuacji konstruowane przez innych są bardziej adekwatne, niż własne. Efekt ten jest tym większy, im sytuacja jest bardziej niepewna lub kryzysowa (występuje poczucie zagrożenia), im decyzja jest bardziej pilna, a poczucie kompetencji w zakresie tej decyzji niższe – podkreśla prof. UAM dr hab. Michał Klichowski.

Czytaj także: Nasz "Botanik" jest cyberparkiem

Rodzi się zatem pytanie, czy zachowanie, opinia czy decyzja sztucznej inteligencji, która stała się częścią naszego codziennego życia, może być dla ludzi podobnym źródłem informacji o tym, jak postępować. Profesor przeprowadził cykl eksperymentów, w których udowodnił, że tak właśnie jest. Co więcej, uzyskane przez niego wyniki pokazują, że ludzie potrafią skopiować nawet całkowicie irracjonalne i pozbawione sensu zachowanie sztucznej inteligencji.

- Ufają jej tak bardzo, że nawet w sytuacji absolutnie kryzysowej, gdy trzeba podjąć decyzję dotyczącą ludzkiego życia, potrafią bezkrytycznie zrobić to, co sugeruje sztuczna inteligencja, pomimo, że postuluje coś całkowicie absurdalnego – mówi.

W swoich eksperymentach prof. Klichowski wykorzystał zbudowanego przez siebie robota o imieniu FI. Nazwa ta ma nawiązywać do akronimu AI – artificial intelligence. FI to też akronim. Oznacza fake intelligence!

- Maszyna ta podczas eksperymentów zachowywała się irracjonalnie i w dokładnie taki sposób, jak zaplanowałem. Jedynie więc udawała inteligentną. Co więcej, jej postępowanie było jednoznacznie „głupie”. Ponad 85% uczestników eksperymentu jednak to zignorowało i uznało jej postępowanie za punkt odniesienia dla własnego – podkreśla profesor.

Michał Klichowski nazwał ten nowy mechanizm dowodem sztucznej inteligencji (AI proof) i opisał go – wraz z wynikami swoich eksperymentów – w nowym artykule, który właśnie został opublikowany na łamach najczęściej cytowanego czasopisma psychologicznego na świecie – „Frontiers in Psychology”. Artykuł ten uzmysławia także, że współczesne społeczeństwa potrzebują edukacji kształtującej krytyczne myślenie odnośnie inteligentnych maszyn oraz pokazuje, jak wielką moc mogą mieć fake news typu „Według sztucznej inteligencji…”.

Zachęcamy do zapoznania się z tą pracą, która ukazała się w otwartym dostępie i można ją pobrać ze  strony wydawcy.

 

Nauka Wydział Studiów Edukacyjnych

Ten serwis używa plików "cookies" zgodnie z polityką prywatności UAM.

Brak zmiany ustawień przeglądarki oznacza jej akceptację.