Międzynarodowy zespół badaczy kierowany przez Macieja Behnkego z Wydziału Psychologii i Kognitywistyki, wykorzystując generatywną sztuczną inteligencję, opracował Library of AI-Generated Affective Images (LAI-GAI) — bibliotekę, która unowocześni przestarzałe archiwa bodźców i zastąpi je znacznie bardziej elastycznym, kulturowo adaptowalnym zestawem obrazów emocjonalnych.
Od lat psychologia emocji ma swoich stałych bohaterów: warczącego psa, uśmiechnięte niemowlę, rozbity samochód, talerz apetycznego jedzenia. Te obrazy od dekad wykonują cichą pracę w laboratoriach, pomagając badaczom wywoływać emocje. Osoba badana siada przed ekranem, pojawia się zdjęcie, a organizm — przynajmniej w założeniu — reaguje: odrobiną lęku, obrzydzenia albo rozbawienia.
Problem w tym, że te obrazy przestały być aktualne. Niektóre z najczęściej używanych zbiorów bodźców afektywnych powstały w zupełnie innej epoce medialnej, i czasem widać gołym okiem: w palecie kolorów, ubraniach czy technologii obecnej w tle. Bodziec, który ma wywołać strach, może przy okazji uruchamiać niezamierzoną podróż w czasie, a nawet uśmiech (tj. niezamierzoną reakcje afektywną). Jest też głębszy problem: obrazy emocjonalne mają różny efekt w zależności od kontekstu kulturowego. Scena odczytywana jako „rozbawienie” w jednej kulturze może być odbierana zupełnie inaczej w innej. Obraz „apetycznego posiłku”, który miał wzbudzać pożądanie w laboratorium na zachodnim uniwersytecie, może wyglądać nieapetycznie albo po prostu niezrozumiale dla osoby badanej w Mumbaju czy Nairobi.
Bodźce afektywne potrzebowały aktualizacji. Teraz międzynarodowy zespół badaczy kierowany przez Macieja Behnkego z Uniwersytetu im. Adama Mickiewcza w Poznaniu, taką aktualizację stworzył. Wykorzystując generatywną sztuczną inteligencję, badacze opracowali Library of AI-Generated Affective Images (LAI-GAI) — bibliotekę, która unowocześni przestarzałe archiwa bodźców i zastąpić je znacznie bardziej elastycznym, kulturowo adaptowalnym zestawem obrazów emocjonalnych.
Inżynierowie promptów
Założenie projektu, opisanego na łamach Advances in Methods and Practices in Psychological Science, było proste: czy tę samą technologię, która tworzy surrealistyczne grafiki i deepfake’i, można okiełznać na potrzeby rzetelnej nauki? Aby to sprawdzić, badacze opracowali procedurę typu human-in-the-loop, czyli taką, w której człowiek pozostaje niezbędnym ogniwem całego procesu.
Nie polegało to na prostym wpisaniu do AI polecenia w stylu: „narysuj obraz, który mnie zasmuci”. Zamiast tego badacze sięgnęli po stare, wcześniej zwalidowane obrazy z istniejących baz i wykorzystali duże modele językowe, takie jak ChatGPT, do tworzenia szczegółowych opisów przedstawionych scen. Następnie opisy te trafiały do generatorów obrazów, takich jak Midjourney, które tworzyły nowoczesne, wysokorozdzielcze odpowiedniki dawnych bodźców. W rezultacie powstał zbiór 847 obrazów obejmujących 12 konkretnych kategorii emocji — od rozbawienia i zachwytu po obrzydzenie i złość. Jednak prawdziwą innowacją nie była sama jakość obrazu, lecz jego adaptowalność.
Najważniejszy wniosek z badań jest taki, że obrazy generowane przez AI po prostu działają. Średnio wywoływały reakcje afektywne porównywalne z tymi, jakie uzyskiwano za pomocą klasycznych zestawów obrazów. Innymi słowy: obraz stworzony przez algorytm, jeśli został starannie opracowany i zweryfikowany, może poruszać ludzi równie skutecznie jak zdjęcia pochodzące z wcześniejszych baz, opierających się na fotografiach.
Poza zachodnią perspektywą i statycznymi bodźcami
Najpoważniejszą słabością tradycyjnych badań nad emocjami jest założenie, że język wizualny jest uniwersalny. Nie jest. Aby to zmienić, zespół LAI-GAI podzielił obrazy na sześć szerokich kontekstów kulturowych: afrykański, arabski, azjatycki, indyjski, latynoamerykański oraz europejsko-północnoamerykański.
Wymagało to czegoś więcej niż algorytmicznych korekt. Zespół szybko zauważył, że AI pozostawiona samej sobie staje się repozytorium stereotypów epoki internetu. Gdy proszono modele o generowanie obrazów osadzonych w kontekście afrykańskim, często domyślnie tworzyły przedstawienia biedy. Aby to skorygować, projekt opierał się na ścisłym nadzorze człowieka. Badacze i eksperci kulturowi z danych regionów oceniali obrazy, poprawiając nawet tak subtelne elementy jak gatunki roślin, zwierząt czy styl ubioru, tak aby całość wydawała się autentyczna, a nie karykaturalna. Łącznie eksperci musieli interweniować i poprawiać około jednej trzeciej początkowych propozycji wygenerowanych przez AI.
Dane potwierdziły coś, czego wielu badaczy od dawna się domyślało: kontekst ma znaczenie. Obrazy dopasowane do kultury osoby badanej nieco skuteczniej trafiały w zamierzony cel emocjonalny niż obrazy niedopasowane. Scena smutku działa mocniej, gdy świat przedstawiony w kadrze przypomina ten własny.
Co więcej, badacze pokazali też, że można modyfikować wiek i płeć osób przedstawionych na obrazach — na przykład tworzyć wersje tej samej sceny dla dzieci, dorosłych i osób starszych oraz dla kobiet i mężczyzn — bez utraty ich afektywnej skuteczności. To otwiera możliwość tworzenia narzędzi psychologicznych, które nie są już statycznymi artefaktami, lecz dynamicznym oprogramowaniem zdolnym do generowania bodźców dopasowanych do różnych grup odbiorców.
Przyszłość nauki afektywnej wspieranej przez AI
Co to wszystko oznacza dla naukowców, którzy nie zajmują się emocjami na co dzień? Przede wszystkim to, że może zmieniać się sama logika tworzenia materiałów eksperymentalnych. Zamiast projektować badania wokół tego, jakie obrazy akurat są dostępne, badacze mogą coraz częściej projektować obrazy wokół własnych hipotez — odświeżać bodźce, by zapobiegać habituacji, dopasowywać konteksty do bardziej zróżnicowanych prób oraz tworzyć zestawy, które nie zależą od kruchych licencji czy znikających stron internetowych.
To sugeruje również bliską przyszłość, w której bodźce staną się bardziej dynamiczne. Statyczne obrazy były kompromisem: łatwym do standaryzacji i dystrybucji. Nowe możliwości są ogromne, ale wymagają też odpowiedzialnego stosowania.
Najważniejszy wniosek z projektu LAI-GAI nie jest jednak taki, że maszyny potrafią tworzyć obrazy, które nas poruszają. Chodzi raczej o to, że psychologia — jak wiele innych dziedzin — na nowo definiuje dziś, co uznaje za narzędzie badawcze. W tym projekcie AI nie zastępuje ludzkiego osądu; jest generatorem, który wymaga tego osądu na każdym etapie. Być może najważniejszym wkładem tej biblioteki jest właśnie wymiar metodologiczny: pokazanie, że przy starannym nadzorze człowieka i odpowiedzialności kulturowej można unowocześnić emocjonalne „atomy” naszych eksperymentów — obrazy, które od lat, lepiej lub gorzej, zastępują fragmenty ludzkiego doświadczenia.
Link do artykułu: https://journals.sagepub.com/doi/10.1177/25152459251415336
Link do strony projektu: https://www.affectdatabases.amu.edu.pl/