Wersja domyślna

Dr Maria Jędrzejczak. Zastosowanie AI

Dr Maria Jędrzejczak, fot. Władysław Gardasz
Dr Maria Jędrzejczak, fot. Władysław Gardasz

Świat sztucznej inteligencji można podzielić na trzy obszary: USA, Chiny i Unię Europejską. To w tych miejscach inwestycje w AI są największe. Zgodnie z danymi Parlamentu Europejskiego, w 2023 r. USA były liderem prywatnych inwestycji w AI (62,5 mld euro), drugie miejsce zajęły Chiny (7,3 mld euro), a trzecie – Unia Europejska (5,2 mld euro). Wzrok wszystkich osób zainteresowanych rozwojem AI, także jej prawnymi regulacjami, powinien być skierowany właśnie na te kraje.  

 

Unia Europejska uchwaliła akt prawny kompleksowo regulujący sektor AI – jest nim Rozporządzenie nr 2024/1689 z dnia 13 czerwca 2024 r. (akt w sprawie sztucznej inteligencji). Aktualnie jest procedowany projekt ustawy o systemach sztucznej inteligencji, która ma na celu m.in. powołanie organu nadzoru nad polskim rynkiem AI – Komisji Rozwoju i Bezpieczeństwa Sztucznej Inteligencji. Podstawowym celem UE było zapewnienie bezpieczeństwa użytkowników systemów AI. Jedną z najistotniejszych kwestii w regulacji unijnej jest stworzenie czterech kategorii ryzyka zastosowania AI: (1) minimalnego, np. gry komputerowe oparte na AI, (2) niskiego (ograniczonego), np. chatboty, (3) wysokiego, np. systemy biometryczne oraz (4) niedopuszczalnego, np. zdalna identyfikacja biometryczna w czasie rzeczywistym. Systemy minimalnego lub niskiego ryzyka mogą być wdrażane bez konieczności wypełniania dodatkowych obowiązków, w przeciwieństwie do systemów wysokiego ryzyka, które muszą spełnić określone wymogi, łącznie z oceną zgodności przed ich wdrożeniem. Z kolei systemy AI stwarzające niedopuszczalne ryzyko, czyli stanowiące zagrożenie dla praw podstawowych UE, zostały zakazane (z pewnymi wyjątkami). 

 

Zobacz też: Dr Maja Stańko-Kaczmarek. Bardziej zrozumiałe

 

Odmienną perspektywę dotyczącą stosowania systemów AI, zwłaszcza tych stwarzających niedopuszczalne ryzyko według regulacji unijnej, przyjęto w Chinach. Przykładem jest tzw. scoring społeczny (zakazany w UE), który wykorzystuje się w ramach chińskiego Systemu Zaufania Społecznego (ang. Social Credit System), polegający na dodawaniu albo odejmowaniu punktów każdemu obywatelowi za zachowania społecznie aprobowane albo niepożądane. Chiński system prawny w obszarze AI zawiera wybiórcze regulacje skupiające się na moderowaniu treści generowanych przez AI, ochronie danych osobowych oraz zarządzaniu algorytmicznym, polegającym m.in. na przeprowadzaniu oceny bezpieczeństwa dla niektórych algorytmów i raportowaniu tego w chińskim organie nadzoru (Cyberspace Administration of China). 

Podobnie wygląda stan prawny w USA – nie ma kompleksowych przepisów federalnych, które bezpośrednio regulowałyby AI. Wybrane stany przyjęły takie regulacje (np. Colorado AI Act). Przepisy federalne w zakresie AI wykazują „miękkie” podejście do tej tematyki (np. proponując opracowanie dobrowolnych wytycznych dla systemów AI). Na przyjęte stanowisko wpływają obawy dotyczące tłumienia postępu technologicznego i utrzymania konkurencyjności, szczególnie w stosunku do krajów takich jak Chiny.  

Dyskusja dotycząca regulacji w sektorze AI jest w istocie dyskusją na temat wartości, a nie przepisów prawnych. Ostateczny kształt regulacji prawnej zależy od tego, które wartości prawodawca uzna za priorytetowe. W UE niewątpliwie do takich wartości zaliczają się prawa obywatelskie, którym przyznano pierwszeństwo przed swobodnym rozwojem działalności w zakresie systemów AI. Takie założenie znacząco ogranicza rozwój AI, co sprawia, że Europa już jest określana przez niektórych jako „technologiczny skansen”. Bariery wejścia na europejski rynek start-upów zajmujących się AI są na tyle wysokie, że można się spodziewać, iż ich twórcy będą wybierać państwa z bardziej przyjaznymi regulacjami prawnymi, np. z obszaru azjatyckiego.  

Dr Maria Jędrzejczak, Wydział Prawa i Administracji  

 

 

Nauka Wydział Prawa i Administracji

Ten serwis używa plików "cookies" zgodnie z polityką prywatności UAM.

Brak zmiany ustawień przeglądarki oznacza jej akceptację.