Komisja Europejska pracuje nad opracowaniem Kodeksu Postępowania dla Sztucznej Inteligencji Ogólnego Przeznaczenia (AI), który ma na celu szczegółowe określenie zasad zawartych w Akcie o Sztucznej Inteligencji dla dostawców modeli AI ogólnego przeznaczenia oraz modeli AI z ryzykiem systemowym. Celem jest zapewnienie bezpiecznego i godnego zaufania rozwoju sztucznej inteligencji w Unii Europejskiej, szczególnie w przypadku zaawansowanych modeli AI, które mogą wiązać się z ryzykiem na poziomie systemowym.
Dlaczego Kodeks Postępowania jest potrzebny?
Modele AI ogólnego przeznaczenia (GPAI) stają się fundamentem wielu systemów sztucznej inteligencji wykorzystywanych w UE. Dzięki swojej wszechstronności, mogą pełnić szeroki zakres funkcji, ale ich rozwój i popularność wiążą się także z potencjalnym ryzykiem. Modele te, jeśli będą powszechnie stosowane, mogą stworzyć zagrożenia systemowe, dlatego ważne jest, by ich dostawcy przestrzegali zasad przejrzystości, praw autorskich i oceny ryzyka.
Aby zapewnić bezpieczeństwo i odpowiedzialność w rozwoju AI, Akt o Sztucznej Inteligencji wprowadza obowiązki dla dostawców modeli ogólnego przeznaczenia, w tym przeprowadzanie ocen ryzyka w przypadku modeli mogących powodować skutki systemowe. Zasady te wejdą w życie w sierpniu 2025 roku, a Biuro Sztucznej Inteligencji jest odpowiedzialne za opracowanie Kodeksu Postępowania, który pomoże dostawcom AI w przestrzeganiu tych norm.
Prace nad Kodeksem Postępowania
Proces opracowywania Kodeksu Postępowania jest przeprowadzany w sposób iteracyjny i ma zostać zakończony do maja 2025 roku, czyli dziewięć miesięcy po wejściu w życie Aktu o Sztucznej Inteligencji, który wejdzie w życie 1 sierpnia 2024 roku. Kodeks ma być narzędziem, które pozwoli dostawcom modeli AI ogólnego przeznaczenia wykazać zgodność z wymaganiami zawartymi w nowym akcie prawnym.
Od 30 września 2024 roku Biuro Sztucznej Inteligencji rozpoczęło prace nad Kodeksem, organizując inauguracyjne wydarzenie plenarne z udziałem niemal 1000 uczestników. Wśród nich znaleźli się przedstawiciele organizacji zawodowych, dostawcy AI, instytucje publiczne i agencje zajmujące się oceną ryzyka AI. W ramach tych obrad, uczestnicy zostali podzieleni na cztery grupy robocze, które zajmują się poszczególnymi aspektami opracowywania Kodeksu.
Kodeks opracowywany jest w sposób inkluzyjny i przejrzysty, z udziałem szerokiego grona interesariuszy: dostawców AI, organizacji branżowych, przedstawicieli społeczeństwa obywatelskiego, świata nauki, a także niezależnych ekspertów. Biuro Sztucznej Inteligencji organizuje cykliczne warsztaty i spotkania robocze, które umożliwiają wprowadzanie uwag i opinii do procesu tworzenia dokumentu. Wszystkie działania są transparentne, a postępy są monitorowane, co pozwala na utrzymanie otwartego i współpracującego środowiska.
Kroki ku finalnej wersji Kodeksu
Pierwsza wersja Kodeksu Postępowania będzie gotowa w maju 2025 roku, a finalna wersja dokumentu zostanie zaprezentowana podczas zamkniętego posiedzenia plenarnych obrad i opublikowana publicznie. Dokument ten będzie stanowił fundament dla zapewnienia zgodności z wymogami Aktu o Sztucznej Inteligencji, a także pomoże w identyfikowaniu i łagodzeniu ryzyk związanych z wykorzystaniem AI.
Szablon dla Podsumowania Danych Treningowych
Równolegle z opracowywaniem Kodeksu, Biuro Sztucznej Inteligencji pracuje także nad szablonem dla podsumowania danych treningowych. Zgodnie z artykułem 53(1)d) Aktu o Sztucznej Inteligencji, dostawcy AI ogólnego przeznaczenia będą zobowiązani do publicznego udostępnienia szczegółowego podsumowania używanych danych. Biuro Sztucznej Inteligencji zebrało opinie od interesariuszy i, na ich podstawie, opracowuje dokument, który również zostanie poddany konsultacjom publicznym i przedstawiony do zatwierdzenia przez Komisję Europejską w drugim kwartale 2025 roku.