AI Act jest takim kompleksowym rozporządzeniem unijnym, czyli aktem prawnym, który będzie obowiązywać bezpośrednio, niezależnie od tego, czy państwa członkowskie Unii Europejskiej podejmą jakieś kroki w celu jego zaimplementowania, czy też nie. I on nakreśli nam ramy prawne tworzenia, wprowadzania na rynek, dostarczania i wykorzystywania systemów sztucznej inteligencji w celach komercyjnych. Precyzując, to nie będą cele badawcze, nie będą też cele naukowe, czy związane z bezpieczeństwem bądź z wojskowością – są to cele komercyjne. I AI Act jest próbą kompleksowego ujęcia tego, jakie wartości powinny stać na czele porządku AI-owego naszej rzeczywistości. Mówimy tu o naszych dobrach, na przykład: prywatności, równości wobec prawa, niedyskryminacji. Prawa podstawowe, które powinny być wyznacznikiem tego, co wolno robić; jakiego rodzaju systemy wolno dostarczać, a jakie absolutnie będą zabronione.
Więc czego nie wolno?
AI Act wprowadza klasyfikację na zakazane praktyki w zakresie sztucznej inteligencji, w tym dostarczanie systemów, które mogą wykorzystywać manipulację podprogową – wizerunkiem np. dzieci. Również na systemy wysokiego ryzyka, jakimi są systemy wykorzystywane w rekrutacji, które analizują CV, rekomendują kandydatów – z uwagi na ryzyko dyskryminacji. A takie przypadki już zresztą występowały. Następnie mamy systemy ograniczonego ryzyka, co do których widzimy, że mogą pojawić się w jakichś kontekstach zagrożenia dla praw podstawowych. Wobec czego nakładamy na ich importerów, albo podmioty tworzące tego rodzaju systemy, jakieś obowiązki. Plus systemy minimalnego ryzyka, które służą jedynie prostym automatyzacjom. I one w zasadzie są tutaj potraktowane ulgowo.
Więc AI Act będzie określał z jednej strony szereg formalnych obowiązków dla dostawców systemów wysokiego ryzyka, szereg obowiązków dla dostawców modeli generatywnych sztucznej inteligencji – to np. rejestracja w unijnej bazie takiego modelu.
Z drugiej strony mamy taką warstwę administracyjną, czysto biurokratyczną. Bo na podstawie AI Act został powołany unijny urząd do spraw sztucznej inteligencji. Z trzeciej strony ministerstwo cyfryzacji zapowiedziało, że w Polsce powstanie komisja nadzoru nad sztuczną inteligencją, na wzór KNF-u. Będzie obserwowała, czy wspomniane przepisy są właściwie implementowane. I to, co z naszej perspektywy jest dzisiaj istotne, to, że AI Act nakłada na dostawców tych modeli obowiązki w zakresie transparentności.
Czytaj także: „Amerykanie byli w szoku. Poprzedni rząd oszukał wszystkich ws. Intela”. Wicepremier Krzysztof Gawkowski w wywiadzie dla „Forbes”
A od kiedy wchodzi w życie?
Teraz pojawiają się prawne zawiłości, bo AI Act weszło w życie 20 dni po jego ogłoszeniu, czyli w czerwcu. Ale rozpocznie swoje stosowanie w pełni dopiero za dwa lata. Stąd, będziemy stopniowo zobowiązani do jego wdrożenia.
I w związku z tym, nawet jeżeli dzisiaj korzystamy z systemu, który będzie zaklasyfikowany do systemu wysokiego ryzyka, to mamy jeszcze dosyć długi okres przejściowy na to, żeby się do tego przystosować. Tak samo, jeżeli dostarczamy jakiś system, który intuicyjnie nie mieści się w zakresie systemu wysokiego ryzyka, to mamy ten czas na przeprowadzenie oceny i jej udokumentowanie. Aby wyjaśnić sytuację, gdy powołana komisja nadzoru nad sztuczną inteligencją wystąpi do nas z jakimiś pytaniami. Musimy przygotować gotowe uzasadnienie.
Komisja Europejska przedstawiła jakieś konkretne wytyczne?
Na razie nie. Więc liczy się to, w jaki sposób samodzielnie to ryzyko, w oparciu o kryteria przedstawione w AI Akcie, przeanalizujemy.
A co nam mówi AI Act w kontekście praw autorskich? Nieustannie trwa dyskusja nad tym, do kogo należą utwory tworzone przez generatywną sztuczną inteligencję, taką jak ChatGPT czy właśnie MidJourney.
AI Akt nie rozstrzyga niczego wprost, natomiast odnosi się do praw autorskich w sposób pośredni. Dane treningowe, dane walidacyjne, dane testowe, czyli te dane, które zostały wykorzystane do wytrenowania i dopuszczenia modelu sztucznej inteligencji na rynek, mają być pozyskiwane zgodnie z prawem, w tym zgodnie z prawami własności intelektualnej. I to trzeba udokumentować.
Jeżeli zbieramy jakieś utwory do wytrenowania sztucznej inteligencji – na przykład generatywnej, która umożliwia generowanie wideo – to musimy wykazać, że pozyskaliśmy te dane w sposób legalny, zgodny z prawem autorskim. Po drugie, pojawi się obowiązek oznaczania treści, które zostały przez sztuczną inteligencję wygenerowane. Zwłaszcza te, które mogą stać się deepfake'em. I to są dwie podstawowe kwestie.
AI Act nie rozstrzyga z kolei w żaden sposób możliwości powstania praw autorskich do treści wygenerowanych przez sztuczną inteligencję. Prace nad tym pojawią się zapewne na dalszym etapie legislacyjnym.
Czyli aktualnie treść wygenerowana przez AI nie jest utworem?
Możemy tym swobodnie rozporządzać – np. sprzedawać. Przykładowo, agencje marketingowe mogą te materiały umieszczać na stronach internetowych, w mediach społecznościowych.
Natomiast, jeśli prawo nie zostanie zmodyfikowane, prawa autorskie zwyczajnie nie powstaną, ponieważ należą aktualnie jedynie do człowieka. Jednak, wprowadzając modyfikację do wygenerowanej treści, mamy możliwość stania się autorem nowego już dzieła. Ale uważam, że na ten moment warto się temu oprzeć. I chociaż nie mamy żadnego regulacyjnego algorytmu mówiącego, jak dużo trzeba od siebie dać, żeby taka treść stała się już utworem, to z punktu widzenia biznesowych relacji, najlepiej będzie regulować te kwestie w umowie. To obecnie najrozsądniejszy sposób, żeby w tych relacjach czysto biznesowych się zabezpieczyć.
Co będzie w przyszłości, kiedy AI przestanie już być tylko „asystentem” człowieka, a osiągnie większą kreatywność i twórczą moc sprawczą?
Trudno powiedzieć. Być może zaadaptujemy jakieś instytucje, takie jak utwory powstające maszynowo. Bądź wprowadzimy nową kategorię praw autorskich. Przykładowo, prawa autorskie zostaną ograniczone zakresem, czy czasem obowiązywania, w stosunku do tego, co mamy standardowo. Natomiast dzisiaj żadnego projektu nie ma. Warto pamiętać o tym założeniu: to nie jest utwór, ale jak go zmodyfikuję, to już tym utworem może być. I od nas zależy, w jaki sposób zabezpieczymy sobie te prawa i swój interes, definiując to, co zmodyfikowaliśmy.
Wróćmy jeszcze do deepfake'ów. Niektóre stany już zakazują generowania materiałów wideo przez narzędzia sztucznej inteligencji, których przyczyną są afery deepfake'owe. Czy możemy się tego spodziewać w Polsce?
Myślę, że tak. W zasadzie można powiedzieć, że taki zakaz już istnieje. Chociaż nie jest wyrażony wprost, bo z jednej strony AI Act definiuje deepfake, ale nie uwzględnia przepisów karnych w tym zakresie. A z drugiej strony, mamy na przykład przepisy kodeksu karnego, które zawierają przestępstwo, jakim jest kradzież tożsamości. Deepfake jest de facto taką kradzieżą. Więc pojawia się narzędzie prawne do dochodzenia od kogoś odpowiedzialności za wygenerowanie takiego deepfake'a. I myślę, że jeżeli podejdziemy do reformy przepisów karnych – a wiem, że takie prace już się odbywają, bo sama jestem włączona w inicjatywę związaną z popularyzacją wiedzy i z zapobieganiem rozprzestrzenianiu się deepfake'ów, i tworzenia narzędzi prawnych – w kodeksie karnym pojawi się wprost tego rodzaju zakaz. Zwłaszcza w kontekście porno, bo materiały pornograficzne są najczęściej generowanymi materiałami w tym obszarze.
Więc aktualnie możemy korzystać z pomocniczych przepisów, takich jak kradzież tożsamości albo dobra osobiste, na gruncie kodeksu cywilnego.
Z czasem myślę, że pojawią się regulacje odnoszące się wprost do deepfake'ów, z uwagi na dużą moc rażenia. Dla niezorientowanych użytkowników mediów społecznościowych odróżnienie treści deepfake'owych może być po prostu trudne.
AI Act będzie takim pierwszym „sitkiem” dla różnego rodzaju systemów generatywnej sztucznej inteligencji, nakładając na nie określone wymogi w zakresie bezpieczeństwa; i przeciwdziałając tego rodzaju praktykom poprzez stosowanie np. określonych filtrów, które uniemożliwią użytkownikowi wygenerowanie określonych treści.