[Obejrzyj webinar lub przeczytaj poniżej streszczenie]
Rola prawnika w procesie wdrażania AI
W procesie wdrażania sztucznej inteligencji w organizacji prawnik odgrywa wielowymiarową rolę.
Po pierwsze, odpowiada za weryfikację błędnych przekonań – w przestrzeni medialnej często pojawiają się uproszczone lub nieprawdziwe informacje na temat regulowania sztucznej inteligencji w UE.
Po drugie, prawnik uświadamia organizacji (a konkretnie jej kadrze zarządzającej oraz ewangelistom zmiany) szerszy kontekst prawny. Wdrożenie AI nie ogranicza się wyłącznie do jednego aktu, takiego jak AI Act, ale wiąże się z koniecznością uwzględnienia szeregu różnych przepisów i regulacji tworzących złożoną „układankę” prawną – chodzi tu o przepisy o ochronie danych osobowych, ale także dotyczące własności intelektualnej czy tajemnicy przedsiębiorstwa.
Po trzecie, prawnik wspiera identyfikację ról i wyzwań, pomagając firmie zrozumieć jej miejsce w łańcuchu wartości AI oraz wynikające z tego obowiązki i potencjalne ryzyka:
- Kim jestem i co robię? Czy firma jest dostawcą, importerem, podmiotem modyfikującym rozwiązanie, integratorem produktu, czy po prostu użytkownikiem systemu AI?
- Co mam i jakie to stwarza ryzyko? Czy używany jest system AI, model AI ogólnego przeznaczenia, czy zwykły program komputerowy bez elementów sztucznje inteligencji? Czy wiemy, jak to rozwiązanie wpływa na ludzi (tzn. jakie ryzyka stwarza dla ludzi)?
- Jakie obowiązki będą mnie dotyczyć? Czy to moja organizacja, czy zewnętrzny dostawca rozwiązania powinien zadbać o jego zgodność z prawem? Czego mogą wymagać ode mnie organy? Czy obowiązki prawne mogą zmienić się w czasie?
Google news
Bądź na bieżąco ze zmianami w prawie, podatkach i księgowości! Zaobserwuj nas w Wiadomościach Google
Weryfikacja błędnych przekonań dotyczących AI Act
AI Act to unijne rozporządzenie regulujące rozwój, wprowadzanie na rynek i użytkowanie systemów sztucznej inteligencji. Jego celem jest zapewnienie bezpiecznego i etycznego stosowania AI oraz ochronę praw obywateli. Akt ten obowiązuje we wszystkich państwach Unii Europejskiej.
Należy zwrócić uwagę na kilka powszechnych, ale błędnych przekonań dotyczących unijnego AI Act:
AI Act reguluje kompleksowo całą sztuczną inteligencję. Jest to mit.
AI Act nie reguluje wszystkich aspektów AI w sposób wyczerpujący. Rozporządzenie dotyczy AI w różnym stopniu, skupiając się na praktykach zakazanych (najpoważniejsze, ingerujące w prawa i wolności ludzi) oraz systemach wysokiego ryzyka, które wymagają szczególnego nadzoru. Poza zakresem zastosowania AI Act pozostaje użycie prywatne, do celów osobistych, a także algorytmy komputerowe jako takie, które nie spełniają definicji systemu AI/modelu AI.
AI Act dotyczy tylko firm technologicznych. To również nieprawda.
AI Act odnosi się nie tylko do podmiotów rozwijających czy sprzedających AI, ale także do „podmiotów stosujących”, czyli osób fizycznych, prawnych, organów publicznych, agencji lub innych podmiotów, które wykorzystują system AI, nad którym sprawują kontrolę, z wyjątkiem działalności osobistej (pozazawodowej). Oznacza to, że nie trzeba samodzielnie tworzyć ani rozwijać AI, czyli być firmą technologiczną, aby podlegać pod wymogi ustanowione w AI Act.
AI Act już obowiązuje z „pełną mocą”. To także błędne przekonanie.
Rozporządzenie w sprawie sztucznej inteligencji wchodzi w życie stopniowo. Akt stał się elementem systemu prawa UE w 2024 r. Poszczególne jego części zaczną być stosowane w różnych terminach. Przykładowo: zakazane praktyki od 2 lutego 2025 roku, a wymogi dotyczące „ogólnego AI”, kar i organów nadzoru od 2 sierpnia 2025 roku. Istnieje również obowiązek AI Literacy dotyczący kompetencji personelu, który będzie stosowany od 2 sierpnia 2025 roku. Niektóre postanowienia AI Act – te, które dotyczą systemów wysokiego ryzyka – będą stosowane od 2 sierpnia 2027 r.
Szerszy kontekst regulacyjny a wdrożenie AI
AI Act nie jest jedynym aktem prawnym, który należy brać pod uwagę przy wdrażaniu sztucznej inteligencji. Istnieje złożona „układanka regulacyjna” w UE, obejmująca szereg przepisów, które dotykają użycia technologii. Należy uwzględniać m.in. następujące zagadnienia:
- RODO (GDPR), dotyczące ochrony danych osobowych.
- Data Act, skupiający się na danych, w tym nieosobowych.
- Prawo autorskie, istotne w kontekście materiałów, na których AI jest trenowana, oraz treści generowanych przez AI.
- Tajemnice przedsiębiorstwa, które mogą być przetwarzane w ramach narzędzi AI stosowanych w organizacji.
- Prawo konsumenckie, regulujące relację między przedsiębiorcą a konsumentem, w której nowoczesne rozwiązania odgrywają coraz większe znaczenie (np. w obsłudze klienta).
- Wymagania sektorowe (np. dla regulowanych produktów jak windy, zabawki, skutery wodne, zawierające elementy AI).
- Przepisy dotyczące produktów niebezpiecznych.
Niezależnie od wskazanych sektorów, najszerszą kategorią prawną, która stanowi fundament AI Act, są prawa człowieka.
Organy nadzorcze i zmieniająca się interpretacja AI Act
Wiele elementów AI Act będzie interpretowanych przez różne organy czy doprecyzowywane przez szczegółowe dokumenty (np. wytyczne, zalecenia). Warto zwrócić uwagę na poniższe organy:
- Urząd ds. AI (AI Office), odpowiedzialny za monitorowanie stosowania przepisów i kluczowy urząd w interpretowaniu wyjątków.
- Rada ds. AI (AI Board), opiniująca projekty aktów wykonawczych i delegowanych.
- Panel naukowy niezależnych ekspertów, wydający opinie i monitorujący rozwój AI.
- Forum doradcze, zbierające uwagi interesariuszy i współtworzące kodeksy postępowania.
- Właściwe organy krajowe (np. „Biuro Komisji Rozwoju i Bezpieczeństwa Sztucznej Inteligencji” w Polsce), które będą kontrolować i nakładać kary.
Ważny fragment
Ponadto, unijne akty wykonawcze, unijne akty delegowane, wytyczne i kodeksy praktyk będą kształtować to jak należy rozumieć AI Act. Wskazuje się, że przed Komisją Europejską jest ponad 100 różnych zadań dotyczących wdrażania AI Act. To wszystko oznacza, że interpretacja i stosowanie AI Act będą dynamiczne i prawnicy muszą na bieżąco monitorować to, jak rozwija się unijna regulacja dotycząca sztucznej inteligencji.
Wyzwania związane z AI a kształtowanie pożądanych zachowań w organizacji
Część organizacji doświadcza strachu przed nieznanym w kontekście AI – nie zawsze to strach, który wykazują osoby zarządzające. Często wdrożenia AI obawiają się szeregowi pracownicy. Obawy te obejmują na przykład przekonanie, że sztuczna inteligencja jest niebezpieczna, że doprowadzi do większej liczby obowiązków, utraty miejsc pracy, czy naruszenia prawa. Na poziomie osób zarządzających to obawy dotyczące między innymi zgodności regulacyjnej czy możliwości zabezpieczenia wrażliwych danych firmowych. W odpowiedzi na ten strach, firmy często wprowadzają zakazy i rygorystyczne polityki używania AI.
Niezależnie od wyzwań prawnych, AI może być motorem rozwoju firmy i ludzi. Prawnicy, we współpracy z zarządem i innymi zespołami, powinni dążyć do budowania kultury dzielenia się i otwartości. Zamiast ukrytej innowacji użytkowników (gdzie pracownicy eksperymentują z AI samodzielnie, odczuwając wzrost wydajności, ale bez przełożenia na produkt czy organizację), należy zmniejszać strach, wyrażać zgodę na komfortowe eksperymentowanie i wspólną identyfikację wartości. Kluczowe jest uświadamianie co do wyzwań i prawnych warunków korzystania z AI, jednocześnie pokazując dobre praktyki i wskazując jak technologia może służyć człowiekowi.
Ważny fragment
W tym kontekście, AI Literacy, którego wymaga AI Act, jest kluczowym elementem rozwoju innowacyjności przedsiębiorstw i ludzi. Wymogi dotyczące kompetencji personelu w zakresie sztucznej inteligencji mają dotyczyć wszystkich osób mających związek z AI w organizacji, a nie tylko programistów czy osób zajmujących stanowiska ściśle techniczne. Choć brak tych kompetencji nie jest bezpośrednio sankcjonowany w przepisach unijnego rozporządzenia, może on prowadzić do odpowiedzialności za szkody czy utratę wiarygodności firmy.
Dowiedz się więcej z webinaru!
Wypełnij formularz poniżej, by zobaczyć nagranie.
Współadministratorami Twoich danych osobowych są spółki z grupy Grant Thornton w Polsce. Pełną listę spółek znajdziesz TUTAJ. Twoje dane będą przetwarzane w celu wysyłania Ci informacji handlowej w tym newslettera na podany adres e-mail oraz w celu oceny skuteczności działań marketingowych. W każdej chwili możesz zrezygnować z otrzymywania informacji handlowych. Masz prawo dostępu do swoich danych, żądania ich sprostowania, ograniczenia przetwarzania, usunięcia, przeniesienia oraz do wniesienia skargi na przetwarzanie do organu nadzorczego. Masz także prawo do sprzeciwu wobec przetwarzania, jeśli zostało oparte o prawnie uzasadniony interes administratora. Więcej informacji o przetwarzaniu danych osobowych TUTAJ.