reklama

Koniec żartów z AI w polskich firmach. Kary za część naruszeń mogą być wyższe niż w RODO, a zegar tyka – sprawdź datę 2 sierpnia

Opublikowano: Aktualizacja: 
Autor:

Koniec żartów z AI w polskich firmach. Kary za część naruszeń mogą być wyższe niż w RODO, a zegar tyka – sprawdź datę 2 sierpnia - Zdjęcie główne
Autor: Materiał partnera | Opis: AI w polskich firmach.

Udostępnij na:
Facebook
Materiały partnerskiesponsorowanyStosowanie sztucznej inteligencji przez firmy staje się powoli standardem od rekrutacji i zarządzania pracownikami, przez marketing, aż po analizę danych i automatyzację procesów. Systemy AI, będące sporym ułatwieniem dla przedsiębiorców, są regulowane rozporządzeniem unijnym AI Act, który obowiązuje od 2024 r. Jego przepisy są stopniowo przyjmowane, a 2 sierpnia 2026 r. wejdą w życie te związane ze stosowaniem systemów wysokiego ryzyka i obowiązkami przejrzystości – czyli dotyczące najbardziej obszarów HR, outsourcingu, agencji pracy, fintechu czy medtechu. Dodatkowo prace nad polską ustawą implementującą nabrały tempa i wszystko wskazuje, że data 2 sierpnia stanie się kluczową dla wielu przedsiębiorców.

Dlaczego data 2 sierpnia jest kluczowa?

Data 2 sierpnia 2026 r. wydaje się być kluczową dla wielu przedsiębiorców w kontekście użytkowania systemów AI w biznesie. Od tego dnia zaczynają obowiązywać przepisy dotyczące systemów wysokiego ryzyka (Załącznik III AI Act) oraz obowiązków przejrzystości (art. 50). Przepisy te dotyczą zarówno dostawców AI, jak i użytkowników, czyli np. pracodawców czy firm rekrutacyjnych.

Czym są przepisy art. 50 AI Act?

Są to przepisy, które mają spore znaczenie w przypadku używania systemów AI w biznesie. Czego między innymi dotyczą?

●        obowiązku informowania użytkownika o interakcji ze sztuczną inteligencją;

●        oznaczania treści wytwarzanych przez AI;

●        informowania o rozpoznawaniu emocji i biometrii;

●        momentu i formy przekazania takiej informacji – najpóźniej przy pierwszej interakcji;

●        powiązania tego przepisu z innymi obowiązkami transparentności, takimi jak RODO.

Systemy wysokiego ryzyka – kto musi się przygotować?

Przepisy, które dotyczą systemów AI wysokiego ryzyka, opisane zostały w art. 6 AI Act, a także w Załącznikach I oraz III. Jest to dość obszerny temat, który w skrócie można sprowadzić do dwóch ścieżek kwalifikacji uznania systemu AI jako systemu wysokiego ryzyka oraz kluczowego wyjątku mechanizmu samooceny.

Wydaje się, że bardziej kluczowa dla większości firm usługowych będzie druga ze ścieżek klasyfikacji, która jest wymieniona w art. 6. Jest ona oparta na katalogu obszarów zastosowań, a są one opisane w Załączniku III AI Act i to na jego podstawie dokonuje się kwalifikacji.

Bardzo istotnym aspektem będzie wyjątek w postaci mechanizmu samooceny (art. 6 ust. 3–4 AI Act). Zgodnie z nim system AI nie będzie kwalifikowany jako high-risk, jeśli:

●        nie stwarza znaczącego ryzyka szkody dla zdrowia, bezpieczeństwa lub praw podstawowych osób fizycznych,

●        nie ma on istotnego wpływu na wynik procesu decyzyjnego (np. jedynie wspiera podejmowanie decyzji przez użytkownika lub nie zmienia jej wyniku).

Uwaga: wyjątek samooceny nie ma zastosowania, jeżeli system AI dokonuje profilowania osób fizycznych – w takim przypadku kwalifikacja jako system wysokiego ryzyka jest obligatoryjna niezależnie od spełnienia powyższych przesłanek.

Jakie są kary za naruszenie AI Act?

Przede wszystkim niewłaściwym będzie ocenianie, które kary są wyższe, ponieważ AI Act działa równolegle do innych przepisów dotyczących transparentności, jak właśnie RODO. Oznacza to, że naruszenie przepisów, które będą dotyczyły przykładowo obydwu rozporządzeń może zakończyć się podwójną karą. Prawdą jest jednak, że kary przewidziane za naruszenia AI Act oscylują na poziomie wyższym niż większość sankcji przewidzianych w RODO. Dodam, że ten wymiar kar będzie również wykorzystywany przez nowy polski organ nadzorczy - Komisję Rozwoju i Bezpieczeństwa Sztucznej Inteligencji – który ma zostać ustanowiony na mocy projektowanej ustawy wdrażającej.

●        Najwyższa kara przewidywana przez AI Act (za naruszenie art. 5 – systemów zakazanych) to aż 35 mln euro lub 7% globalnego obrotu w wypadku przedsiębiorstwa, podczas gdy najpoważniejszą karą za naruszenie RODO jest 20 mln euro lub 4% obrotu;

●        Naruszenie związane z systemami wysokiego ryzyka lub art. 50 to 15 mln euro lub 3% obrotu, a w wypadku RODO za mniej poważne wykroczenie przewiduje się 10 mln euro lub 2% obrotu.

●        Za podanie nieprawdziwych informacji organom nadzoru można otrzymać grzywnę do 7,5 mln euro lub 1% obrotu. 

Systemy wysokiego ryzyka – kto musi się przygotować?

Na pytanie – kto musi się przygotować – należy odpowiedzieć, że każda firma, która stosuje systemy AI. Natomiast żeby przekonać się, kogo będą dotyczyć przepisy, które od sierpnia zaczną obowiązywać również w Polsce, należy przeprowadzić odpowiednią analizę narzędzi AI używanych w Twoim przedsiębiorstwie. Stosowny audyt odpowie czy używane aktualnie systemy AI w obszarach HR, marketingu, w agencji pracy czy outsourcingu są systemami wysokiego ryzyka, czy można zastosować wyjątek mechanizmu samooceny. Pamiętaj, że system AI używany nawet w niewielkim stopniu może nieść za sobą poważne ryzyka i nawet jeśli korzystasz z gotowego narzędzia AI od zewnętrznego dostawcy, to Twoja firma, jako podmiot stosujący, ma odrębne obowiązki wynikające wprost z AI Act.  

 

Źródło:

Udostępnij na:
Facebook
wróć na stronę główną

ZALOGUJ SIĘ

Twoje komentarze będą wyróżnione oraz uzyskasz dostęp do materiałów PREMIUM

e-mail
hasło

Zapomniałeś hasła? ODZYSKAJ JE

Komentarze (0)

Wysyłając komentarz akceptujesz regulamin serwisu. Zgodnie z art. 24 ust. 1 pkt 3 i 4 ustawy o ochronie danych osobowych, podanie danych jest dobrowolne, Użytkownikowi przysługuje prawo dostępu do treści swoich danych i ich poprawiania. Jak to zrobić dowiesz się w zakładce polityka prywatności.

Wczytywanie komentarzy
logo