Etyka i prawo w dobie AI: praktyczny przewodnik po AI Act dla nowoczesnego przedsiębiorcy
Dlaczego etyka i prawo AI to dziś temat dla właścicieli firm, a nie tylko prawników
Kilka lat temu na jednym z warsztatów automatyzacji usłyszałam od właściciela firmy: „Marta, ja chcę tylko, żeby to działało i się nie wysypało. Po co mi ta cała etyka?”. Rok później wrócił – już po kontroli, zablokowanym systemem rekomendacji i sporą dziurą w przychodach. Technologia zadziałała. Problem w tym, że nie działała zgodnie z prawem.
W świecie, w którym sztuczna inteligencja przenika każdy obszar biznesu, etyka i prawo przestają być „dodatkiem”. To element strategii. Zgodność z AI Act nie jest tylko odhaczaniem wymogów regulacyjnych — daje domniemanie zgodności, realnie zmniejsza ryzyko i coraz częściej staje się warunkiem wejścia do łańcuchów dostaw większych graczy.
Z praktyki widzę trzy rodzaje ryzyka, które wracają jak bumerang: prawne (kary, zakazy używania systemu, spory z klientami), etyczne (dyskryminacja, naruszenie godności, utrata zaufania) i operacyjne (przestoje, konieczność przeprojektowania systemu po fakcie, paraliż zespołów). Do tego dochodzi obowiązek prowadzenia dokumentacji, audytów i — co często umyka — stałego monitorowania systemów AI w całym cyklu życia, a nie tylko „w momencie wdrożenia”.
Dla mnie zgodność z AI Act to po prostu rozsądne zarządzanie ryzykiem w cyfrowym ekosystemie. Etyka i prawo są tu fundamentem, na którym można bezpiecznie budować automatyzację, zamiast co rok gasić kolejne pożary.
Jak biznes realnie korzysta dziś z AI
Jeśli masz wrażenie, że „AI to jeszcze nie u nas”, zerknij na swoją skrzynkę e-mail, CRM, kampanie reklamowe. Sztuczna inteligencja jest już wszędzie — tylko często ukryta pod etykietą „rekomendacji”, „score’ów”, „predykcji” czy „automatyzacji”.
Widziałam firmy, które zaczynały od prostych asystentów mailowych, a dziś generują tysiące spersonalizowanych ofert dziennie. Modele językowe (jak ChatGPT) piszą pierwsze szkice propozycji, analizują zapytania klientów, podpowiadają handlowcom kolejne kroki. Zespoły sprzedaży przy dobrze ułożonych procesach skalują się bez proporcjonalnego zwiększania liczby osób w dziale.
Marketing internetowy zmienił się jeszcze mocniej. Zamiast „strzelać” kampaniami na ślepo, firmy korzystają z algorytmów do analizy zachowań użytkowników, testowania kreacji, dopasowania treści. Answer Engine Optimization (AEO) to dobry przykład – projektujemy treści tak, by systemy oparte na AI (wyszukiwarki, asystenci głosowi, chatboty) były w stanie udzielić precyzyjnej odpowiedzi na pytanie klienta. To nie jest teoria – widzę w danych klientów, jak dobrze zaprojektowane odpowiedzi potrafią obniżyć koszt pozyskania leada.
Ale jest druga strona medalu. Deepfake’i i mikrotargetowanie z użyciem AI są już dziś narzędziami komercyjnymi, nie tylko ciekawostką z mediów. Te same mechanizmy, które pozwalają idealnie dopasować reklamę, mogą zostać wykorzystane do manipulacji czy naruszenia prywatności. I dokładnie tu zaczyna się rozmowa o AI Act.
Czym jest AI Act i kogo naprawdę dotyczy
Pamiętam spotkanie z zarządem średniej spółki produkcyjnej. „AI Act? To przecież dla tych wielkich z Doliny Krzemowej, my jesteśmy za mali”. Piętnaście minut później na białej tablicy mieliśmy wypisane: system scoringu klientów, klasyfikacja CV, analiza wideo z linii produkcyjnej. Każdy z tych elementów podpadał pod definicję systemu AI w rozumieniu regulacji.
AI Act dotyczy:
- dostawców systemów AI (tworzących, trenujących, sprzedających rozwiązania),
- użytkowników systemów AI w UE (czyli firm, które je wdrażają i wykorzystują),
- podmiotów spoza UE, jeśli ich system jest oferowany lub używany na rynku unijnym.
Co ważne: to nie jest prawo tylko dla korporacji. MŚP są wprost wymienione jako adresaci regulacji, a nie „szczęśliwi pominięci”.
Klasy ryzyka w AI Act
Sednem AI Act jest klasyfikacja systemów według ryzyka:
- systemy o niedopuszczalnym ryzyku – zakazane,
- systemy o wysokim ryzyku – objęte ścisłymi wymogami,
- systemy o minimalnym ryzyku – z ograniczonymi wymogami.
Zakazane praktyki, opisane w art. 5 AI Act, to nie są abstrakcyjne kategorie. To bardzo konkretne zakazy techniczne i organizacyjne, których wspólnym celem jest ochrona podstawowych praw i wolności osób fizycznych – w tym godności i integralności człowieka. Mówimy tu m.in. o manipulacji podprogowej, wykorzystywaniu szczególnej podatności dzieci czy osób starszych, czy określonych form rozpoznawania emocji i zdalnego nadzoru biometrycznego. Do tego dochodzą rygorystyczne reguły dla deepfake’ów i mikrotargetowania politycznego.
Co istotne: te zakazane systemy muszą zniknąć z rynku UE, a nie tylko „zostać poprawione”. Niezastosowanie się do przepisów może oznaczać nie tylko wysokie kary finansowe (do 35 mln euro lub 7% globalnego obrotu), lecz także zakaz używania konkretnego systemu AI. Z biznesowego punktu widzenia taki zakaz bywa bardziej bolesny niż sama kara finansowa.
W przypadku systemów wysokiego ryzyka dochodzi pełen „pakiet”: oceny ryzyka, dokumentacja techniczna, audyty, nadzór człowieka, zarządzanie jakością i bezpieczeństwem. I co ważne – ten nadzór obejmuje cały cykl życia systemu: od projektowania, przez wdrożenie, po utrzymanie i wycofanie z użycia. Nie da się „odhaczyć” zgodności raz na etapie wdrożenia i zapomnieć.
AI Act jest dziś uzupełnieniem wcześniejszych wytycznych etycznych Komisji Europejskiej z 2019 roku. Najpierw pojawiły się zasady – siedem niewiążących reguł wiarygodnej, etycznej AI. Wielu je wtedy zignorowało jako „miękkie prawo”. Dziś ta lista jest de facto checklistą inwestorów, audytorów i dużych partnerów. Etyczni przedsiębiorcy, którzy kierowali się tymi standardami zanim stały się modne, mają realną przewagę – ich systemy są zwykle bliżej zgodności z AI Act.
Jednocześnie prawodawca zostawił w regulacjach świadomą „lukę oddechu”: prawo nie próbuje precyzyjnie zdefiniować każdej nowej techniki, bo technologia zmienia się zbyt szybko. Zamiast tego opiera się na zasadach i kategoriach ryzyka, które są bardziej stabilne w czasie.
Tabela – klasy ryzyka w praktyce
| Klasa ryzyka | Opis | Główne wymogi | Przykłady działań niedozwolonych | Termin wdrożenia |
|---|---|---|---|---|
| Niedopuszczalne | Systemy angażujące zabronione praktyki | Zakaz wdrażania i użytkowania | Manipulacja podprogowa, wykorzystywanie grup wrażliwych | Od sierpnia 2025 roku |
| Wysokie | Systemy o potencjalnym znaczącym wpływie | Ocena ryzyka, dokumentacja, audyty | Budzące poważne obawy, jeśli stosowane bez kontroli | Pełne wdrożenie 2026–2027 |
| Minimalne | Systemy o niskim ryzyku | Ograniczone wymogi, podstawowa przejrzystość | Standardowe aplikacje AI bez istotnych ryzyk | Obowiązuje obecnie |
⚡ PRO TIP: Zaangażuj dział prawny lub compliance już na etapie planowania projektu AI, a nie po wdrożeniu MVP. Przeprojektowywanie architektury pod presją czasu i regulatora jest kilka razy droższe niż zaprojektowanie jej sensownie od początku.
Dane, prywatność i RODO w projektach AI
Najwięcej nerwowych telefonów od klientów odbieram nie wtedy, gdy „AI coś źle policzyło”, ale gdy pojawia się pytanie: „Czy my w ogóle możemy trenować ten model na tych danych?”. To jest ten moment, kiedy technologia zderza się z RODO.
Praca z danymi osobowymi w AI to gra na kilku poziomach jednocześnie. Mamy ochronę prywatności (RODO), bezpieczeństwo danych (środki techniczne i organizacyjne), a do tego wymogi AI Act dotyczące transparentności, dokumentacji i oceny ryzyka.
Kluczowe elementy:
-
Dokumentowanie źródeł danych treningowych – trzeba wiedzieć i móc pokazać, skąd pochodzą dane, na jakiej podstawie prawnej zostały pozyskane i czy można je użyć do trenowania modelu. To nie jest biurokracja dla samej siebie. W praktyce, gdy pojawia się roszczenie lub kontrola, ta dokumentacja ratuje firmę przed bardzo kosztownymi domysłami.
-
Transparentność wobec użytkowników – gdy dane klienta trafiają do systemu AI, klient powinien rozumieć, że tak się dzieje i w jakim celu. Dotyczy to także ujawniania samego faktu interakcji z AI: jeśli klient pisze na czacie z botem, a nie człowiekiem, musi to być jasno komunikowane.
-
Ocena ryzyka w systemach wysokiego ryzyka – tu regulacje są ostrzejsze. Trzeba sprawdzić m.in., czy model nie wprowadza stronniczości, nie prowadzi do niezamierzonych skutków (np. dyskryminacji) i czy jego działanie jest zgodne z prawami użytkowników.
W jednym z projektów HR pracowaliśmy z klientem, który chciał „wrzucić wszystko, co ma o kandydatach” do nowego modelu scoringowego. W praktyce skończyło się na połowie pierwotnego zakresu – druga połowa danych (m.in. dane wrażliwe i pola zbierane „na wszelki wypadek”) była zbyt ryzykowna prawnie i etycznie.
⚠ UWAGA: Zadbaj o wewnętrzny, egzekwowalny kodeks etyki AI. W jego ramach jasno określ, jakie dane można wprowadzać do systemów (szczególnie publicznych modeli generatywnych), a jakie są zakazane – np. dane wrażliwe pracowników, dane zdrowotne, treści objęte tajemnicą przedsiębiorstwa. Samo „nie róbmy głupot” nie jest polityką.
Granica między personalizacją a manipulacją w marketingu
W marketingu internetowym AI jest dziś królową personalizacji. Na warsztatach marketingowych często słyszę: „Chcemy, żeby każda osoba widziała dokładnie to, co ją przekona”. I to jest okej – do momentu, w którym ta personalizacja nie zaczyna wykorzystywać najsłabszych punktów użytkownika.
Dane behawioralne, historia transakcji, czas spędzany na stronie, kliknięcia – algorytmy potrafią z tego zbudować zaskakująco dokładny obraz preferencji i podatności odbiorcy. Jeśli dorzucimy do tego generatywne treści (wideo, głos, obraz), dochodzimy do punktu, w którym deepfake’i i agresywne mikrotargetowanie przestają być „fajną sztuczką”, a stają się realnym zagrożeniem.
AI Act mówi tu jasno: są praktyki, których nie wolno stosować. W szczególności:
- nie wolno wykorzystywać słabości osób z określonych grup (np. dzieci, osób z niepełnosprawnościami) do wpływania na ich decyzje,
- nie wolno stosować określonych technik podprogowych, które wywołują zachowania, których użytkownik w normalnych warunkach by nie podjął.
Te zakazy nie są „miłą sugestią” – to zakotwiczone w art. 5 AI Act twarde reguły, chroniące fundamentalne prawo do godności i integralności osoby. Systemy, które je łamią, muszą zostać wycofane z rynku.
Do tego dochodzi ryzyko stronniczości. Algorytm, który nauczył się, że „najlepiej kupują trzydziestolatki z określonego kodu pocztowego”, może zacząć nieproporcjonalnie pomijać inne grupy, utrwalając istniejące nierówności. Z prawnego punktu widzenia wkraczamy wtedy na teren dyskryminacji.
Jeśli korzystasz z AI w marketingu, praktyczne minimum to:
- jasne zasady, jakich danych używasz do personalizacji,
- mechanizmy kontroli, czy nie targetujesz w sposób, który można uznać za wykorzystanie szczególnej podatności,
- klarowna informacja dla użytkownika, jak i dlaczego widzi dane treści.
Tu znów wracamy do godności człowieka. Etyczna AI w marketingu nie polega na tym, że „nie przekraczamy linii”, tylko na tym, że projektujemy system tak, by w ogóle do tej linii się nie zbliżał.
AI w HR – gdzie kończy się automatyzacja, a zaczyna dyskryminacja
Jedna z sytuacji, które najmocniej zapadły mi w pamięć, to rozmowa z kandydatką, której aplikacja została odrzucona przez system rekrutacyjny oparty na AI. „Chcę tylko wiedzieć, czy system uznał mnie za gorszą, bo mam przerwę w CV po urodzeniu dziecka”. To nie był problem techniczny. To był problem godności.
Systemy AI w HR — w rekrutacji, ocenie pracowników, planowaniu ścieżek kariery — często trafiają do kategorii systemów wysokiego ryzyka. Oznacza to konkretne obowiązki:
- przejrzystość i wyjaśnialność decyzji,
- ocena ryzyka pod kątem stronniczości i dyskryminacji,
- nadzór człowieka nad ważnymi decyzjami,
- ochrona prywatności i minimalizacja danych.
Algorytm może nieświadomie powielać uprzedzenia obecne w danych historycznych (np. faworyzować określoną płeć, wiek, typ uczelni), nawet jeśli nikt nie zaprogramował go „złą wolą”. Dlatego regulator wymaga nie tylko jednorazowej analizy, ale ciągłego monitorowania wyników.
Kluczowy jest też nadzór człowieka. W praktyce oznacza to wyznaczenie konkretnych osób lub ról odpowiedzialnych za interwencję wtedy, gdy system AI podejmuje decyzję o dużym wpływie na życie człowieka – np. odrzucenie kandydata, brak awansu, obniżenie premii. To nie jest „przycisk awaryjny”, który ktoś kiedyś może wcisnąć. To codzienna praktyka: możliwość zakwestionowania decyzji algorytmu, obowiązek jej uzasadnienia, dialog z osobą, której dotyczy.
Jeśli w HR wdrażasz AI bez równoległego przeglądu procesów, kodeksu etycznego i wsparcia działu prawnego, ryzykujesz więcej, niż zyskujesz. Właściwie zaprojektowana AI odciąża HR-y od powtarzalnych zadań i pomaga lepiej wspierać ludzi. Źle zaprojektowana – generuje pozorne oszczędności, za które płacisz reputacją i konfliktami.
Chatboty i asystenci AI w obsłudze klienta
Kiedy zaczynałam wdrażać pierwsze chatboty u klientów, wiele firm chciało, by bot „udawał człowieka tak długo, jak się da”. Dziś to prosta droga do problemów – i regulacyjnych, i wizerunkowych.
AI Act wprost wymaga transparentności: użytkownik ma wiedzieć, że rozmawia z systemem AI, a nie człowiekiem. Ta zasada dotyczy zarówno prostych botów FAQ, jak i rozbudowanych asystentów sprzedażowych czy serwisowych. I to nie jest suchy formalizm – z badań i z praktyki wynika, że klienci lepiej oceniają marki, które uczciwie mówią: „to jest bot, ale jeśli nie pomoże, przełączymy cię na człowieka”.
Z punktu widzenia obowiązków regulacyjnych (szczególnie dla systemów wysokiego ryzyka) ważne są trzy elementy:
- dokumentacja danych treningowych i logiki działania bota,
- regularna ocena ryzyka (np. czy bot nie udziela porad, które mogą zaszkodzić klientowi),
- mechanizmy nadzoru i eskalacji do człowieka.
W jednej z firm, z którymi pracowałam, bot odpowiedzialny za obsługę reklamacji początkowo nie miał łatwego przejścia do konsultanta. Klienci „utykali” w pętli, a frustracja rosła. Dopiero po wdrożeniu jasnej informacji, że to system AI, plus prostego przycisku „porozmawiaj z człowiekiem”, wskaźniki satysfakcji skoczyły w górę, a ryzyko skarg znacząco spadło.
Brak przejrzystości i mechanizmów kontroli to nie tylko większe ryzyko kar. To realne ryzyko operacyjne: blokady systemu, nakaz jego wyłączenia, kryzys reputacyjny. Znacznie taniej jest zbudować przejrzystość od początku.
Modele ogólnego przeznaczenia (GPAI) i kodeks postępowania
Modele ogólnego przeznaczenia, takie jak ChatGPT, stały się w ostatnich latach „szwajcarskim scyzorykiem” biznesu. Piszą maile, generują prezentacje, kodują, streszczają raporty, pomagają w analizie danych. W wielu firmach widzę jeden wspólny problem: technologia wyprzedza procesy, polityki i świadomość ryzyk.
AI Act wprowadza dla takich modeli dobrowolny Kodeks postępowania GPAI. Dobrowolny w teorii, w praktyce staje się szybko standardem de facto. Przyjęcie go daje przedsiębiorstwu domniemanie zgodności z regulacją, a tym samym zmniejsza ryzyko kar i innych sankcji (w tym zakazu używania systemu). To bardzo konkretny parasol ochronny.
Kodeks koncentruje się na trzech obszarach:
-
Przejrzystość – użytkownik powinien rozumieć, że korzysta z modelu AI ogólnego przeznaczenia, jakie są jego ograniczenia i jakie ryzyka. W praktyce oznacza to zarówno komunikację do klientów, jak i szkolenia wewnętrzne zespołów.
-
Prawa autorskie – generowane treści nie mogą w sposób systemowy naruszać cudzej własności intelektualnej. Szczególnie ważne jest to w branżach kreatywnych (agencje, software house’y, wydawnictwa). Dobrze ułożone procesy obejmują np. weryfikację materiałów przed publikacją i jasne zasady dla pracowników, czego nie wolno wrzucać do publicznych modeli (np. kodu klienta, poufnych analiz).
-
Bezpieczeństwo i niezawodność – monitorowanie jakości odpowiedzi, raportowanie incydentów, kontrola nad tym, gdzie i jak przetwarzane są dane. Tu wracamy do obowiązku monitorowania systemów w całym cyklu życia — nie jednorazowo.
Nad całością czuwa European AI Office, który współpracuje z organami krajowymi. W Polsce trwają prace nad wdrożeniem AI Act do porządku krajowego, ale to nie znaczy, że „do tego czasu nic nie trzeba robić”. Najrozsądniejsza strategia, jaką widzę u dojrzałych firm, to wdrażanie kodeksu GPAI i własnego kodeksu etyki AI już teraz.
⚡ PRO TIP: Zadbaj, by Twój wewnętrzny kodeks etyki AI obejmował konkretny zakaz wprowadzania wrażliwych danych i tajemnic przedsiębiorstwa do publicznych modeli. To jedna z najprostszych i najtańszych rzeczy, jakie możesz zrobić, by ograniczyć ryzyko prawne i reputacyjne.
Lista kontrolna: 7 kroków, by korzystać z AI etycznie i zgodnie z prawem
Na warsztatach często prosicie mnie o „krótką listę, od czego zacząć, żeby nie wpaść w kłopoty”. Poniżej zebrałam siedem kroków, które realnie działają w firmach, z którymi pracuję. To nie jest pełna dokumentacja zgodności, ale bardzo solidny start.
-
Opisz i udokumentuj dane oraz procesy AI
Spisz, jakie systemy AI masz w firmie, jakie decyzje wspierają i na jakich danych działają. Dołącz informacje o źródłach danych, podstawie prawnej ich użycia i sposobie przetwarzania. To będzie fundament zarówno dla RODO, jak i wymogów AI Act. -
Regularnie oceniaj ryzyko (techniczne, prawne, etyczne)
Dla każdego systemu AI zadaj sobie pytania: co się stanie, jeśli ten system się pomyli? Kogo dotkną błędy? Czy jest ryzyko dyskryminacji, naruszenia prywatności, manipulacji? W systemach wysokiego ryzyka taka ocena musi być formalna i powtarzana – nie jednorazowa. -
Ułóż procedury bezpieczeństwa i audytów
Zdefiniuj, kto odpowiada za monitoring systemów, jak często przeglądacie ich działanie, jak zgłaszane i obsługiwane są incydenty. W wielu firmach dobrze sprawdza się prosty cykl: przegląd kwartalny plus dodatkowy audyt przy większej zmianie modelu lub danych. -
Zadbaj o transparentność wobec użytkowników
Jasno informuj, kiedy użytkownik ma do czynienia z AI (bot, system rekomendacyjny, scoring), jakie dane są wykorzystywane i w jakim celu. To wymóg AI Act, ale też prosty sposób na budowanie zaufania. Ludzie znoszą błędy technologii znacznie lepiej, gdy wiedzą, z czym mają do czynienia. -
Stwórz i egzekwuj kodeks etyki AI
Oprzyj go na siedmiu zasadach etycznej AI z wytycznych UE z 2019 roku (dziś to de facto standard check-listy): ludzka kontrola, uczciwość, przejrzystość, prywatność, odpowiedzialność… Nie musisz ich nazywać akademicko – ważne, by były zrozumiałe i realnie stosowane. W kodeksie określ też niedozwolone praktyki (np. zakaz głębokiej personalizacji wobec grup wrażliwych). -
Zabezpiecz dane osobowe na poziomie technicznym i organizacyjnym
Zadbaj nie tylko o szyfrowanie czy kontrolę dostępu, ale też o minimalizację danych, retencję, pseudonimizację tam, gdzie to możliwe. Przy projektowaniu nowych systemów AI stosuj zasadę „privacy by design” – prywatność wbudowaną w architekturę, a nie dosztukowaną na końcu. -
Wykorzystaj korzyści, jakie daje zgodność z AI Act
Zgodność to nie wyłącznie „uniknięcie kary”. To też łatwiejsza współpraca z większymi partnerami, lepsza pozycja w przetargach, szybsze wejście na nowe rynki. Firmy, które już dziś budują systemy w oparciu o regulacje i etykę, zwykle znacznie łatwiej przechodzą audyty klientów i inwestorów.
Zgodność z AI Act jako przewaga konkurencyjna
Na jednym z ostatnich projektów klient powiedział mi: „Nie wchodzimy w ten przetarg, bo nie mamy jak pokazać, że nasza AI jest zgodna z nadchodzącymi regulacjami”. Ich konkurent miał gotową dokumentację, procedury i jasno opisany kodeks etyki AI. Zgadniesz, kto wygrał?
Zgodność z AI Act to dziś nie tylko „bezpieczeństwo przed karą”. To sposób na:
- zbudowanie głębokiego zaufania klientów i partnerów,
- uporządkowanie własnych procesów wokół danych i automatyzacji,
- tworzenie innowacji, które są odporne na przyszłe zmiany regulacyjne,
- wyróżnienie się na tle firm, które dalej działają „na czuja”.
Prawo w obszarze AI zostało zaprojektowane tak, by chronić to, co najważniejsze: godność i integralność człowieka. Jeśli projektujesz swoje digitalowe ekosystemy w oparciu o te wartości, regulacja nie jest przeszkodą – jest mapą, która pomaga nie zboczyć z kursu.
Z mojego doświadczenia wynika, że firmy, które świadomie włączają etykę i prawo do strategii AI, wygrywają podwójnie. Z jednej strony minimalizują ryzyko blokad systemów, sporów i kosztownych poprawek. Z drugiej – budują silną, wiarygodną markę, której można powierzyć swoje dane i decyzje.
Najczęstsze pytania, które słyszę od klientów
Na koniec zebrałam trzy pytania, które pojawiają się niemal na każdym spotkaniu. Jeśli zadajesz je sobie – jesteś w dobrym miejscu.
Jakie praktyki AI są zakazane?
Zakazane są przede wszystkim te, które naruszają prawa człowieka i uderzają w jego godność. Chodzi m.in. o systemy manipulujące zachowaniem użytkowników przy użyciu technik podprogowych, wykorzystywanie szczególnej podatności określonych grup (np. dzieci), niektóre formy zdalnego nadzoru biometrycznego, a także określone zastosowania deepfake’ów i mikrotargetowania. Te systemy nie podlegają „naprawie” – muszą zostać wycofane z rynku UE.
Kogo dokładnie dotyczy AI Act?
Regulacja obejmuje twórców i dostawców systemów AI, firmy wdrażające je wewnętrznie (użytkowników), a także podmioty spoza UE, jeśli ich systemy są oferowane lub używane na rynku unijnym. Jeśli w Twojej firmie działają jakiekolwiek algorytmy podejmujące lub wspierające decyzje na podstawie danych – jesteś częścią tego ekosystemu.
Co mogę zrobić, żeby uniknąć kar i zakazu używania systemu?
Po pierwsze – zidentyfikować systemy AI w firmie i sprawdzić, do jakiej klasy ryzyka należą. Po drugie – wdrożyć ocenę ryzyka, zadbać o transparentność wobec użytkowników, dokumentację danych i procesów oraz realny nadzór człowieka nad kluczowymi decyzjami. Po trzecie – współpracować z działem prawnym, compliance i (tam, gdzie trzeba) z organami nadzoru, zamiast udawać, że temat „nas nie dotyczy”.
Jeśli chcesz, by AI w Twojej firmie była realną przewagą, a nie tykającą bombą, zacznij od porządku: w danych, w procesach i w odpowiedzialności. Technologia zrobi resztę.