Szukaj
Close this search box.

Jak wdrożyć AI w swojej aplikacji zgodnie z prawem? Poradnik od prawnika

Jeśli zastanawiasz się, jak dokonać legalnego i skutecznego wdrożenia sztucznej inteligencji w swojej aplikacji lub na platformie, za pośrednictwem której świadczysz swoje usługi lub przymierzasz się do startu swoich projektów AI - ten artykuł jest dla Ciebie! AI w biznesie to obecnie wyjątkowo gorący temat. Za sprawą Chatu GPT technologia ta przebojem wdarła się na salony i nie zamierza odpuścić, a każdego dnia.

Spis treści

Odbierz nagranie bezpłatnego webinaru

Kliknij po więcej informacji: Jak bezpiecznie korzystać z AI w swojej firmie

Odsłuchaj także podcastu w tym temacie

Ten odcinek znajdziesz także na SpotifyApple Podcast lub w Twojej innej ulubionej aplikacji.

Podsumowanie na start 

Jeśli nie chcesz czytać całego artykułu, oto najważniejsze informacje dotyczące korzystania z AI w Twojej aplikacji:

  1. Podstawową zasadą wdrożenia AI do Twojej aplikacji (a także ogólnie wdrażania AI w firmach) powinno być założenie: „Bierz odpowiedzialność tylko za to, na co masz wpływ”. A żeby tak się mogło stać – zadbaj o regulaminy i/lub umowy z klientami i podwykonawcami. W ten sposób zadbasz nie tylko o efektywność, ale także własne bezpieczeństwo. Innowacja, automatyzacja, większa produktywność, optymalizacja, konkurencyjność, nowe produkty – tak, ryzyku mówimy „nie”!
  2. Dostawcy systemów sztucznej inteligencji oferują narzędzia oparte na różnych jej modelach. Z tego powodu zakres ich odpowiedzialności może być naprawdę zróżnicowany. Dlatego też wdrażaniu AI w firmach powinno towarzyszyć określenie celów jej wykorzystania (czy chodzi o modę, a może o poszukiwanie rzeczywistego wsparcia pracy zespołu lub nowych narzędzi w obsłudze klienta?) oraz potrzeb biznesowych. 
  3. Nie ma jednej sztucznej inteligencji. W zależności od tego, czy korzystasz z wąskiej sztucznej inteligencji, czy z generatywnej sztucznej inteligencji, możesz mieć różny poziom kontroli nad oferowanym produktem.
  4. Rzadko zdarza się, aby twórca systemu AI, jego dostawca i wdrażający byli tymi samymi osobami/podmiotami. Relacja z każdym z nich może wymagać innego rodzaju niezbędnych do wdrożenia zabezpieczeń prawnych. Zrozumienie technologii AI będzie zawsze pomocne. 
  5. Przed wykupieniem/uzyskaniem licencji na korzystanie z danego systemu AI upewnij się, że możesz (lub Twoja organizacja czy firma mogła będzie) korzystać z niego do celów komercyjnych (czy innych, które planujesz) i jaki zakres odpowiedzialności bierze na siebie jego dostawca. Warto dbać o zwrot z inwestycji także poprzez odpowiednie narzędzia prawne. 
  6. Jeśli zamierzasz wdrożyć AI do Twojej aplikacji, pamiętaj o tym, że musi to odbywać się zgodnie z przepisami prawa: w szczególności pamiętaj o przepisach wdrożonej dyrektywy Omnibus i dyrektywy cyfrowej.
  7. Opracowując aplikację opartą na AI we współpracy z software house’em czy programistą, zadbaj o umowę, która maksymalnie zabezpieczy Twoje interesy. W szczególności zadbaj o kwestię odpowiedzialności, odpowiednie postanowienia w zakresie ochrony danych osobowych, informacji poufnych i ochrony tajemnicy Twojej firmy, ochrony Twojej własności intelektualnej oraz ograniczenia Twojej odpowiedzialności za efekty działania wdrożonego systemu. Umowa może być sekretem Twojego udanego wdrożenia. 
  8. Planując wdrożenie AI do Twojej aplikacji pamiętaj o tym, że w UE trwają intensywne prace nad ostatecznym tekstem rozporządzenia w sprawie sztucznej inteligencji (tzw. AI Act). AI Act nałoży szereg obowiązków na dostawców systemów sztucznej inteligencji, dlatego warto już dziś zadbać o świadomy proces wdrożenia nowych rozwiązań i projektów opartych na AI, co pozwoli na ograniczenie obaw związanych z nowymi przepisami.
  9. No i najważniejsze 🙂 Potrzebujesz pomocy prawnika? Wypełnij prosty formularz i skorzystaj z 15 minutowej bezpłatnej konsultacji, gdzie omówimy Twoje wątpliwości i możliwe rozwiązania!

Przeczytaj także:

(Dalsza część artykułu poniżej.)

Newsletter, który pomoże Ci rozwinąć 🚀 Twoją firmę technologiczną lub software house pod kątem prawnym i biznesowym.

Dołącz do społeczności właścicieli, kadry zarządzającej i managerskiej w firmach technologicznych i software house! Otrzymuj co 2 tygodnie najważniejsze informacje.

Więcej o naszym newsletterze „Let’s talk tech” przeczytasz pod linkiem: https://letstalktech.pl/

Po zapisaniu się odbierz od nas powitalnego maila z bonusami m.in. bezpłatne nagrania webinarów i szkoleń dla startupów i branży tech!

W razie problemów, napisz do nas. Sprawdź folder spam/oferty.


Aktywując przycisk pod formularzem, akceptujesz nasz Regulamin (w zakresie dotyczącym Newslettera) oraz wyrażasz zgodę na otrzymywanie treści edukacyjnych, informacji o produktach i usługach kancelarii Creativa Legal Korol Szczudło adwokaci sp.p., np. o nowych artykułach, kursach on-line, czy zniżkach. Przeczytaj, w jaki sposób przetwarzamy Twoje dane osobowe w naszej Polityce prywatności.

Czym jest sztuczna inteligencja?  

Genezą technologii sztucznej inteligencji jest ogólna idea, w myśl której chciano stworzyć systemy, które są zdolne do wykonywania zadań wymagających inteligencji człowieka, takich jak rozpoznawanie obrazów, rozumienie języka naturalnego czy podejmowanie decyzji. Z tego powodu, na każdym etapie swojego rozwoju AI  dążyła i będzie dążyć do symulowania i replikowania ludzkiego myślenia oraz zachowań w najbardziej efektywny sposób. 

Często wymiennie z pojęciem sztucznej inteligencji używane jest pojęcie uczenia maszynowego. Nie są to jednak zjawiska w pełni tożsame. Ich relację można określić w następujący sposób: każda AI będzie należała do obszaru uczenia maszynowego, jednak nie każda technologia uczenia maszynowego będzie AI. Mechanizmy sztucznej inteligencji będą jednak bazować na uczeniu maszynowym. 

Jest to o tyle ważne, że od lat 90. opracowano różne modele sztucznej inteligencji, które rzadko kiedy opierają się na tych samych mechanizmach. Do opracowania danego AI można wykorzystywać algorytmy samouczące, sieci neuronowe czy przetwarzanie języka naturalnego (ang. Natural Language Procesing, NLP).  

Przytoczone powyżej przykłady są z kolei same w sobie oddzielnymi dziedzinami, które dynamicznie się rozwijają. Sieci neuronowe były inspirowane biologicznymi sieciami neuronowymi i miały na celu naśladowanie procesów uczenia się mózgu. Znakomicie sprawdzają się do klasyfikacji, rozpoznawania wzorców i przetwarzania danych. Choć pierwsze opracowano w latach 90., dopiero technologiczny rozwój, w tym narodziny Big Data i data-driven economy uwolnił ich potencjał. Dzięki tej technologii powstało wiele AI wykorzystywanych w badaniach naukowych.  

Z kolei NLP koncentruje się na interakcji komputerów z językiem ludzkim. Rozwój tej dziedziny nastąpił w ostatnich kilkunastu latach, wraz z postępem w dziedzinie uczenia maszynowego (związanego m.in. z renesansem sieci neuronowych). Wykorzystuje ono algorytmy samouczące i sieci neuronowe do rozpoznawania i generowania języka naturalnego. Najbardziej znanym dzieckiem NLP jest właśnie Chat GPT, ale już wcześniej gościło u nas w postaci tłumacza Google.  

Prawdopodobnie zadajesz sobie pytanie, po co o tym wszystkim piszę?

Na tych prostych przykładach łatwo można zauważyć, że jedna AI nie będzie równa innej AI. Pod tą samą nazwą mogą się kryć zupełnie inne narzędzia, w zależności od tego, jakie technologie składowe będą w nich wykorzystywane. Taka szybka analiza pozwoli Ci natomiast określić potrzeby prawne i będzie mieć przełożenie na to, jakie ryzyka prawne będziesz mieć do okiełznania.

Przykładowo: AI wykorzystuje technologię Generative Adversarial Networks (GAN), która do służy do generowania nowych, autentycznie wyglądających danych na podstawie istniejących danych treningowych. Jeśli dane treningowe okażą się fałszywe, to również nowe dane będą obarczone błędem. Nie można wykluczyć też sytuacji, w której AI zacznie generować dane treningowe (np. w wyniku awarii programu). Oba zjawiska maja konsekwencje prawne.  

Jakie rodzaje sztucznej inteligencji może wykorzystywać moja aplikacja?  

Skoro wiemy już, że AI jest AI nierówne, to na pewno jest jakiś podział, który to porządkuje! Jako prawnicy lubimy klarowne rozróżnienia, dlatego na potrzeby tego artykułu wykorzystam podział na wąską i generatywną sztuczną inteligencję.  

Wąska sztuczna inteligencja (ang. narrow AI) odnosi się do systemów, które są wyspecjalizowane w wąskich zadaniach lub dziedzinach. Są one zaprojektowane do wykonywania konkretnych zadań, ale nie wykazują ogólnej inteligencji ani zdolności do przekraczania swojego wąskiego obszaru zastosowania.

Przykłady prostych, wąskich sztucznych inteligencji to systemy rekomendacyjne, rozpoznawanie mowy czy chatboty. Ich wdrożenie w firmach wymaga zazwyczaj mniej zaangażowania i nie wiąże się z koniecznością przyjmowania szczególnych procedur. Dzięki temu firmy mogą prosto zautomatyzować swoje standardowe procesy. 

Krokiem dalej jest generatywna sztuczna inteligencja.

Jest to rodzaj sztucznej inteligencji, która może tworzyć szerokie spektrum danych, takich jak obrazy, filmy, dźwięk, tekst i modele 3D. Efekty te jest w stanie osiągać poprzez wykorzystanie wspomnianej już technologii GAN oraz inne modele uczenia się wzorców z istniejących danych, a następnie wykorzystywanie tej wiedzy do generowania nowych i unikalnych wyników. Dzięki temu otrzymujemy wysoce realistyczne i złożone treści, które naśladują ludzką kreatywność. Generatywna sztuczna inteligencja stała się ważnym narzędziem dla wielu branż, takich jak gry, rozrywka i projektowanie produktów. Weszła pod strzechy dzięki Chat GPT (btw. GPT to nic innego jak skrót od Generative Pre-trained Transformer). O generatywnej AI mówi się teraz najwięcej. 

Mając na uwadze te rozróżnienia łatwo zauważyć, że choć dana aplikacja będzie wykorzystywać AI, to w zależności od tego jakiego rodzaju technologia będzie znajdować się pod jej maską, generowane będą inne wyzwania i ryzyka prawne.

Przykładowo od wąskiej AI będziemy wymagać niezawodności i pewności więc większy nacisk będziemy kłaść na wsparcie ze strony jej dostawcy. Generatywna AI w zasadzie nie gwarantuje nam ani prawdziwości otrzymanych danych, ani niezawodności, dlatego konstruując umowę z naszymi odbiorcami, warto zabezpieczyć się na ewentualność, gdybyśmy zostali przez nich pozwani z tego tytułu.  

Czy dostawca i twórca narzędzia AI to musi być ten sam podmiot?  

Dostawca AI to podmiot, który dostarcza technologie, rozwiązania lub usługi związane ze sztuczną inteligencją (AI). Może to być osoba prawna lub osoba fizyczna (np. programista) lub inny podmiot, który oferuje narzędzia, biblioteki, platformy lub rozwiązania oparte na AI, które mogą być wykorzystywane przez inne podmioty do tworzenia i wdrażania aplikacji opartych na sztucznej inteligencji. 

Podmiot dostarczający nam takie rozwiązania nie zawsze jest tym samym podmiotem, który stworzył dane rozwiązanie AI w pełnym zakresie. Oznacza to, że niektóre rozwiązania AI mogą być oparte na technologiach lub modelach opracowanych przez inne podmioty, a dostawcy rozwiązania AI mogą je integrować, dostosowywać i dostarczać jako część swojego produktu lub usługi. Istnieje również możliwość, że dostawcy AI mogą tworzyć własne modele AI, bazując na wynikach badań i osiągnięciach naukowych innych podmiotów. 

Jeszcze innym podmiotem może być osoba lub firma, która przeprowadza wdrożenie AI w danej aplikacji.  

W zasadzie nierzadko sytuacja będzie wyglądać następująco: X tworzy jakiś model AI, który rozwijany jest przez Y. Z (to możesz być właśnie Ty!) chce zaimplementować rozwinięte przez Y AI do swojej aplikacji, więc zleca wdrożenie Q. Po wdrożeniu sztucznej inteligencji, Y sprzedaje swoje rozwiązanie klientem końcowym.  

To na jakich zasadach konkretnie będzie można korzystać z konkretnych rozwiązań będzie zależało od postanowień regulaminów konkretnych rozwiązań AI. Przykładowo: OpenAI udziela licencji Open Sorce, która pozwala na wykorzystywanie przez użytkowników ChatGPT oraz DallE 2 do celów biznesowych. Jednocześnie zwalnia się od odpowiedzialności za naruszenie praw osób trzecich przy wykorzystaniu jej narzędzi przez użytkowników.  

Inną politykę przyjął z kolei dostawca narzędzia do sprawdzania pisowni Grammarly. Ono również opiera się na sztucznej inteligencji, jednak w zasadach korzystania z usług dla firm jasno wskazano, że można je wykorzystywać tylko do potrzeb wewnętrznych danej firmy, nigdy w celach komercyjnych.  

Midjourney przyjęła z kolei politykę różnicowania uprawnień w zależności od tego, czy jesteś płatnym, czy darmowym subskrybentem. Co do zasady płatni subskrybenci mogą wykorzystywać narzędzie Midjourney do celów komercyjnych. Natomiast bezpłatni subskrybenci, mogą korzystać z tego rozwiązania tylko na zasadach licencji Creative Commons Noncommercial 4.0, która wyklucza wykorzystywanie takich utworów do celów zarobkowych.  

Mając na uwadze zasady zawarte w regulaminach poszczególnych narzędzi, musisz pamiętać również o obowiązkach, jakie będą ciążyć na Tobie, jako dostawcy aplikacji wykorzystującej AI – jeśli ją wdrożysz.  

Jeśli już świadczysz usługi drogą elektroniczną wiesz na pewno o nowych obowiązkach wynikających z implementacji dyrektywy cyfrowej do polskiego porządku prawnego. Jeśli nie jesteś pewien o co chodzi, zachęcam Cię do zapoznania się z moim artykułem Nowe zasady sprzedaży produktów elektronicznych i świadczenia usług online, czyli co zmieni dyrektywa cyfrowa? https://creativa.legal/nowe-zasady-sprzedazy-produktow-elektronicznych-i-swiadczenia-uslug-online/ 

Jednocześnie, oprócz standardowych wyzwań, zwróć uwagę na pewne specyficzne kwestie związane z wykorzystywaniem AI. Przykładowo, jeśli będziesz świadczyć swoje usługi konsumentom i zamierzasz wykorzystywać mechanizmy profilowania, szczególnie pod kątem przygotowania oferty – musisz ich o tym poinformować. Jednocześnie, jeśli będziesz stosować mechanizmy kwalifikowanego profilowania na gruncie RODO – niezależnie od tego, czy klient jest konsumentem, czy nie – musi być również o tym poinformowany.  

Oprócz tego, chcąc wdrożyć AI musisz szczególną uwagę zwrócić na zabezpieczenie danych osobowych Twoich klientów.  

Jakie wyzwania prawne wiążą się z wdrożeniem AI w aplikacji?  

Podstawowym problemem związanym z dostarczeniem usług cyfrowych wykorzystujących AI jest rozmycie odpowiedzialności za systemy sztucznej inteligencji. Kto inny je tworzy, kto inny dostarcza, kto inny je wdraża i kto inny je wykorzystuje. W zależności od tego, kim w tym układzie jesteś, inaczej będziesz zabezpieczał swoje interesy.  

Przyjmując, że chcesz wdrożyć AI do swojej aplikacji, pamiętaj o następujących krokach:  

  1. dokładnie zapoznaj się z regulaminem narzędzia AI (a najlepiej zachowaj jego treść, nawet w formie zrzutu ekranu), które chcesz wdrożyć. Jednocześnie zastanów się, czy masz do czynienia z wąską sztuczną inteligencją, czy z generatywną sztuczną inteligencją; 
  2. po zapoznaniu się z regulaminem narzędzia AI zastanów się, w jakim zakresie jego dostawca przerzuca na Ciebie odpowiedzialność za szkody/wady tego narzędzia oraz w jakim zakresie udziela Ci licencji do korzystania z tego narzędzia, w szczególności czy licencja obejmuje jego komercyjne wykorzystanie; 
  3. podejmując współpracę z software house’em w zakresie wdrożenia sztucznej inteligencji do Twojej aplikacji maksymalnie zabezpiecz swoje interesy w zakresie wsparcia technicznego i odpowiedzialności za ewentualne awarie; Tutaj zdobędziesz solidną porcję wiedzy o tym, Jak zabezpieczyć się przy współpracy z Software House’em;
  4. na bazie ustaleń w zakresie tego, z jaką sztuczną inteligencją masz do czynienia, odpowiednio zmodyfikuj postanowienia regulaminu Twojej aplikacji. W szczególności, jeśli wdrażasz generatywną AI, nie możesz zagwarantować Twoim użytkownikom, co otrzymają w efekcie jej wykorzystania oraz czy to, co otrzymają będzie legalne lub prawdziwe. W takich wypadkach musisz doprecyzować, co jest przedmiotem Twojej usługi i za co nie bierzesz odpowiedzialności. Jeśli wdrażasz prostą sztuczną inteligencję np. mechanizm usprawniający zarządzanie danymi w ramach Twojej usługi chmurowej, zarysowane powyżej ryzyka mogą być mniejsze. Pamiętaj jednak, że zawsze musisz mieć na uwadze, że ze swojej istoty AI posiada pewną autonomię w zakresie swojego działania. Oznacza to, że pewna domena jej funkcjonowania znajduje się poza zakresem Twojej kontroli, przez co zawsze musisz wiedzieć, za co nie brać odpowiedzialności; 
  5. zabezpiecz dane osobowe. Wdrażając AI, musisz przeprowadzić dokładny audyt przetwarzania danych osobowych oraz określić, które dane osobowe mogą „wpaść” w AI i jakie z tym faktem łączą się ryzyka. W zależności od tego, w jakim celu systemy sztucznej inteligencji będą przetwarzać takie dane, zadbaj o to, aby były zanonimizowane lub żeby użytkownicy wyrazili zgodę na automatyczne przetwarzanie ich danych. Pamiętaj, „bierz odpowiedzialność tylko za to, na co masz wpływ”.  

Powyższe wskazówki powinny Ci pomóc w ustaleniu zakresu odpowiedzialności odnoszącego się do Ciebie i Twojej firmy. W dalszej kolejności pozwoli Ci to na określenie, kiedy będzie odpowiadał za szkody wyrządzone przez wadliwe funkcjonowanie aplikacji lub jaki zakres będzie mieć rękojmia, jaką udzielisz na twoje usługi.  

Nawet jeśli, klient będzie mieć rację, to odpowiednie klauzule umowne z dostawcami lub podmiotami wdrażającymi mogą umożliwić Ci dochodzenie roszczeń regresowych. Na rynku pojawiają się także pierwsze ubezpieczenia od odpowiedzialności na skutek korzystania ze sztucznej inteligencji. Jak widzisz, AI staje się pełnoprawnym graczem w biznesie! 

Podobna sytuacja może mieć miejsce, w sytuacji, gdy dojdzie do naruszenia praw osób trzecich. W tym wypadku jednak pamiętaj o pewnej specyficznej kwestii związanej z AI. Nieważne czy korzystasz z wąskiej, czy generatywnej sztucznej inteligencji, nigdy nie możesz mieć pewności, czy dane, na których się uczy, zostały zebrane legalnie oraz czy algorytmy samouczące się, odzwierciedlają właściwy proces rozumowy tj. czy z prawdziwych przesłanek potrafią wyciągnąć prawdziwe wnioski lub, czy właściwie weryfikują dane.  

Ten aspekt funkcjonowania AI ma bardzo doniosłe znaczenie, ponieważ, błędy w tym zakresie mogą prowadzić do: 

  1. naruszenia cudzej własności intelektualnej; 
  2. generowanie nieprawdziwych informacji, które jeśli zostaną wykorzystane przez Twojego użytkownika (np. do podjęcia decyzji biznesowych) mogą doprowadzić do wyrządzenia szkód materialnych; 
  3. naruszenia cudzych dóbr osobistych.  

Każda z tych kwestii stała się już przedmiotem jakiegoś pozwu przeciwko OpenAI. Na rozstrzygnięcia musimy zaczekać, jednak powinna to być przestroga również dla Ciebie. Z tego powodu, zalecam możliwe najszersze zabezpieczenie się przed skutkami takich błędów w umowach z Twoimi klientami poprzez umieszczenie w nich stosownych klauzul wyłączających odpowiedzialność.  

Jakie ryzyka generuje wdrożenie AI dla Twojej firmy i modelu biznesowego Twojej aplikacji?   

Już wcześniej wspomniałem o odpowiednim zabezpieczeniu Twoich interesów przy współpracy z Software Housem na etapie wdrażania AI do Twojej aplikacji. W tym miejscu chciałbym zwrócić Twoją uwagę na zagrożenia, jakie mogą wiązać się z tym procesem dla Twojego biznesu. Oto kilka z nich:  

  1. zagrożenie dla Twojej własności intelektualnej – wdrożenie AI w Twojej aplikacji będzie wymagało modyfikacji jej działania. Podmiot wdrażający uzyska dostęp do kodu źródłowego oraz autorskich mechanizmów jej funkcjonowania. Jednocześnie powstanie nowy program, którego autorem będzie software house. Dlatego, aby chronić swoje interesy, wskaż wyraźnie w umowie, że na jej podstawie podmiot wdrażający nie uzyskuje żadnych praw autorskich do istniejącego programu, oraz że przenosi wszelkie autorskie prawa majątkowe do programu (ewentualnie udziela Ci licencji umożliwiającej udzielanie dalszych licencji użytkownikom), który powstanie po wdrożeniu AI na Ciebie lub Twoją firmę; 
  2. zagrożenie dla danych osobowych – wdrożenie AI do Twojej aplikacji stanowić będzie duże wyzwanie dla ochrony danych osobowych Twoich użytkowników. Zastanów się w jakim zakresie, już na etapie wdrożenia zabezpieczyć te dane, w szczególności czy powinny być zanonimizowane. Jeśli tak, to wskaż tę okoliczność w umowie z podmiotem wdrażającym; 
  3. zagrożenie dla danych poufnych/tajemnic przedsiębiorstwa – zabezpieczenie tajemnicy przedsiębiorstwa i Twoich danych poufnych w tym wypadku wymagać będzie nie tylko zawarcia standardowej umowy o poufności, lecz również wprowadzenia mechanizmów, które oddzielą AI od tych danych. Więcej o umowie o zachowaniu poufności piszę w tym artykule https://creativa.legal/umowa-o-zachowaniu-poufnosci-nda/;
  4. zagrożenie dla jakości świadczonych usług – algorytmy AI, szczególnie tej generatywnej, mogą nie do końca zachowywać się w sposób oczekiwany przez nas lub naszych klientów. Za bardzo nie mamy jak zapobiec tego rodzaju zjawiskom, jednak możemy się zwolnić od odpowiedzialności za nie. W tym celu konieczne będzie zmodyfikowanie postanowień regulaminu w zakresie tego, co jest przedmiotem świadczonych przez usług i za co bierzemy odpowiedzialność.  

Jak widzisz, wdrażając AI do swojej aplikacji, możesz zabezpieczyć się na bardzo różne sposoby. Ponad to, co wskazałem powyżej, warto przygotować specjalne klauzule informacyjne, w których poinformujesz swoich klientów:  

  1. o wdrożeniu AI i korzyściach oraz ryzykach, jakie może to pociągnąć; 
  2. o zmianach w regulaminie wynikających  wdrożenia odpowiednich rozwiązań AI; 
  3. o zmianach w zakresie funkcjonowania aplikacji; 
  4. o zasadach ochrony danych osobowych oraz wykorzystaniu plików cookie.

Potrzebujesz pomocy przy wdrożeniu AI w swojej firmie? Napisaniu lub zmodyfikowaniu regulaminu Twojej aplikacji? Napisz do nas korzystając z formularza kontaktowego. Odezwiemy się w ciągu 24 godzin i z chęcią Ci pomożemy 🙂

Jakie przepisy będą regulować korzystanie z AI w najbliższym czasie?  

W dniu 14 czerwca 2023 r. Parlament Europejski przyjął tzw. AI Act, który skierowany został do dostawców aplikacji wykorzystującej AI. Obecnie nad kształtem regulacji będą debatować przedstawiciele państw członkowskich.  

Podstawowym założeniem tego dokumentu jest zapewnienie zgodności systemów AI (opracowanych w i poza UE) z prawami i wartościami Unii, w tym z bezpieczeństwem, prywatnością, przejrzystością, niedyskryminacją oraz dobrostanem społecznym i środowiskowym.  

W tym celu projekt unijnego rozporządzenia ustanawia szereg obowiązków dla dostawców i podmiotów wdrażających systemy sztucznej inteligencji. Ich zakres będzie zróżnicowany w zależności od poziomu ryzyka, jakie dana technologia będzie generować.  

Systemy generujące największe mają być zakazane. Należą do nich szczególnie systemy przeznaczone do oceniania zachowań społecznych ludzi lub ich cech osobistych. Przykładem takich narzędzi są np. biometryczne systemy kategoryzacji wykorzystujące cechy wrażliwe (np. płeć, rasę, pochodzenie etniczne, status obywatelski, religię, orientację polityczną) lub predykcyjne systemy policyjne (oparte na profilowaniu, lokalizacji lub wcześniejszych zachowaniach przestępczych).  

Podstawowymi obowiązkami dostawców usług opartych o AI mają być ocena i ograniczanie potencjalnych zagrożenia (dla zdrowia, bezpieczeństwa, praw podstawowych, środowiska, demokracji czy praworządności), a także rejestrowanie swojego modelu w bazie danych UE przed ich wprowadzeniem na unijne rynki. 

Jak już wspominałem, wymienione wyżej obowiązki będą niuansowane w zależności od ryzyka generowanego przez dany model sztucznej inteligencji.  Przykładowo wysokie ryzyko obejmować ma systemy sztucznej inteligencji, które mogą wyrządzić znaczną szkodę dla zdrowia, bezpieczeństwa, praw podstawowych lub środowiska. Niestety, nie wiadomo, co unijny ustawodawca rozumie pod pojęciem znacznej szkody – dlatego osobiście liczę, że w toku dalszych prac ta kluczowa kwestia zostanie doprecyzowana na dalszych etapach procesu ustawodawczego.  

Oprócz rozporządzenia AI Act drugim istotnym dokumentem jest projekt dyrektywy w sprawie odpowiedzialności za sztuczną inteligencję. Unijne prawo ma zobowiązać rządy państw członkowskich do odpowiedniego zmodyfikowania swoich regulacji cywilnoprawnych w zakresie odpowiedzialności za systemy sztucznej inteligencji.  

W największym skrócie: 

  1. regulacja ma odnosić się do roszczeń dochodzonych na zasadzie winy; 
  2. dostawcy usług opartych na AI będą zobowiązani do ujawniania dowodów dotyczących systemów sztucznej inteligencji wysokiego ryzyka, aby umożliwić poszkodowanym uzasadnienie cywilnoprawnego roszczenia odszkodowawczego; 
  3. wprowadzone zostanie domniemanie istnienia związku przyczynowego pomiędzy wystąpieniem szkody w związku z wykorzystaniem AI a funkcjonowaniem danej AI, polegającego na przyjęciu domniemania niedopełnienia obowiązku dochowania należytej staranności zgodnie z prawem unijnym lub krajowym. Innymi słowy, w przypadku zaistnienia szkody związanej z wykorzystaniem aplikacji opartej na AI, to jej dostawca będzie musiał wykazać, że nie ponosi winy za szkodę i dochował należytą staranność, a nie osoba, która go będzie pozywać (będzie to przypadek tzw. odwróconego ciężaru dowodu).  

Podsumowanie  

Rozwój sztucznej inteligencji przynosi niespotykane dotąd możliwości rozwoju biznesu. Rozwiązania oparte na sztucznej inteligencji pozwalają na automatyzację wielu procesów biznesowych, co może przyczynić się do poprawy efektywności i oszczędności czasu oraz zasobów. Dzięki wdrożeniu AI możesz zyskać zupełnie nowe możliwości w obszarach takich jak analiza danych, prognozowanie trendów rynkowych, personalizacja oferty dla klientów czy optymalizacja ich procesów produkcyjnych lub logistycznych.

Proces wdrażania AI w organizacjach czy w aplikacji wymaga jednak również uwzględnienia pewnych wyzwań i zagrożeń. Przede wszystkim, konieczne jest odpowiednie zarządzanie danymi, w tym zapewnienie ochrony prywatności użytkowników, bezpieczeństwa i zgodności z obowiązującymi (a najlepiej także projektowanymi, aby mieć wystarczająco dużo czasu na przygotowanie się do ich wejścia w życie) przepisami.

Napisz do nas, jeżeli chcesz porozmawiać o wdrożeniu AI w Twojej firmie!

Zdjęcie dodane przez cottonbro studio.

Picture of Arkadiusz Szczudło

Arkadiusz Szczudło

Jestem adwokatem, Partnerem Zarządzającym w kancelarii Creativa Legal, wiceprezesem fundacji Creativa Education, mentorem i twórcą internetowym. Specjalizuję się w prawie nowych technologii oraz prawnym wsparciu biznesu – w tym w szczególności e-commerce i biznesu online. Jestem ekspertem w zakresie prawnych aspektów technologii blockchain. Poznaj autora.

Subskrybuj nasz newsletter i bądź na bieżąco!

Otrzymuj informacje o nowościach w prawie, nowych artykułach, produktach, usługach, czy szkoleniach od kancelarii Creativa Legal.

Dołącz do ponad 6000 innych osób, które już nam zaufało!

Po zapisaniu się odbierz od nas maila z potwierdzeniem. W razie problemów, napisz do nas. Sprawdź folder spam/oferty.


Aktywując przycisk pod formularzem, akceptujesz nasz Regulamin (w zakresie dotyczącym Newslettera) oraz wyrażasz zgodę na otrzymywanie treści edukacyjnych, informacji o produktach i usługach kancelarii Creativa Legal Korol Szczudło adwokaci sp.p., np. o nowych artykułach, kursach on-line, czy zniżkach. 

Zapoznaj się z naszą Polityką prywatności.

Ta strona jest chroniona przez reCAPTCHA. Mają zastosowanie Polityka prywatności oraz Regulamin serwisu Google.

Newsletter, który pomoże Ci rozwinąć 🚀 Twoją firmę technologiczną lub software house pod kątem prawnym i biznesowym.

Dołącz do społeczności właścicieli, kadry zarządzającej i managerskiej w firmach technologicznych i software house! Otrzymuj co 2 tygodnie najważniejsze informacje.

Więcej o naszym newsletterze „Let’s talk tech” przeczytasz pod linkiem: https://letstalktech.pl

Po zapisaniu się odbierz od nas powitalnego maila z bonusami. W razie problemów, napisz do nas. Sprawdź folder spam/oferty.


Aktywując przycisk pod formularzem, akceptujesz nasz Regulamin (w zakresie dotyczącym Newslettera) oraz wyrażasz zgodę na otrzymywanie treści edukacyjnych, informacji o produktach i usługach kancelarii Creativa Legal Korol Szczudło adwokaci sp.p., np. o nowych artykułach, kursach on-line, czy zniżkach. 

Zapoznaj się z naszą Polityką prywatności.

Ta strona jest chroniona przez reCAPTCHA. Mają zastosowanie Polityka prywatności oraz Regulamin serwisu Google.