Jeśli zastanawiasz się, jak dokonać legalnego i skutecznego wdrożenia sztucznej inteligencji w swojej aplikacji lub na platformie, za pośrednictwem której świadczysz swoje usługi lub przymierzasz się do startu swoich projektów AI – ten artykuł jest dla Ciebie! Wdrożenie sztuczne inteligencji w biznesie to obecnie wyjątkowo gorący temat. Za sprawą Chata GPT technologia ta przebojem wdarła się na salony (a AI-owy marketing wciąż rośnie) i zdecydowanie pozostanie na nich na zawsze.
Odbierz nagranie bezpłatnego webinaru
Kliknij po więcej informacji: Jak bezpiecznie korzystać z AI w swojej firmie
Odsłuchaj także podcastu w tym temacie
Ten odcinek znajdziesz także na Spotify, Apple Podcast lub w Twojej innej ulubionej aplikacji.
Podsumowanie na start
Jeśli nie masz ochoty czytać całego artykułu, a chcesz sprawdzić co i jak – oto najważniejsze informacje dotyczące korzystania z AI w Twojej aplikacji:
- Podstawową zasadą wdrożenia AI do Twojej aplikacji (a także ogólnie wdrażania AI w firmach) powinno być założenie: „Bierz odpowiedzialność tylko za to, na co masz wpływ”. A żeby tak się mogło stać – zadbaj o regulaminy i/lub umowy z klientami i podwykonawcami. W ten sposób zadbasz nie tylko o efektywność, ale także własne bezpieczeństwo. Innowacja, automatyzacja, większa produktywność, optymalizacja, konkurencyjność, nowe produkty – tak, ryzyku mówimy „nie”!
- Dostawcy systemów sztucznej inteligencji oferują narzędzia oparte na różnych jej modelach. Z tego powodu zakres ich odpowiedzialności może być naprawdę zróżnicowany. Dlatego też wdrażaniu AI w firmach powinno towarzyszyć określenie celów jej wykorzystania (czy chodzi o modę, a może o poszukiwanie rzeczywistego wsparcia pracy zespołu lub nowych narzędzi w obsłudze klienta?) oraz potrzeb biznesowych.
- Nie ma jednej sztucznej inteligencji. W zależności od tego, czy korzystasz z wąskiej sztucznej inteligencji, czy z generatywnej sztucznej inteligencji, możesz mieć różny poziom kontroli nad oferowanym produktem.
- Rzadko zdarza się, aby twórca systemu AI, jego dostawca i wdrażający byli tymi samymi osobami/podmiotami. Relacja z każdym z nich może wymagać innego rodzaju niezbędnych do wdrożenia zabezpieczeń prawnych. Zrozumienie technologii AI będzie zawsze pomocne.
- Przed wykupieniem/uzyskaniem licencji na korzystanie z danego systemu AI upewnij się, że możesz (lub Twoja organizacja czy firma mogła będzie) korzystać z niego do celów komercyjnych (czy innych, które planujesz) i jaki zakres odpowiedzialności bierze na siebie jego dostawca. Warto dbać o zwrot z inwestycji także poprzez odpowiednie narzędzia prawne.
- Jeśli zamierzasz wdrożyć AI do Twojej aplikacji, pamiętaj o tym, że musi to odbywać się zgodnie z przepisami prawa: w szczególności pamiętaj o przepisach wdrożonej dyrektywy Omnibus i dyrektywy cyfrowej.
- Opracowując aplikację opartą o sztuczną inteligencję we współpracy z software house’em czy programistą, zadbaj o umowę, która maksymalnie zabezpieczy Twoje interesy. W szczególności zadbaj o kwestię odpowiedzialności, odpowiednie postanowienia w zakresie ochrony danych osobowych, informacji poufnych i ochrony tajemnicy Twojego przedsiębiorstwa, ochrony Twojej własności intelektualnej oraz ograniczenia Twojej odpowiedzialności za efekty działania wdrożonego systemu. Umowa może być sekretem Twojego udanego wdrożenia.
- Planując wdrożenie AI do Twojej aplikacji pamiętaj o tym, że w marcu 2024 r. Parlament Europejski zatwierdził treść rozporządzenia w sprawie sztucznej inteligencji (tzw. AI Act). AI Act nałoży szereg obowiązków na dostawców systemów sztucznej inteligencji, dlatego warto już dziś zadbać o świadomy proces wdrożenia nowych rozwiązań i projektów opartych na AI, co pozwoli na ograniczenie obaw związanych z nowymi przepisami.
- No i najważniejsze 🙂 Nie chcesz analizować warunków sam(a)? Potrzebujesz pomocy prawnika? Wypełnij prosty formularz i skorzystaj z 15 minutowej bezpłatnej konsultacji, gdzie omówimy Twoje wątpliwości, możliwe rozwiązania konkretnych problemów i pomożemy spersonalizować produkt!
Przeczytaj także:
- Jak zbudować i wdrożyć aplikację SaaS zgodnie z prawem?
- Co powinna zawierać dobra umowa wdrożeniowa IT?
- Jak korzystać ze sztucznej inteligencji (AI)? Poradnik od prawnika
Czym jest sztuczna inteligencja?
Genezą technologii sztucznej inteligencji jest ogólna idea, w myśl której chciano stworzyć systemy, które są zdolne do wykonywania zadań wymagających inteligencji człowieka, takich jak rozpoznawanie obrazów, rozumienie języka naturalnego czy podejmowanie decyzji. Z tego powodu, na każdym etapie swojego rozwoju AI dążyła i będzie dążyć do symulowania i replikowania ludzkiego myślenia oraz zachowań w najbardziej efektywny sposób.
Często wymiennie z pojęciem sztucznej inteligencji używane jest pojęcie uczenia maszynowego. Nie są to jednak zjawiska w pełni tożsame. Ich relację można określić w następujący sposób: każda AI będzie należała do obszaru uczenia maszynowego, jednak nie każda technologia uczenia maszynowego będzie AI. Mechanizmy sztucznej inteligencji będą jednak bazować na uczeniu maszynowym.
Jest to o tyle ważne, że od lat 90. opracowano różne modele sztucznej inteligencji, które rzadko kiedy opierają się na tych samych mechanizmach. Do opracowania danego AI można wykorzystywać algorytmy samouczące, sieci neuronowe czy przetwarzanie języka naturalnego (ang. Natural Language Procesing, NLP).
Przytoczone powyżej przykłady są z kolei same w sobie oddzielnymi dziedzinami, które dynamicznie się rozwijają. Sieci neuronowe były inspirowane biologicznymi sieciami neuronowymi i miały na celu naśladowanie procesów uczenia się mózgu. Znakomicie sprawdzają się do klasyfikacji, rozpoznawania wzorców i przetwarzania ogromnych ilości danych. Choć pierwsze opracowano w latach 90., dopiero technologiczny rozwój, w tym narodziny Big Data i data-driven economy uwolnił ich potencjał. Dzięki tej technologii powstało wiele AI wykorzystywanych w badaniach naukowych.
Z kolei NLP koncentruje się na interakcji komputerów z językiem ludzkim. Rozwój tej dziedziny nastąpił w ostatnich kilkunastu latach, wraz z postępem w dziedzinie uczenia maszynowego (związanego m.in. z renesansem sieci neuronowych). Wykorzystuje ono algorytmy samouczące i sieci neuronowe do rozpoznawania i generowania języka naturalnego. Najbardziej znanym dzieckiem NLP jest właśnie Chat GPT, ale już wcześniej gościło u nas w postaci tłumacza Google.
Prawdopodobnie zadajesz sobie pytanie, po co o tym wszystkim piszę?
Na tych prostych przykładach łatwo można zauważyć, że jedna AI nie będzie zawsze równa innej AI i odpowiednia kwalifikacja to strategiczny element bezpiecznego wdrożenia. Pod tą samą nazwą mogą się kryć zupełnie inne narzędzia, w zależności od tego, jakie technologie składowe będą w nich wykorzystywane. Taka szybka analiza pozwoli Ci natomiast określić potrzeby prawne i będzie mieć przełożenie na to, jakie ryzyka prawne będziesz mieć do okiełznania.
Przykładowo: AI wykorzystuje technologię Generative Adversarial Networks (GAN), która służy do generowania nowych, autentycznie wyglądających danych na podstawie istniejących danych treningowych. Jeśli dane treningowe okażą się fałszywe, to również nowe dane będą obarczone błędem. Nie można wykluczyć też sytuacji, w której AI zacznie generować dane treningowe (np. w wyniku awarii programu). Oba zjawiska mają swoje konsekwencje prawne. Co więcej, AI może pomóc walidować i kontrolować tworzenie tych danych.
Jakie rodzaje sztucznej inteligencji może wykorzystywać moja aplikacja?
Skoro wiemy już, że AI jest AI nierówne, to na pewno jest jakiś podział, który to porządkuje! Jako prawnicy lubimy klarowne rozróżnienia, dlatego na potrzeby tego artykułu wykorzystam podział na wąską i generatywną sztuczną inteligencję.
Wąska sztuczna inteligencja (ang. narrow AI) odnosi się do systemów, które są wyspecjalizowane w wąskich zadaniach lub dziedzinach. Są one zaprojektowane do wykonywania konkretnych zadań, ale nie wykazują ogólnej inteligencji ani zdolności do przekraczania swojego wąskiego obszaru zastosowania.
Przykłady prostych, wąskich sztucznych inteligencji to systemy rekomendacyjne, rozpoznawanie mowy czy chatboty. Ich wdrożenie w firmach wymaga zazwyczaj mniej zaangażowania i nie wiąże się z koniecznością przyjmowania szczególnych procedur. Dzięki temu firmy mogą prosto zautomatyzować swoje standardowe procesy (np. procesy HR).
Krokiem dalej jest generatywna sztuczna inteligencja.
Jest to rodzaj sztucznej inteligencji, która może tworzyć szerokie spektrum danych, takich jak obrazy, filmy, dźwięk, tekst i modele 3D. Efekty te jest w stanie osiągać poprzez wykorzystanie wspomnianej już technologii GAN oraz inne modele uczenia się wzorców z istniejących danych, a następnie wykorzystywanie tej wiedzy do generowania nowych i unikalnych wyników. Dzięki temu otrzymujemy wysoce realistyczne i złożone treści, które naśladują ludzką kreatywność. Generatywna sztuczna inteligencja stała się ważnym narzędziem dla wielu branż, takich jak gry, rozrywka i projektowanie produktów. Weszła pod strzechy dzięki Chat GPT (btw. GPT to nic innego jak skrót od Generative Pre-trained Transformer). O generatywnej AI mówi się teraz najwięcej.
Mając na uwadze te rozróżnienia łatwo zauważyć, że choć dana aplikacja będzie wykorzystywać AI, to w zależności od tego jakiego rodzaju technologia będzie znajdować się pod jej maską, generowane będą inne wyzwania i ryzyka prawne.
Przykładowo od wąskiej AI będziemy wymagać niezawodności i pewności więc większy nacisk będziemy kłaść na wsparcie ze strony jej dostawcy. Generatywna AI w zasadzie nie gwarantuje nam ani prawdziwości otrzymanych danych, ani niezawodności, dlatego konstruując umowę z naszymi odbiorcami, warto zabezpieczyć się na ewentualność, gdybyśmy zostali przez nich pozwani z tego tytułu.
Czy dostawca i twórca narzędzia AI to musi być ten sam podmiot?
Dostawca AI to podmiot, który dostarcza nowe technologie, rozwiązania lub usługi związane ze sztuczną inteligencją (AI). Może to być osoba prawna lub osoba fizyczna (np. programista) lub inny podmiot, który oferuje narzędzia, biblioteki, platformy lub rozwiązania oparte na AI, które mogą być wykorzystywane przez inne podmioty do tworzenia i wdrażania aplikacji opartych na sztucznej inteligencji.
Podmiot dostarczający nam takie rozwiązanie nie zawsze jest tym samym podmiotem, który stworzył dane rozwiązanie AI w pełnym zakresie. Oznacza to, że niektóre rozwiązania AI mogą być oparte na technologiach lub modelach opracowanych przez inne podmioty, a dostawcy rozwiązania AI mogą je integrować, dostosowywać i dostarczać jako część swojego produktu lub usługi. Istnieje również możliwość, że dostawcy AI mogą tworzyć własne modele AI, bazując na wynikach badań i osiągnięciach naukowych innych podmiotów.
Jeszcze innym podmiotem może być osoba lub firma, która przeprowadza wdrożenie AI w danej aplikacji.
W zasadzie nierzadko sytuacja będzie wyglądać następująco: X tworzy jakiś model AI, który rozwijany jest przez Y. Z (to możesz być właśnie Ty!) chce zaimplementować rozwinięte przez Y AI do swojej aplikacji, więc zleca wdrożenie Q. Po wdrożeniu sztucznej inteligencji, Y sprzedaje swoje rozwiązanie klientem końcowym.
To na jakich zasadach konkretnie będzie można korzystać z konkretnych rozwiązań będzie zależało od postanowień regulaminów konkretnych rozwiązań AI. Przykładowo: OpenAI udziela licencji Open Sorce, która pozwala na wykorzystywanie przez użytkowników ChatGPT oraz DallE 2 do celów biznesowych. Jednocześnie zwalnia się od odpowiedzialności za naruszenie praw osób trzecich przy wykorzystaniu jej narzędzi przez użytkowników.
Inną politykę przyjął z kolei dostawca narzędzia do sprawdzania pisowni Grammarly. Ono również opiera się na sztucznej inteligencji, jednak w zasadach korzystania z usług dla firm jasno wskazano, że można je wykorzystywać tylko do potrzeb wewnętrznych danej firmy, nigdy w celach komercyjnych.
Midjourney przyjęła z kolei politykę różnicowania uprawnień w zależności od tego, czy jesteś płatnym, czy darmowym subskrybentem. Co do zasady płatni subskrybenci mogą wykorzystywać narzędzie Midjourney do celów komercyjnych. Natomiast bezpłatni subskrybenci, mogą korzystać z tego rozwiązania tylko na zasadach licencji Creative Commons Noncommercial 4.0, która wyklucza wykorzystywanie takich utworów do celów zarobkowych.
Mając na uwadze zasady zawarte w regulaminach poszczególnych narzędzi, musisz pamiętać również o obowiązkach, jakie będą ciążyć na Tobie, jako dostawcy aplikacji wykorzystującej AI – jeśli ją wdrożysz.
Jeśli już świadczysz usługi drogą elektroniczną wiesz na pewno o obowiązkach wynikających z implementacji dyrektywy cyfrowej do polskiego porządku prawnego. Jeśli nie jesteś pewien o co chodzi, zachęcam Cię do zapoznania się z moim artykułem Nowe zasady sprzedaży produktów elektronicznych i świadczenia usług online, czyli co zmieni dyrektywa cyfrowa?
Jednocześnie, oprócz standardowych wyzwań, zwróć uwagę na pewne specyficzne kwestie związane z wykorzystywaniem AI. Przykładowo, jeśli będziesz świadczyć swoje usługi konsumentom i zamierzasz wykorzystywać mechanizmy profilowania (w tym także w celu usprawnienia korzystania z usług), szczególnie pod kątem przygotowania oferty – musisz ich o tym poinformować. Jednocześnie, jeśli będziesz stosować mechanizmy kwalifikowanego profilowania na gruncie RODO – niezależnie od tego, czy klient jest konsumentem, czy nie – musi być również o tym poinformowany.
Oprócz tego, chcąc wykorzystać sztuczną inteligencję w swojej aplikacji musisz szczególną uwagę zwrócić na zabezpieczenie danych osobowych Twoich klientów, a także dbać o lepsze zrozumienie wdrażanych narzędzi AI wśród Twoich pracowników, zaangażowanych w proces wdrażania sztucznej inteligencji. Dzięki temu stworzysz nie tylko bezpieczny pod kątem prawnym, ale także wiarygodny biznes – co nie jest takie oczywiste biorąc pod uwagę, że codziennie powstają setki „podejrzanych” aplikacji czy GPT!
Czym jest AIaaS (AI as a service)?
Artificial Intelligence as a Service (AIaaS) stanowi innowacyjną formę świadczenia usług opartą na implementacji AI w dostarczanym użytkownikom oprogramowaniu. Kluczowymi obszarami zastosowania AIaaS (AI w formie aplikacji SaaS) są analiza danych, przetwarzanie języka naturalnego, rozpoznawanie obrazów czy automatyzacja procesów biznesowych bieżąco z najnowszymi trendami.
Dzięki sztucznej inteligencji dostarczanej jako usługa, firmy mogą wykorzystać możliwości sztucznej inteligencji bez konieczności ponoszenia dużych kosztów początkowych i pozyskiwania wiedzy w zakresie AI.
Model ten pozwala również na skalowanie zasobów AI w zależności od potrzeb użytkownika, co sprawia, że jest szczególnie atrakcyjny dla startupów czy innych firm o zmiennej wielkości i dynamicznych potrzebach.Jeśli interesuje Cię to zastosowanie AI, koniecznie sięgnij do dalszej części artykułu, w której omawiamy regulacje, jakie dla dostawców AIaaS niesie za sobą AI Act.
Jakie wyzwania prawne wiążą się z wdrożeniem narzędzi sztucznej inteligencji?
Podstawowym problemem związanym z dostarczeniem usług cyfrowych wykorzystujących AI jest rozmycie odpowiedzialności za systemy sztucznej inteligencji. Kto inny je tworzy, kto inny dostarcza, kto inny je wdraża i kto inny je wykorzystuje. W zależności od tego, kim w tym układzie jesteś, inaczej będziesz zabezpieczał swoje interesy.
Przyjmując, że chcesz wdrożyć AI do swojej aplikacji, pamiętaj o następujących krokach:
- dokładnie zapoznaj się z regulaminem narzędzia AI (a najlepiej zachowaj jego treść, nawet w formie zrzutu ekranu), które chcesz wdrożyć. Jednocześnie zastanów się, czy masz do czynienia z wąską sztuczną inteligencją, czy z generatywną sztuczną inteligencją;
- po zapoznaniu się z regulaminem narzędzia AI zastanów się, w jakim zakresie jego dostawca przerzuca na Ciebie odpowiedzialność za szkody/wady tego narzędzia oraz w jakim zakresie udziela Ci licencji do korzystania z tego narzędzia, w szczególności czy licencja obejmuje jego komercyjne wykorzystanie;
- podejmując współpracę z software house’em w zakresie wdrożenia sztucznej inteligencji do Twojej aplikacji maksymalnie zabezpiecz swoje interesy w zakresie wsparcia technicznego i odpowiedzialności za ewentualne awarie; Tutaj zdobędziesz solidną porcję wiedzy o tym, Jak zabezpieczyć się przy współpracy z Software House’em;
- na bazie ustaleń w zakresie tego, z jaką sztuczną inteligencją masz do czynienia, odpowiednio zmodyfikuj postanowienia regulaminu Twojej aplikacji. W szczególności, jeśli wdrażasz generatywną AI, nie możesz zagwarantować Twoim użytkownikom, co otrzymają w efekcie jej wykorzystania oraz czy to, co otrzymają będzie legalne lub prawdziwe. W takich wypadkach musisz doprecyzować, co jest przedmiotem Twojej usługi i za co nie bierzesz odpowiedzialności. Jeśli wdrażasz prostą sztuczną inteligencję np. mechanizm usprawniający zarządzanie danymi w ramach Twojej usługi chmurowej, zarysowane powyżej ryzyka mogą być mniejsze. Pamiętaj jednak, że zawsze musisz mieć na uwadze, że ze swojej istoty AI posiada pewną autonomię w zakresie swojego działania. Oznacza to, że pewna domena jej funkcjonowania znajduje się poza zakresem Twojej kontroli, przez co zawsze musisz wiedzieć, za co nie brać odpowiedzialności;
- zabezpiecz dane osobowe. Wdrażając AI, musisz przeprowadzić dokładny audyt przetwarzania danych osobowych oraz określić, które dane osobowe mogą „wpaść” w AI i jakie z tym faktem łączą się ryzyka. W zależności od tego, w jakim celu systemy sztucznej inteligencji będą przetwarzać takie dane, zadbaj o to, aby były zanonimizowane lub żeby użytkownicy wyrazili zgodę na automatyczne przetwarzanie ich danych. Pamiętaj, „bierz odpowiedzialność tylko za to, na co masz wpływ”.
Powyższe wskazówki powinny Ci pomóc w ustaleniu zakresu odpowiedzialności odnoszącego się do Ciebie i Twojej organizacji. W dalszej kolejności pozwoli Ci to na określenie, kiedy będzie odpowiadał za szkody wyrządzone przez wadliwe funkcjonowanie aplikacji lub jaki zakres będzie mieć rękojmia, jaką udzielisz na twoje usługi.
Nawet jeśli, klient będzie mieć rację, to odpowiednie klauzule umowne z dostawcami lub podmiotami wdrażającymi mogą umożliwić Ci dochodzenie roszczeń regresowych. Na rynku pojawiają się także pierwsze ubezpieczenia od odpowiedzialności na skutek korzystania ze sztucznej inteligencji. Jak widzisz, AI staje się pełnoprawnym graczem w biznesie!
Podobna sytuacja może mieć miejsce, w sytuacji, gdy dojdzie do naruszenia praw osób trzecich. W tym wypadku jednak pamiętaj o pewnej specyficznej kwestii związanej z AI. Nieważne czy korzystasz z wąskiej, czy generatywnej sztucznej inteligencji, nigdy nie możesz mieć pewności, czy dane, na których się uczy, zostały zebrane legalnie oraz czy algorytmy samouczące się, odzwierciedlają właściwy proces rozumowy tj. czy z prawdziwych przesłanek potrafią wyciągnąć prawdziwe wnioski lub, czy właściwie weryfikują dane. Choć dzięki AI możesz tworzyć szybciej i więcej, ryzyko związane z wykorzystaniem generatywnej AI zawsze obciąża Ciebie.
Ten aspekt funkcjonowania AI ma bardzo doniosłe znaczenie, ponieważ, błędy w tym zakresie mogą prowadzić do:
- naruszenia cudzej własności intelektualnej;
- generowanie nieprawdziwych informacji, które jeśli zostaną wykorzystane przez Twojego użytkownika (np. do podjęcia decyzji biznesowych) mogą doprowadzić do wyrządzenia szkód materialnych;
- naruszenia cudzych dóbr osobistych.
Każda z tych kwestii stała się już przedmiotem jakiegoś pozwu przeciwko OpenAI. Na rozstrzygnięcia musimy zaczekać, jednak powinna to być przestroga również dla Ciebie. Z tego powodu, zalecam możliwe najszersze zabezpieczenie się przed skutkami takich błędów w umowach z Twoimi klientami poprzez umieszczenie w nich stosownych klauzul wyłączających odpowiedzialność.
Jakie ryzyka generuje wdrożenie AI dla Twojej firmy i modelu biznesowego Twojej aplikacji?
Już wcześniej wspomniałem o odpowiednim zabezpieczeniu Twoich interesów przy współpracy z Software Housem na etapie wdrażania AI do Twojej aplikacji. W tym miejscu chciałbym zwrócić Twoją uwagę na zagrożenia, jakie mogą wiązać się z tym procesem dla Twojego biznesu. Oto kilka z nich:
- zagrożenie dla Twojej własności intelektualnej – wdrożenie AI w Twojej aplikacji będzie wymagało modyfikacji jej działania. Podmiot wdrażający uzyska dostęp do kodu źródłowego oraz autorskich mechanizmów jej funkcjonowania. Jednocześnie powstanie nowy program, którego autorem będzie software house. Dlatego, aby chronić swoje interesy, wskaż wyraźnie w umowie, że na jej podstawie podmiot wdrażający nie uzyskuje żadnych praw autorskich do istniejącego programu, oraz że przenosi wszelkie autorskie prawa majątkowe do programu (ewentualnie udziela Ci licencji umożliwiającej udzielanie dalszych licencji użytkownikom), który powstanie po wdrożeniu AI na Ciebie lub Twoją firmę;
- zagrożenie dla danych osobowych – choć RODO w żaden sposób nie zabrania czy nie ogranicza wdrażania AI (co więcej AI umożliwia lepszą kontrolę systemów ochrony danych), wdrożenie AI do Twojej aplikacji stanowić będzie duże wyzwanie dla ochrony danych osobowych Twoich użytkowników. Zastanów się w jakim zakresie, już na etapie wdrożenia zabezpieczyć te dane, w szczególności czy powinny być zanonimizowane. Jeśli tak, to wskaż tę okoliczność w umowie z podmiotem wdrażającym;
- zagrożenie dla danych poufnych/tajemnic przedsiębiorstwa – zabezpieczenie tajemnicy przedsiębiorstwa i Twoich danych poufnych w tym wypadku wymagać będzie nie tylko zawarcia standardowej umowy o poufności, lecz również wprowadzenia mechanizmów, które oddzielą oddziaływanie generatywnej AI od tych danych (ponownie możesz wykorzystać AI do nadzorowania procesów zarządzania informacjami poufnymi). Więcej o umowie o zachowaniu poufności piszę w tym artykule Umowa NDA (o zachowaniu poufności) – co powinna zawierać dobra umowa?;
- zagrożenie dla jakości świadczonych usług – algorytmy AI, szczególnie tej generatywna mogą nie do końca zachowywać się w sposób oczekiwany przez nas lub naszych klientów. Bias czy halucynacje są wpisany w ich działanie od samego początku. Za bardzo nie mamy jak zapobiec tego rodzaju zjawiskom, jednak możemy się zwolnić od odpowiedzialności za nie. W tym celu konieczne będzie zmodyfikowanie postanowień regulaminu w zakresie tego, co jest przedmiotem świadczonych przez usług i za co bierzemy odpowiedzialność. Nie gwarantuj unikalności lub stuprocentowej legalności lub przydatności treści tworzonych za pomocą sztucznej inteligencji, jeśli nie jesteś w stanie dostarczyć np. filtrów czy wsparcia w tworzeniu promptów.
Jak widzisz, wdrażając AI do swojej aplikacji, możesz zabezpieczyć się na bardzo różne sposoby. Ponad to, co wskazałem powyżej, warto przygotować specjalne klauzule informacyjne, w których poinformujesz swoich klientów:
- o wdrożeniu AI i korzyściach (np. poprzez automatyzację żmudnych zadań) oraz ryzykach, jakie może to pociągnąć;
- o zmianach w regulaminie wynikających wdrożenia odpowiednich rozwiązań AI;
- o zmianach w zakresie funkcjonowania aplikacji;
- o zasadach ochrony danych osobowych oraz wykorzystaniu plików cookies.
Jakie przepisy będą regulować korzystanie z AI w najbliższym czasie?
W marcu 2024 r. Parlament Europejski zatwierdził tzw. AI Act (unijne rozporządzenie w sprawie sztucznej inteligencji), który skierowany został m.in. do dostawców aplikacji wykorzystującej AI. Obecnie oczekujemy na jego opublikowanie w Dzienniku Urzędowym UE.
Podstawowym założeniem tego rozporządzenia jest zapewnienie zgodności systemów AI (opracowanych w i poza UE) z prawami i wartościami Unii, w tym z bezpieczeństwem, prywatnością, przejrzystością, niedyskryminacją oraz dobrostanem społecznym i środowiskowym.
W tym celu AI Act ustanawia szereg obowiązków dla dostawców i podmiotów wdrażających systemy wykorzystujące sztuczną inteligencję. Ich zakres będzie zróżnicowany w zależności od poziomu ryzyka, jakie dana technologia będzie generować.
Systemy generujące największe ryzyko dla praw podstawowych takich jak prywatność, wolność, równość wobec prawa, będą zakazane (zakazane będzie ich tworzenie i wykorzystywanie pod jurysdykcją UE). Należą do nich szczególnie systemy przeznaczone do oceniania zachowań społecznych ludzi lub ich cech osobistych.
Przykładem takich narzędzi są np. zdalne systemy identyfikacji biometrycznej czy biometryczne systemy kategoryzacji wykorzystujące cechy wrażliwe (np. płeć, rasę, pochodzenie etniczne, status obywatelski, religię, orientację polityczną) lub predykcyjne systemy policyjne (oparte na profilowaniu, lokalizacji lub wcześniejszych zachowaniach przestępczych).
Podstawowymi obowiązkami dostawców systemów AI (w tym w modelu AIaaS) mają być ocena i ograniczanie potencjalnych zagrożenia (dla zdrowia, bezpieczeństwa, praw podstawowych, środowiska, demokracji czy praworządności), a także rejestrowanie swojego modelu w bazie danych UE przed ich wprowadzeniem na unijne rynki.
Jak już wspominałem, wymienione wyżej obowiązki będą niuansowane w zależności od ryzyka generowanego przez dany model sztucznej inteligencji. Przykładowo wysokie ryzyko obejmować ma systemy sztucznej inteligencji, które mogą wyrządzić znaczną szkodę dla zdrowia, bezpieczeństwa, praw podstawowych lub środowiska.
Niestety, nie wiadomo, co unijny ustawodawca rozumie pod pojęciem znacznej szkody – dlatego osobiście liczę, że w toku prac wdrożeniowych ta kluczowa kwestia zostanie doprecyzowana chociażby przez tworzone unijne AI Office. Do tego czasu wdrażając AI warto korzystać chociażby z normy ISO 42001, która pozwala chociażby na stworzenie wewnętrznej struktury działań i dokumentów, które umożliwią Ci świadome poprowadzenie procesu i oszacowanie ryzyka.
Kiedy AI Act wejdzie w życie? AI Act ma wejść w życie w ciągu 20 dni od opublikowania go w Dzienniku Urzędowym UE, co może zdarzyć się jeszcze w maju lub czerwcu tego roku – przy czym jego poszczególne przepisy będą wchodzić w życie jeszcze przez kolejne dwa lata. O wszystkim będziemy Cię na bieżąco informować!
Podsumowanie
Rozwój sztucznej inteligencji przynosi niespotykane dotąd możliwości rozwoju biznesu. Rozwiązania oparte na sztucznej inteligencji pozwalają na automatyzację procesów biznesowych i wspieranie ich w czasie rzeczywistym, co może przyczynić się do poprawy efektywności i oszczędności czasu oraz zasobów. Dzięki zastosowaniu rozwiązań AI możesz zyskać zupełnie nowe możliwości w obszarach takich jak analiza danych, prognozowanie trendów rynkowych, personalizacja oferty dla klientów czy optymalizacja ich procesów produkcyjnych lub logistycznych.
Proces wdrażania AI w organizacjach czy w aplikacji wymaga jednak również uwzględnienia pewnych wyzwań i zagrożeń. Przede wszystkim, konieczne jest odpowiednie zarządzanie danymi, w tym zapewnienie bezpieczeństwa danych i ochrony prywatności użytkowników, bezpieczeństwa i zgodności z obowiązującymi (a najlepiej także projektowanymi) przepisami, aby mieć wystarczająco dużo czasu na przygotowanie się do najnowszych standardów w zakresie sztucznej inteligencji i zgodnego z prawem jej wykorzystywania.
Napisz do nas, jeżeli chcesz porozmawiać o wdrożeniu AI w Twojej firmie!
Zdjęcie dodane przez fauxels