Komisja Europejska w drugiej połowie grudnia 2018 roku przygotowała zestaw wskazówek dotyczących wdrażania i realizacji „godnej zaufania” Sztucznej Inteligencji.
Cały dokument PDF w języku angielskim do pobrania jest tutaj. Zawiera on ponad 30 stron ciekawych informacji dla twórców i entuzjastów Sztucznej Inteligencji.
W wolnym tłumaczeniu, zasady dotyczą między innymi:
- Odpowiedzialności
- Zarządzania danymi
- „Design for all”
- Zarządzania autonomią AI (nadzór ludzki)
- Braku dyskryminacji
- Poszanowania (i wzmocnienia) ludzkiej autonomii
- Poszanowania prywatności
- Wytrzymałości
- Bezpieczeństwa
- Przejrzystości
Poniżej wyjaśnię Wam kilka ciekawszych zasad:
Odpowiedzialność
Odpowiedzialność w kontekście Sztucznej Inteligencji dotyczy sytuacji, w których AI i/lub podmiot nią zarządzający musiałby ponieść konsekwencje wyniku, który dało samo AI. Wybór mechanizmów zależał będzie oczywiście w głównej mierze od samych procesów które zachodzą w AI, sposobie wykorzystania AI i danych oraz strat, które zostały lub zostaną poniesione.
Zarządzanie danymi
Zasada „zarządzania danymi” dotyczy Sztucznej Inteligencji dwojako, od strony danych, jako źródła wiedzy AI, ale również danych jako dane osobowe będące pod ochroną obowiązujących przepisów (np. RODO).
Wyjaśnienie tej zasady kładzie nacisk na rozsądne zarządzanie danymi, w tym także ich anonimizację.
„Design for all”
Systemy bazujące na Sztucznej Inteligencji powinny być zaprojektowane w taki sposób, aby umożliwić wszystkim obywatelom korzystanie z produktów lub usług, niezależnie od ich wieku, statusu niepełnosprawności czy statusu społecznego.
Szczególnie ważne jest rozważenie dostępności Sztucznej Inteligencji dla osób niepełnosprawnych. „Design for all”oznacza dostępność AI dla każdego i możliwość korzystania z niej w dowolnym miejscu i czasie
Zasada ta wskazuje na ogólny sprawiedliwy dostęp i potencjalnie aktywne uczestnictwo wszystkich ludzi. Wymóg ten wiąże się nierozerwalnie z Konwencja ONZ o Prawach Osób Niepełnosprawnych.
Poszanowanie prywatności
Prywatność i ochrona danych, w tym osobowych, musi być zagwarantowana na każdym etapie tworzenia, uczenia, korzystania ze Sztucznej Inteligencji.
Tak, jak wskazują na to inne zasady – anonimizacja danych i ich ochrona, a także ograniczenie celu wykorzystywania jest podstawą „godnego zaufania” AI.
Komisja Europejska przestrzega, że „cyfrowe zapisy zachowań ludzkich mogą ujawniać bardzo wrażliwe dane, nie tylko pod względem preferencji, ale także pod względem orientacji seksualnej, wieku, płci, poglądów religijnych i politycznych. Osoba kontrolująca takie informacje może wykorzystać to na swoją korzyść”.
Bezpieczeństwo i transparentność
Komisja wskazuje, że AI powinno wykonywać te zadania, do których jest stworzona – biorąc pod uwagę również ograniczenie celu w jakim przetwarza dane, w tym dane osobowe. Znana już pod rządami RODO analiza ryzyka, również powinna mieć zastosowanie w przypadku Sztucznej Inteligencji – należy zbadać wszystkie kwestie dotyczące ochrony danych, działania AI i korzystania z tych rozwiązań.
Autorzy zaznaczają również istotę jasności i otwartości procesów w ramach których AI miałoby podejmować decyzję – czyli wprost wskazuje się na to, że nie będą pochwalane sytuacje, w których procedura działania AI jest niezrozumiała, czy ukryta „pod powierzchnią”. Ciekawy jestem jak to zostanie odebrane, w przypadku gdy chodzi o ochronę prawną AI jako własności intelektualnej, czy bazę danych.
(!) AI ma przede wszystkim służyć społeczeństwu
Z zasad, które wynikają z przedstawionego przez Komisję Europejską dokumentu wynika znacznie więcej.
Sztuczna Inteligencja ma przede wszystkim służyć społeczeństwu – tak może zostać podsumowany Kodeks Etyki Sztucznej Inteligencji.
Kończąc nieco żartobliwym tonem – czy ktoś w KE próbuje uniknąć SkyNet’u?