Sztuczna inteligencja
Etyka w AI – równoważąc innowacyjność i odpowiedzialność w IT
AI zmienia oblicze wielu branż, wpływa też na funkcjonowanie ludzi i jakość życia. Sensacja, jaką uczynił ChatGPT i narzędzia oparte na jego systemie, odkryła wielki potencjał AI. Wywołała też gorące dyskusje o możliwych skutkach ubocznych tego typu technologii. Trwa żywa polemika o etyce w AI. Pada też kluczowe pytanie o jej zdolność do podejmowania etycznych decyzji.
Choć narzędzia wykorzystujące AI są rozwijane od dłuższego czasu, dziś osiągnęły linię krytyczną i można mówić o rewolucji.
ChatGPT firmy OpenAI z dnia na dzień stał się sensacją w całym Internecie, zyskując w kilka dni ponad milion użytkowników. Rewolucja, którą zapoczątkowała jego premiera, nabiera tempa.
„Etyczna sztuczna inteligencja” to tworzenie systemów AI, które są przejrzyste, odpowiedzialne i zgodne z prawami człowieka
Rywalizacja z OpenAI się zaostrza, a eksperci ostrzegają, że ów „wyścig zbrojeń” może przynieść zarówno korzyści, jak i zagrożenia.
CEO Google’a, Sundar Pichai, publicznie przyznał, że technologia ta może być szkodliwa, jeśli zostanie źle wdrożona. Wezwał do stworzenia globalnych ram regulacyjnych dla AI, podobnych do traktatów w sprawie broni jądrowej.
Nikt nie ma wątpliwości, że konieczne są przepisy zapewniające, że AI jest rozwijana i wdrażana w sposób etyczny. Zwłaszcza że Forrester szacuje, że do 2025 roku prawie 100% organizacji będzie korzystać z AI, a rynek oprogramowania do sztucznej inteligencji osiągnie w tym samym roku wartość 37 miliardów dolarów.
Etyka AI jest gałęzią etyki technologii specyficzną dla systemów sztucznie inteligentnych. Obejmuje ona:
Z etyką AI przecina się tzw. etyka robotów. Roboty to fizyczne maszyny, podczas gdy AI może być tylko oprogramowaniem. Nie wszystkie roboty działają za pośrednictwem systemów AI i nie wszystkie systemy sztucznej inteligencji są robotami. Etyka robotów obejmuje:
Istnieje kilka kluczowych kwestii, które należy wziąć pod uwagę w rozwoju i wdrażaniu sztucznej inteligencji.
Są to m.in.: odpowiedzialność prawna, zagrożenie dla prywatności, niebezpieczeństwo tworzenia materiałów dezinformacyjnych czy możliwy rozwój biznesu w oparciu o model przynoszący negatywne konsekwencje społeczne.
Organizacje naukowe i społeczne na całym świecie podejmują inicjatywy w celu i przyjęcia społecznie korzystnej AI i ustanowienia dla niej ram etycznych.
Wśród powtarzających się w postulatach wartości są: przejrzystość, uczciwość, niekrzywdzenie, odpowiedzialność, prywatność, dobroczynność, wolność, autonomia, zaufanie, godność, solidarność, zrównoważony rozwój.
Aby uporządkować temat, naukowcy z Oxford University, Luciano Floridi i Josh Cowls, stworzyli ramy etyczne sztucznej inteligencji określone już przez 4 zasady bioetyki: dobroczynność, niekrzywdzenie, autonomię i sprawiedliwość. Do tego zestawu dodali jeszcze zasadę wyjaśnialności, przy czym wyjaśnialna sztuczna inteligencja obejmuje też interpretowalność.
Naukowcy uznali, że pełne osiągnięcie etycznej AI wymaga połączenia powyższych zasad z etyką algorytmiczną.
Odnosi się ona do wytycznych moralnych i ideałów zawartych w tworzeniu systemów AI. Służy kierowaniu rozwojem tych systemów tak, aby spełniały standardy sprawiedliwości, prywatności i odpowiedzialności.
Badacze, programiści i inżynierowie AI muszą stale przeglądać i analizować algorytmy, by identyfikować i korygować błędy, które mogą pojawić się z biegiem czasu.
Jednym z głównych zagrożeń AI jest stronniczość, która może prowadzić do niesprawiedliwych i dyskryminujących wyników. Tendencyjne algorytmy AI mogą “podejmować decyzje” niesprawiedliwe dla określonych grup ludzi, wzmacniać nierówności społeczne oraz utrwalać uprzedzenia.
Rzetelność systemu zależy od danych, na których jest szkolony – stronnicze dane mogą prowadzić do stronniczych algorytmów
Uprzedzenia wywodzą się ze stereotypowych reprezentacji głęboko zakorzenionych w społeczeństwach. Przybierają różne formy – na tle rasowym, społeczno-ekonomicznym, płciowym, co skutkuje niesprawiedliwymi wynikami dla określonych grup społecznych.
Technologia wyszukiwarek też nie jest neutralna – nadaje priorytet wynikom z największą liczbą kliknięć w zależności od preferencji użytkownika i jego lokalizacji. Użytkownikom Internetu trudno jest przy tym określić, czy dane, a w efekcie ich wybory, są uczciwe, co potencjalnie może prowadzić do niewykrycia stronniczości w systemach. W ten sposób utrwalane są uprzedzenia i stereotypy świata rzeczywistego w Internecie, zaś systemy AI tworzą tendencyjne wyniki.
Eksperci ostrzegają, że uprzedzenia algorytmiczne są już obecne w wielu branżach. Temat stronniczości w uczeniu maszynowym stanie się znaczący w miarę rozprzestrzeniania się technologii w krytycznych obszarach, takich jak medycyna i prawo. Bez szeroko zakrojonych testów i różnorodnych zespołów nieświadome uprzedzenia mogą wchodzić do modeli uczenia maszynowego i utrwalać tendencyjne modele AI.
Niewątpliwie AI ma potencjał rozwoju społeczeństw, stwarza też zagrożenia dla ich praw podstawowych: prywatności i bezpieczeństwa. Aby promować AI jako godną zaufania, jej twórcy muszą priorytetowo traktować prawa człowieka i dbać, aby proces projektowania i wdrażania był zgodny z zasadami sprawiedliwości i odpowiedzialności.
W celu ochrony prywatności, tworzenie norm dotyczących AI powinno być częścią zarządzania sztuczną inteligencją
Odpowiedzialny rozwój AI odnosi się do etyki danych, które są paliwem napędzającym sztuczną inteligencję. Gromadzenie i wykorzystywanie danych musi być zgodne z prawem, tak, by osoby fizyczne miały świadomość kontroli nad swoimi danymi i poszanowania prywatności w całym procesie opracowywania i wdrażania AI.
Obawy ludzi obejmują sposób, w jaki AI jest wykorzystywana do inwigilacji czy rozpowszechniania fałszywych treści online, za pomocą narzędzi działających bez ludzkiego kontrolera.
AI staje się też coraz bardziej nieodłącznym elementem systemów rozpoznawania twarzy i głosu. Niektóre z tych systemów mają bezpośredni wpływ na ludzi, a są podatne na uprzedzenia i błędy wprowadzane przez ich twórców (patrz: Stronniczość a uprzedzenia).
Istotna jest przy tym kwestia danych, których użyto do szkolenia poszczególnych modeli AI – ich rodzaj i pochodzenie. Wiadomo, że modele te przeszkolono na ogromnej ilości tekstów, książek i dzieł sztuki. Przedstawiciele branż kreatywnych są oburzeni praktyką trenowania modeli AI na materiałach chronionych prawem autorskim bez zgody artystów.
Za pomocą narzędzi GenAI można ich prace modyfikować, wybierać elementy czy łączyć dwa lub więcej obrazów w jeden, wymyślając coś pozornie nowego. Przeciwko temu protestuje wielu artystów, których sztukę wykorzystano, np. do tworzenia modelu Stable Diffusion. Obecny pozew dotyczy kreowania obrazów przez generatory AI, a za chwilę sprawa może dotyczyć muzyków i całej branży kreatywnej.
Twórcy AI są niejako przedstawicielami przyszłej ludzkości, mają etyczny obowiązek zachowania przejrzystości w swojej pracy. Budowaniu zaufania i promowaniu przejrzystości AI może służyć tworzenie szczegółowej dokumentacji na temat działania systemów.
Przejrzyste przepisy mają kluczowe znaczenie dla zagwarantowania etycznego wykorzystania AI
OpenAI, jak wynika z deklaracji firmy, jest organizacją non-profit zajmującą badaniem i opracowaniem otwartej AI (open source) korzystnej dla ludzkości. Niestety, uczynienie kodu otwartym nie czyni go zrozumiałym, co oznacza, że kod AI sam w sobie nie jest przejrzysty. Istnieje przy tym obawa, że udostępnienie pełnej wydajności systemów AI niektórym organizacjom może wyrządzić więcej szkody niż pożytku.
Sam Microsoft wyraził zaniepokojenie umożliwieniem powszechnego dostępu do swojego oprogramowania do rozpoznawania twarzy, np. policji. Jednocześnie ta sama firma, z powodów oszczędności – jak donoszą media – zwolniła cały zespół zajmujący się etyką AI. I nie jest to jedyna firma, która postanowiła na tym oszczędzić.
Wiele światowych organizacji i rzeczników praw obywatelskich zaleca regulacje rządowe jako środek zapewniający przejrzystość.
Zastosowania AI potencjalnie mogą mieć wpływ na wiele dziedzin życia i sektorów pracy. Przypuszczalnie, pracę podzieli się na zadania, które:
Etyczne implikacje potencjalnego zastępowania pracy ludzkiej przez AI doprowadzą do wielkich zmian na rynku pracy
Efektem tego podziału może być fakt, że pewne zawody i zajęcia specjalistyczne znikną. A co z kreatywnymi? Różne badania pokazują, że generatory tekstów oparte na AI są co prawda zdolne tworzyć treści poprawne gramatycznie, ale nie zawsze są one zgodne z prawami otaczającego nas świata.
Człowiek nadal tworzy lepsze treści niż AI, ponieważ sztucznej inteligencji brak logicznego rozumowania. Jest też podatna na błędy i tzw. halucynacje.
Już w latach 50. XX w. Isaac Asimov rozważał kwestię etyki maszyn, a także testował granice praw, które dla nich stworzył, aby zobaczyć, gdzie spowodują paradoksalne lub nieoczekiwane zachowanie. Jego praca sugeruje, że żaden zestaw ustalonych praw nie może wystarczająco przewidzieć wszystkich możliwych okoliczności.
Obecnie nad strategiami regulującymi sztuczną inteligencję i znalezieniem odpowiednich ram prawnych pracują ONZ, OECD, UE i wiele poszczególnych krajów.
W czerwcu 2021 roku grupa ekspertów wysokiego szczebla KE ds. AI (AI HLEG) opublikowała „Zalecenia dotyczące polityki i inwestycji dotyczące godnej zaufania sztucznej inteligencji”. To drugi etap ich prac, po opublikowaniu w kwietniu 2019 r. „Wytycznych etycznych dotyczących godnej zaufania sztucznej inteligencji”.
Czerwcowe zalecenia AI HLEG obejmują cztery główne tematy: ludzi i ogół społeczeństwa, badania i środowisko akademickie, sektory prywatny i publiczny.
Powinny istnieć ustalone ramy moralne, których sztuczna inteligencja nie może zmienić
Komisja Europejska twierdzi, że „zalecenia grupy HLEG odzwierciedlają uznanie zarówno dla możliwości, jakie technologie sztucznej inteligencji mogą napędzać wzrost gospodarczy, dobrobyt i innowacje, jak i związane z tym potencjalne zagrożenia”. Stwierdza, że UE zamierza przewodzić w kształtowaniu polityk regulujących sztuczną inteligencję na arenie międzynarodowej.
Ogólne Rozporządzenie UE o Ochronie Danych Osobowych (RODO) wymaga, aby firmy wprowadziły zabezpieczenia w celu zapewnienia przejrzystości i równości algorytmów AI. RODO, obowiązujące wszystkie organizacje w UE, wymaga, aby firmy zapewniały przejrzyste i bezpieczne przetwarzanie danych osobowych oraz aby osoby fizyczne miały prawo dostępu do swoich danych i kontroli nad nimi.
Sztuczna inteligencja nie może sama zostać pociągnięta do odpowiedzialności, ale już ludzie, którzy ją tworzą – tak
Firmy IT i programiści, odgrywający kluczową rolę w tworzeniu systemów AI, powinni gwarantować, że opisane wyżej zasady etyczne są osadzone w ich projektowaniu i wdrażaniu.
Jednocześnie powinni zapewniać bezpieczeństwo i uczciwość systemów, tworząc algorytmy uwzględniające wiele perspektyw. Ogranicza to ryzyko utrwalania uprzedzeń, które mogą istnieć wśród jej twórców.
Nieetyczna sztuczna inteligencja potencjalnie może szkodzić jednostkom i społeczeństwu. Zapobieganie temu wymaga zaangażowania ludzi, w tym branży IT w całym procesie rozwoju i wdrażania AI.
Odpowiednie regulacje i przepisy mogą zapewnić rozwój etycznej AI, ustanawiając standardy przejrzystości, ograniczając dyskryminację i chroniąc dane. Wprowadzenie wytycznych, wskaźników uczciwości i zapewnienie różnorodności zespołów może pomóc twórcom AI w budowaniu bezpiecznej i odpowiedzialnej sztucznej inteligencji.
Dowiedz się, czym różni się tradycyjna AI od generatywnej AI. Odkryj wpływ na biznes oraz praktyczne zastosowania tych rodzajów sztucznej inteligencji.
Odkryj, jak bazy wiedzy AI usprawniają obsługę klienta, dzięki szybkim, trafnym odpowiedziom. Te rozwiązania zrewolucjonizują doświadczenia Twoich użytkowników.