Czytaj

arrow pointing down

Etyka w AI – równoważąc innowacyjność i odpowiedzialność w IT

Analizując etykę AI i jej wpływ na różne branże, artykuł omawia równowagę między potencjałem technologii a jej moralną odpowiedzialnością.

AI zmienia oblicze wielu branż, wpływa też na funkcjonowanie ludzi i jakość życia. Sensacja, jaką uczynił ChatGPT i narzędzia oparte na jego systemie, odkryła wielki potencjał AI. Wywołała też gorące dyskusje o możliwych skutkach ubocznych tego typu technologii. Trwa żywa polemika o etyce w AI. Pada też kluczowe pytanie o jej zdolność do podejmowania etycznych decyzji

Choć narzędzia wykorzystujące AI są rozwijane od dłuższego czasu, dziś osiągnęły linię krytyczną i można mówić o rewolucji. 

Rewolucja ChatGPT a etyka AI

ChatGPT firmy OpenAI z dnia na dzień stał się sensacją w całym Internecie, zyskując w kilka dni ponad milion użytkowników. Rewolucja, którą zapoczątkowała jego premiera, nabiera tempa.

„Etyczna sztuczna inteligencja” to tworzenie systemów AI, które są przejrzyste, odpowiedzialne i zgodne z prawami człowieka

Rywalizacja z OpenAI się zaostrza, a eksperci ostrzegają, że ów „wyścig zbrojeń” może przynieść zarówno korzyści, jak i zagrożenia.

CEO Google’a, Sundar Pichai, publicznie przyznał, że technologia ta może być szkodliwa, jeśli zostanie źle wdrożona. Wezwał do stworzenia globalnych ram regulacyjnych dla AI, podobnych do traktatów w sprawie broni jądrowej. 

Nikt nie ma wątpliwości, że konieczne są przepisy zapewniające, że AI jest rozwijana i wdrażana w sposób etyczny. Zwłaszcza że Forrester szacuje, że do 2025 roku prawie 100% organizacji będzie korzystać z AI, a rynek oprogramowania do sztucznej inteligencji osiągnie w tym samym roku wartość 37 miliardów dolarów.

Etyka AI: ChatGPT firmy OpenAI zaprojektowano do prowadzenia spójnych i logicznych rozmów na różne tematy, w oparciu o dostarczone mu pytania, w sposób przypominający rozmowę z ludźmi. Tego rodzaju modele językowe są efektem analizy statystycznej wcześniej napisanych tekstów. Na ich podstawie dobierają najbardziej prawdopodobne dla danego tematu i kontekstu wyniki.

Skrzyżowanie AI i etyki w IT

Etyka AI

Etyka AI jest gałęzią etyki technologii specyficzną dla systemów sztucznie inteligentnych. Obejmuje ona:

  • troskę o moralne zachowanie ludzi, którzy projektują, wytwarzają, używają i traktują sztucznie inteligentne systemy;
  • kwestię możliwej osobliwości ze względu na superinteligentną AI.

Etyka robotów

Z etyką AI przecina się tzw. etyka robotów. Roboty to fizyczne maszyny, podczas gdy AI może być tylko oprogramowaniem. Nie wszystkie roboty działają za pośrednictwem systemów AI i nie wszystkie systemy sztucznej inteligencji są robotami. Etyka robotów obejmuje:

  • moralność tego, jak ludzie projektują, używają i traktują roboty; 
  • analizę, jak wykorzystuje się je do szkodzenia ludziom i przynoszenia im korzyści; 
  • badanie ich wpływu na indywidualną autonomię i sprawiedliwość społeczną.

Wyzwania etyczne związane z AI

Etyka AI: Wyzwania etyczne związane z AI

Istnieje kilka kluczowych kwestii, które należy wziąć pod uwagę w rozwoju i wdrażaniu sztucznej inteligencji.

Są to m.in.: odpowiedzialność prawna, zagrożenie dla prywatności, niebezpieczeństwo tworzenia materiałów dezinformacyjnych czy możliwy rozwój biznesu w oparciu o model przynoszący negatywne konsekwencje społeczne.

Kluczowe pytania w kontekście etyki AI:

  • Brak przejrzystości narzędzi AI: decyzje AI nie zawsze są zrozumiałe dla ludzi.
  • Neutralność AI: decyzje oparte na niej są podatne na nieścisłości, dyskryminujące wyniki, wbudowane lub wstawione uprzedzenia.
  • Bezpieczeństwo danych: Nadzór w zakresie gromadzenia danych i prywatności użytkowników.
  • Sprawiedliwość i ryzyko dla praw człowieka i wartości obywatelskich.

Podejmowane działania

Organizacje naukowe i społeczne na całym świecie podejmują inicjatywy w celu i przyjęcia społecznie korzystnej AI i ustanowienia dla niej ram etycznych.

Wśród powtarzających się w postulatach wartości są: przejrzystość, uczciwość, niekrzywdzenie, odpowiedzialność, prywatność, dobroczynność, wolność, autonomia, zaufanie, godność, solidarność, zrównoważony rozwój. 

Aby uporządkować temat, naukowcy z Oxford University, Luciano Floridi i Josh Cowls, stworzyli ramy etyczne sztucznej inteligencji określone już przez 4 zasady bioetyki: dobroczynność, niekrzywdzenie, autonomię i sprawiedliwość. Do tego zestawu dodali jeszcze zasadę wyjaśnialności, przy czym wyjaśnialna sztuczna inteligencja obejmuje też interpretowalność.

Etyka AI: Wyjaśnialna sztuczna inteligencja obejmuje też interpretowalność, przy czym wyjaśnialność odnosi się do podsumowania zachowania sieci neuronowej i budowania zaufania użytkownika, podczas gdy interpretowalność jest definiowana jako zrozumienie tego, co model zrobił lub mógłby zrobić.

Naukowcy uznali, że pełne osiągnięcie etycznej AI wymaga połączenia powyższych zasad z etyką algorytmiczną.

Etyka algorytmiczna – co to jest?

Odnosi się ona do wytycznych moralnych i ideałów zawartych w tworzeniu systemów AI. Służy kierowaniu rozwojem tych systemów tak, aby spełniały standardy sprawiedliwości, prywatności i odpowiedzialności

Etyka algorytmiczna obejmuje m.in.:

  • eliminowanie błędów w danych wykorzystywanych do trenowania algorytmów poprzez staranny wybór źródeł danych;
  • rozszerzanie danych obejmujące dodawanie lub zmienianie ich w celu uzyskania bardziej zróżnicowanego zestawu danych; 
  • angażowanie zróżnicowanej grupy interesariuszy na etapie procesu projektowania i rozwoju systemów: etyków, naukowców, przedstawicieli społeczności, a przede wszystkim twórców AI.

Badacze, programiści i inżynierowie AI muszą stale przeglądać i analizować algorytmy, by identyfikować i korygować błędy, które mogą pojawić się z biegiem czasu.

Potencjalne zagrożenia etyczne związane z AI

1. Stronniczość a uprzedzenia

Etyka AI: Potencjalne zagrożenia etyczne związane z AI

Jednym z głównych zagrożeń AI jest stronniczość, która może prowadzić do niesprawiedliwych i dyskryminujących wyników. Tendencyjne algorytmy AI mogą “podejmować decyzje” niesprawiedliwe dla określonych grup ludzi, wzmacniać nierówności społeczne oraz utrwalać uprzedzenia.

Rzetelność systemu zależy od danych, na których jest szkolony – ​​stronnicze dane mogą prowadzić do stronniczych algorytmów

Uprzedzenia wywodzą się ze stereotypowych reprezentacji głęboko zakorzenionych w społeczeństwach. Przybierają różne formy – na tle rasowym, społeczno-ekonomicznym, płciowym, co skutkuje niesprawiedliwymi wynikami dla określonych grup społecznych.

Technologia wyszukiwarek też nie jest neutralna – nadaje priorytet wynikom z największą liczbą kliknięć w zależności od preferencji użytkownika i jego lokalizacji. Użytkownikom Internetu trudno jest przy tym określić, czy dane, a w efekcie ich wybory, są uczciwe, co potencjalnie może prowadzić do niewykrycia stronniczości w systemach. W ten sposób utrwalane są uprzedzenia i stereotypy świata rzeczywistego w Internecie, zaś systemy AI tworzą tendencyjne wyniki.

Eksperci ostrzegają, że uprzedzenia algorytmiczne są już obecne w wielu branżach. Temat stronniczości w uczeniu maszynowym stanie się znaczący w miarę rozprzestrzeniania się technologii w krytycznych obszarach, takich jak medycyna i prawo. Bez szeroko zakrojonych testów i różnorodnych zespołów nieświadome uprzedzenia mogą wchodzić do modeli uczenia maszynowego i utrwalać tendencyjne modele AI.

Etyka AI – Przykłady wykrytej stronniczości systemów AI:Algorytmy rozpoznawania twarzy opracowane przez firmy Microsoft, IBM i Face++ miały błędy w wykrywaniu płci. Wykazano, że systemy te wykrywały płeć białych mężczyzn dokładniej niż płeć mężczyzn o ciemniejszej skórze. Badanie z 2020 r., w którym dokonano przeglądu systemów rozpoznawania głosu firm Amazon, Apple, Google, IBM i Microsoft, wykazało, że mają one wyższy wskaźnik błędów podczas transkrypcji głosów osób czarnoskórych niż głosów osób białych. Algorytm AI do zatrudniania i rekrutacji w Amazonie faworyzował kandydatów płci męskiej wobec kobiet. Stało się tak, ponieważ system został przeszkolony na podstawie danych zebranych w ciągu 10 lat, które pochodziły głównie od kandydatów płci męskiej. Amazon zaprzestał korzystania z niego.

2. Prywatność danych i bezpieczeństwo

Niewątpliwie AI ma potencjał rozwoju społeczeństw, stwarza też zagrożenia dla ich praw podstawowych: prywatności i bezpieczeństwa. Aby promować AI jako godną zaufania, jej twórcy muszą priorytetowo traktować prawa człowieka i dbać, aby proces projektowania i wdrażania był zgodny z zasadami sprawiedliwości i odpowiedzialności.

W celu ochrony prywatności, tworzenie norm dotyczących AI powinno być częścią zarządzania sztuczną inteligencją

Odpowiedzialny rozwój AI odnosi się do etyki danych, które są paliwem napędzającym sztuczną inteligencję. Gromadzenie i wykorzystywanie danych musi być zgodne z prawem, tak, by osoby fizyczne miały świadomość kontroli nad swoimi danymi i poszanowania prywatności w całym procesie opracowywania i wdrażania AI. 

Obawy ludzi obejmują sposób, w jaki AI jest wykorzystywana do inwigilacji czy rozpowszechniania fałszywych treści online, za pomocą narzędzi działających bez ludzkiego kontrolera.

AI staje się też coraz bardziej nieodłącznym elementem systemów rozpoznawania twarzy i głosu. Niektóre z tych systemów mają bezpośredni wpływ na ludzi, a są podatne na uprzedzenia i błędy wprowadzane przez ich twórców (patrz: Stronniczość a uprzedzenia).

Protesty artystów przeciwko wykorzystaniu danych

Istotna jest przy tym kwestia danych, których użyto do szkolenia poszczególnych modeli AI – ich rodzaj i pochodzenie. Wiadomo, że modele te przeszkolono na ogromnej ilości tekstów, książek i dzieł sztuki. Przedstawiciele branż kreatywnych są oburzeni praktyką trenowania modeli AI na materiałach chronionych prawem autorskim bez zgody artystów.

Za pomocą narzędzi GenAI można ich prace modyfikować, wybierać elementy czy łączyć dwa lub więcej obrazów w jeden, wymyślając coś pozornie nowego. Przeciwko temu protestuje wielu artystów, których sztukę wykorzystano, np. do tworzenia modelu Stable Diffusion. Obecny pozew dotyczy kreowania obrazów przez generatory AI, a za chwilę sprawa może dotyczyć muzyków i całej branży kreatywnej.

3. Przejrzystość i zrozumiałość 

Twórcy AI są niejako przedstawicielami przyszłej ludzkości, mają etyczny obowiązek zachowania przejrzystości w swojej pracy. Budowaniu zaufania i promowaniu przejrzystości AI może służyć tworzenie szczegółowej dokumentacji na temat działania systemów.

Przejrzyste przepisy mają kluczowe znaczenie dla zagwarantowania etycznego wykorzystania AI

OpenAI, jak wynika z deklaracji firmy, jest organizacją non-profit zajmującą badaniem i opracowaniem otwartej AI (open source) korzystnej dla ludzkości. Niestety, uczynienie kodu otwartym nie czyni go zrozumiałym, co oznacza, że kod AI sam w sobie nie jest przejrzysty. Istnieje przy tym obawa, że udostępnienie pełnej wydajności systemów AI niektórym organizacjom może wyrządzić więcej szkody niż pożytku.

Sam Microsoft wyraził zaniepokojenie umożliwieniem powszechnego dostępu do swojego oprogramowania do rozpoznawania twarzy, np. policji. Jednocześnie ta sama firma, z powodów oszczędności  – jak donoszą media – zwolniła cały zespół zajmujący się etyką AI. I nie jest to jedyna firma, która postanowiła na tym oszczędzić. 

Podejmowane działania

Wiele światowych organizacji i rzeczników praw obywatelskich zaleca regulacje rządowe jako środek zapewniający przejrzystość.

  • UNESCO wydało w 2021 roku Zalecenie w sprawie etyki sztucznej inteligencji, które jest pierwszym globalnym instrumentem ustanawiającym standardy w tej dziedzinie. Podjęto w nim m.in. tak ważną kwestię uprzedzeń płciowych, by nie powielać w świecie cyfrowym stereotypowych reprezentacji kobiet.
  • Algorithmic Accountability Act, ustawa z 2022 roku, wymaga od firm w USA oceny wpływu ich systemów AI na czynniki takie, jak uprzedzenia, dyskryminacja, prywatność oraz podjęcia kroków w celu złagodzenia ich negatywnych skutków.
  • IEEE – największa na świecie organizacja techniczna zajmująca się rozwojem technologii dla dobra ludzkości – dąży do ciągłego identyfikowania skal przejrzystości dla różnych użytkowników

4. Zastępowanie pracy ludzkiej

Zastosowania AI potencjalnie mogą mieć wpływ na wiele dziedzin życia i sektorów pracy. Przypuszczalnie, pracę podzieli się na zadania, które:

  • da się zautomatyzować;
  • nie dadzą się zautomatyzować;
  • nie powinno się automatyzować.

Etyczne implikacje potencjalnego zastępowania pracy ludzkiej przez AI doprowadzą do wielkich zmian na rynku pracy

Efektem tego podziału może być fakt, że pewne zawody i zajęcia specjalistyczne znikną. A co z kreatywnymi? Różne badania pokazują, że generatory tekstów oparte na AI są co prawda zdolne tworzyć treści poprawne gramatycznie, ale nie zawsze są one zgodne z prawami otaczającego nas świata.

Człowiek nadal tworzy lepsze treści niż AI, ponieważ sztucznej inteligencji brak logicznego rozumowania. Jest też podatna na błędy i tzw. halucynacje.

Etyka AI: Już w 1973 roku Joseph Weizenbaum argumentował, że technologia AI nie powinna zastępować ludzi w zawodach wymagających szacunku i troski, ponieważ od osób na pewnych stanowiskach spodziewamy się głębszych uczuć i empatii. Argument nadal aktualny.

Przepisy i standardy w etyce AI

Już w latach 50. XX w. Isaac Asimov rozważał kwestię etyki maszyn, a także testował granice praw, które dla nich stworzył, aby zobaczyć, gdzie spowodują paradoksalne lub nieoczekiwane zachowanie. Jego praca sugeruje, że żaden zestaw ustalonych praw nie może wystarczająco przewidzieć wszystkich możliwych okoliczności. 

Obecnie nad strategiami regulującymi sztuczną inteligencję i znalezieniem odpowiednich ram prawnych pracują ONZ, OECD, UE i wiele poszczególnych krajów.  

Komisja Europejska a AI

Etyka AI: Przepisy i standardy w etyce AI

W czerwcu 2021 roku grupa ekspertów wysokiego szczebla KE ds. AI (AI HLEG) opublikowała „Zalecenia dotyczące polityki i inwestycji dotyczące godnej zaufania sztucznej inteligencji”. To drugi etap ich prac, po opublikowaniu w kwietniu 2019 r. „Wytycznych etycznych dotyczących godnej zaufania sztucznej inteligencji”.

Czerwcowe zalecenia AI HLEG obejmują cztery główne tematy: ludzi i ogół społeczeństwa, badania i środowisko akademickie, sektory prywatny i publiczny.

Powinny istnieć ustalone ramy moralne, których sztuczna inteligencja nie może zmienić 

Komisja Europejska twierdzi, że „zalecenia grupy HLEG odzwierciedlają uznanie zarówno dla możliwości, jakie technologie sztucznej inteligencji mogą napędzać wzrost gospodarczy, dobrobyt i innowacje, jak i związane z tym potencjalne zagrożenia”. Stwierdza, że UE zamierza przewodzić w kształtowaniu polityk regulujących sztuczną inteligencję na arenie międzynarodowej.

RODO a AI

Ogólne Rozporządzenie UE o Ochronie Danych Osobowych (RODO) wymaga, aby firmy wprowadziły zabezpieczenia w celu zapewnienia przejrzystości i równości algorytmów AI. RODO, obowiązujące wszystkie organizacje w UE, wymaga, aby firmy zapewniały przejrzyste i bezpieczne przetwarzanie danych osobowych oraz aby osoby fizyczne miały prawo dostępu do swoich danych i kontroli nad nimi. 

Rola firm IT w zapewnianiu etycznej sztucznej inteligencji 

Sztuczna inteligencja nie może sama zostać pociągnięta do odpowiedzialności, ale już ludzie, którzy ją tworzą – tak 

Firmy IT i programiści, odgrywający kluczową rolę w tworzeniu systemów AI, powinni gwarantować, że opisane wyżej zasady etyczne są osadzone w ich projektowaniu i wdrażaniu.

Jednocześnie powinni zapewniać bezpieczeństwo i uczciwość systemów, tworząc algorytmy uwzględniające wiele perspektyw. Ogranicza to ryzyko utrwalania uprzedzeń, które mogą istnieć wśród jej twórców.

Działania ograniczające ryzyko uprzedzeń:

  • angażowanie zróżnicowanych zespołów w opracowywanie i testowanie algorytmów AI, począwszy od pochodzenia etnicznego, płci, statusu społeczno-ekonomicznego i wykształcenia, a skończywszy na wiedzy, wartościach, przekonaniach; 
  • regularne przeprowadzanie audytów i przeglądów systemu AI, w celu zapewnienia różnorodności i reprezentatywności zbiorów danych;
  • korzystanie z miar rzetelności – pomagają określić, jak algorytm działa dla różnych grup etnicznych lub płciowych i uwypuklić rozbieżności w wynikach;
  • integrowanie zasad etycznych i kodeksów postępowania z systemami AI

Podsumowanie 

Nieetyczna sztuczna inteligencja potencjalnie może szkodzić jednostkom i społeczeństwu. Zapobieganie temu wymaga zaangażowania ludzi, w tym branży IT w całym procesie rozwoju i wdrażania AI.

Odpowiednie regulacje i przepisy mogą zapewnić rozwój etycznej AI, ustanawiając standardy przejrzystości, ograniczając dyskryminację i chroniąc dane. Wprowadzenie wytycznych, wskaźników uczciwości i zapewnienie różnorodności zespołów może pomóc twórcom AI w budowaniu bezpiecznej i odpowiedzialnej sztucznej inteligencji.

Powiązane artykuły

Tradycyjna AI vs Generatywna AI – czy wiesz, czym się różnią?

Dowiedz się, czym różni się tradycyjna AI od generatywnej AI. Odkryj wpływ na biznes oraz praktyczne zastosowania tych rodzajów sztucznej inteligencji.

Jak bazy wiedzy oparte na AI rewolucjonizują obsługę klienta?

Odkryj, jak bazy wiedzy AI usprawniają obsługę klienta, dzięki szybkim, trafnym odpowiedziom. Te rozwiązania zrewolucjonizują doświadczenia Twoich użytkowników.