Etyka AI w kontekście postępu technologicznego w dziedzinie sztucznej inteligencji może przyczynić się do stworzenia świata z mniejszą stronniczością i większą sprawiedliwością. Czym jest i dlaczego ma dziś tak duże znaczenie?
Wraz z rosnącym znaczeniem sztucznej inteligencji (AI) dla społeczeństwa, eksperci z tej dziedziny zauważyli potrzebę ustalenia granic etycznych w procesie tworzenia i wdrażania nowych narzędzi opartych na AI. Choć obecnie nie istnieje powszechnie uznawana instytucja nadzorcza, która opracowuje i egzekwuje te zasady, wiele firm technologicznych przyjęło własne wersje etyki AI lub kodeksu postępowania.
Etyka AI w obszarze sztucznej inteligencji to zbiór zasad moralnych, którymi firmy oraz organizacje kierują się podczas odpowiedzialnego i sprawiedliwego rozwoju oraz stosowania AI. W poniższym tekście przyjrzymy się, czym są zasady etyczne w dziedzinie AI, dlaczego mają one znaczenie oraz jakie są wyzwania i korzyści związane z opracowywaniem kodeksu postępowania w tej dziedzinie.
Czym jest etyka AI
Etyka AI (w dziedzinie sztucznej inteligencji) to zbiór zasad, których stosowanie zapewniają interesariusze (od inżynierów po urzędników rządowych), aby zapewnić odpowiedzialne wykorzystanie i rozwój technologii sztucznej inteligencji. Oznacza to podejście bezpieczne, zabezpieczone, humanitarne i przyjazne dla środowiska w stosunku do sztucznej inteligencji.
Solidny kodeks etyki AI może obejmować unikanie uprzedzeń, zapewnienie prywatności użytkowników i ich danych oraz minimalizowanie ryzyka dla środowiska. Istnieją dwa główne sposoby wdrażania etyki w dziedzinie sztucznej inteligencji: kodeksy etyczne w firmach i regulacje rządowe. Poprzez uwzględnianie globalnych i krajowych kwestii etycznych dotyczących sztucznej inteligencji oraz ustanawianie podstawowych polityk dla etycznej sztucznej inteligencji w firmach, oba te podejścia pomagają w regulowaniu technologii AI.
Szerzej rzecz ujmując, dyskusja na temat etyki AI przeniosła się z centrum akademickich badań i organizacji non-profit. Dziś duże firmy technologiczne, takie jak IBM, Google i Meta, stworzyły zespoły zajmujące się problemami etycznymi wynikającymi z gromadzenia ogromnych ilości danych. Jednocześnie rządy i organizacje międzynarodowe zaczęły opracowywać regulacje i politykę etyczną opartą na badaniach akademickich.
Etyka AI – interesariusze
Rozwijanie zasad etycznych dla odpowiedzialnego wykorzystania i rozwoju sztucznej inteligencji wymaga współpracy uczestników branży. Interesariusze muszą zbadać, jak kwestie społeczne, ekonomiczne i polityczne łączą się z AI oraz określić, jak maszyny i ludzie mogą harmonijnie współistnieć.
Każdy z tych uczestników odgrywa ważną rolę w zapewnieniu mniejszego wpływu uprzedzeń i minimalizowaniu ryzyka dla technologii AI.
- Akademicy. Badacze i profesorowie są odpowiedzialni za rozwijanie statystyk opartych na teorii, badań oraz pomysłów, które mogą wspierać rządy, firmy oraz organizacje non-profit.
- Rząd. Agencje i komitety w ramach rządu mogą pomóc w ułatwianiu etyki sztucznej inteligencji w państwie. Dobrym przykładem jest raport „Przygotowanie na przyszłość sztucznej inteligencji”, opracowany przez Narodową Radę Nauki i Technologii (NSTC) w 2016 roku, który przedstawia sztuczną inteligencję i jej związek z działaniami na rzecz społeczeństwa, regulacjami, zarządzaniem, gospodarką i bezpieczeństwem.
- Podmioty międzyrządowe. Podmioty takie jak Organizacja Narodów Zjednoczonych i Bank Światowy są odpowiedzialne za podnoszenie świadomości i opracowywanie umów dotyczących etyki sztucznej inteligencji na skalę globalną. Na przykład 193 państwa członkowskie UNESCO przyjęły w listopadzie 2021 roku pierwszą w historii globalną umowę dotyczącą Etyki Sztucznej Inteligencji, aby promować prawa człowieka i godność.
- Organizacje non-profit. Tego typu instytucje pomagają różnorodnym grupom zdobyć reprezentację w technologii sztucznej inteligencji. Instytut Future of Life opracował 23 wytyczne, które stały się Zasadami Asilomar dotyczącymi sztucznej inteligencji, które wyznaczają konkretne ryzyka, wyzwania i rezultaty dla technologii AI.
- Przedsiębiorstwa prywatne. Google, Meta oraz inne firmy technologiczne, a także branże bankowe, konsultingowe, opieki zdrowotnej i inne sektory prywatne wykorzystujące technologię AI, odpowiadają za tworzenie zespołów etyki oraz kodeksów postępowania. Często prowadzi to do ustanowienia standardów, które inne firmy chętnie przyjmują.
Dlaczego etyka AI jest ważna?
Etyka AI jest ważna, ponieważ sama technologia AI ma na celu uzupełnianie lub zastępowanie ludzkiej inteligencji— ale gdy technologia jest zaprojektowana, aby naśladować perspektywę człowieka, te same wyzwania i przekonania, które wpływają na ludzki osąd, mogą przenikać do technologii.
Projekty AI oparte na stronniczych lub nieprecyzyjnych danych mogą mieć szkodliwe konsekwencje, zwłaszcza dla grup lub jednostek niedoreprezentowanych lub marginalizowanych. Ponadto, jeśli algorytmy AI i modele uczenia maszynowego są budowane zbyt pochopnie, może to stać się nie do opanowania dla inżynierów i menedżerów produktu w celu skorygowania wyuczonych uprzedzeń. Łatwiej jest włączyć kodeks etyczny podczas procesu rozwoju, aby zminimalizować ewentualne przyszłe ryzyka.
Etyka sztucznej inteligencji w filmie i telewizji
Fantastyka naukowa—w książkach, filmach i telewizji—od dawna bawi się pojęciem etyki w sztucznej inteligencji. Przykładowo w filmie „Ona” z 2013 roku w reżyserii Spike’a Jonze’a, użytkownik komputera zakochuje się w swoim systemie operacyjnym ze względu na jej uwodzicielski głos. Jest to tragikomiczne wyobrażenie sposobów, w jakie maszyny mogłyby wpływać na ludzkie życie i przekraczać granice „miłości”, ale jednocześnie podkreśla potrzebę rozważności wokół tych rozwijających się systemów.
Etyka AI – przykłady
Najłatwiej ilustrować etykę sztucznej inteligencji na przykładach z życia codziennego. W grudniu 2022 roku aplikacja Lensa AI wykorzystała sztuczną inteligencję do generowania efektownych, kreskówkowych zdjęć profilowych na podstawie zwykłych zdjęć ludzi. Z punktu widzenia etycznego, niektórzy krytykowali aplikację za brak uznania lub wystarczającej zapłaty dla artystów, którzy stworzyli oryginalną sztukę cyfrową, na podstawie której została przeszkolona sztuczna inteligencja [1}. Według informacji z „The Washington Post”, Lensa była szkolona na miliardach fotografii pobranych z Internetu bez zgody [2].
Kolejnym przykładem jest model sztucznej inteligencji ChatGPT, który umożliwia użytkownikom interakcję poprzez zadawanie pytań. ChatGPT przeszukuje Internet w poszukiwaniu danych i odpowiada wierszem, kodem Pythona lub gotową propozycją tekstu. Jednym z dylematów etycznych jest to, że ludzie używają ChatGPT, aby wygrywać konkursy programistyczne lub pisać eseje. Podobnie jak w przypadku Lensa, pojawiają się podobne pytania, ale dotyczące tekstu, a nie obrazów.
To tylko dwa popularne przykłady wyzwań dot. etyki AI. Wraz z rosnącym znaczeniem sztucznej inteligencji w ostatnich latach, wpływającym na niemal każdą branżę i mającym ogromny pozytywny wpływ na dziedziny takie jak opieka zdrowotna, temat etyki AI stał się jeszcze bardziej istotny. Jak zapewnić wolność od uprzedzeń w sztucznej inteligencji? Co można zrobić, aby zmniejszyć ryzyko w przyszłości? Istnieje wiele potencjalnych rozwiązań, ale interesariusze muszą działać odpowiedzialnie i współpracować, aby stworzyć pozytywne wyniki na całym świecie.
Etyka AI – główne wyzwania
Istnieje wiele realnych wyzwań, które mogą pomóc zobrazować etykę sztucznej inteligencji. Oto tylko kilka z nich:
Sztuczna inteligencja a uprzedzenia
Jeśli sztuczna inteligencja nie gromadzi danych, które dokładnie odzwierciedlają populację, ich decyzje mogą być podatne na uprzedzenia. W 2018 roku Amazon był na celowniku krytyki ze względu na narzędzie rekrutacyjne oparte na sztucznej inteligencji, które obniżało oceny życiorysów zawierających „kobiety” (takie jak „Women’s International Business Society”) [3]. W rezultacie narzędzie SI dyskryminowało kobiety i stwarzało ryzyko prawne dla giganta technologicznego.
Z kolei polskie badania z 2023 roku analizujące uprzedzenia płciowe w tworzonych przez SI obrazach profesjonalistów, skupiających się na wizualnej reprezentacji mężczyzn i kobiet pracujących w branżach: medycznej, prawnej, projektowej i akademickiej, jednoznacznie wykazały że AI w znaczący sposób marginalizuje kobiety. Na obrazach wygenerowanych przez AI mężczyźni byli reprezentowani aż w 76 procentach materiałów, a kobiety pojawiały się jedynie na 8 procentach [4].
Ai i prywatność
Jak wspomniano wcześniej na przykładzie Lensa AI, sztuczna inteligencja korzysta z danych pobieranych z wyszukiwań internetowych, zdjęć i komentarzy na mediach społecznościowych, zakupów online i wielu innych źródeł. Choć pomaga to w personalizacji doświadczenia klienta, pojawiają się pytania dotyczące braku rzeczywistej zgody na dostęp tych firm do naszych danych osobowych.
AI i środowisko
Niektóre modele sztucznej inteligencji (SI) są duże i wymagają znacznych ilości energii do trenowania na danych. Choć prowadzone są badania nad opracowaniem metod na bardziej energooszczędne SI, to wciąż stoimy przed dużym wyzwaniem, aby uwzględnić kwestie etyki środowiskowej w związku z politykami dotyczącymi SI.
Jak stworzyć bardziej etyczną AI
Tworzenie bardziej etycznej sztucznej inteligencji wymaga dokładnego przyjrzenia się etycznym implikacjom polityki, edukacji i technologii. Ramy regulacyjne mogą zagwarantować, że technologie służą społeczeństwu, a nie szkodzą mu. Globalnie rządy zaczynają egzekwować polityki dotyczące etycznej AI, w tym sposobu postępowania firm w przypadku wystąpienia uprzedzeń lub innych szkód.
Każdy, kto styka się z AI, powinien zrozumieć ryzyka i potencjalne negatywne skutki nieszczerych lub fałszywych technologii. Tworzenie i rozpowszechnianie dostępnych zasobów może zmniejszyć te rodzaje ryzyka.
Może się wydawać paradoksalne wykorzystywanie technologii do wykrywania nieetycznego zachowania w innych formach technologii, ale narzędzia AI mogą być używane do określania, czy wideo, dźwięk czy tekst (na przykład mowa nienawiści w mediach społęcznoścowych) są prawdziwe czy nie. Te narzędzia potrafią lepiej i bardziej efektywnie niż ludzie wykrywać nieetyczne źródła danych i uprzedzenia.
Etyka AI na Uczelni Łazarskiego
Weź udział w Kursach na Uczelni Łazarskiego.
Oprócz rozbudowanego modułu dotyczącego etyki AI, szkolenia zakładają również naukę kompleksowego wykorzystania narzędzi opartych na Gen AI w codziennej pracy, jak również w życiu prywatnym. Skontaktuj się z nami po więcej szczegółów
Tekst powstał na bazie materiałów z Coursery.
Źródła artykułów
2. Washington Post. “Your selfies are helping AI learn. You did not consent to this,
3. Reuters. “Amazon scraps secret AI recruiting tool that showed bias against women,
4. ALK The invisible women: uncovering gender bias in AI-generated images of professionals