Dylematy etyczne SI | komputerowy świat

dylematy etyczne AI | komputerowy świat

Czy możemy zaufać sztucznej inteligencji? Jest już widoczny i niewidoczny w naszym świecie, od Tłumacza Google i robotów do gier wideo po zastosowania przemysłowe w opiece zdrowotnej, produkcji i bankowości do krytycznych obciążeń. Czy możemy skutecznie wykorzystać tę rewolucyjną technologię i uniknąć nieodłącznych etycznych dylematów uprzedzeń, zaufania i przejrzystości? Istnieje droga naprzód, ale będzie to wymagało ciągłych i rzetelnych rozmów na temat etyki sztucznej inteligencji w miarę rozwoju technologii.

Czy ufasz AI?

Kwestia zaufania często pojawia się w sytuacjach, gdy działalność człowieka powierza się sztucznej inteligencji. Na przykład Tesla i inni producenci samochodów eksperymentują z automatycznymi funkcjami jazdy i parkowania zarządzanymi przez sztuczną inteligencję. Autonomiczna jazda przesuwa granice zaufania, ponieważ testy tej technologii doprowadziły do ​​śmierci ludzi. Na piasku szybko rysują się granice między tym, czy możemy zaufać samochodowi do parkowania.

Jednak zaufanie do sztucznej inteligencji jest już nieodłączne w niektórych przypadkach użycia: ludzie robią to, nawet nie zdając sobie z tego sprawy. W przypadku wykrycia oszustwa, wiadomości tekstowe o podejrzanych transakcjach są wysyłane, zanim zorientujesz się, że brakuje Ci portfela lub karty kredytowej. Ten rodzaj technologii działa w czasie rzeczywistym i może zaoszczędzić Ci ogromnego finansowego bólu głowy.

Nawet w branżach, w których sztuczna inteligencja jest częścią obciążeń o znaczeniu krytycznym dla firmy, kwestia zaufania pozostaje aktualna. Na przykład w technologii mainframe niektóre firmy nie podejmują automatycznie działań, gdy sztuczna inteligencja wykryje anomalię. Chociaż sztuczna inteligencja wykonała swoje zadanie, wykrywając anomalię, nie rozumie, że zatrzymanie pracy na komputerze mainframe może mieć katastrofalne konsekwencje dla firmy. W takim przypadku operatorzy nie ufają sztucznej inteligencji, że dokona lepszego osądu niż mogliby. W miarę rozwoju sztucznej inteligencji firmy i przypadki użycia będą testować, kiedy, gdzie i na ile zaufać tej technologii; ostatecznie przyjrzą się, czy dane i/lub wyniki są osiągalne i bezstronne.

stronniczość, stronniczość

Podobnie jak ludzie, od systemów SI często oczekuje się przestrzegania norm społecznych oraz uczciwości i bezstronności. Jeśli chodzi o stronniczość, problem nie dotyczy wyłącznie modeli AI — ludzie też zmagają się z uprzedzeniami. Jednak w przypadku sztucznej inteligencji potencjalne wyniki stronniczości mogą mieć oszałamiający wpływ. W AI stronniczość ma silną korelację z danymi wejściowymi. Na przykład nieczyste, nierafinowane lub błędne dane wejściowe będą miały wpływ na wyniki. Ważną rzeczą do zrozumienia z uprzedzeniami jest to, że etyczna nawigacja wymaga wrażliwości, wnikliwości i otwartości.

Ludzie ostatecznie kontrolują stronniczość w sztucznej inteligencji: praktycy wybierają oryginalne dane wejściowe i wprowadzają stronniczość, aby wpłynąć na wyniki. Weźmy na przykład Amazon. Amazon otrzymuje dużą liczbę zapytań. Kiedy postanowili przetestować zastosowanie sztucznej inteligencji w procesie rekrutacji, firma wykorzystała CV obecnych pracowników jako dane wejściowe. Jaki był więc wynik? Amazon szeroko podzielał, że przy użyciu wyselekcjonowanego doboru demograficznego wyniki były wypaczone w stosunku do kobiet. Podczas procesu testowania sprzedawca odkrył, że jeśli słowo „kobieta” pojawia się w jakimkolwiek miejscu w CV, osoba ta nigdy nie otrzymała telefonu. Amazon zdał sobie sprawę, że dane wejściowe były częścią problemu i nigdy nie wdrożył modelu dla menedżerów zatrudniających.

Udostępnianie tych informacji i bycie wrażliwym na wyniki jest niezbędne, ponieważ wciąż odkrywamy najlepsze wykorzystanie tej technologii. Ponieważ stronniczość jest silnie związana z intencją, Amazon nie jest przykładem złośliwego wykorzystania sztucznej inteligencji. Zamiast tego demonstruje potrzebę introspekcji podczas korzystania z AI. Amazon skorygował wyniki pod kątem odchylenia modelu, aby pomóc im uzyskać bardziej zrównoważony wynik.

Sztuczna inteligencja już bardzo szybko stała się krytyczną częścią biznesu, a nawet głównym wyróżnikiem dla niektórych organizacji, i należy się spodziewać problemów etycznych, takich jak stronniczość. Kluczem do przezwyciężenia uprzedzeń jest upewnienie się, że dane wejściowe są tak czyste, jak to tylko możliwe, oraz chęć otwartego i przejrzystego zbadania nieetycznych wyników.

Rola przejrzystości

Przejrzystość w sztucznej inteligencji można zdefiniować jako możliwą do wyjaśnienia pracownikom i klientom. Problem polega na tym, że sztuczna inteligencja nie jest z natury przejrzysta, więc będzie istotną częścią nawigacji, gdy sztuczna inteligencja zostanie dopracowana. Stosując przejrzystość na poziomie korporacyjnym, pojawia się pytanie, jak ustanowić zasady, które mają zastosowanie ogólne, gdy występują różne stopnie wpływu? Skąd będziemy wiedzieć, czy sztuczna inteligencja zastosowana z mniej korzystnym wynikiem jest przejrzysta?

Brak przejrzystości jest szczególnie ważny dla konsumentów. Konsumenci chcą wiedzieć, jakie dane osobowe gromadzą firmy, w jaki sposób je wykorzystują, jak działają ich algorytmy i kto jest odpowiedzialny, jeśli coś pójdzie nie tak. W niektórych przypadkach, takich jak Spotify, algorytm jest powiązany z przewagą konkurencyjną organizacji. Wartość Spotify dla konsumenta polega na rekomendacjach, które wydaje na podstawie zebranych informacji o słuchaczu. Powstaje zatem pytanie, gdzie przebiega etyczna linia przejrzystości? Ile firma powinna udostępniać, a ile konsumenci powinni widzieć i wiedzieć?

Przejrzystość to ruchomy cel; jednak ważne jest, aby ocenić wpływ zmiany algorytmów. Gdy nastąpi zmiana, przejrzystość w kwestii tej zmiany i jej wpływu na różnych interesariuszy będzie kluczem do rozwoju technologii w jeszcze bardziej innowacyjnym miejscu. Jedno z możliwych rozwiązań leży w równowadze. Organizacje, które chcą wyjaśnić, dlaczego w ich modelach podjęto określone decyzje, mogą wnieść pozytywny wkład w przejrzystość bez ujawniania poufnych informacji.

Czy możliwa jest równowaga etyczna?

Krótka odpowiedź brzmi: tak, możliwa jest równowaga etyczna. Jednak zrozumienie, jak poruszać się w etyce technologii AI, jest procesem ciągłym. Niektórzy w naszej branży domagają się przejrzystości, podczas gdy firmy uważają za konieczne ochronę swojej technologii, ponieważ jest to wyróżnik. Obie strony podnoszą ważne i ważne kwestie, ale gdzie pozostawia to nieodłączny dylemat etyczny?

Istnieje kilka kluczowych czynników, niezależnie od tego, po której stronie rozmowy jesteś.

Ciągły wkład człowieka będzie ważnym aspektem technologii AI, pod względem etycznym i funkcjonalnym. Teraz i w miarę rozwoju sztucznej inteligencji w przyszłości będzie to wymagało wkładu człowieka i nadzoru.

Wrażliwość na stronniczość jest niezbędna dla danych wejściowych, dopasowania modelu i śledzenia wyników.

Przejrzystość dotycząca pomyłek i sukcesów sztucznej inteligencji zachęca do rozmów na temat etyki i pomaga rozwijać technologię sztucznej inteligencji.

Ponieważ sztuczna inteligencja nadal wpływa na globalną społeczność, musimy nadal dzielić się lekcjami i zadawać pytania etyczne dotyczące zaufania, stronniczości i przejrzystości. Im więcej robimy, tym lepsze decyzje podejmujemy i tym łatwiej będzie nam zrozumieć, jak w przyszłości ulepszyć sztuczną inteligencję.

Chcesz dowiedzieć się więcej o roli AI w Broadcom? Dowiedz się, w jaki sposób wykorzystujemy technologię AI do usprawniania operacji IT.

Prawa autorskie © 2022 IDG Communications, Inc.