Nowa technologia fotograficzna Google jest przerażająca i bardzo problematyczna

Nowa technologia fotograficzna Google jest przerażająca i bardzo problematyczna
Google stosuje rozległe metody uczenia maszynowego, więc nie jest zaskoczeniem, że firma stosuje je do każdego fragmentu danych, które mu przekazujemy, ale jest coś w psuciu naszych zdjęć, co wydaje się niezgodne z prawem, niezależnie od uśmiechu, jakiego próbuje Google. Załóż to. Wiele elementów przemówienia Google na I/O 2021 wywołało dziwną nutę, jak na przykład świętowanie „zasad sztucznej inteligencji” po rozmowie z byłym specjalistą ds. etyki sztucznej inteligencji, dr. Timnitem Gebru, dzięki któremu firma stała się liderem swoich naukowców. „Bądź bardziej pozytywny” w stosunku do sztucznej inteligencji. Szczególnie irytująca była jednak część przemówienia programowego Shimrita Ben-Yaira, szefa Zdjęć Google. Podczas swojej prezentacji pokazał, jak technologia uczenia maszynowego Google jest w stanie przeanalizować wszystkie zdjęcia, zidentyfikować mniej rozpoznawalne podobieństwa w całej kolekcji zdjęć i odpowiednio pogrupować zdjęcia w grupy.

Google demonstruje swój algorytm Małych Wzorców Zdjęć Google

(Źródło zdjęcia: Google) Oznacza to, że Google sprawdza każde zdjęcie, które mu przekazujesz, za pomocą bardzo specyficznych algorytmów uczenia maszynowego i identyfikuje bardzo szczegółowe szczegóły Twojego życia, takie jak fakt, że lubisz podróżować po świecie z miną-torbą i konkretnym pomarańczowym tyłem , Na przykład. Na szczęście Google przynajmniej zdaje sobie sprawę, że może to być problematyczne, jeśli na przykład jesteś osobą transpłciową i algorytm Google zdecyduje, że chce utworzyć kolekcję zdjęć sprzed przejścia. Google rozumie, że może to być dla Ciebie bolesne, dlatego masz pełną możliwość usunięcia w przyszłości obraźliwego zdjęcia z kolekcji. Możesz także poprosić o usunięcie wszelkich zdjęć zrobionych w określonym dniu, który może być bolesny, na przykład w dniu śmierci bliskiej osoby. Wszystko to jest lepsze niż brak tej opcji w ogóle, ale odpowiedzialność nadal spada na Ciebie, użytkownika, który zawsze jest i zawsze jest. Co dla niektórych jest trochę uciążliwe, gdy Google ma do wprowadzenia nowe funkcje, o które nikt nie prosił? Następnie dochodzimy do części prezentacji, w której Google wybiera dwa lub trzy zdjęcia zrobione razem, na przykład gdy robisz wiele zdjęć z rzędu, aby uchwycić jedno, na którym nikt nie mruga na zdjęciu grupowym, i stosuje: jego uczenie maszynowe pozwala wygenerować z nimi małe „zdjęcie kinowe”. Ta funkcja, wprowadzona po raz pierwszy w grudniu 2020 r., będzie wykorzystywać uczenie maszynowe do wstawiania całkowicie sfabrykowanych klatek między zdjęciami, aby zasadniczo wygenerować plik GIF, odtwarzając wydarzenie na żywo w sposób stanowiący faksymile wydarzenia w jego obecnej postaci. Nacisk na faksowanie.

Filmowy moment w Zdjęciach Google

(Źródło zdjęcia: Google) Google przedstawia to jako pomoc w zapamiętywaniu starych zdjęć, ale nie o to chodzi, to początek końca wspomnień, jakie znamy. Po co ufać swojej pamięci, skoro Google może wygenerować tylko jedną dla Ciebie? Nie ma znaczenia, czy stworzysz nagranie czegoś, co tak naprawdę się nie wydarzyło i przedstawisz to tak, jakby to się wydarzyło. Oczywiście twoje oczy mogły „w pewnym sensie” mrugnąć między tymi dwoma zdjęciami i to nie jest tak, że Google zmuszał cię do robienia kolejek po coli na imprezie, kiedy nie robiłeś żadnego, tego czy tamtego. Ale jeśli chodzi o to, co jest etyczne, a co nie, nie ma miejsca na „płeć”. Tego typu wybory prowadzą nas na ścieżki, którymi nie chcemy podążać, a każdy krok na tej ścieżce utrudnia nam powrót. Jeśli jest jedna rzecz, której naprawdę powinniśmy się nauczyć przez ostatnią dekadę, to nie jest nią ślepa wiara w algorytmy uczenia maszynowego, które mogą zniekształcać nasze postrzeganie rzeczywistości naukowej. QAnon jest w takim samym stopniu produktem uczenia maszynowego, jak Netflix, ale teraz postawimy nasze albumy ze zdjęciami na ołtarzu sztucznej inteligencji i nazwiemy wszystko, co się pojawi, „Wspomnieniami”. Tymczasem w miarę postępu zmian klimatycznych dużo energii zużywa się na uruchamianie wszystkich algorytmów w centrach danych. Z każdym nowym udoskonaleniem platformy uczenia maszynowego Google staje się coraz bardziej oczywiste, że naprawdę powinieneś słuchać tego, co próbują Ci powiedzieć etycy tacy jak dr Gebru, a jeszcze bardziej oczywiste staje się, że nie masz w tym żadnego interesu.