Peruki Big Tech: Ograniczanie implementacji sztucznej inteligencji


Ponad 1100 luminarzy, dyrektorów i naukowców z branży technologicznej wydało ostrzeżenie przed laboratoriami prowadzącymi eksperymenty na dużą skalę ze sztuczną inteligencją (AI) potężniejszą niż ChatGPT, twierdząc, że technologia ta stanowi poważne zagrożenie dla ludzkości.

W liście otwartym opublikowanym przez The Future of Life Institute, organizację non-profit, której celem jest zmniejszenie globalnego ryzyka egzystencjalnego i katastrofalnego dla ludzkości, współzałożyciel Apple Steve Wozniak, dyrektor generalny SpaceX i Tesli Elon Musk oraz prezes MIT Future of Life Instytut Maxa Tegmarka. dołączył do innych sygnatariuszy, stwierdzając, że sztuczna inteligencja stwarza „poważne ryzyko dla społeczeństwa i ludzkości, jak wykazały szeroko zakrojone i renomowane badania przeprowadzone przez czołowe laboratoria zajmujące się sztuczną inteligencją”.

Sygnatariusze wezwali do sześciomiesięcznej przerwy we wdrażaniu systemów szkoleniowych AI potężniejszych niż GPT-4, czyli model dużego języka (LLM), na którym opiera się popularny chatbot ChatGPT przetwarzający język naturalny. List po części opisywał dystopijną przyszłość, przypominającą tę stworzoną przez sztuczne sieci neuronowe z filmów science fiction, takich jak Terminator i Matrix. W liście wyraźnie zadano pytanie, czy zaawansowana sztuczna inteligencja może doprowadzić do „utraty kontroli nad naszą cywilizacją”.

W liście ostrzega również przed zakłóceniami politycznymi „zwłaszcza w demokracji” ze strony sztucznej inteligencji: chatboty działające jak ludzie mogą zalać media społecznościowe i inne sieci propagandą i kłamstwami. I ostrzegł, że sztuczna inteligencja może „zautomatyzować całą pracę, w tym zgodność z przepisami”.

Grupa wezwała przywódców obywatelskich, a nie społeczność technologiczną, do przejęcia odpowiedzialności za decyzje dotyczące zakresu wdrożeń sztucznej inteligencji.

Decydenci powinni współpracować ze społecznością sztucznej inteligencji, aby radykalnie przyspieszyć rozwój solidnych systemów zarządzania sztuczną inteligencją, które obejmują co najmniej nowe organy regulacyjne AI, systemy nadzoru i monitorowania, wysokowydajną sztuczną inteligencję i duże pule mocy obliczeniowej. W liście zasugerowano również użycie systemów pochodzenia i znaków wodnych, które pomogą odróżnić prawdziwe treści od treści syntetycznych i śledzić wycieki modeli, a także solidny ekosystem audytu i certyfikacji.

„Współczesne systemy sztucznej inteligencji stają się teraz konkurencyjne dla ludzi w ogólnych zadaniach” – czytamy w liście. „Czy powinniśmy rozwijać nieludzkie umysły, które ostatecznie mogłyby nas przewyższyć liczebnie, przechytrzyć, przestarzałe i zastąpić? Czy powinniśmy ryzykować utratę kontroli nad naszą cywilizacją? Takie decyzje nie powinny być przekazywane niewybieralnym liderom technologicznym.

(Rząd Wielkiej Brytanii opublikował dziś białą księgę przedstawiającą plany regulacyjne dotyczące sztucznej inteligencji ogólnego przeznaczenia, stwierdzając, że „uniknie rygorystycznego prawodawstwa, które mogłoby stłumić innowacje” i zamiast tego będzie opierać się na istniejących przepisach).

Instytut Future of Life argumentował, że laboratoria sztucznej inteligencji toczą niekontrolowany wyścig w opracowywaniu i wdrażaniu „coraz potężniejszych cyfrowych umysłów, których nikt, nawet ich twórcy, nie jest w stanie wiarygodnie zrozumieć, przewidzieć ani kontrolować”.

Wśród sygnatariuszy znaleźli się naukowcy z DeepMind Technologies, brytyjskiego laboratorium badawczego zajmującego się sztuczną inteligencją oraz spółki zależnej Alphabet, firmy macierzystej Google. Firma Google niedawno ogłosiła Bard, konwersacyjnego chatbota opartego na sztucznej inteligencji, który opracował przy użyciu rodziny LLM LaMDA.

LLM to algorytmy głębokiego uczenia się (programy komputerowe przetwarzające język naturalny), które mogą generować odpowiedzi na zapytania podobne do ludzkich. Generatywna technologia sztucznej inteligencji może również wytwarzać kod komputerowy, obrazy, wideo i dźwięk.

Microsoft, który zainwestował ponad 10 miliardów euro w ChatGPT i twórcę GPT-4 OpenAI, nie odpowiedział na prośbę o komentarz do dzisiejszego listu. OpenAI i Google również nie odpowiedziały od razu na prośbę o komentarz.

Andrzej Arendt, dyrektor generalny firmy konsultingowej Cyber ​​Geeks, powiedział, że choć same generatywne narzędzia AI nie są jeszcze w stanie dostarczyć najwyższej jakości oprogramowania jako produktu końcowego, to „ich pomoc w generowaniu fragmentów kodu, konfiguracji systemu czy testów jednostkowych może znacząco pomóc”. przyspieszyć pracę programisty.

„Czy to sprawi, że programiści staną się zbędni? Niekoniecznie, częściowo dlatego, że wyników dostarczanych przez takie narzędzia nie można rzetelnie używać; konieczna jest weryfikacja programatora” – kontynuowała Arendt. „Właściwie zmiany w metodach pracy towarzyszą programistom od początku zawodu. Praca programistów przesunie się w pewnym stopniu na interakcję z systemami sztucznej inteligencji. »

Największe zmiany przyjdą wraz z wprowadzeniem wielkoskalowych systemów sztucznej inteligencji, powiedziała Arendt, które można porównać do XIX-wiecznej rewolucji przemysłowej, która zastąpiła gospodarkę opartą na rzemiośle, rolnictwie i produkcji.

„Dzięki sztucznej inteligencji skok technologiczny może być równie duży, jeśli nie większy. W tej chwili nie jesteśmy w stanie przewidzieć wszystkich konsekwencji” – powiedział.

Vlad Tushkanov, starszy analityk danych w moskiewskiej firmie Kaspersky zajmującej się cyberbezpieczeństwem, powiedział, że integracja algorytmów LLM z większą liczbą usług może prowadzić do nowych zagrożeń. W rzeczywistości technolodzy LLM badają już ataki, takie jak szybkie wstrzykiwanie, które można wykorzystać przeciwko LLM i usługom, które obsługują.

„Ponieważ sytuacja szybko się zmienia, trudno oszacować, co będzie dalej i czy te osobliwości LLM okażą się efektem ubocznym jego niedojrzałości, czy też nieodłączną słabością” – powiedział Tuszkanow. „Jednak przedsiębiorstwa mogą chcieć uwzględnić je w swoich modelach zagrożeń, rozważając integrację LLM z aplikacjami konsumenckimi”.

To powiedziawszy, technologie LLM i AI są przydatne i już automatyzują wiele „bolesnej pracy”, która jest konieczna, ale nie jest przyjemna ani interesująca dla ludzi. Na przykład chatboty mogą codziennie skanować miliony alertów, e-maili, stron internetowych, na których można wyłudzać informacje, i potencjalnie złośliwych plików wykonywalnych.

„Taki zakres pracy byłby niemożliwy bez automatyzacji” – powiedział Tuszkanow. „...Pomimo całego postępu i najnowocześniejszych technologii, nadal istnieje ogromny niedobór talentów w dziedzinie cyberbezpieczeństwa. Szacuje się, że branża potrzebuje kolejnych milionów specjalistów, a w tej niezwykle kreatywnej dziedzinie nie możemy przestać marnować ludzi, których mamy .” w monotonnych i powtarzalnych zadaniach.

Generatywna sztuczna inteligencja i uczenie maszynowe nie zastąpią wszystkich zawodów IT, w tym osób walczących z zagrożeniami cyberbezpieczeństwa, powiedział Tushkanov. Rozwiązania tych zagrożeń są opracowywane w trudnych warunkach, w których cyberprzestępcy działają przeciwko organizacjom, aby uniknąć wykrycia.

„Dlatego bardzo trudno jest je zautomatyzować, ponieważ cyberprzestępcy dostosowują się do każdego nowego narzędzia i podejścia” – powiedział Tushkanov. „Dodatkowo przy cyberbezpieczeństwie bardzo ważna jest dokładność i jakość, a w tej chwili duże modele językowe są np. podatne na halucynacje (jak pokazują nasze testy, zadania z zakresu cyberbezpieczeństwa nie są wyjątkiem)”.

Instytut Przyszłości Życia napisał w swoim liście, że dzięki zabezpieczeniom ludzkość może cieszyć się pomyślną przyszłością dzięki sztucznej inteligencji.

„Zaprojektuj te systemy z korzyścią dla wszystkich i daj społeczeństwu możliwość dostosowania się” – czytamy w piśmie. „Społeczeństwo zatrzymało się na innych technologiach, które mogą mieć katastrofalne skutki dla społeczeństwa. Możemy tego dokonać tutaj. Cieszmy się długim latem spędzonym ze sztuczną inteligencją, nie spieszmy się, aby upaść nieprzygotowani”.

Prawa autorskie © 2023 IDG Communications, Inc.