Spokojnie, ChatGPT nie jest tak naprawdę sztuczną inteligencją

Alan Turing, jedna z przełomowych postaci informatyki, miał obsesję na punkcie sztucznej inteligencji pod koniec swojego tragicznie krótkiego życia. Tak bardzo, że wymyślił nieoficjalny test, kiedy można powiedzieć, że komputer jest naprawdę inteligentny jak człowiek, co teraz nazywamy testem Turinga.

Test jest dość prosty. Poproś kogoś, aby komunikował się z komputerem, a jeśli nie możesz powiedzieć, że rozmawiasz z komputerem, tj. jesteś nie do odróżnienia od jednego człowieka do drugiego, komputer osiągnąłby poziom ludzkiej inteligencji.

Cóż, ChatGPT z pewnością zdaje pomyślnie ten test (otwiera się w nowej karcie). W rzeczywistości nie chodzi tylko o zdanie testu Turinga, chodzi o zdanie egzaminów ze szkoły medycznej, egzaminów z szkoły prawniczej i przynajmniej odrobienie pracy domowej za każde dziecko w Ameryce.

A jeśli nie wiesz, czym jest ChatGPT, może się to wydawać przytłaczające. Tak bardzo, że ludzie zaczynają projektować na ChatGPT i ogólnie generatywną sztuczną inteligencję, ludzkie cechy i cechy, których tak naprawdę nie ma.

Normalnie nie byłoby tak źle. Ludzie cały czas źle rozumieją różne rzeczy, ale ponieważ sztuczna inteligencja podobna do ChatGPT rozprzestrzeni się dopiero w ciągu najbliższych kilku miesięcy, ludzie zainwestują w nie moce, których tak naprawdę nie mają, a to założenie będzie nadużywane, mogą być znacznie bardziej szkodzi niż pomaga.

Co to jest antagonistyczna generatywna sztuczna inteligencja?

Podstawowa technologia stojąca za ChatGPT, Stable Diffusion i wszystkimi innymi AI, które tworzą obrazy, quizy, muzykę itp. nazywa się to Generatywną Siecią Przeciwstawną (GAN). Nie będę tutaj wchodził w szczegóły, ale zasadniczo GAN to dwa współpracujące ze sobą systemy oprogramowania. Jeden wytwarza dane wyjściowe, generator, a drugi określa, czy dane są prawidłowe, czyli klasyfikator.

Generator i klasyfikator w GAN poruszają się słowo po słowie lub piksel po pikselu i zasadniczo walczą o zbudowanie konsensusu przed przejściem do następnego segmentu. Stopniowo (dosłownie) GAN generuje wyniki, które bardzo dokładnie odzwierciedlają to, co człowiek może zrobić twórczo.

Generator opiera się na nieprzyzwoitej ilości danych wejściowych, na których „uczy się” generowania wyników, a klasyfikator polega na własnych danych wejściowych, aby określić, czy to, co wygenerował generator, ma sens. Być może w ten sposób ludzka inteligencja „tworzy” nowe rzeczy (neurolodzy wciąż próbują to rozgryźć), ale na wiele sposobów można rozpoznać drzewo po owocach, które przynosi, dlatego musi ono osiągnąć poziom inteligencji człowieka. Prawidłowy? Dobry...

ChatGPT zdaje test Turinga, ale czy to ma znaczenie?

Portret Alana Turinga

(Źródło zdjęcia: Wikipedia)

Kiedy Turing wymyślił swój test na sztuczną inteligencję, miał na myśli rozmowę z racjonalnym aktorem w taki sposób, że nie można powiedzieć, że rozmawia się z maszyną. Pośrednio istnieje pomysł, że maszyna zrozumiała, co mówisz. Nie rozpoznawanie słów kluczowych i generowanie probabilistycznej odpowiedzi na długi zestaw słów kluczowych, ale zrozumienie.

Dla Turinga konwersacja z maszyną do punktu, w którym była nie do odróżnienia od ludzkiej inteligencji refleksyjnej, ponieważ tworzenie ogromnego repozytorium słów z różnymi wagami przypisywanymi każdemu z nich w oparciu o słowa poprzedzające je w zdaniu nie było czymś, co robił każdy Mogłem mieć. projektowane w tamtym czasie.

Rodzaj obliczeń wymaganych do tego rodzaju obliczeń w maszynach, które wykonywały obliczenia, które najtańszy smartfon może wykonać w nanosekundach, zajmował cały dzień, wydawałby się równie trudny, jak liczenie liczby atomów we wszechświecie. W tamtych czasach nie brano by tego nawet pod uwagę.

Niestety, Turing nie żył wystarczająco długo, aby przewidzieć rozwój nauki o danych i chatbotów, a nawet układu scalonego, który zasila nowoczesne komputery. Nawet przed ChatGPT chatboty były na dobrej drodze do przejścia powszechnie rozumianego testu Turinga, o czym może przekonać się każdy, kto używa chatbota do rozmowy ze swoim bankiem. Ale Turing nie postrzegałby chatbota jako sztucznego umysłu równego człowiekowi.

Chatbot to unikalne narzędzie, a nie inteligencja. Inteligencja na poziomie ludzkim wymaga umiejętności wyjścia poza parametry, które jej twórcy ustalają z własnej woli. ChatGPT jest nadnaturalnie biegły w naśladowaniu ludzkich wzorców językowych, podobnie jak papuga i nikt nie może powiedzieć, że papuga rozumie znaczenie słów, które powtarza.

ChatGPT przechodzący test Turinga nie oznacza, że ​​ChatGPT jest tak inteligentny jak człowiek. Oczywiście tak nie jest. Wszystko to oznacza, że ​​test Turinga nie jest ważnym testem sztucznej inteligencji, jak myśleliśmy.

ChatGPT nie może się niczego nauczyć, może nauczyć się tylko tego, co ludzie każą mu się nauczyć

Tweet senatora z Connecticut, Chrisa Murphy'ego, który fałszywie twierdzi, że ChatGPT nauczył się chemii

Amerykański senator Chris Murphy nie ma racji. ChatGPT nie może nauczyć się niczego samodzielnie. (Źródło zdjęcia: @ChrisMurphyCT/Twitter)

W tym tygodniu amerykański senator z Connecticut, Chris Murphy, powiedział na Twitterze (otwiera się w nowej karcie), że ChatGPT nauczył się chemii bez pytania swoich twórców. Chyba że senator Murphy wie coś, co nie zostało upublicznione, ChatGPT, jak wiemy, nie może tego zrobić.

Żeby było jasne, jeśli ChatGPT lub jakikolwiek inny GAN szukał i uczył się czegoś z własnej inicjatywy, to naprawdę przenieśliśmy się do post-ludzkiego świata Sztucznej Inteligencji Ogólnej, ponieważ wykazanie się niezależną inicjatywą z pewnością byłoby wyznacznikiem prawdziwego ludzkiego poziomu. inteligencja.

Ale jeśli programista mówi botowi, aby nauczył się czegoś nowego, a bot robi to, co mu kazano, nie oznacza to, że jest mądry.

Robienie tego, co ci się mówi, i robienie czegoś z własnej woli może wydawać się podobne do obserwatora z zewnątrz, ale to dwie zupełnie różne rzeczy. Ludzie rozumieją to intuicyjnie, ale ChatGPT może nam wyjaśnić tę różnicę tylko wtedy, gdy został nakarmiony tekstami filozoficznymi zajmującymi się tematem wolnej woli. Jeśli nigdy nie karmiłeś się Platonem, Arystotelesem czy Nietzschem, nie dojdziesz do samej idei wolnej woli. Nie będziesz nawet wiedział, że coś takiego istnieje, chyba że powiedziano ci, że istnieje.

Istnieją powody, dla których warto dbać o ChatGPT, ale bycie „inteligentnym” nie jest jednym z nich.

Mówiłem przez chwilę o niebezpieczeństwach związanych z ChatGPT, głównie o tym, że nie rozumie on, co mówisz, i dlatego może generować oszczercze, plagiatowane i całkowicie nieprawdziwe informacje.

Jest większy problem z postrzeganiem ChatGPT jako zamiennika ludzkich pracowników, ponieważ z pewnością wygląda na to, że ChatGPT (oraz Stable Diffusion i inne generatywne AI) może zrobić to, co ludzie mogą zrobić szybciej, łatwiej i za znacznie mniej niż ludzka praca. To dyskusja na inną okazję, ale społeczne konsekwencje ChatGPT są tutaj prawdopodobnie największym zagrożeniem, a nie to, że w jakikolwiek sposób budujemy SkyNet.

ChatGPT to w istocie system połączonych węzłów cyfrowych ze średnimi przypisanymi do każdego z nich, który generuje logiczne wyjście na podstawie danych wejściowych. To nie myśl, to dosłownie matematyka, którą ludzie zaprogramowali w maszynie. Może to brzmieć potężnie, ale ludzkie umysły, które to stworzyły, są tutaj prawdziwą inteligencją i nie należy tego mylić.