Bing firmy Microsoft, oparty na ChatGPT, przechodzi metamorfozę, której możesz nie lubić


Microsoft wprowadził jeszcze kilka poprawek do swojej sztucznej inteligencji Bing, zwiększając niektóre limity czatów i wprowadzając zmiany w jednej z osobowości chatbota.

Czaty zostały teraz rozszerzone, aby umożliwić maksymalnie 15 sesji dziennie, przy czym maksymalna długość sesji wzrosła do 10 próśb (co oznacza, że ​​łącznie 150 próśb to teraz twój dzienny limit).

Microsoft powoli, ale konsekwentnie przesuwał te limity czatów od pierwszego wydania sztucznej inteligencji i został poważnie ograniczony (do 5 sesji i 50 żądań dziennie), gdy zachowanie chatbota było poważnie obserwowane podczas dłuższych sesji.

Ale najciekawszą zmianą, jak ujawnił Yusuf Mehdi, wiceprezes korporacyjny i dyrektor ds. marketingu konsumenckiego w firmie Microsoft, jest „zrównoważona” optymalizacja osobowości w celu uzyskania lepszej wydajności.

Dwie aktualizacje: Czat Bing ogranicza ruch do 15/150. Precyzyjne i kreatywne tryby pozostają niezmienione, zapewniając różnorodność doświadczeń. Powiedz nam co myślisz. 13 marca 2023 r

Zobacz więcej

Jak zapewne wiesz, Microsoft AI ma trzy osobowości. Zrównoważony to środkowe ustawienie dla chatbota, gdzieś pośrodku między Dokładnością a Kreatywnością, które pozostaje niezmienione.

Precise oferuje bardziej zwięzłe i profesjonalne odpowiedzi, bliższe standardowemu wyszukiwaniu, podczas gdy Creative daje AI większą swobodę w udzielaniu odpowiedzi, a Balanced pośrodku jest opcją środkową.

Analiza: dokładna, nieco mniej dokładna i kreatywna?

Jak w przypadku każdego zobowiązania, podjęcie decyzji, gdzie dokładnie wytyczyć granicę, może być trudnym zadaniem. Wygląda jednak na to, że Microsoft przesuwa tę linię do bardziej konserwatywnego stanowiska dzięki tej ostatniej zmianie.

Ponieważ Balanced daje teraz „krótsze, szybsze odpowiedzi”, wydaje się to wyraźnie bardziej zgodne z ustawieniami Precise niż Creative, gdzie sztuczna inteligencja ma większą swobodę poruszania się i, szczerze mówiąc, jest bardziej interesująca i ludzka.

Tak więc przesunięcie wyważonego pokrętła bardziej w kierunku konserwatywnego końca spektrum może być postrzegane jako uczynienie Bing AI nieco bardziej bezpośrednim i, cóż, nudnym.

Celem posiadania wszystkich trzech osobowości jest umożliwienie użytkownikom wyboru sposobu, w jaki sztuczna inteligencja zareaguje, tak aby w przypadku niezadowolenia z interakcji z podmiotem obsługiwanym przez ChatGPT mogli coś zmienić. Ale teraz wydaje się, że jest trochę mniejszy wybór pod względem ustawienia „bardzo konserwatywnego”, opcji „nieco konserwatywnej” i opcji „luźniejszej”.

Dlaczego Microsoft poszedł w tym kierunku? Domyślamy się, że ludzie, którzy chcą bardziej ludzkiego czatu, korzystają z Creative i i tak mogą nie marzyć o nurkowaniu w Balanced. Być może niewiele osób używa Balanced w ogóle, więc ustawienie go na Precyzyjne może zachęcić tych, którzy korzystają z tej drugiej opcji, do korzystania ze środkowej opcji, podczas gdy ci, którzy grają w trybie kreatywnym, będą się jej trzymać, najprawdopodobniej dlatego, że chcą, aby sztuczna inteligencja była równie interesująca i otwarta, jak nieludzko (hm) jak najbardziej.

Tak czy inaczej, możemy spodziewać się więcej poprawek i prawdopodobnie więcej opcji osobowości w przyszłości. Możemy nawet uzyskać tryb, w którym Bing AI może również podszywać się pod znane osobistości, jeśli przecieki dotyczą pieniędzy. A to prawdopodobnie pomogłoby w dalszym zwiększeniu liczby użytkowników, podczas gdy jest już spora liczba osób zarejestrowanych do testowania chatbota.

Przez MS Power User (otwiera się w nowej karcie)