Jak stworzyć własną tanią alternatywę ChatGPT? jest tylko jeden sposób


Za kilka tysięcy dolarów miesięcznie możesz teraz zarezerwować pojemność pojedynczego procesora graficznego Nvidia HGX H100 za pośrednictwem firmy o nazwie CoreWeave. H100 jest następcą A100, procesora graficznego, który odegrał kluczową rolę w przekształceniu ChatGPT w LLM (Large Language Models). Ceny zaczynają się od 2.33 € za godzinę lub 56 € dziennie lub około 20,000 100 € rocznie; dla porównania, pojedynczy HGX H28,000 kosztuje około 100 XNUMX euro na wolnym rynku (NVHXNUMXTCGPU-KIT) i mniej w sprzedaży hurtowej.

Zapłacisz więcej za ceny spot (4,76 USD za godzinę) i chociaż dostępny jest tańszy SKU (HGX H100 PCIe, w przeciwieństwie do modelu NVLINK), nadal nie możesz go zamówić. Prawidłowa konfiguracja instancji GPU musi zawierać co najmniej jeden GPU, co najmniej jeden vCPU i co najmniej 2 GB pamięci RAM. Podczas wdrażania wirtualnego serwera prywatnego (VPS) konfiguracja instancji GPU musi również obejmować co najmniej 40 GB pamięci masowej klasy NVMe na dysku głównym.

Wiadomości pojawiają się po serii ogłoszeń na GTC 2023 firmy Nvidia, gdzie generatywna sztuczna inteligencja była po lewej, prawej i środkowej stronie. Technologia wykorzystuje edukację LLM, która pozwala na kreatywną pracę, w tym pisanie prac naukowych, rutynę komediową lub sonet; zaprojektuj grafikę z bloku tekstu; oraz w przypadku NovelAI, jednego z pierwszych klientów CoreWeave, który tworzy literaturę.

Możesz oczywiście sprawdzić, co zrobili nasi ludzie w Tomshardware i uruchomić alternatywę ChatGPT na lokalnym komputerze.

monopol Nvidii

Jensen Huang, założyciel i dyrektor generalny firmy NVIDIA, nadzorował wprowadzenie na rynek kilku procesorów graficznych skierowanych do określonych segmentów rozwijającego się rynku treści AI: L4 do wideo AI, L40 do obrazowania i H100 NVL (zasadniczo dwa H100 w SLI organizować coś). Nvidia, która w kwietniu 30 roku skończy 2023 lat, chce zdobyć jak najwięcej rynku, oferując sprzęt i oprogramowanie do wdrożenia własnego sprzętu jako usługi.

Firma zaprezentowała chmurową wersję swojego serwera DGX H100, która zawiera osiem kart H100 i którą można wydzierżawić za niecałe 37,000 100 euro od firmy Oracle, a Microsoft i Google już wkrótce. Choć brzmi to drogo, należy pamiętać, że DGX H500,000 kosztuje ponad XNUMX XNUMX EUR od dostawcy korporacyjnego Insight, co nie obejmuje rzeczywistych kosztów eksploatacji urządzenia (konserwacja, umiejscowienie, media itp.).

Nagłe zainteresowanie Nvidii możliwością zostania własnym dostawcą usług może sprawić, że jej partnerzy poczują się trochę nieswojo. Prezes TIEA (Taiwan Internet and E-Commerce Association), zrzeszającej jedne z największych nazwisk w branży sprzętu technologicznego, był na tyle klarowny, by wczoraj powiedzieć, że firma będzie „współzawodniczyć” z największymi dostawcami usług w chmurze ( CSP). ) i prawdopodobnie przyspieszy poszukiwanie alternatywy dla Nvidii, aby zachować równowagę.

Wszystkie oczy skierowane są na AMD (z procesorem graficznym Instinct MI300) i Intela, ale w cieniu czai się lista pretendentów (Graphcore, Cerebras, Kneron, IBM i inni), którzy będą chcieli kawałek rosnącego tortu.