Podczas odbywającej się w Las Vegas konferencji Google Cloud Next'24, zaprezentowano 218 nowości w obrębie chmury publicznej Google Cloud Platform (GCP) z zakresu AI, modernizacji infrastruktury i cyberbezpieczeństwa, usprawniających transformację. W poprzednim wpisie zawarliśmy garść informacji na temat wirtualnych asystentów zasilanych przez AI, tym razem przyjrzymy się nowościom infrastrukturalnym, zoptymalizowanym pod kątem AI.
Generatywna sztuczna inteligencja (GenAI) ma tylko takie możliwości wpływania na szybką transformację, jak infrastruktura, z której ta technologia korzysta. Google Cloud wprowadza istotne ulepszenia, aby wspierać klientów w każdej warstwie stosu.
Wymienić tutaj należy:
• A3 Mega: ta nowa instancja oparta na GPU, opracowana we współpracy z firmą NVIDIA przy użyciu procesorów graficznych H100 Tensor Core, jest ogólnodostępna i zapewnia dwukrotnie większą przepustowość na procesor graficzny w porównaniu z instancjami A3, aby obsługiwać najbardziej wymagające zbiory zadań. Zapowiedziano również Confidential A3, zapewniające klientom lepszą ochronę poufności i integralności wrażliwych danych i zbiorów zadań AI podczas szkoleń i w procesie wnioskowania.
• NVIDIA HGX B200 i NVIDIA GB200 NVL72: najnowsze czipy platformy NVIDIA Blackwell pojawią się w Google Cloud na początku 2025 roku w dwóch wersjach: HGX B200 i GB200. Czip B200 jest przeznaczony do głównego nurtu szkoleń i obsługi, a GB200 NVL72 wspomaga wnioskowanie w czasie rzeczywistym w dużych modelach językowych i wydajność szkoleń na wielką skalę w modelach o bilionach parametrów.
• TPU v5p: ogłoszono ogólną dostępność TPU v5p, najpotężniejszego, skalowalnego i elastycznego akceleratora sztucznej inteligencji w Google Cloud przeznaczonego do szkolenia i wnioskowania, z 4-krotnie większą mocą obliczeniową przypadającą na poda w porównaniu do poprzedniej generacji ukladu. Ogłoszono również dostępność obsługi TPU v5p przez silnik Google Kubernetes Engine (GKE). W ciągu ostatniego roku wykorzystanie układów GPU i TPU w GKE wzrosło o ponad 900%.
• Opcje pamięci masowej zoptymalizowane pod kątem sztucznej inteligencji: dzięki nowym funkcjom buforowania w Cloud Storage FUSE i Parallelstore przyspieszono tempo szkolenia, dzięki przechowywaniu danych bliżej TPU lub GPU klienta. Wprowadzono również Hyperdisk ML (w wersji przedpremierowej), usługę pamięci masowej nowej generacji, która przyspiesza czas ładowania modelu nawet 3,7-krotnie w porównaniu z popularnymi rozwiązaniami alternatywnymi.
• Nowe opcje dla dynamicznego harmonogramu zadań: tryb kalendarza zapewniający czas rozpoczęcia i elastyczny start dla optymalizacji ekonomicznej pomogą klientom zapewnić efektywne zarządzanie zasobami w celu dystrybucji złożonych zadań związanych ze szkoleniem i wnioskowaniem.
Google Cloud przybliża również AI do miejsc, w których dane są generowane i wykorzystywane - do urządzeń brzegowych, środowisk izolowanych, suwerennych chmur Google i połączeń międzychmurowych. Teraz za pośrednictwem Google Distributed Cloud (GDC) można korzystać ze sztucznej inteligencji w dowolnym miejscu, wybierając środowisko, konfigurację i kontrolę, w taki sposób by najlepiej odpowiadały konkretnym potrzebom organizacji. Na przykład firma Orange, czołowy dostawca usług mobilnych działający w 26 krajach, z których nie można transferować lokalnych danych, wykorzystuje sztuczną inteligencję w GDC, aby zwiększać wydajność sieci i zadowolenie klientów.
Nowe możliwości w GDC obejmują:
• Procesory graficzne NVIDIA na GDC: wprowadzono procesory graficzne NVIDIA na GDC zarówno w konfiguracjach połączonych, jak i izolowanych. Każdy z nich będzie obsługiwał nowe instancje oparte na GPU w celu wydajnego uruchamiania modeli AI.
• GKE w GDC: w GDC dostępna będzie ta sama technologia GKE, z której korzystają czołowe firmy zajmujące się sztuczną inteligencją w Google Cloud.
• Obsługa modeli AI: umożliwiono uruchamianie w GDC różnych otwartych modeli sztucznej inteligencji, w tym Gemmy, Lamy i innych, zarówno w środowiskach izolowanych, jak i połączonych środowiskach brzegowych.
• Wyszukiwanie wektorowe w GDC: wprowadzono również funkcję wyszukiwania wektorowego, aby umożliwić wyszukiwanie i pobieranie informacji w GDC dla prywatnych i wrażliwych danych z bardzo niskim opóźnieniem.
• Suwerenność w chmurze: aby spełniać najbardziej rygorystyczne wymogi regulacyjne, Google Cloud dostarcza GDC w całkowicie izolowanej konfiguracji z operacjami lokalnymi, pełną odpornością, zarządzaną przez Google lub przez wybranego przez klienta partnera.
Chociaż nie każde zadanie wykorzystuje AI, każde zadanie uruchomione w chmurze wymaga optymalizacji, a każda aplikacja ma własne wymagania techniczne. Dlatego wprowadzono nowe uniwersalne opcje obliczeniowe, które pomagają klientom zmaksymalizować wydajność, umożliwić interoperacyjność między aplikacjami i osiągnąć cele zrównoważonego rozwoju, a wszystko to przy jednoczesnym obniżeniu kosztów.
• Google Axion: pierwszy niestandardowy procesor od Google oparty na architekturze Arm, zaprojektowany dla centrów danych, zapewnia do 50% lepszą wydajność i do 60% lepszą efektywność energetyczną niż porównywalne instancje oparte na obecnej generacji x86.
• Ogłoszono również N4 i C4, dwie nowe serie maszyn wirtualnych ogólnego przeznaczenia; natywne kształty maszyn w rodzinie maszyn C3 do wykorzystania na sprzęcie klienta; ogólną dostępność zaawansowanych pul pamięci masowej Hyperdisk i wiele więcej.
Rozszerzono również obsługę przechowywania danych w spoczynku dla generatywnej AI w usługach Vertex AI na 11 nowych krajów: Australię, Brazylię, Finlandię, Hiszpanię, Hongkong, Indie, Izrael, Polskę, Szwajcarię, Tajwan i Włochy.
Poza tym klienci podczas korzystania z Gemini 1.0 Pro i Imagen mogą teraz ograniczyć przetwarzanie uczenia maszynowego do Stanów Zjednoczonych lub Unii Europejskiej.
Te nowe regiony dołączają do 10 innych krajów, które ogłoszono w ubiegłym roku, co zapewni klientom większą kontrolę nad tym, gdzie przechowywane są ich dane i jak uzyskuje się do nich dostęp, a to ułatwia spełnienie wymogów regulacyjnych i związanych z bezpieczeństwem na całym świecie.