Virtual-IT.pl - data center cloud computing SDx AI storage network cybersecurity

Broadcom upraszcza ofertę i model licencjonowania VMware
Broadcom upraszcza ofertę i model licencjonowania VMware

W ciągu ostatnich dwóch lat firma VMware podejmowała wysiłki mające na celu uproszczenie swojego portfolio rozwiązań i przejście z modelu licencji wieczystych na model subskrypcji, który branża przyjęła już jako standard korzystania z chmury. Firma zaznaczyła, że takie zmiany przyniosą klientom większe ko...

Czytaj więcej...

Brak wykwalifikowanej kadry i starzejące się systemy główną barierą cyfryzacji
Brak wykwalifikowanej kadry i starzejące się systemy główną barierą cyfryzacji

Według opublikowanego przez Veeam raportu Data Protection Trends Report 2022, największym wyzwaniem dla firm związanym z cyfryzacją są braki wykwalifikowanej kadry IT i starzejące się systemy. Aż 1/3 przedsiębiorstw w razie awarii i braku dostępu do zasobów planuje przywracać działanie serwerów w trybie r...

Czytaj więcej...

FRITZ!Box 6850 5G - router gotowy na sieć piątej generacji
FRITZ!Box 6850 5G - router gotowy na sieć piątej generacji

Przed kilkoma tygodniami w skromnych progach naszej Virtual-nej redakcji pojawiła się przesyłka zawierająca router FRITZ!Box 6850 5G od firmy AVM. Router wprowadzony na rynek latem ubiegłego roku, za pomocą wbudowanego modemu obsługuje zakresy 5G w paśmie poniżej 6 GHz, a także LTE Advanced Pro we wszystkich obecnie wy...

Czytaj więcej...

Chcielibyśmy, żeby chmura…, czyli oczekiwania wobec dostawcy
Chcielibyśmy, żeby chmura…, czyli oczekiwania wobec dostawcy

Wyniki badania PMR dla Polskiej Chmury wskazują, że ponad 2/3 firm korzysta z rozwiązań chmurowych, a około 1/3 jest w trakcie ich wdrażania. Tym samym chmura to już stały element ekosystemu i działalności przedsiębiorstw w Polsce. Rynek ten dojrzał i firmy szukają w chmurze korzyści oraz rozwiązań dopasowanych wprost ...

Czytaj więcej...

Historia oszukiwania ludzi przez sztuczną inteligencję
Historia oszukiwania ludzi przez sztuczną inteligencję

Wraz z rozwojem nowoczesnych technologii rozwijają się również złośliwe schematy. Od niedawna do długiej listy oszustw dołączyła sztuczna inteligencja (Artificial Intelligence, AI). Wykorzystanie technologii sztucznej inteligencji i uczenia maszynowego (Machine Learning, ML) przenosi phishing i inne oszustwa cyb...

Czytaj więcej...

Integracja AIOps w kompleksowym monitorowaniu IT: Site24x7
Integracja AIOps w kompleksowym monitorowaniu IT: Site24x7

Środowiska IT stają się coraz bardziej rozbudowane. Firmy korzystają z infrastruktury on-premise jak również z rozwiązań chmurowych, często z wielu chmur (multicloud). W takiej sytuacji kluczem dla zapewnienia niezawodnego działania systemów IT jest monitoring infrastruktury. Właściwe rozwiązanie do monit...

Czytaj więcej...

Aktualności

Google Next'24 - Infrastruktura napędzająca AI

Google Cloud Next '24Podczas odbywającej się w Las Vegas konferencji Google Cloud Next'24, zaprezentowano 218 nowości w obrębie chmury publicznej Google Cloud Platform (GCP) z zakresu AI, modernizacji infrastruktury i cyberbezpieczeństwa, usprawniających transformację. W poprzednim wpisie zawarliśmy garść informacji na temat wirtualnych asystentów zasilanych przez AI, tym razem przyjrzymy się nowościom infrastrukturalnym, zoptymalizowanym pod kątem AI.

Generatywna sztuczna inteligencja (GenAI) ma tylko takie możliwości wpływania na szybką transformację, jak infrastruktura, z której ta technologia korzysta. Google Cloud wprowadza istotne ulepszenia, aby wspierać klientów w każdej warstwie stosu.

Wymienić tutaj należy:
• A3 Mega: ta nowa instancja oparta na GPU, opracowana we współpracy z firmą NVIDIA przy użyciu procesorów graficznych H100 Tensor Core, jest ogólnodostępna i zapewnia dwukrotnie większą przepustowość na procesor graficzny w porównaniu z instancjami A3, aby obsługiwać najbardziej wymagające zbiory zadań. Zapowiedziano również Confidential A3, zapewniające klientom lepszą ochronę poufności i integralności wrażliwych danych i zbiorów zadań AI podczas szkoleń i w procesie wnioskowania.
• NVIDIA HGX B200 i NVIDIA GB200 NVL72: najnowsze czipy platformy NVIDIA Blackwell pojawią się w Google Cloud na początku 2025 roku w dwóch wersjach: HGX B200 i GB200. Czip B200 jest przeznaczony do głównego nurtu szkoleń i obsługi, a GB200 NVL72 wspomaga wnioskowanie w czasie rzeczywistym w dużych modelach językowych i wydajność szkoleń na wielką skalę w modelach o bilionach parametrów.
• TPU v5p: ogłoszono ogólną dostępność TPU v5p, najpotężniejszego, skalowalnego i elastycznego akceleratora sztucznej inteligencji w Google Cloud przeznaczonego do szkolenia i wnioskowania, z 4-krotnie większą mocą obliczeniową przypadającą na poda w porównaniu do poprzedniej generacji ukladu. Ogłoszono również dostępność obsługi TPU v5p przez silnik Google Kubernetes Engine (GKE). W ciągu ostatniego roku wykorzystanie układów GPU i TPU w GKE wzrosło o ponad 900%.
• Opcje pamięci masowej zoptymalizowane pod kątem sztucznej inteligencji: dzięki nowym funkcjom buforowania w Cloud Storage FUSE i Parallelstore przyspieszono tempo szkolenia, dzięki przechowywaniu danych bliżej TPU lub GPU klienta. Wprowadzono również Hyperdisk ML (w wersji przedpremierowej), usługę pamięci masowej nowej generacji, która przyspiesza czas ładowania modelu nawet 3,7-krotnie w porównaniu z popularnymi rozwiązaniami alternatywnymi.
• Nowe opcje dla dynamicznego harmonogramu zadań: tryb kalendarza zapewniający czas rozpoczęcia i elastyczny start dla optymalizacji ekonomicznej pomogą klientom zapewnić efektywne zarządzanie zasobami w celu dystrybucji złożonych zadań związanych ze szkoleniem i wnioskowaniem.

Google Cloud przybliża również AI do miejsc, w których dane są generowane i wykorzystywane - do urządzeń brzegowych, środowisk izolowanych, suwerennych chmur Google i połączeń międzychmurowych. Teraz za pośrednictwem Google Distributed Cloud (GDC) można korzystać ze sztucznej inteligencji w dowolnym miejscu, wybierając środowisko, konfigurację i kontrolę, w taki sposób by najlepiej odpowiadały konkretnym potrzebom organizacji. Na przykład firma Orange, czołowy dostawca usług mobilnych działający w 26 krajach, z których nie można transferować lokalnych danych, wykorzystuje sztuczną inteligencję w GDC, aby zwiększać wydajność sieci i zadowolenie klientów.

Nowe możliwości w GDC obejmują:
• Procesory graficzne NVIDIA na GDC: wprowadzono procesory graficzne NVIDIA na GDC zarówno w konfiguracjach połączonych, jak i izolowanych. Każdy z nich będzie obsługiwał nowe instancje oparte na GPU w celu wydajnego uruchamiania modeli AI.
• GKE w GDC: w GDC dostępna będzie ta sama technologia GKE, z której korzystają czołowe firmy zajmujące się sztuczną inteligencją w Google Cloud.
• Obsługa modeli AI: umożliwiono uruchamianie w GDC różnych otwartych modeli sztucznej inteligencji, w tym Gemmy, Lamy i innych, zarówno w środowiskach izolowanych, jak i połączonych środowiskach brzegowych.
• Wyszukiwanie wektorowe w GDC: wprowadzono również funkcję wyszukiwania wektorowego, aby umożliwić wyszukiwanie i pobieranie informacji w GDC dla prywatnych i wrażliwych danych z bardzo niskim opóźnieniem.
• Suwerenność w chmurze: aby spełniać najbardziej rygorystyczne wymogi regulacyjne, Google Cloud dostarcza GDC w całkowicie izolowanej konfiguracji z operacjami lokalnymi, pełną odpornością, zarządzaną przez Google lub przez wybranego przez klienta partnera.

Chociaż nie każde zadanie wykorzystuje AI, każde zadanie uruchomione w chmurze wymaga optymalizacji, a każda aplikacja ma własne wymagania techniczne. Dlatego wprowadzono nowe uniwersalne opcje obliczeniowe, które pomagają klientom zmaksymalizować wydajność, umożliwić interoperacyjność między aplikacjami i osiągnąć cele zrównoważonego rozwoju, a wszystko to przy jednoczesnym obniżeniu kosztów.
• Google Axion: pierwszy niestandardowy procesor od Google oparty na architekturze Arm, zaprojektowany dla centrów danych, zapewnia do 50% lepszą wydajność i do 60% lepszą efektywność energetyczną niż porównywalne instancje oparte na obecnej generacji x86.
• Ogłoszono również N4 i C4, dwie nowe serie maszyn wirtualnych ogólnego przeznaczenia; natywne kształty maszyn w rodzinie maszyn C3 do wykorzystania na sprzęcie klienta; ogólną dostępność zaawansowanych pul pamięci masowej Hyperdisk i wiele więcej.

Rozszerzono również obsługę przechowywania danych w spoczynku dla generatywnej AI w usługach Vertex AI na 11 nowych krajów: Australię, Brazylię, Finlandię, Hiszpanię, Hongkong, Indie, Izrael, Polskę, Szwajcarię, Tajwan i Włochy.

Poza tym klienci podczas korzystania z Gemini 1.0 Pro i Imagen mogą teraz ograniczyć przetwarzanie uczenia maszynowego do Stanów Zjednoczonych lub Unii Europejskiej.

Te nowe regiony dołączają do 10 innych krajów, które ogłoszono w ubiegłym roku, co zapewni klientom większą kontrolę nad tym, gdzie przechowywane są ich dane i jak uzyskuje się do nich dostęp, a to ułatwia spełnienie wymogów regulacyjnych i związanych z bezpieczeństwem na całym świecie.

Logowanie i rejestracja