Dell Technologies pomaga klientom podnosić wydajność sztucznej inteligencji i generatywnej sztucznej inteligencji (Generative Artificial Intelligence, GenAI), poprzez nowe usprawnienia w obszarze korporacyjnych rozwiązań do przechowywania danych oraz poprzez integrację z infrastrukturą NVIDIA DGX SuperPOD AI.
"Wydajność pamięci masowej jest niezbędna do skutecznego wykorzystywania AI oraz GenAI. Klienci liczą na nas, jeśli chodzi o ciągłe przesuwanie granic innowacji w zakresie pamięci masowych, w tym usuwanie wąskich gardeł w dostępie do danych, które ograniczają przepustowość i skalowalność aplikacji wymagających dużej mocy obliczeniowej. Wychodzimy naprzeciw tym potrzebom, zapewniając szybki, wydajny i bezpieczny dostęp do danych i przekształcając je w „żyłę złota” pod możliwości AI i GenAI" - stwierdza Arthur Lewis, prezes, Infrastructure Solutions Group, Dell Technologies.
Wysoka wydajność i efektywności w przechowywaniu danych dla AI
Najnowsze innowacje w systemach Dell PowerScale najbardziej elastycznych, bezpiecznych oraz wydajnych rozwiązań do skalowalnego przechowywania plików są odpowiedzią na rosnące wymagania klientów oczekujących lepszej wydajności w zakresie AI i GenAI.
Teraz, dzięki ulepszonemu oprogramowaniu PowerScale OneFS, firmy mogą przyspieszyć proces przygotowywania i trenowania modeli AI. Nowe systemy pamięci masowej PowerScale all-flash, oparte na najnowszej generacji serwerach Dell PowerEdge, umożliwiają klientom doświadczenie nawet dwukrotnego wzrostu wydajności strumieniowego zapisu i odczytu danych.
"Wprowadzamy zmiany inżynieryjne co 17 minut, co byłoby nieosiągalne bez potężnej infrastruktury IT, na której opierają się nasze procesy. Dzięki Dell PowerScale jesteśmy w stanie wykorzystać najnowocześniejsze rozwiązania AI, łącząc zaawansowaną pamięć masową z mocą obliczeniową, co razem tworzy naszą receptę na sukces" - zaznacza Dan Keyworth, dyrektor ds. technologii biznesowych, McLaren Racing.
PowerScale będzie oferować nową funkcję inteligentnego skalowania, mającą na celu zwiększenie wydajności pojedynczego węzła obliczeniowego. Ten krok pozwoli na lepsze wykorzystanie mocy GPU, co przyczyni się do szybszej przepustowości pamięci masowej, niezbędnej do szkolenia i kontrolowania AI.
"Dell projektuje swoje rozwiązania do przechowywania plików i obiektów z myślą o klientach, co pozwala im na modernizację infrastruktury za pomocą rozwiązań gotowych do obsługi najbardziej wymagających obciążeń, takich jak GenAI. Najnowsze osiągnięcia PowerScale w zakresie wydajności umożliwiają klientom optymalizację procesów szkolenia modeli AI. Dzięki temu mogą oni podejmować lepsze decyzje biznesowe, w oparciu o swoje dane, niezależnie od tego, gdzie się znajdują, ze zwiększoną szybkością i precyzją" - mówi Scott Sinclair, dyrektor, Enterprise Strategy Group.
Dell PowerScale weryfikowany w ramach NVIDIA DGX SuperPOD
W ramach współpracy Dell z NVIDIA, klienci będą mogli skorzystać ze zweryfikowanego połączenia systemów NVIDIA DGX, pamięci masowej Dell PowerScale oraz sieci NVIDIA Quantum-2 InfiniBand i Spectrum Ethernet, co zapewni szybszą i wydajniejszą pamięć masową dla AI. Dell PowerScale ma szansę stać się pierwszym rozwiązaniem pamięci masowej Ethernet zweryfikowanym w NVIDIA DGX SuperPOD.
Wraz z zatwierdzeniem Dell PowerScale dla NVIDIA DGX SuperPOD, klienci będą mogli zwiększyć tempo realizacji swoich projektów AI i GenAI, korzystając z zaawansowanej infrastruktury AI firmy NVIDIA dla centrów danych, wspieranej przez wiodące w branży rozwiązania do sieciowej pamięci masowej firmy Dell. Rozwiązanie NVIDIA DGX SuperPOD obejmuje dostęp do platformy oprogramowania NVIDIA AI Enterprise, aby zapewnić kompleksowe, bezpieczne i stabilne rozwiązanie superkomputerowe AI.
Łączenie AI z danymi niezależnie od ich lokalizacji
Około 87% firm stosuje strategie multicloud, więc Dell oferuje klientom swobodę przetwarzania danych tam, gdzie jest to dla nich optymalne - czy to lokalnie, na brzegu sieci, czy w chmurze publicznej.
Dell APEX File Storage dla Microsoft Azure, najnowszy dodatek do portfolio Dell APEX Storage dla chmury publicznej, zapewnia korporacyjną wydajność plików i możliwości zarządzania w Microsoft Azure. Klienci będą mogli bez trudu zaspokoić potrzeby wymagających dużej wydajności aplikacji AI i ML, takich jak Azure OpenAI Service i Azure AI Vision.
Dell APEX File Storage dostępny w AWS i Azure pozwala klientom korzystać z natywnych przepływów pracy AI i GenAI w chmurze, na danych przechowywanych lokalnie lub w chmurze publicznej, oferując tym samym ulepszony dostęp i transfer danych. Dzięki rozwijającej się współpracy Dell z Databricks, klienci mogą używać różnych dużych modeli językowych (LLM) i korzystać z bibliotek Databricks MosaicML do trenowania podstawowego modelu za pomocą własnych danych przechowywanych w Dell APEX File Storage, co zwiększa elastyczność w środowiskach wielochmurowych.
Współpraca Databricks opiera się na partnerstwach firmy Dell w zakresie ekosystemu zarządzania danymi, mających na celu przyspieszenie inicjatyw związanych ze sztuczną inteligencją i analizą. Dodatkowo, dzięki planowanemu przez firmę Dell otwartemu, nowoczesnemu data lakehouse, klienci mogą uzyskać lepszy wgląd w swoje dane niezależnie od tego, gdzie się znajdują, dzięki integracji oprogramowania analitycznego Starburst z serwerami Dell PowerEdge oraz systemami przechowywania plików i obiektów Dell PowerScale, Dell ECS i Dell ObjectScale.
Źródło: Dell Technologies