Virtual-IT.pl - data center cloud computing SDx AI storage network cybersecurity
Najlepsze kursy internetowe w kategorii IT i oprogramowanie

Broadcom upraszcza ofertę i model licencjonowania VMware
Broadcom upraszcza ofertę i model licencjonowania VMware

W ciągu ostatnich dwóch lat firma VMware podejmowała wysiłki mające na celu uproszczenie swojego portfolio rozwiązań i przejście z modelu licencji wieczystych na model subskrypcji, który branża przyjęła już jako standard korzystania z chmury. Firma zaznaczyła, że takie zmiany przyniosą klientom większe ko...

Czytaj więcej...

Brak wykwalifikowanej kadry i starzejące się systemy główną barierą cyfryzacji
Brak wykwalifikowanej kadry i starzejące się systemy główną barierą cyfryzacji

Według opublikowanego przez Veeam raportu Data Protection Trends Report 2022, największym wyzwaniem dla firm związanym z cyfryzacją są braki wykwalifikowanej kadry IT i starzejące się systemy. Aż 1/3 przedsiębiorstw w razie awarii i braku dostępu do zasobów planuje przywracać działanie serwerów w trybie r...

Czytaj więcej...

Historia oszukiwania ludzi przez sztuczną inteligencję
Historia oszukiwania ludzi przez sztuczną inteligencję

Wraz z rozwojem nowoczesnych technologii rozwijają się również złośliwe schematy. Od niedawna do długiej listy oszustw dołączyła sztuczna inteligencja (Artificial Intelligence, AI). Wykorzystanie technologii sztucznej inteligencji i uczenia maszynowego (Machine Learning, ML) przenosi phishing i inne oszustwa cyb...

Czytaj więcej...

FRITZ!Box 6850 5G - router gotowy na sieć piątej generacji
FRITZ!Box 6850 5G - router gotowy na sieć piątej generacji

Przed kilkoma tygodniami w skromnych progach naszej Virtual-nej redakcji pojawiła się przesyłka zawierająca router FRITZ!Box 6850 5G od firmy AVM. Router wprowadzony na rynek latem ubiegłego roku, za pomocą wbudowanego modemu obsługuje zakresy 5G w paśmie poniżej 6 GHz, a także LTE Advanced Pro we wszystkich obecnie wy...

Czytaj więcej...

Chcielibyśmy, żeby chmura…, czyli oczekiwania wobec dostawcy
Chcielibyśmy, żeby chmura…, czyli oczekiwania wobec dostawcy

Wyniki badania PMR dla Polskiej Chmury wskazują, że ponad 2/3 firm korzysta z rozwiązań chmurowych, a około 1/3 jest w trakcie ich wdrażania. Tym samym chmura to już stały element ekosystemu i działalności przedsiębiorstw w Polsce. Rynek ten dojrzał i firmy szukają w chmurze korzyści oraz rozwiązań dopasowanych wprost ...

Czytaj więcej...

Integracja AIOps w kompleksowym monitorowaniu IT: Site24x7
Integracja AIOps w kompleksowym monitorowaniu IT: Site24x7

Środowiska IT stają się coraz bardziej rozbudowane. Firmy korzystają z infrastruktury on-premise jak również z rozwiązań chmurowych, często z wielu chmur (multicloud). W takiej sytuacji kluczem dla zapewnienia niezawodnego działania systemów IT jest monitoring infrastruktury. Właściwe rozwiązanie do monit...

Czytaj więcej...

Aktualności

Red Hat wprowadza nowe rozwiązania wykorzystujące Gen AI

AIRed Hat wprowadził do oferty system operacyjny Red Hat Enterprise Linux AI (RHEL AI), platformę dla podstawowych modeli sztucznej inteligencji, która umożliwia użytkownikom płynniejsze opracowywanie, testowanie i wdrażanie środowisk generatywnej AI (GenAI). RHEL AI wykorzystuje stworzoną przez IBM Research, licencjonowaną na zasadach open source rodzinę dużych modeli językowych (LLM) Granite, która bazuje na metodologii LAB (Large-scale Alignment for chatBots) - narzędzia do dostrajania modeli InstructLab. Zastosowano w nim także oparte na społeczności podejście do rozwoju modeli w ramach projektu InstructLab.

Rozwiązanie zostało udostępnione w postaci pakietu zawierającego zoptymalizowany, bootowalny obraz systemu RHEL do indywidualnego wdrażania serwerów w chmurze hybrydowej. Stanowi ono także część OpenShift AI - hybrydowej platformy operacji uczenia maszynowego (MLOps) firmy Red Hat, przeznaczonej do uruchamiania modeli AI i projektu InstructLab na dużą skalę w rozproszonych środowiskach klastrowych.

"GenAI umożliwia bazującym w dużym stopniu na rozwiązaniach technicznych przedsiębiorstwom zrobienie rewolucyjnego kroku do przodu, ale tylko wtedy, gdy są w stanie faktycznie wdrażać i wykorzystywać modele AI w sposób odpowiadający ich konkretnym potrzebom biznesowym. RHEL AI i projekt InstructLab, w połączeniu z wykorzystywanym w wielkoskalowych środowiskach rozwiązaniem Red Hat OpenShift AI, mają na celu obniżenie wielu barier stojących przed GenAI w chmurze hybrydowej - od niedoboru wiedzy w zakresie naukowego podejścia do danych, po wymagane zasoby. Jednocześnie napędzają innowacje zarówno we wdrożeniach korporacyjnych, jak i w społecznościach" - stwierdził Ashesh Badani, senior vice president and chief product officer, Red Hat.

Udostępnienie usługi ChatGPT wzbudziło ogromne zainteresowanie generatywną sztuczną inteligencją, a tempo wprowadzania innowacji od tego czasu tylko przyspieszyło. Przedsiębiorstwa zaczęły przechodzić od oceniania przydatności usług GenAI do tworzenia bazujących na sztucznej inteligencji aplikacji. Dalsze innowacje pobudził szybko rozwijający się ekosystem rozwiązań wykorzystujących otwarte modele. Jednocześnie unaocznił on, że nie powstanie jeden model dla wszystkich. Klienci będą korzystać z szeregu opcji spełniających określone wymagania, których rozwój może zostać jeszcze bardziej przyspieszony dzięki otwartemu podejściu do innowacyjności.

Wdrożenie strategii wykorzystania sztucznej inteligencji wymaga nie tylko wybrania modelu. Bazujące w dużym stopniu na rozwiązaniach technicznych przedsiębiorstwa potrzebują specjalistycznej wiedzy, aby dostosować dany model do konkretnego użycia, a także poradzić sobie ze znacznymi kosztami wdrożenia AI. Występuje również niedobór wiedzy w zakresie naukowego podejścia do danych, a problemy potęgowane są przez znaczne nakłady finansowe, konieczne m.in. w związku z:
● potrzebą zakupu infrastruktury AI lub korzystania z usług AI;
● złożonym procesem dostosowywania modeli AI do konkretnych potrzeb biznesowych;
● działaniami dotyczącymi integracji AI z aplikacjami korporacyjnymi;
● zarządzaniem cyklem życia aplikacji i modeli.

Aby rzeczywiście obniżyć bariery wejścia dla wdrożenia innowacyjnych mechanizmów sztucznej inteligencji, przedsiębiorstwa muszą być w stanie rozszerzyć listę pracowników zaangażowanych w działania nad inicjatywami AI, a jednocześnie kontrolować związane z tym koszty. Red Hat dąży do usunięcia tych przeszkód dzięki narzędziom InstructLab służącym do dostrajania modeli AI, modelom Granite oraz systemowi RHEL AI, który ułatwia wdrażanie modeli generatywnej sztucznej inteligencji. Ma to na celu umożliwienie czerpania korzyści dostępnych dla projektów bazujących na otwartym źródle, takich jak swoboda dostępu i możliwość wielokrotnego użytku, przejrzystość czy otwartość na współpracę ze społecznością.

Budowanie otwartej sztucznej inteligencji z InstructLab
Stworzony przez IBM Research mechanizm Large-scale Alignment for chatBots (LAB) umożliwia dostrajanie modeli sztucznej inteligencji poprzez generowanie syntetycznych danych o odpowiedniej taksonomii oraz nowatorskiej wielofazowej strukturze. Takie podejście sprawia, że rozwój modeli AI staje się bardziej otwarty i dostępny dla wszystkich użytkowników, gdyż zmniejszone zostaje jego uzależnienie od kosztownych modyfikacji wprowadzanych przez ludzi oraz zastrzeżonych modeli. Korzystając z metody LAB, modele można ulepszać określając zakres umiejętności i wiedzy związany z taksonomią oraz generując syntetyczne dane z tych informacji na dużą skalę. Dzięki temu możliwe jest wpływanie na model i wykorzystywanie wygenerowanych danych do jego szkolenia.

Po przekonaniu się, że metoda LAB może znacząco pomóc w poprawie wydajności modelu, firmy IBM i Red Hat postanowiły zainicjować InstructLab – społeczność open source zbudowaną wokół metody LAB, bazującą na otwartym źródle modelu Granite IBM. Projekt InstructLab ma na celu oddanie rozwoju dużych modeli językowych w ręce programistów (poprzez ich projektowanie, budowanie i wnoszenie wiedzy) oraz uproszczenie tego procesu w takim stopniu, jak ma to miejsce w przypadku innych projektów open source.

W ramach uruchomienia InstructLab, IBM publicznie udostępnił również rodzinę kodu wybranych anglojęzycznych modeli Granite. Modele te są udostępniane na licencji Apache, co zapewnia transparentność zestawów danych wykorzystywanych do ich trenowania. Anglojęzyczny model Granite 7B został wprowadzony do społeczności InstructLab, gdzie użytkownicy końcowi mogą wnosić swoje umiejętności i wiedzę, aby wspólnie ulepszać ten model, tak jak w przypadku każdego innego projektu open source. Wkrótce dostępne będzie podobne wsparcie dla kodu Granite w InstructLab.

Innowacyjne rozwiązania AI o otwartym kodzie źródłowym na zaufanej platformie Linux
System operacyjny RHEL AI bazuje na otwartym podejściu do innowacyjności sztucznej inteligencji. Zawiera przystosowaną dla przedsiębiorstw wersję projektu InstructLab oraz język Granite i modele kodu wraz z wiodącą na świecie platformą Linux klasy korporacyjnej, aby uprościć wdrażanie w środowisku infrastruktury hybrydowej. Tworzy to platformę do wprowadzania w przedsiębiorstwach podstawowych modeli GenAI na licencji open source.

RHEL AI zawiera kilka interesujących elementów:
● Licencjonowany na zasadach open source język Granite i modele kodu, które są wspierane i zabezpieczane przez Red Hat.
● Obsługiwana, cykliczna dystrybucja InstructLab, która zapewnia skalowalne, opłacalne rozwiązanie zwiększające możliwości LLM i udostępniające wiedzę oraz umiejętności znacznie szerszemu gronu użytkowników.
● Zoptymalizowane bootowalne kontenery w modelu image mode, zawierające obrazy RHEL, instancje modeli Granite oraz pakiety narzędzi InstructLab, a także zoptymalizowane biblioteki Pytorch dla akceleratorów AMD Instinct MI300X, procesorów graficznych Intel i NVIDIA oraz frameworków NeMo.
● Kompleksowe wsparcie Red Hat dla przedsiębiorstw i gwarancja utrzymania rozwiązania, zakładająca wiarygodną dystrybucję produktów dla przedsiębiorstw, całodobowe wsparcie produkcyjne oraz rozszerzone wsparcie podczas całego cyklu życia produktu.

Wraz z możliwością eksperymentowania i dostrajania nowych modeli sztucznej inteligencji w RHEL AI, zapewnione zostało także skalowanie mocy tych zadań obliczeniowych za pomocą Red Hat OpenShift AI. Rozwiązanie to zawiera system operacyjny RHEL AI, a jeśli to możliwe, wykorzystuje także własny silnik Kubernetes do trenowania i obsługi modeli AI na dużą skalę oraz bazujące na sztucznej inteligencji zintegrowane możliwości MLOps do zarządzania cyklem życia modelu. Stworzony przez IBM projekt dla przedsiębiorstw watsonx.ai, obecnie zbudowany na Red Hat OpenShift AI, skorzysta z włączenia RHEL AI do OpenShift AI, co przyniesie dodatkowe możliwości rozwoju korporacyjnej sztucznej inteligencji, zarządzania danymi i modelami, a także lepszą wydajność cenową.

Chmura jest hybrydowa, podobnie jak sztuczna inteligencja
Przez ponad 30 lat rozwiązania bazujące na otwartym źródle zapewniały szybką innowacyjność, a także wpływały na znaczne obniżenie kosztów IT i barier dla tego procesu. Red Hat przewodzi tej inicjatywie od niemal równie długiego czasu, zaczynając od dostarczania na początku XXI wieku otwartych platform Linux dla przedsiębiorstw w postaci systemu RHEL, po wykorzystanie rozwiązania Red Hat OpenShift do promowania kontenerów i Kubernetes jako podstawy otwartej chmury hybrydowej i natywnego przetwarzania w chmurze.

Podejście to jest kontynuowane dzięki wsparciu Red Hat dla strategii AI/ML w otwartej chmurze hybrydowej, co umożliwia uruchamianie zadań obliczeniowych bazujących na sztucznej inteligencji tam, gdzie znajdują się dane – w centrum danych, wielu chmurach publicznych czy też na brzegu sieci. Ale wizja Red Hat dla sztucznej inteligencji to także szkolenie modeli i dostrajanie ich w tym samym kierunku, aby mogły lepiej radzić sobie z ograniczeniami dotyczącymi suwerenności danych, zgodności i integralności operacyjnej. Spójność zapewniana przez platformy Red Hat w tych środowiskach, bez względu na to, gdzie działają, ma kluczowe znaczenie dla utrzymania przepływu innowacyjności związanej ze sztuczną inteligencją.

RHEL AI i społeczność InstructLab dalej realizują tę wizję, przełamując wiele barier w eksperymentowaniu i budowaniu modeli AI, zapewniając jednocześnie narzędzia, dane i koncepcje potrzebne do napędzania kolejnej fali inteligentnych zadań obliczeniowych.

"Sztuczna inteligencja to jedna z najważniejszych zmian w branży technicznej w ciągu ostatnich 50 lat. Aby przyspieszyć szersze zastosowanie sztucznej inteligencji, modele i narzędzia używane do tworzenia aplikacji AI muszą być dostępne dla przedsiębiorstw. Zbudowany na zaufanej platformie Linux z bazującymi na otwartym źródle narzędziami i licencjonowanymi w ten sposób modelami, RHEL AI jest jedną z platform, które mogą to zapewnić. Cieszymy się, że możemy wspierać wysiłki Red Hat w popularyzacji zastosowania sztucznej inteligencji w przedsiębiorstwach dzięki rozwiązaniom AMD, w tym akceleratorom Instinct AI" - mówi Ramine Roane, corporate vice president, AI Group, AMD.

Red Hat Enterprise Linux AI jest już dostępny w wersji deweloperskiej. Wsparcie dla RHEL AI oraz OpenShift AI będzie dodawane do środowiska IBM Cloud. Do pracy tych systemów oraz do trenowania modeli Granite i obsługi InstructLab będzie wykorzystywana obecna w IBM Cloud infrastruktura wydajnych kart graficznych. Integracja ta pozwoli przedsiębiorstwom na łatwiejsze wdrażanie generatywnej sztucznej inteligencji w ich krytycznych aplikacjach.

Źródło: Red Hat

Logowanie i rejestracja