Virtual-IT.pl - data center cloud computing SDx AI storage network cybersecurity

5 kluczowych wniosków o GenAI i danych operacyjnych
5 kluczowych wniosków o GenAI i danych operacyjnych

Organizacje, które zastanawiają się nad tym, czy i kiedy wdrożyć generatywną sztuczną inteligencję (Generative Artificial Intelligence, GenAI) do swoich działań operacyjnych (Artificial Intelligence for IT Operations, AIOps), stają przed licznymi wyzwaniami. GenAI znajduje dziś zastosowanie niemal wszędzie, co s...

Czytaj więcej...

IDR i ITDR - innowacyjne podejścia do ochrony tożsamości
IDR i ITDR - innowacyjne podejścia do ochrony tożsamości

Według analityków IDC pod koniec ubiegłego roku funkcjonowało już pół miliarda aplikacji. Ich rosnąca liczba oraz złożoność udostępnianych przez nie API - interfejsów programistycznych aplikacji - sprawia, że aplikacje stają się one coraz bardziej atrakcyjnym celem dla cyberprzestępców, kt&o...

Czytaj więcej...

VMware Tanzu: Wielowarstwowa ochrona kontenerów
VMware Tanzu: Wielowarstwowa ochrona kontenerów

Rewolucja kontenerowa przyniosła nie tylko zwinność, ale i nowe wyzwania w obszarze bezpieczeństwa infrastruktury. Tym kwestiom poświęcono nowy dokument techniczny "Container Security in VMware Tanzu Platform. A Guide for InfoSec Teams", który pełni rolę kompleksowego przewodnika po tym, jak platforma Tanzu wdra...

Czytaj więcej...

FRITZ!Smart Gateway i Amazon Echo - sterowanie głosem w inteligentnym domu
FRITZ!Smart Gateway i Amazon Echo - sterowanie głosem w inteligentnym domu

W dobie szybko rozwijających się technologii Smart Home coraz więcej użytkowników poszukuje rozwiązań, które pozwolą na wygodne i centralne zarządzanie inteligentnymi urządzeniami w domu. Połączenie bramki FRITZ!Smart Gateway z głośnikami Amazon Echo i asystentem Alexa to prosty sposób na wprowadze...

Czytaj więcej...

Aż 95% firm obawia się o bezpieczeństwo w chmurze publicznej
Aż 95% firm obawia się o bezpieczeństwo w chmurze publicznej

Jak wynika z opublikowanego przez Fortinet dokumentu „2023 Cloud Security Report”, w chmurze publicznej znajduje się już ponad połowa danych prawie 40% ankietowanych przedsiębiorstw. W ciągu najbliższych 12-18 miesięcy odsetek tych firm zwiększy się do 58%, co spowoduje, że wyzwań związanych z zabezpieczani...

Czytaj więcej...

Dlaczego warto wybrać Endpoint Central do zarządzania przedsiębiorstwem?
Dlaczego warto wybrać Endpoint Central do zarządzania przedsiębiorstwem?

Stworzony w 2005 roku, Endpoint Central (wcześniej znany jako Desktop Central) miał na celu zrewolucjonizowanie sposobu, w jaki firmy zarządzają swoim IT. Przez prawie dwie dekady rozwijał się wraz z dynamicznie zmieniającymi się potrzebami nowoczesnych przedsiębiorstw. Jest dowodem na siłę nieustannej innowacji, oferu...

Czytaj więcej...

Aktualności

Świat sztucznej inteligencji ma poważny problem z bezpieczeństwem

Cyberatak AINowe badania z zakresu cyberbezpieczeństwa ujawniają ogromną, niezabezpieczoną sieć publicznie dostępnych systemów AI, stanowiącą „górę lodową” potencjalnych zagrożeń - od kampanii dezinformacyjnych po kradzież danych. Wspólne śledztwo SentinelLABS i Censys odkryło rozległą sieć ponad 7,23 miliona obserwacji pochodzących z 175000 unikalnych hostów w 130 krajach, które publicznie udostępniają duże modele językowe (LLM) o otwartym kodzie źródłowym. Systemy te działają poza mechanizmami bezpieczeństwa głównych platform, tworząc niekontrolowane pogranicze w ekosystemie AI.

Co dokładnie znaleziono?

Badacze skupili się na frameworku Ollama, który umożliwia lokalne uruchamianie modeli. Chociaż domyślnie powinien być dostępny tylko lokalnie, jedna prosta zmiana konfiguracji wystawia instancje na cały publiczny internet.

Kluczowe ustalenia

Analiza ujawniła strukturę rozproszonej sieci, w której rdzeń złożony z około 23000 hostów generuje większość obserwowanej aktywności. Niepokojący jest fakt, że prawie połowa wszystkich hostów jest skonfigurowana z włączonymi funkcjami tool-calling, co daje im zdolność wykonywania kodu, dostępu do zewnętrznych API i interakcji z innymi systemami. Co więcej, badacze zidentyfikowali co najmniej 201 hostów, które celowo uruchamiają standaryzowane prompty mające na celu usunięcie wbudowanych zabezpieczeń etycznych i bezpieczeństwa modeli. Geograficznie, sieć jest skoncentrowana w głównych węzłach infrastruktury - około 30% hostów znajduje się w Chinach (z czego 30% w samym Pekinie), a 20% w Stanach Zjednoczonych, gdzie sama Wirginia odpowiada za 18%, odzwierciedlając gęstość tamtejszej infrastruktury chmurowej.

Cyberatak AI LLM

Prawdziwe zagrożenia wykraczają poza generowanie tekstu

Problem to nie tylko możliwość generowania spamu czy dezinformacji. Badacze ostrzegają przed poważniejszymi konsekwencjami:
- Wykonywanie uprzywilejowanych operacji: punkty końcowe z włączonymi narzędziami mogą stanowić bezpośrednią ścieżkę do eksfiltracji danych czy przejęcia kontroli.
- Nowe wektory ataku: możliwości wizyjne, dostępne na 22% hostów, tworzą nowe ścieżki ataku poprzez tzw. pośrednie wstrzykiwanie promptów za pomocą obrazów.
- Systemowa kruchość: dominacja kilku rodzin modeli (m.in. Meta Llama, Alibaba Qwen2, Gemma2) oznacza, że ewentualna podatność mogłaby doprowadzić do zsynchronizowanej, masowej ekspozycji całego ekosystemu, a nie tylko pojedynczych incydentów.

Odpowiedzialność w erze otwartego AI: Kto jest winny?

Badanie wywołało ważną debatę na temat odpowiedzialności w łańcuchu dostaw AI.

Juan Andres Guerrero-Saade z SentinelOne wskazuje na przemilczany problem: "debata branży AI na temat kontroli bezpieczeństwa pomija tę nadwyżkę mocy obliczeniowych, która jest wyraźnie wykorzystywana do najróżniejszych celów, z których niektóre są legalne, a inne oczywiście przestępcze".

Rachel Adams z Globalnego Centrum ds. Zarządzania AI podkreśla rozproszoną odpowiedzialność: "twórcy modeli mają obowiązek przewidywania zagrożeń i dostarczania narzędzi do ich łagodzenia, ale nie mogą ponosić odpowiedzialności za każde niewłaściwe wykorzystanie w dalszym łańcuchu".

Meta, pytana przez Reutersa o odpowiedzialność za nadużycia swoich otwartych modeli, odmówiła komentarza, wskazując jedynie na swoje narzędzia Llama Protection i Przewodnik Odpowiedzialnego Użytkowania.

Niezabezpieczona infrastruktura AI palącym problemem branży

Odkrycie SentinelLABS i Censys ujawnia masowy problem z higieną bezpieczeństwa w szybko rozwijającym się świecie otwartej AI. Sytuacja przypomina "Dziki Zachód" - potężne narzędzia są łatwo dostępne, często bez podstawowych zabezpieczeń.

Eksperci podkreślają, że rozwiązanie wymaga zbiorowego zaangażowania: od twórców frameworków (jak Ollama) przez dostawców modeli (jak Meta), po administratorów wdrażających te systemy. Bez szybkiej reakcji, ta niezarządzana infrastruktura może stać się głównym źródłem cyberzagrożeń i narzędziem dla złośliwych aktorów w nadchodzących latach.

Logowanie i rejestracja