Nowe badania z zakresu cyberbezpieczeństwa ujawniają ogromną, niezabezpieczoną sieć publicznie dostępnych systemów AI, stanowiącą „górę lodową” potencjalnych zagrożeń - od kampanii dezinformacyjnych po kradzież danych. Wspólne śledztwo SentinelLABS i Censys odkryło rozległą sieć ponad 7,23 miliona obserwacji pochodzących z 175000 unikalnych hostów w 130 krajach, które publicznie udostępniają duże modele językowe (LLM) o otwartym kodzie źródłowym. Systemy te działają poza mechanizmami bezpieczeństwa głównych platform, tworząc niekontrolowane pogranicze w ekosystemie AI.
Co dokładnie znaleziono?
Badacze skupili się na frameworku Ollama, który umożliwia lokalne uruchamianie modeli. Chociaż domyślnie powinien być dostępny tylko lokalnie, jedna prosta zmiana konfiguracji wystawia instancje na cały publiczny internet.
Kluczowe ustalenia
Analiza ujawniła strukturę rozproszonej sieci, w której rdzeń złożony z około 23000 hostów generuje większość obserwowanej aktywności. Niepokojący jest fakt, że prawie połowa wszystkich hostów jest skonfigurowana z włączonymi funkcjami tool-calling, co daje im zdolność wykonywania kodu, dostępu do zewnętrznych API i interakcji z innymi systemami. Co więcej, badacze zidentyfikowali co najmniej 201 hostów, które celowo uruchamiają standaryzowane prompty mające na celu usunięcie wbudowanych zabezpieczeń etycznych i bezpieczeństwa modeli. Geograficznie, sieć jest skoncentrowana w głównych węzłach infrastruktury - około 30% hostów znajduje się w Chinach (z czego 30% w samym Pekinie), a 20% w Stanach Zjednoczonych, gdzie sama Wirginia odpowiada za 18%, odzwierciedlając gęstość tamtejszej infrastruktury chmurowej.
Prawdziwe zagrożenia wykraczają poza generowanie tekstu
Problem to nie tylko możliwość generowania spamu czy dezinformacji. Badacze ostrzegają przed poważniejszymi konsekwencjami:
- Wykonywanie uprzywilejowanych operacji: punkty końcowe z włączonymi narzędziami mogą stanowić bezpośrednią ścieżkę do eksfiltracji danych czy przejęcia kontroli.
- Nowe wektory ataku: możliwości wizyjne, dostępne na 22% hostów, tworzą nowe ścieżki ataku poprzez tzw. pośrednie wstrzykiwanie promptów za pomocą obrazów.
- Systemowa kruchość: dominacja kilku rodzin modeli (m.in. Meta Llama, Alibaba Qwen2, Gemma2) oznacza, że ewentualna podatność mogłaby doprowadzić do zsynchronizowanej, masowej ekspozycji całego ekosystemu, a nie tylko pojedynczych incydentów.
Odpowiedzialność w erze otwartego AI: Kto jest winny?
Badanie wywołało ważną debatę na temat odpowiedzialności w łańcuchu dostaw AI.
Juan Andres Guerrero-Saade z SentinelOne wskazuje na przemilczany problem: "debata branży AI na temat kontroli bezpieczeństwa pomija tę nadwyżkę mocy obliczeniowych, która jest wyraźnie wykorzystywana do najróżniejszych celów, z których niektóre są legalne, a inne oczywiście przestępcze".
Rachel Adams z Globalnego Centrum ds. Zarządzania AI podkreśla rozproszoną odpowiedzialność: "twórcy modeli mają obowiązek przewidywania zagrożeń i dostarczania narzędzi do ich łagodzenia, ale nie mogą ponosić odpowiedzialności za każde niewłaściwe wykorzystanie w dalszym łańcuchu".
Meta, pytana przez Reutersa o odpowiedzialność za nadużycia swoich otwartych modeli, odmówiła komentarza, wskazując jedynie na swoje narzędzia Llama Protection i Przewodnik Odpowiedzialnego Użytkowania.
Niezabezpieczona infrastruktura AI palącym problemem branży
Odkrycie SentinelLABS i Censys ujawnia masowy problem z higieną bezpieczeństwa w szybko rozwijającym się świecie otwartej AI. Sytuacja przypomina "Dziki Zachód" - potężne narzędzia są łatwo dostępne, często bez podstawowych zabezpieczeń.
Eksperci podkreślają, że rozwiązanie wymaga zbiorowego zaangażowania: od twórców frameworków (jak Ollama) przez dostawców modeli (jak Meta), po administratorów wdrażających te systemy. Bez szybkiej reakcji, ta niezarządzana infrastruktura może stać się głównym źródłem cyberzagrożeń i narzędziem dla złośliwych aktorów w nadchodzących latach.