Virtual-IT.pl - data center cloud computing SDx AI storage network cybersecurity

Aż 95% firm obawia się o bezpieczeństwo w chmurze publicznej
Aż 95% firm obawia się o bezpieczeństwo w chmurze publicznej

Jak wynika z opublikowanego przez Fortinet dokumentu „2023 Cloud Security Report”, w chmurze publicznej znajduje się już ponad połowa danych prawie 40% ankietowanych przedsiębiorstw. W ciągu najbliższych 12-18 miesięcy odsetek tych firm zwiększy się do 58%, co spowoduje, że wyzwań związanych z zabezpieczani...

Czytaj więcej...

Dlaczego warto wybrać Endpoint Central do zarządzania przedsiębiorstwem?
Dlaczego warto wybrać Endpoint Central do zarządzania przedsiębiorstwem?

Stworzony w 2005 roku, Endpoint Central (wcześniej znany jako Desktop Central) miał na celu zrewolucjonizowanie sposobu, w jaki firmy zarządzają swoim IT. Przez prawie dwie dekady rozwijał się wraz z dynamicznie zmieniającymi się potrzebami nowoczesnych przedsiębiorstw. Jest dowodem na siłę nieustannej innowacji, oferu...

Czytaj więcej...

IDR i ITDR - innowacyjne podejścia do ochrony tożsamości
IDR i ITDR - innowacyjne podejścia do ochrony tożsamości

Według analityków IDC pod koniec ubiegłego roku funkcjonowało już pół miliarda aplikacji. Ich rosnąca liczba oraz złożoność udostępnianych przez nie API - interfejsów programistycznych aplikacji - sprawia, że aplikacje stają się one coraz bardziej atrakcyjnym celem dla cyberprzestępców, kt&o...

Czytaj więcej...

FRITZ!Smart Gateway i Amazon Echo - sterowanie głosem w inteligentnym domu
FRITZ!Smart Gateway i Amazon Echo - sterowanie głosem w inteligentnym domu

W dobie szybko rozwijających się technologii Smart Home coraz więcej użytkowników poszukuje rozwiązań, które pozwolą na wygodne i centralne zarządzanie inteligentnymi urządzeniami w domu. Połączenie bramki FRITZ!Smart Gateway z głośnikami Amazon Echo i asystentem Alexa to prosty sposób na wprowadze...

Czytaj więcej...

VMware Tanzu: Wielowarstwowa ochrona kontenerów
VMware Tanzu: Wielowarstwowa ochrona kontenerów

Rewolucja kontenerowa przyniosła nie tylko zwinność, ale i nowe wyzwania w obszarze bezpieczeństwa infrastruktury. Tym kwestiom poświęcono nowy dokument techniczny "Container Security in VMware Tanzu Platform. A Guide for InfoSec Teams", który pełni rolę kompleksowego przewodnika po tym, jak platforma Tanzu wdra...

Czytaj więcej...

5 kluczowych wniosków o GenAI i danych operacyjnych
5 kluczowych wniosków o GenAI i danych operacyjnych

Organizacje, które zastanawiają się nad tym, czy i kiedy wdrożyć generatywną sztuczną inteligencję (Generative Artificial Intelligence, GenAI) do swoich działań operacyjnych (Artificial Intelligence for IT Operations, AIOps), stają przed licznymi wyzwaniami. GenAI znajduje dziś zastosowanie niemal wszędzie, co s...

Czytaj więcej...

Aktualności

Dlaczego sztuczna inteligencja traci zaufanie działów R&D?

AIDziały badawczo-rozwojowe w przedsiębiorstwach cierpią obecnie nie na niedobór danych, lecz brak sprawnie działających mechanizmów oceny ich wiarygodności. Przekłada się to na coraz bardziej zauważalny brak zaufania do bazujących na sztucznej inteligencji metod wyciągania wniosków z ogromnych zbiorów informacji odpowiedzi. Odkrywanie wiedzy z wykorzystaniem AI ma bowiem sens wyłącznie wtedy, gdy proces ten jest osadzony w bogatych kontekstowo danych organizacyjnych, a nie w probabilistycznych domysłach.

Wiele wdrażanych w przedsiębiorstwach narzędzi AI traci zaufanie użytkowników, zanim zdąży wygenerować realną wartość biznesową. Problem ten jest szczególnie istotny w przypadku firm, które dysponują obszernymi, unikalnymi danymi badawczymi pochodzącymi np. z działu R&D. Traktowanie ich jak generycznej treści internetowej prowadzi do utraty kontekstu, szczegółowych informacji o pochodzeniu, a przez to jakże ważnego w tym przypadku rygoru naukowego. Bez tych elementów AI przestaje wspierać badania, a zaczyna je upraszczać w ryzykowny sposób.

Obserwowane obecnie trendy dają pewną nadzieję na poprawę tej sytuacji. Wraz z planowaniem budżetów AI na 2026 rok zmienia się perspektywa decyzyjna, a firmy coraz częściej nie pytają już „czy korzystać z AI?”, lecz „które inicjatywy faktycznie zasługują na dalsze finansowanie?”. Zarządy i dyrektorzy finansowi coraz uważniej analizują projekty, które pozostały na etapie pilotażowym - generowały aktywność, lecz nie przyniosły mierzalnych rezultatów, albo działały szybko, lecz nigdy nie zbudowały zaufania użytkowników. Dlatego w 2026 roku przewagę zdobędzie „nudna” AI — przewidywalna, wytłumaczalna i zarządzalna.

W obszarze R&D ta presja jest szczególnie silna. Odkrywanie wiedzy znajduje się na styku innowacyjności, efektywności i ryzyka. Gdy zostanie zrealizowane właściwie, sztuczna inteligencja skumuluje wartość całego przedsiębiorstwa, a jeśli nie - stanie się kosztownym eksperymentem. W 2026 roku finansowanie trafi do rozwiązań, które są zaufane, objęte mechanizmami nadzoru i realnie wbudowane w codzienną pracę zespołów badawczych.

Brak kontekstu główną barierą w odkrywaniu wiedzy
Podmioty badawcze dysponują ogromnymi zasobami informacji: od notatek i zapisów z systemów laboratoryjnych, przez repozytoria kodu, po logi eksperymentów, korespondencję i archiwa gromadzone przez dekady. W tym ekosystemie znajdują się odpowiedzi, które niejednokrotnie mogą doprowadzić do przełomu. Zbyt często jednak pozostają one ukryte pod warstwą nadmiarowych, pofragmentowanych i odseparowanych systemów.

W takich warunkach sztuczna inteligencja bywa wdrażana jako kolejny interfejs - szybki i elokwentny, lecz często „oderwany” od źródeł. Gdy badacze pytają, skąd pochodzi dana odpowiedź, okazuje się, że system nie potrafi jednoznacznie wskazać jej podstaw lub halucynuje. W kontekście działań badawczo-rozwojowych jest to moment, w którym użyteczność AI kończy się i de facto staje bezprzedmiotowa. Odkrywanie nowej wiedzy nigdy bowiem nie polegało wyłącznie na szybkości, lecz kluczowa zawsze była pewność: możliwość zaufania zarówno wynikowi, jak i drodze, która do niego prowadzi. Dlatego konieczne jest doprowadzenie do sytuacji, w której sztuczna inteligencja będzie rozumiała dane dziedzinowe, zachowywała ich kontekst i pochodzenie oraz umożliwiała śledzenie relacji między informacjami.

"Rozwiązanie Progress Data Platform przyjmuje odmienne podejście niż większość narzędzi AI. Zamiast zmuszać zespoły R&D do kopiowania, czyszczenia lub „spłaszczania” danych w celu przygotowania ich do analizy, platforma ta implementuje sztuczną inteligencję bezpośrednio w istniejących zasobach danych. Zachowane zostają struktura, semantyka, bezpieczeństwo i mechanizmy zarządzania. Natomiast dzięki wykorzystaniu podejścia bazującego na semantycznym wyszukiwaniu, generowane przez AI odpowiedzi są osadzone w zaufanej wiedzy przedsiębiorstwa - dokumentach, danych, metadanych i relacjach - zamiast powstawać w formie probabilistycznych przypuszczeń" - mówi Jakub Andrzejewski, Business Development Manager for Poland & CIS w firmie Progress Software.

Najlepsze systemy odkrywania wiedzy nie powinny sprawiać wrażenia, że działają w sposób „magiczny”. Powinny być przewidywalne, powtarzalne i niezawodne, bowiem dokładnie takie cechy decydują o ich wartości w środowisku badawczym. Metodyczne podejście do wykorzystania sztucznej inteligencji w pracach badawczo-rozwojowych bardzo szybko daje praktyczne i mierzalne efekty. Badacze mogą odnajdywać wnioski we wcześniejszych pracach, zamiast nieświadomie je powielać. Ujawniają się powiązania między projektami, zbiorami danych i obszarami badawczymi, które wcześniej pozostawały niewidoczne. Oraz, co istotne, odpowiedzi generowane przez AI mogą być wyjaśnione, prześledzone i poddane profesjonalnej ocenie.

Gdy sztuczna inteligencja staje się przewidywalna i „nudna”, może działać na dużą skalę i realnie wspierać zwrot z inwestycji. Właśnie takie mechanizmy działania AI mają szansę zdefiniować sposób prowadzenia badań i rozwoju w kolejnych latach.

Źródło: Progress Software

Logowanie i rejestracja