„Dane w użyciu” – nowy front walki o bezpieczeństwo AI, koszty naruszeń rosną do 4,88 mln USD

W obliczu rosnących kosztów naruszeń bezpieczeństwa danych, które w 2024 roku osiągną średnio 4,88 mln USD, rynek AI staje przed nowym, krytycznym wyzwaniem. W pierwszej połowie 2025 roku odnotowano już 1 732 incydenty, ujawniając ponad 165 milionów rekordów, co podkreśla pilną potrzebę zabezpieczenia danych w trakcie ich przetwarzania, czyli tzw. „data-in-use”.

BIT

Obecne rozwiązania bezpieczeństwa danych koncentrują się głównie na ochronie danych w spoczynku (data-at-rest) i w ruchu (data-in-transit). Jednakże, wraz z dynamicznym rozwojem sztucznej inteligencji, która wymaga ciągłego dostępu do danych w celu trenowania modeli i przeprowadzania analiz, kluczowe staje się zabezpieczenie danych w fazie aktywnego przetwarzania (data-in-use). Jest to najbardziej wrażliwy etap, podczas którego dane są odszyfrowywane i dostępne w pamięci operacyjnej, co czyni je podatnymi na ataki typu 'memory scraping’ czy 'in-memory execution’. Brak odpowiednich mechanizmów ochrony w tym obszarze otwiera nowe wektory ataków, które mogą prowadzić do wycieku wrażliwych informacji, naruszenia poufności modeli AI, a nawet do manipulacji ich działaniem. Rozwiązania takie jak Trusted Execution Environments (TEE), wykorzystujące sprzętowe mechanizmy izolacji, czy zaawansowane techniki kryptograficzne, jak homomorficzne szyfrowanie (choć wciąż na wczesnym etapie adopcji ze względu na wydajność), stają się kluczowe dla zapewnienia bezpieczeństwa w tym nowym paradygmacie. Architektury systemów AI muszą być projektowane z myślą o tej luce, integrując mechanizmy ochrony danych w czasie rzeczywistym, które zapobiegają nieautoryzowanemu dostępowi i modyfikacji danych podczas ich przetwarzania przez algorytmy uczenia maszynowego.

BIZ

Rosnące koszty naruszeń bezpieczeństwa, prognozowane na 4,88 mln USD w 2024 roku (wzrost o 10% rok do roku), oraz skala ujawnionych danych (ponad 165 milionów rekordów w H1 2025) stanowią potężny impuls dla rynku rozwiązań zabezpieczających dane w użyciu. Firmy inwestujące w rozwój i wdrażanie technologii AI ponoszą ogromne ryzyko związane z potencjalnym wyciekiem danych treningowych lub wyników analiz, co może prowadzić do utraty przewagi konkurencyjnej, kar finansowych związanych z RODO, a także utraty zaufania klientów. W kontekście Unii Europejskiej, wdrażanie AI Act nakłada dodatkowe wymogi dotyczące bezpieczeństwa i przejrzystości systemów AI, co jeszcze bardziej zwiększa presję na stosowanie zaawansowanych metod ochrony danych. Strategie zarządów muszą uwzględniać te nowe zagrożenia, przesuwając budżety na rozwiązania typu 'data-in-use security’. W Polsce, gdzie rynek IT dynamicznie się rozwija, a firmy coraz śmielej inwestują w rozwiązania oparte na AI, świadomość tego typu zagrożeń jest kluczowa dla utrzymania konkurencyjności i zgodności z regulacjami. Inwestycje w technologie takie jak TEE czy szyfrowanie homomorficzne, choć początkowo kosztowne, mogą okazać się niezbędne do zabezpieczenia przyszłości biznesu opartego na danych i sztucznej inteligencji, zapobiegając kosztownym incydentom bezpieczeństwa i budując zaufanie na rynku.

Redakcja BitBiz przy opracowywaniu tego materiału korzystała z narzędzi wspomagających analizę danych. Tekst został w całości zweryfikowany i zredagowany przez BitBiz.pl

#bezpieczeństwo #ai #ochronadanych #data-in-use #cyberbezpieczeństwo

💬 Kliknij tutaj, aby dodać komentarz

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *