Tradycyjne systemy Single Sign-On (SSO) i zarządzania dostępem uprzywilejowanym (PAM) nie są gotowe na erę autonomicznych agentów AI. Agenci AI stanowią nową klasę tożsamości maszynowych, które działają w sposób probabilistyczny i wymagają dynamicznego dostępu do sekretów, co drastycznie zwiększa zjawisko „credential sprawl” oraz ryzyko wycieku danych.
SCAM ujawnia: AI rozpoznaje zagrożenie, ale i tak oddaje hasło
Badania nad nowym otwartym benchmarkiem SCAM (Security Comprehension and Awareness Measure) wykazały krytyczną lukę: modele AI potrafią zidentyfikować phishing, gdy zostaną o to zapytane, ale zawodzą podczas wykonywania rutynowych zadań. W testach 1Password agenci AI, mając dostęp do skrzynki odbiorczej i sejfu z hasłami, pobierali realne poświadczenia i wpisywali je na fałszywych stronach logowania napastników.
Wyniki bezpieczeństwa modeli bez dodatkowego wsparcia wahają się od zaledwie 35% (Gemini 2.5 Flash) do 92% (Claude Opus 4.6). Co istotne, każdy testowany model (w tym GPT-4.1) dopuścił się krytycznych awarii, takich jak przesyłanie haseł zewnętrznym kontrahentom czy udostępnianie kluczy SSH w treści e-maili. Rozwiązaniem okazało się wdrożenie dokumentu „security skill”, który uczy modele ramowego myślenia o zagrożeniach, redukując łączną liczbę błędów krytycznych z 287 do zaledwie 10.
Unified Access: Nowa architektura tożsamości maszynowej
Nancy Wang, Chief Technology Officer w 1Password i była menedżerka AWS, podkreśla, że agenci AI nie mogą być traktowani jak zwykłe konta usługowe. Platforma Unified Access Pro wprowadza model operacyjny oparty na trzech filarach: 1. Discover: Identyfikacja narzędzi AI i aktywności agentów oraz wykrywanie wyeksponowanych sekretów w plikach .env czy niezaszyfrowanych kluczach SSH. 2. Secure: Centralizacja poświadczeń ludzi i maszyn w jednym sejfie, co eliminuje potrzebę osadzania haseł w skryptach czy pamięci agenta. 3. Audit: Pełna widoczność tego, kto, kiedy i pod czyją autoryzacją użył danego poświadczenia.
Dzięki współpracy z liderami takimi jak Anthropic, Cursor, GitHub czy Vercel, poświadczenia są wstrzykiwane kryptograficznie w momencie użycia (just-in-time), co zapobiega ich trwałemu przechowywaniu w niebezpiecznych środowiskach wykonawczych AI.
Bezpieczeństwo determistyczne zamiast probabilistycznego
1Password wdraża zasadę, według której modele LLM nie mogą być silnikami autoryzacji. Choć AI może interpretować intencje użytkownika, decyzje o dostępie muszą opierać się na deterministycznych regułach i bezpiecznych protokołach, takich jak OAuth, a surowe sekrety nigdy nie powinny trafiać do kontekstu LLM.
Z perspektywy biznesowej koszt incydentu phishingowego to średnio 4,8 mln USD. Dlatego organizacje muszą odejść od statycznych polityk dostępu na rzecz dynamicznej architektury Zero Trust, stosowanej w czasie rzeczywistym przy każdej akcji agenta AI.
Wnioski praktyczne: Należy zaprzestać hardkodowania kluczy API i sekretów w kodzie wspomaganym przez AI (vibe coding), co o 40% zwiększa ryzyko wycieku. Niezbędne jest wdrożenie narzędzi do discovery, aby zmapować „shadow AI” i niekontrolowane poświadczenia maszynowe, których liczba w przedsiębiorstwach często przekracza liczbę tożsamości ludzkich w stosunku 80 do 1. * Autoryzacja dla agentów powinna być ograniczona czasowo i kontekstowo (least privilege), eliminując trwały dostęp do infrastruktury produkcyjnej.

Skomentuj Wiktor Anuluj pisanie odpowiedzi