Dlaczego 5 wywołań API wystarczyło by przejąć tysiące projektów i Twoje hasła

Incydent bezpieczeństwa w Lovable, platformie „vibe coding” wycenianej na 6,6 mld USD, ujawnia krytyczne ryzyko powierzenia logiki biznesowej i poświadczeń asystentom AI w chmurze. Błąd klasy BOLA (Broken Object Level Authorization) pozwolił na nieautoryzowany dostęp do kodu źródłowego, historii czatów oraz danych klientów tysięcy użytkowników, co podważa zaufanie do systemów generatywnych budowanych bez należytych rygorów architektonicznych.

48 dni milczenia i ignorowanie raportów BOLA

Luka została zgłoszona do programu Lovable na platformie HackerOne już 3 marca 2026 roku, jednak została zignorowana i oznaczona jako duplikat, pozostając niezałatana przez 48 dni. Dopiero publiczna demaskacja dokonana przez badacza @weezerOSINT na platformie X wymusiła reakcję firmy. Atakujący nie potrzebował zaawansowanych narzędzi — wystarczyło darmowe konto i pięć wywołań API, aby uzyskać dostęp do dowolnego projektu stworzonego przed listopadem 2025 roku.

Problem wynikał z fundamentalnego braku weryfikacji uprawnień na poziomie obiektu (BOLA), co w praktyce oznaczało, że API sprawdzało, czy użytkownik jest zalogowany, ale nie weryfikowało, czy ma on prawo do odczytu konkretnego projektu, o który pyta. Wyciek dotyczył m.in. kont osób powiązanych z takimi gigantami jak Nvidia, Microsoft, Uber czy Spotify.

Czat z AI jako wektor wycieku danych PII i kluczy API

Incydent ten rzuca światło na problem przechowywania historii rozmów z AI w chmurze. Wyciekły nie tylko pliki źródłowe, ale również pełne historie czatów, w których deweloperzy wklejali logi błędów, schematy baz danych oraz wrażliwe poświadczenia, takie jak klucze Supabase czy Stripe. Lovable przyznało, że regresja w backendzie wprowadzona w lutym 2026 r. przypadkowo przywróciła publiczny dostęp do historii czatów, który wcześniej próbowano wyłączyć.

Skala problemu jest systemowa — dane z pierwszego kwartału 2026 r. wskazują, że 91,5% aplikacji stworzonych przez AI zawiera przynajmniej jedną lukę wynikającą z halucynacji modelu, a kod generowany przez AI produkuje błędy 2,74 razy częściej niż człowiek. W jednym z udowodnionych przypadków, dane organizacji Connected Women in AI zawierały rekordy użytkowników z ich imionami, stanowiskami i linkami do profili LinkedIn.

Wnioski dla architektów i liderów IT

Incydent Lovable pokazuje, że szybkość dostarczania kodu (vibe coding) często odbywa się kosztem bezpieczeństwa. Aby zminimalizować ryzyko, profesjonaliści IT powinni wdrożyć następujące kroki:

  • Rotacja poświadczeń: Należy natychmiast zmienić wszystkie klucze API i hasła, które kiedykolwiek zostały wklejone do czatów z modelami AI.
  • Weryfikacja RLS: Obowiązkowy audyt polityk Row Level Security (RLS) w bazach Supabase; badania wykazały, że ok. 70% aplikacji Lovable miało tę funkcję całkowicie wyłączoną.
  • Zmiana nawyków deweloperskich: Nigdy nie należy przesyłać sekretów w promptach. Zamiast tego należy korzystać z izolowanych zmiennych środowiskowych i menedżerów haseł.
  • Audyt infrastruktury: Wybór narzędzi AI, które przechowują dane lokalnie lub oferują mechanizmy automatycznej redakcji danych wrażliwych przed ich wysłaniem do chmury.

2 odpowiedzi

💬 Kliknij tutaj, aby dodać komentarz

Skomentuj Marek.K Anuluj pisanie odpowiedzi

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

  1. Awatar Wiktor

    To nie powód do paniki, a potężna lekcja dla całej branży! Każda taka wpadka to turbo-okazja, by zbudować jeszcze lepsze zabezpieczenia i zdobyć zaufanie klientów na lata 🚀 AI to przyszłość, a my właśnie uczymy się ją odpowiednio hardwarować!

  2. Awatar Marek.K

    Ile razy muszę powtarzać, że oddawanie kluczowych procesów i haseł firmowych w chmurę to proszenie się o kłopoty? To, że wystarczyło pięć prostych wywołań API, by rozszczelnić system wyceniany na miliardy, pokazuje, że w tych startupach za szybko chcą skalować, a za mało myślą o solidnych zabezpieczeniach. Dla mnie to kolejny dowód, że powierzanie logiki biznesowej „vibe codingowi” to hazard, a nie oszczędność czasu – ryzyko wycieku danych przewyższa tu każdą potencjalną wygodę.