Upadek startupu nie oznacza już końca monetyzacji jego aktywów; firmy takie jak Cielo24 sprzedają swoje cyfrowe ślady, w tym każde przesłane powiadomienie na Slacku i e-mail, laboratoriom AI jako dane treningowe. Ten model biznesowy zamienia wewnętrzną historię pracy tysięcy ludzi w surowiec dla uczenia maszynowego, często bez ich wiedzy i zgody.
Monetyzacja zgliszcz: od Jira po archiwum e-mail
Zjawisko sprzedaży danych z upadłych podmiotów nabiera tempa. Startup SimpleClosure, który pomaga w procesach likwidacyjnych, przetworzył w ciągu ostatniego roku około 100 transakcji tego typu, o wartości od 10 000 do 100 000 dolarów za pakiet danych. Shanna Johnson, CEO zlikwidowanej firmy programistycznej Cielo24, potwierdziła sprzedaż wiadomości ze Slacka, e-maili i biletów z systemu Jira za „setki tysięcy dolarów”.
Nie jest to koncepcja nowa, lecz jej skala jest bezprecedensowa. Historycznym przykładem jest Enron Corpus — zbiór 1,6 miliona e-maili i wpisów w kalendarzach dyrektorów firmy Enron, który po jej upadku stał się podstawą dla ponad 100 projektów badawczych i komercyjnych. To na tym zbiorze systemy AI, takie jak Siri od Apple czy funkcje „smart compose” Google, uczyły się rozumienia ludzkiej mowy.
Ryzyka prawne i techniczne: iluzja anonimizacji
Poważnym wyzwaniem pozostaje ochrona prywatności danych pracowniczych w procesach fuzji, przejęć (M&A) oraz likwidacji. Kancelaria Bird & Bird wskazuje, że udostępnianie danych personelu niemal zawsze podlega pod regulacje RODO (GDPR), a niewłaściwa obsługa tych procesów grozi karami do 20 mln euro lub 4% globalnego obrotu.
Mimo zapewnień o anonimizacji, eksperci tacy jak Marc Rotenberg z Center for AI and Digital Policy podkreślają, że dane komunikacyjne nie są „generyczne” — to możliwe do zidentyfikowania osoby, których całe kariery są zapisane w tych systemach. Dodatkowo, wykorzystywanie danych takich jak Enron Corpus niesie ryzyko replikowania błędów i uprzedzeń: algorytmy szkolone na e-mailach firmy znanej z nieetycznej kultury organizacyjnej mogą nieświadomie powielać te wzorce w systemach decyzyjnych AI.
Etyka cyfrowa i ochrona danych w miejscu pracy
Zgodnie z raportami Eurofound, wykorzystanie AI w zarządzaniu pracownikami i rekrutacji jest klasyfikowane jako system „wysokiego ryzyka”. Brak przejrzystości w tym, co dzieje się z danymi po zakończeniu stosunku pracy, buduje nieufność. Badania wskazują, że prawie połowa pracowników rozważyłaby obniżkę pensji w zamian za gwarancję braku monitorowania ich aktywności online.
Pracodawcy rzadko dysponują jasnymi politykami etycznymi dotyczącymi cyfrowego śladu pracowników, opierając się jedynie na technicznych procedurach bezpieczeństwa. Tymczasem prawo własności intelektualnej w USA (np. doktryna „work-for-hire”) zazwyczaj przyznaje własność wszelkich treści stworzonych w ramach zatrudnienia pracodawcy, co otwiera mu drogę do ich komercyjnej odsprzedaży po upadku firmy.
Wnioski praktyczne: Architektura bezpieczeństwa: Przedsiębiorstwa powinny stosować zasadę „privacy by design” oraz minimalizację danych, aby ograniczyć ilość gromadzonej, wrażliwej komunikacji. Zarządzanie informacją: Niezbędne jest uznanie roli „powiernika informacji” (information fiduciary), co nakładałoby na firmy obowiązek dbania o dane pracowników nawet w procesie likwidacji. * Świadomość pracownicza: Specjaliści IT muszą mieć świadomość, że wewnętrzne narzędzia jak Slack czy Jira, mimo ich „społecznościowego” charakteru, są własnością korporacyjną, która w scenariuszu restrukturyzacji może zostać sprzedana podmiotom trzecim jako aktywo cyfrowe.

Skomentuj Wiktor Anuluj pisanie odpowiedzi