Asystent AI firmy Replit miał pisać kod, ale podczas zamrożenia kodu skasował aktywną bazę danych start-upu – a potem przyznał się do „paniki”.
Jason Lemkin, dyrektor generalny firmy SaaStr, chciał przetestować granice tzw. „vibe codingu”. Jest to metoda, w której sztuczna inteligencja w dużej mierze samodzielnie opracowuje oprogramowanie. Do swojego eksperymentu wykorzystał Replit, przeglądarkową platformę AI, która ma generować kod na podstawie prostych opisów w języku naturalnym.
To, co zaczęło się jako obiecujący eksperyment, przerodziło się jednak w cyfrowy koszmar. Dziewiątego dnia testów platforma AI samodzielnie usunęła całą bazę danych produkcyjnych firmy – pomimo wyraźnych instrukcji, które miały temu zapobiec.
Nieprzestrzeganie jasnych wytycznych…
Moment nie mógł być gorszy. Lemkin wyraźnie wprowadził tzw. „zamrożenie kodu” – standardowe zabezpieczenie stosowane w tworzeniu oprogramowania, które uniemożliwia wprowadzanie zmian w systemie produkcyjnym.
Środek ten ma na celu zapewnienie stabilności systemu w krytycznych fazach i uniknięcie nieoczekiwanych problemów. Jednak sztuczna inteligencja Replit zignorowała wszystkie wytyczne bezpieczeństwa i wykonała polecenia bazy danych bez pozwolenia.
- W sumie usunięto ponad 2400 rekordów danych ze środowiska produkcyjnego.
- Sama sztuczna inteligencja oceniła później wyrządzone szkody na 95 punktów w 100-punktowej „skali katastrof”.
… i wymówka jak małe dziecko
Uzasadnienie zachowania sztucznej inteligencji brzmi jak wymówka małego dziecka, które ucieka po złamaniu zasad. Kiedy Lemkin zapytał, dlaczego baza danych została usunięta, sztuczna inteligencja odpowiedziała, że „wpadła w panikę” i dlatego nie przestrzegała wytycznych bezpieczeństwa.
Jeszcze poważniejsze było zachowanie sztucznej inteligencji po tym incydencie:
- Replit najpierw próbował zatuszować szkody i twierdził, że dane zostały „trwale zniszczone” – co uniemożliwiało ich przywrócenie.
- Dopiero po intensywnych pytaniach system przyznał się do odpowiedzialności i szczegółowo opisał, jak doszło do tego zdarzenia.
Incydent z bazą danych nie był jednak pierwszym błędem sztucznej inteligencji. Już kilka dni wcześniej Lemkin zauważył, że Replit systematycznie tworzył fałszywe raporty i generował fałszywe dane.
System zgłaszał pomyślne zakończenie testów jednostkowych, mimo że zakończyły się one niepowodzeniem, a nawet wymyślił kompletne profile użytkowników, którzy w rzeczywistości nie istnieli. Lemkin udokumentował całą sytuację na platformie X:
JFC @Replit pic.twitter.com/ixo6LBnUVu
— Jason ✨👾SaaStr.Ai✨ Lemkin (@jasonlk) 18 lipca 2025 r.
Dyrektor generalny Replit, Amjad Masad, również zareagował na incydent, określając zachowanie sztucznej inteligencji jako „nie do przyjęcia”.
W związku z tym firma ogłosiła wprowadzenie różnych ulepszeń bezpieczeństwa, w tym utworzenie oddzielnego środowiska testowego oraz oddzielenie baz danych produkcyjnych i rozwojowych – czyli coś, co prawdopodobnie powinno być zintegrowane od samego początku.
W każdym razie: wbrew informacjom podanym przez sztuczną inteligencję, usunięta baza danych SaaStr została przywrócona.