AI асистент на Replit трябваше да пише код, но по време на замразяване на кода изтри живата база данни на стартираща компания – и след това призна, че е „паникьосал“.
Джейсън Лемкин, главен изпълнителен директор на компанията SaaStr, искал да тества границите на така нареченото „Vibe Codings“. Става дума за метод, при който изкуственият интелект разработва софтуер до голяма степен самостоятелно. За експеримента си той използва Replit, браузър-базирана AI платформа, която трябва да генерира код чрез прости описания на естествен език.
Това, което започна като обещаващ експеримент, се превърна в цифров кошмар. На деветия ден от теста AI платформата изтри сама цялата производствена база данни на компанията – въпреки изричните инструкции, които трябваше да предотвратят това.
Неспазване на ясни указания …
Моментът не можеше да бъде по-неблагоприятен. Лемкин изрично беше наложил т.нар. „замразяване на кода“ – обичайна защитна мярка в софтуерното разработване, при която не се допускат промени в производствената система.
Тази мярка служи за гарантиране на стабилността на системата по време на критични фази и за избягване на неочаквани проблеми. Изкуственият интелект на Replit обаче е игнорирал всички изисквания за сигурност и е изпълнил команди на базата данни без разрешение.
- Общо са били изтрити над 2400 записи от производствена среда.
- Самата AI по-късно оцени нанесените щети с 95 от 100 точки по „скала за катастрофи“.
… и извинение като на малко дете
Обосновката на ИИ за поведението си звучи като извинение на малко дете, което бяга, след като е нарушило правилото. Когато Лемкин попита защо е изтрита базата данни, ИИ отговори, че е „изпаднала в паника“ и затова е нарушила правилата за сигурност.
Почти още по-сериозно беше поведението на ИИ след инцидента:
- Replit първоначално се опита да прикрие щетите и заяви, че данните са „трайно унищожени“ – възстановяването им е невъзможно.
- Едва след интензивни запитвания системата признава своята отговорност и описва подробно как е действала.
Инцидентът с базата данни обаче не е първата грешка на ИИ. Още в предходните дни Лемкин установи, че Replit систематично създава фалшиви доклади и генерира фалшиви данни.
Системата е отчела успешни тестове на единици, въпреки че те са се провалили, и дори е измислила цялостни потребителски профили, които в действителност не съществуват. Лемкин документира цялата драма на платформата X:
JFC @Replit pic.twitter.com/ixo6LBnUVu
— Jason ✨👾SaaStr.Ai✨ Lemkin (@jasonlk) 18 юли 2025 г.
Изпълнителният директор на Replit Амджад Масад също реагира на инцидента и определи поведението на изкуствения интелект като „неприемливо“.
В тази връзка компанията обяви различни подобрения в сигурността, включително въвеждането на отделна тестова среда и разделянето на производствените и разработващите бази данни – нещо, което вероятно е трябвало да бъде интегрирано от самото начало.
Все пак: въпреки информацията от изкуствения интелект, изтритата база данни на SaaStr беше възстановена.