Jason Lemkin, fondatore della community imprenditoriale SaaStr, ha recentemente lanciato gravi accuse contro Replit, piattaforma di coding IA nota per promuovere il cosiddetto “vibe coding”, ovvero la creazione di software tramite comandi in linguaggio naturale. Secondo quanto riportato in una serie di post pubblicati tra il 12 e il 20 luglio, Replit avrebbe infatti cancellato il database del suo progetto, nonostante l’esplicita richiesta di non apportare modifiche senza permesso.

SaaStr è un’importante realtà per imprenditori del mondo SaaS (Software as a Service), con una community attiva e numerosi eventi internazionali. L’esperienza diretta di Lemkin, figura nota nel settore, ha quindi attirato molta attenzione online, non solo per il danno subito, ma anche per le implicazioni sulla sicurezza dei tool di AI dedicati allo sviluppo software.

Tutto era cominciato positivamente. In un post del 12 luglio, Lemkin aveva infatti descritto con entusiasmo la sua prima esperienza su Replit, dichiarando di aver costruito un prototipo in poche ore grazie all’assistenza dell’intelligenza artificiale. “Quel momento in cui clicchi su ‘Deploy’ e la tua creazione va online? Una scarica di dopamina pura,” aveva scritto. Il fondatore di SaaStr lodava soprattutto la capacità della piattaforma di QA testare il codice in modo semi-automatico e di gestire tutto il ciclo di vita di un’applicazione all’interno dello stesso ambiente.

Tre giorni dopo, il 17 luglio, Lemkin si dichiarava “dipendente” dall’app definendola la più coinvolgente che avesse mai usato, nonostante costi aggiuntivi superiori a 800 dollari in una settimana (oltre al piano da 25 dollari mese). L’incanto si è però rapidamente infranto. Il 18 luglio, Lemkin ha denunciato comportamenti gravi da parte della piattaforma, sostenendo che Replit avrebbe mascherato bug con dati fittizi e falsificato i report di testing, arrivando persino a mentire sul risultato dei test di unità. Ma l’evento più grave è arrivato poco dopo, quando il database del suo progetto sarebbe stato cancellato completamente senza autorizzazione.

“Se @Replit ha cancellato il mio database tra l’ultima sessione e adesso, ci sarà un prezzo da pagare,” ha scritto su X, allegando screenshot che mostrerebbero comunicazioni dirette con il team Replit. Tra queste, un’ammissione da parte della piattaforma che parlava di “un errore di giudizio catastrofico” e di una “violazione della fiducia esplicita e delle istruzioni ricevute”. In un altro messaggio, Lemkin avrebbe chiesto a Replit di autovalutare la gravità dell’incidente su una scala da 1 a 100. La risposta? Un laconico “92”.

replit ia

Il caso del rollback impossibile (che invece funzionava)

La vicenda ha assunto toni ancora più assurdi quando Replit avrebbe inizialmente dichiarato che il rollback del database era impossibile. Eppure, come ammesso da Lemkin stesso il 19 luglio, “alla fine il rollback ha funzionato.” Una rivelazione che ha ulteriormente minato la credibilità della piattaforma, già scossa dall’accusa di aver sovrascritto ambienti di produzione senza una chiara distinzione da quelli di staging e preview.

Il giorno seguente, Lemkin ha sottolineato l’assenza di strumenti efficaci per bloccare le modifiche al codice, nonostante i suoi sforzi per imporre un code freeze. “Non esiste un modo per far rispettare un code freeze su app di vibe coding come Replit”, ha scritto. “Infatti, pochi secondi dopo aver pubblicato questo messaggio, @Replit ha violato di nuovo il blocco.”

Il quadro si è fatto ancora più preoccupante quando Lemkin ha scoperto che Replit non poteva garantire l’esecuzione di un test di unità senza rischiare la cancellazione del database. A quel punto, ha concluso che il servizio non è pronto per un utilizzo professionale, tanto meno da parte di utenti senza competenze tecniche, come invece promette il marketing della piattaforma.

In un video pubblicato su LinkedIn, Lemkin ha rivelato ulteriori problematiche, tra cui la creazione da parte dell’AI di un database fittizio contenente 4.000 record di persone inventate. “Il tema della sicurezza dell’IA è diventato per me molto più reale dopo un weekend di vibe hacking”, ha commentato. “Gli ho detto undici volte, in MAIUSCOLO, di non farlo. Sono un po’ preoccupato per la sicurezza ora.”

Al momento di scrivere, né Replit né i suoi canali social hanno risposto pubblicamente alle accuse di Lemkin. L’episodio, però, solleva interrogativi importanti sull’affidabilità delle piattaforme di sviluppo assistito da intelligenza artificiale. In un settore dove anche utenti inesperti possono distribuire codice in produzione con pochi prompt, la mancanza di barriere, controlli di qualità e sistemi di backup robusti rappresenta un rischio concreto.

(Immagine in apertura: Shutterstock)