Dok Meta meri inženjere po korišćenju AI, a JPMorgan vezuje evaluacije za AI usvajanje, novo istraživanje daje municiju inženjerima pod vibe coding pritiskom: skoro pola AI generisanog koda puca u produkciji iako je prošao QA i staging.
Kompanija Lightrun je sa nezavisnom agencijom Global Surveyz anketirala 200 SRE i DevOps lidera na nivou direktora, potpredsednika i C-level pozicija iz SAD, Velike Britanije i EU.
Glavni nalaz: 43% AI generisanog koda zahteva ručni debug u produkciji, iako je prethodno prošao sve automatske testove. Procesi osmišljeni da uhvate greške pre korisnika ne hvataju ono što AI proizvodi.
Jedan debug nije dovoljan
Problem se ne završava na prvom debugu. Čak 88% kompanija kaže da im treba 2 do 3 ručna ciklusa ponovnog deploya da potvrde da AI fix zaista radi, a 11% ispitanika prijavljuje 4 do 6 ciklusa za jedan problem.
Monitoring alati ne popunjavaju tu rupu. Čak 77% inženjerskih lidera nema poverenja da njihov postojeći observability stack može automatski da pronađe uzrok problema, a 97% kaže da AI SRE alati rade bez dovoljne vidljivosti u produkciju.
CEO Lightruna, Ilan Peleg, u saopštenju sažima ono što timovi osećaju na svojoj koži:
Inženjerskim organizacijama treba vidljivost u runtime da bi prihvatile AI ubrzano inženjerstvo.
Bez tog temelja, više nas ne usporava pisanje koda, nego naša nemogućnost da mu verujemo.
Iste kompanije koje od inženjera traže više AI koda ne ulažu u infrastrukturu koja bi ga učinila pouzdanim, pa 38% radne nedelje odlazi na debug i verifikaciju. Ubrzanje pisanja bez ubrzanja verifikacije nije ušteda.