Ott 31, 2025 Marina Londei
Approfondimenti, In evidenza, News, RSS, Tecnologia, Tecnologia
0
L’IA è un ottimo strumento per scrivere codice velocemente, ma un utilizzo non monitorato di questa tecnologia porta a numerosi problemi, compresi rischi di sicurezza non indifferenti.
In un approfondimento sul tema, Robert Lemos di Dark Reading riporta che, nonostante la produttività del singolo programmatore aumenti del 17%, scrivere codice con l’IA provoca anche una certa instabilità nella delivery del software e il 60% degli sviluppatori afferma di collaborare in team che o lavorano più lentamente, o faticano a rispettare le scadenze, o entrambe le cose (State of AI-assisted Software Development, Google DevOps Research and Assesment).

Il problema sta nel fatto che l’IA produce codice verboso, poco robusto e che tende ad amplificare gli errori presenti nella codebase, soprattutto quando si è in team a sviluppare e il volume di codice è significativo. I programmatori non hanno tempo di revisionare il codice come se lo stessero scrivendo loro stessi; ciò aumenta il rischio di introdurre vulnerabilità di sicurezza e debito tecnico, problemi che vengono poi replicati in tutta la codebase.
Considerando che la percentuale di programmatori che usano l’IA va dall’84% al 97% a seconda dei report, l’impatto di queste problematiche è importante.
Affidarsi soltanto agli LLM per produrre codice senza un’attenta revisione dell’output non provoca solo problemi nell’immediato: un codice pieno di vulnerabilità e prolisso è causa di lavoro extra per i team che si dovranno occupare di manutenerlo. Se è vero che nella maggior parte dei casi il codice generato dall’intelligenza artificiale supera i controlli funzionali e sintattici, il 45% di esso contiene vulnerabilità di sicurezza note (report di Veracode).
Una delle cause principali di questi problemi è che gli LLM faticano a mantenere il contesto quando hanno a che fare con una codebase ampia; per questo motivo, tendono a duplicare in maniera massiccia il codice. Gli sviluppatori si trovano quindi a dover fare numerosi rework per eliminare le vulnerabilità.
Invece di semplicemente accettare o rifiutare l’output così com’è, gli sviluppatori dovrebbero prendersi del tempo per comprenderlo ed eventualmente richiedere degli affinamenti. L’IA può invece diventare un ottimo strumento per curare il codice, chiedendo per esempio al chatbot di riscrivere una feature esistente o analizzarla per trovare problemi di sicurezza. Al programmatore deve restare quindi il controllo sulla logica e sulla qualità del codice per filtrare le possibili criticità prima che diventino parte della codebase.
Altro in questa categoria