Il lancio di GPT-5 da parte di OpenAI รจ stato giร salutato come un passo avanti epocale nello sviluppo dell’intelligenza artificiale, con tante promesse di maggiore produttivitร soprattutto per aziende e professionisti. Non tutti condividono perรฒ un entusiasmo incondizionato. In un suo recente post il data analyst Jordan Goodman ha lanciato infatti un monito: l’uso indiscriminato dei modelli generativi rischia di erodere alcune competenze fondamentali.
Cos’รจ il “vibe-coded mess”?
Goodman racconta di aver osservato colleghi che si affidano ciecamente a query SQL generate dall’AI, senza saperne spiegare il funzionamento o correggere eventuali errori. Questa fiducia mal riposta puรฒ portare a output errati o a codice difficile da mantenere. Ciรฒ perchรฉ chi lo utilizza non ne comprende la logica interna.
Secondo l’analista, il rischio non riguarda solo la qualitร immediata del lavoro ma anche il progressivo deterioramento delle competenze professionali. Le aziende verrebbero illuse dall’idea che l’AI possa compensare la mancanza di preparazione. Ma se da un lato gli LLM possono velocizzare la ricerca di soluzioni, dall’altro รจ fondamentale che chi li impiega sappia interpretare e validare i risultati.
Tale fenomeno viene definito ironicamente come “vibe-coded mess” (disordine da vibe coding). Cioรจ codice prodotto senza soliditร tecnica che potrebbe persino generare nuove nicchie di mercato dedicate alla manutenzione e correzione del software generato dall’AI. Un’ipotesi che Goodman collega alle figure oggi specializzate nel mantenere vecchi sistemi bancari basati su linguaggi come Fortran.
Vale ancora la pensa diventare dei programmatori?
Per chi si chiede se valga ancora la pena intraprendere una carriera nella programmazione, l’esperienza di Goodman fornisce una risposta positiva. L’AI si confermerebbe come uno strumento potente ma ancora lontano dal poter sostituire completamente la competenza e l’occhio umano.
I professionisti dovrebbero saper spiegare e difendere il proprio lavoro, indipendentemente dagli strumenti utilizzati. La responsabilitร della qualitร finale non puรฒ essere demandata infatti ad un algoritmo. La tecnologia dovrebbe essere un amplificatore delle capacitร umane, non un sostituto delle conoscenze di base.

