L’idea che l’Intelligenza Artificiale possa sostituire rapidamente ampie fasce di lavoro umano nasce da un presupposto semplice: una macchina lavora sempre, costa meno di una persona e può replicare attività ripetitive su larga scala. Questa visione, però, sta diventando più fragile man mano che aziende, ricercatori e analisti iniziano a misurare non solo le potenzialità dell’AI, ma anche i suoi costi reali.
Il punto non riguarda soltanto la qualità dei risultati. In diversi ambiti, soprattutto dove vengono utilizzati agenti AI capaci di pianificare, richiamare strumenti, navigare documenti, scrivere codice o interagire con software aziendali, il conto economico può essere molto diverso da quello immaginato. Ogni passaggio consuma token, ogni errore richiede revisione, ogni eccezione non prevista dal prompt può generare blocchi, output sbagliati o interventi umani correttivi.
Uno studio del MIT CSAIL ha mostrato che, per le attività basate sulla visione artificiale, solo circa il 23% dei salari legati a mansioni “esposte” all’AI risultava economicamente conveniente da automatizzare con i costi attuali. Il dato non significa che l’AI non sia utile, ma suggerisce che la sostituzione diretta dei lavoratori può essere molto meno immediata di quanto spesso venga raccontato.
Il costo nascosto dei token
Uno dei problemi più sottovalutati riguarda il costo in token. Nei modelli linguistici, ogni input e ogni output vengono contabilizzati. Una richiesta semplice può sembrare economica, ma un agente AI non si limita quasi mai a una singola domanda e risposta. Per svolgere una mansione articolata può leggere documenti, generare ipotesi, richiamare strumenti esterni, verificare risultati, correggere errori e ripetere più volte la procedura.
Questa dinamica trasforma l’AI da software a costo quasi fisso in una forma di costo variabile continuo. Più l’agente lavora, più consuma. Più il compito è ambiguo, più aumenta la probabilità che debba fare tentativi, generare output lunghi o rileggere contesti già elaborati. Le pagine ufficiali dei principali fornitori mostrano infatti prezzi basati su token di input e output, oltre a costi aggiuntivi per strumenti come ricerca web, file search, container o uso del computer.
Il risultato è che il risparmio teorico rispetto a un dipendente umano può ridursi rapidamente. Un lavoratore ha un costo prevedibile, mentre un sistema agentico mal progettato può produrre una spesa difficile da stimare, soprattutto se viene lasciato operare in autonomia su molte attività parallele.
Gli agenti AI non lavorano gratis
Gli agenti AI vengono spesso descritti come assistenti digitali capaci di sostituire intere funzioni operative. Nella pratica, però, la loro autonomia è ancora limitata. Il benchmark TheAgentCompany, costruito per valutare agenti AI su attività realistiche di ufficio in una società software simulata, ha mostrato che il miglior modello testato riusciva a completare autonomamente il 30,3% dei task, con un punteggio del 39,3% considerando anche i risultati parziali.
Questo dato mette in evidenza una differenza decisiva tra supporto al lavoro umano e sostituzione completa. Un agente può accelerare alcune fasi, produrre bozze, recuperare informazioni, compilare parti di codice o aiutare nella gestione documentale. Tuttavia, se fallisce in più della metà dei casi, serve comunque una persona che controlli, corregga, integri e si assuma la responsabilità del risultato.
Il costo dell’AI, quindi, non coincide con il solo costo tecnico del modello. Va aggiunto il tempo del personale che deve supervisionare il processo, verificare l’output e intervenire sulle eccezioni. In aziende complesse, questo può generare una nuova categoria di lavoro: non più esecuzione diretta della mansione, ma controllo dell’automazione.
Gli errori possono annullare il risparmio
Il secondo grande costo nascosto riguarda la correzione degli errori. Un dipendente umano esperto conosce il contesto, ricorda casi particolari, interpreta segnali deboli e sa quando una situazione richiede prudenza. Un agente AI, invece, tende a operare dentro il perimetro delle istruzioni ricevute, dei dati disponibili e dei limiti del modello.
Le difficoltà emergono soprattutto davanti a situazioni non previste dai prompt. Un cliente formula una richiesta ambigua, un documento contiene informazioni contraddittorie, un software restituisce un errore inatteso, una procedura aziendale ha eccezioni non documentate. In questi casi l’AI può insistere su una strada sbagliata, produrre una risposta formalmente convincente ma errata, oppure consumare altri token nel tentativo di correggersi.
Nel campo dello sviluppo software, uno studio randomizzato di METR ha rilevato che sviluppatori esperti, impegnati su repository open source che conoscevano bene, hanno impiegato il 19% di tempo in più quando potevano usare strumenti AI rispetto a quando lavoravano senza. Prima del test si aspettavano un risparmio di tempo, ma nella pratica il controllo, la revisione e la correzione degli output hanno ribaltato l’aspettativa.
Il problema delle situazioni non previste
La promessa più ambiziosa dell’AI riguarda l’automazione di processi completi. Non più semplici chatbot, ma sistemi capaci di ricevere un obiettivo e portarlo a termine. Proprio qui emergono i limiti più rilevanti, perché il lavoro reale è fatto di eccezioni, priorità mutevoli, informazioni incomplete e decisioni che richiedono responsabilità.
Un prompt può descrivere bene il caso standard, ma non sempre copre le deviazioni. Se l’agente AI incontra un’anomalia, può chiedere aiuto, fermarsi o prendere una decisione non ottimale. Nel primo caso torna necessario l’intervento umano. Nel secondo caso la produttività si blocca. Nel terzo caso l’azienda rischia errori operativi, danni reputazionali o costi di rettifica.
Gartner ha previsto che oltre il 40% dei progetti di AI agentica sarà cancellato entro la fine del 2027 a causa di costi crescenti e valore aziendale non chiaro. Secondo l’analisi riportata da Reuters, molte iniziative restano esperimenti o proof of concept guidati più dall’entusiasmo che da ritorni misurabili, mentre i modelli attuali non hanno ancora maturità sufficiente per raggiungere obiettivi complessi nel tempo.
Dove l’AI resta conveniente
Il fatto che l’AI non sia sempre conveniente come sostituto dei dipendenti non significa che sia inutile. Al contrario, il suo valore può essere molto alto quando viene usata come strumento di potenziamento del lavoro umano. Le attività più adatte sono quelle con procedure chiare, dati ordinati, basso rischio di errore e possibilità di controllo rapido.
L’AI può ridurre i tempi di analisi preliminare, produrre bozze, classificare documenti, suggerire codice, riassumere testi, generare varianti creative o assistere operatori e professionisti. La convenienza cresce quando il costo dell’errore è basso e quando la persona può validare il risultato in pochi secondi o minuti.
Il modello più realistico, almeno per molte aziende, non è quindi la sostituzione secca tra dipendente umano e agente digitale, ma una collaborazione strutturata. L’AI lavora sulle parti ripetitive e ad alta intensità informativa, mentre le persone gestiscono giudizio, responsabilità, relazione con il cliente e casi non standard.
Il tema decisivo non è chiedersi se l’AI costi meno di una persona in astratto. La domanda corretta è quanto costa completare un’attività con qualità accettabile, includendo token, supervisione, errori, sicurezza, formazione, integrazione nei sistemi aziendali e manutenzione dei prompt. Solo questa valutazione permette di capire se l’automazione genera davvero efficienza economica o se sta semplicemente spostando i costi da una voce di bilancio a un’altra.









