LC://_LucaCarbone
    Torna al blog
    internet
    21 feb 20265 min di lettura

    Natasha: Quando l’IA è “di fatto troppo umana”

    Natasha: Quando l’IA è “di fatto troppo umana”

    Per anni ci hanno ripetuto la stessa promessa: grazie all’intelligenza artificiale potrai creare un’app in pochi minuti, senza programmare, quasi come ordinare una pizza. Tra le aziende simbolo di questo sogno c’era Builder.ai, startup londinese presentata come piattaforma magica per costruire software in automatico. Investitori di peso, tra cui Microsoft e il fondo sovrano del Qatar, hanno messo sul tavolo oltre 445 milioni di dollari convinti di puntare su tecnologia “avanzatissima”.

    Poi è arrivato il risveglio. Indagini giornalistiche, testimonianze interne e controlli indipendenti hanno mostrato un quadro ben diverso. Dietro l’assistente virtuale “Natasha”, presentato come cervello artificiale capace di generare codice, lavorava una forza umana di circa 700 sviluppatori in India. Non un aiuto marginale, ma il motore vero della produzione. Le app non nascevano da algoritmi geniali, ma da ore di lavoro manuale, vendute però come frutto di una piattaforma automatizzata.

    A questo si aggiungono i numeri. Secondo gli audit successivi, l’azienda avrebbe gonfiato i ricavi fino al 300 percento, dichiarando decine di milioni di entrate mai esistite. Un creditore, Viola Credit, ha sequestrato 37 milioni di dollari dai conti. Ne restavano pochissimi, congelati a loro volta. Nel 2025 Builder.ai ha imboccato la strada dell’insolvenza, con migliaia di posti di lavoro a rischio e procedimenti in corso su più fronti.

    Il paradosso è evidente. Una società presentata come punta di diamante dell’IA finisce per diventare l’esempio da manuale di “AI washing”: si attacca l’etichetta “intelligenza artificiale” a un servizio tradizionale per attirare clienti, visibilità e capitali. Il prodotto non è più importante. Conta la narrazione. E se qualcuno prova a fare domande, ci si affida a slide luccicanti, slogan e casi di studio selezionati.

    Perché questa storia riguarda anche te, che usi l’IA tutti i giorni per scrivere, tradurre, riassumere documenti o preparare presentazioni? Perché mostra quanto sia facile farsi abbagliare dal marketing quando si parla di tecnologie nuove. Oggi basta infilare “AI” nel nome di un servizio per aggiungere zeri alle valutazioni, attirare fondi e convincere molti utenti che dietro ci sia qualcosa di quasi magico.

    La domanda da farsi, invece, è molto semplice: cosa fa davvero questo strumento, in modo verificabile? Se un’azienda ti promette di costruire un’app complessa in poche ore, quanto è realistico? Se dice di usare algoritmi avanzati, ti spiega almeno in termini comprensibili dove stanno i pezzi automatizzati e dove interviene il lavoro umano? Se non può rispondere, un campanello d’allarme dovrebbe suonare forte e chiaro.

    Nel piccolo, la stessa attenzione serve anche quando tu scegli servizi “AI” per la tua attività o per la tua azienda. Prima di affidare dati sensibili, soldi o processi critici a una piattaforma, ha senso fare tre verifiche di base: chiedere esempi concreti, verificare le referenze reali, leggere con calma le condizioni d’uso. Se trovi frasi vaghe, numeri miracolosi e pochissima trasparenza, meglio rallentare.

    La vicenda Builder.ai non dimostra che l’intelligenza artificiale sia una truffa. Dimostra il contrario. La tecnologia esiste, funziona e in molti casi porta valore vero. Proprio per questo è appetibile per chi punta a cavalcare l’onda senza avere sostanza. Qui sta il paradosso: mentre alcuni team lavorano sul serio per migliorare strumenti utili, altri si limitano a usare la stessa etichetta per vendere servizi vecchi con vestito nuovo.

    Il compito, oggi, è imparare a distinguere. Non serve diventare ingegneri. Serve coltivare una sana diffidenza, fare domande concrete e non fermarsi alla prima presentazione patinata. Nel dubbio, è meglio fidarsi di chi ammette i limiti dei propri sistemi piuttosto di chi promette miracoli con un clic. L’IA non è magia. Quando provano a venderla come tale, è lì che il paradosso diventa pericoloso.

     

    Condividi questo articolo
    WhatsApp