Pubblicato il 25/11/2025
Sono 40 anni che programmo. Ho visto nascere, crescere e morire mode e tecnologie. Ma l'attuale culto attorno a modelli come Gemini e Claude (o Antigravity, come li vogliamo chiamare) ha superato ogni limite di decenza e buon senso ingegneristico.
Siamo in un circo mediatico dove si lodano queste tecnologie perché sanno scrivere la sezione "Chi Siamo" di un sito web o generare codice React banale. Sono perfette per i siterelli e per chi non sa cosa sia la frizione tra codice e mondo fisico.
Ma quando si passa alla verità della produzione—quando il codice deve funzionare a 115200 baud su un protocollo di comunicazione non standard, interagendo con la memoria flash e i vincoli di un hardware dedicato—allora il grande bluff si palesa.
Il problema si manifesta ogni volta che tentiamo di usare questi modelli per compiti di ingegneria di basso livello: tradurre codice per la gestione dei dati su hardware custom in un linguaggio performante è un disastro prevedibile.
Il problema è semplice e inconfutabile: Gemini non è nulla di speciale, è solo un pappagallo statistico costoso, eccellente nel produrre superficialità.
Questi modelli sanno tutto sulla grammatica del codice, ma non hanno idea di cosa sia la vera ingegneria di sistema.
Il Confronto: Chiedere a Gemini di convertire un codice che gestisce un flusso di dati su un hardware dedicato è come chiedere a un bambino di pilotare un aereo di linea perché sa disegnare un aereo. Il codice prodotto è formalmente corretto, ma fallisce immediatamente appena incontra i vincoli del mondo fisico: le temporizzazioni esatte, le risposte del chip, le problematiche legate alla memoria fisica.
Il Bluff del Sapere: I modelli non sono addestrati sui datasheet o sui protocolli di comunicazione non standard. Non possono accedere alla documentazione proprietaria. Perciò, inventano. E quell'invenzione non è intelligenza; è un codice spazzatura che fa perdere tempo a noi, programmatori veri, che dobbiamo scartarlo.
L'argomentazione ridicola che sento spesso è: "Basta fornire più contesto nel prompt!"
Questo non è un acceleratore; è un ostacolo.
Tempo Buttato: Passare ore a distillare documentazione e protocolli complessi in un prompt che superi i limiti di memoria del modello è tempo rubato al debugging sul campo. Un'ora spesa a scrivere un prompt contorto è sempre meno produttiva di dieci minuti spesi a scrivere il codice a mano e a testarlo direttamente con l'hardware.
Output Contaminato: Il loro codice non è un punto di partenza; è un punto di scarto. Dobbiamo spendere cicli di lavoro per scovare i bug logici che l'AI ha introdotto per aver bluffato sulla sua conoscenza dei driver.
L'LLM in questo scenario non è solo inutile, è attivamente inefficiente. È peggiore di non avere nulla.
L'attuale generazione di AI, osannata come la Quarta Rivoluzione Industriale, è in realtà un'ottima tecnologia per generare barzellette, riassunti superficiali e codice per siti web banali. È il massimo per la produzione di rumore statistico.
Ma nel Deep Engineering, dove la precisione, la conoscenza della memoria, e la logica hardware sono tutto, Gemini non è degno di allacciarci le scarpe.
Il futuro non è Gemini; è la conoscenza umana che smaschera il suo bluff.