Quando le macchine pensavano

L’Intelligenza Artificiale non nasce da un colpo di genio improvviso né da un laboratorio segreto illuminato da luci al neon. Nasce, come spesso accade, da una domanda semplice e pericolosa: e se una macchina potesse pensare? La prima scintilla risale agli anni ’40 e ’50, quando l’informatica non era ancora una comodità quotidiana ma un’ossessione per pochi visionari. Nel 1950 Alan Turing pubblica un articolo destinato a cambiare tutto: Computing Machinery and Intelligence. In quelle pagine compare una domanda che ancora oggi ci perseguita: “Can machines think?” Turing non prova a rispondere direttamente. Preferisce aggirare il problema, come ogni buon matematico, inventando quello che oggi chiamiamo Test di Turing. Se una macchina riesce a sembrare umana in una conversazione, allora forse — forse — possiamo concederle il beneficio del dubbio. Il termine “Artificial Intelligence” viene coniato ufficialmente nel 1956 durante la conferenza di Dartmouth, organizzata da John McCarthy. L’idea è ambiziosa, quasi arrogante: descrivere ogni aspetto dell’intelligenza umana in modo così preciso da poterlo replicare in una macchina. Spoiler: ci vorranno decenni. E non è ancora finita. Negli anni ’60 e ’70 l’AI vive il suo primo periodo di entusiasmo. Nascono i sistemi esperti, programmi in grado di simulare il ragionamento umano in ambiti specifici come la medicina o la chimica. Funzionano, ma solo entro confini molto stretti. Quando ci si rende conto che le macchine non capiscono davvero ciò che fanno, arriva la prima AI Winter: meno fondi, meno hype, più silenzio. Poi succede qualcosa di molto umano: non ci arrendiamo. Con l’aumento della potenza di calcolo, la disponibilità di grandi quantità di dati e nuovi algoritmi, l’AI rinasce. Dagli anni 2000 in poi il Machine Learning e, soprattutto, il Deep Learning cambiano le regole del gioco. Le reti neurali profonde iniziano a riconoscere immagini, comprendere il linguaggio, tradurre testi, guidare veicoli. Non perché “pensano”, ma perché apprendono schemi da quantità di dati che un essere umano non potrebbe analizzare in mille vite. Un dato basta a chiarire la portata del fenomeno: secondo stime consolidate, oltre il 70% delle applicazioni digitali moderne utilizza oggi qualche forma di Intelligenza Artificiale, spesso invisibile. Non la vedi, ma decide cosa leggi, cosa compri, che strada fai, chi ti viene mostrato e chi no. Ed eccoci al punto chiave: perché è nata l’AI? Non per sostituire l’uomo. Almeno non all’inizio. È nata per automatizzare, ottimizzare, velocizzare. Per fare meglio ciò che l’essere umano fa lentamente o male. Il problema — e qui arriva il sorriso amaro — è che abbiamo affidato alle macchine anche decisioni che non sono solo tecniche, ma profondamente umane. L’Intelligenza Artificiale non è cosciente, non è neutrale, non è oggettiva. È lo specchio matematico dei dati che le forniamo. E se i dati sono imperfetti, distorti o ingiusti, l’AI non corregge: amplifica. Oggi parliamo di AI generativa, modelli linguistici, creatività artificiale. Le macchine scrivono, disegnano, compongono musica. Non capiscono ciò che producono, ma lo fanno abbastanza bene da metterci a disagio. Ed è proprio questo disagio il segnale che stiamo toccando qualcosa di profondo. L’Intelligenza Artificiale non è il futuro. È il presente che non abbiamo ancora imparato a guardare con lucidità. E forse il vero problema non è che le macchine stiano diventando più intelligenti. Ma che noi, davanti a loro, abbiamo smesso di fare le domande giuste. Benvenuti nell’era dell’AI. Non è magica. Non è cattiva. È soltanto — tremendamente — umana.

L' Alchimista Digitale ©