Dalla fantascienza alla realtà: l’intelligenza artificiale che cambia il mondo Un saggio sul rapporto tra uomo e macchina: il ruolo dell'IA tra etica, diritto e società con focus sulle normative italiana ed europea
L’Intelligenza Artificiale, un tempo relegata alle pagine della fantascienza, è oggi una realtà tangibile che permea numerosi aspetti della nostra vita quotidiana.
Se ci pensiamo, l’idea di creare esseri artificiali dotati di intelligenza affonda le sue radici in miti antichissimi.
Già nella mitologia greca si narra la storia di Pigmalione, un talentuoso scultore di Cipro che scolpì una statua d’avorio rappresentante la donna ideale. Tanto era perfetta la sua creazione che Pigmalione se ne innamorò perdutamente. Commossa dalla sincerità del suo amore, la dea Afrodite esaudì il suo desiderio, infondendo vita alla statua, che prese il nome di Galatea.
Questo antico mito riflette il persistente desiderio umano di infondere vita nell’inanimato, di dare forma concreta alle proprie fantasie, creando esseri che incarnino l’ideale di perfezione spesso percepito come irraggiungibile per l’uomo.
L’essere umano è da sempre spinto da un impulso innato a superare i propri limiti, a esplorare l’ignoto e a trascendere le barriere imposte dalla natura. Questo desiderio si manifesta oggi nella creazione di intelligenze artificiali avanzate, strumenti progettati per ampliare le nostre capacità cognitive e operative.
Di fronte a questa svolta, emerge una domanda cruciale: quali sono i confini tra l’uomo e la macchina[1]?
La riflessione non può che prendere le mosse dalla formazione di cui siamo figli: una cultura umanista, che pone l’uomo al centro dell’Universo. Siamo gli eredi di una visione che si sviluppa lungo le linee della cultura greca, giudaica e cristiana, convergenti nell’idea che l’uomo sia mensura rerum[2].
Tuttavia, declinare l’umanesimo in epoca moderna, significa fare i conti con le nuove discipline scientifiche e riflettere sul nuovo ruolo dell’uomo in una società dove la tecnologia prende il sopravvento.
D’altra parte, l’umanesimo contemporaneo appare segnato da una contraddizione di fondo: come può l’uomo mantenere un ruolo centrale se lo sviluppo tecnologico è spesso concepito in sua sostituzione?
Tecnologie emergenti come le interfacce cervello-computer e i dispositivi in grado di interagire direttamente con il sistema nervoso – le cosiddette tecnologie neuro-digitali[3] – aprono scenari di straordinaria portata, con applicazioni che vanno dal recupero di funzioni motorie e sensoriali fino al potenziamento cognitivo. Ma sollevano, al tempo stesso, domande radicali sull’identità personale, sulla libertà interiore e sulla tutela dei dati neurali, ponendo con forza il tema del limite tra l’uomo e la macchina.
Resta aperto l’interrogativo su come garantire che lo sviluppo tecnologico continui a ispirarsi a principi etici, evitando derive che possano tradursi in un “impossessamento” dell’uomo.
L’Intelligenza Artificiale è spesso presentata (rectius giustificata) come uno strumento di potenziamento umano; ma quando le affidiamo persino le mansioni più semplici ci si dovrebbe domandare se stiamo davvero ampliando le nostre capacità o se stiamo, in realtà, rinunciando a esercitarle.
Una delega indiscriminata può, tra l’altro, portare a distorsioni significative.
Un caso emblematico è avvenuto recentemente a Firenze, dove un avvocato ha presentato in tribunale una memoria difensiva redatta con l’ausilio di chatGPT: le sentenze citate a supporto erano completamente inventate dall’IA[4]. Questo episodio ha sollevato seri interrogativi sull’affidabilità delle informazioni generate artificialmente e sull’importanza del controllo umano.
A tale riguardo, il 19 marzo 2025, con 85 voti favorevoli e 42 contrari, è stato approvato dal Senato il disegno di legge sull’Intelligenza Artificiale (Ddl AI) con cui il legislatore si propone di disciplinare l’uso dell’intelligenza artificiale in ambito professionale e giuridico.
L’art. 12 del Ddl prevede che:
“L’utilizzo di sistemi di intelligenza artificiale nelle professioni intellettuali è consentito esclusivamente per esercitare attività strumentali e di supporto all’attività professionale e con prevalenza del lavoro intellettuale oggetto della prestazione d’opera.
Per assicurare il rapporto fiduciario tra professionista e cliente, le informazioni relative ai sistemi di intelligenza artificiale utilizzati dal professionista sono comunicate al soggetto destinatario della prestazione intellettuale con linguaggio chiaro, semplice ed esaustivo”.
Il legislatore, dunque, mette nero su bianco la risposta all’interrogativo nato insieme all’IA: la macchina non può e non deve sostituire l’uomo.
Diventa dunque imprescindibile governare il cambiamento che ci attende. Governarlo, però, non significa semplicemente accogliere le innovazioni, bensì guidarne l’impatto sulla società, affinché la tecnologia, pur nella sua forza propulsiva, continui a essere uno strumento al servizio della persona, e non il contrario[5].
Gli aspetti positivi dell’intelligenza artificiale sono ormai ben noti: la capacità di automatizzare i processi con conseguente aumento della produttività e una riduzione dei tempi; la diminuzione degli errori umani; la semplificazione nell’accesso ai dati; la personalizzazione dell’esperienza in rete dell’utente; la rivoluzione dell’assistenza alle persone con disabilità con tecnologie come la domotica.
D’altro canto, però, l’avanzata dell’intelligenza artificiale non è priva di criticità. L’automazione crescente, ad esempio, solleva interrogativi concreti sul futuro del lavoro e impone un impegno sistematico nella formazione continua e nella riqualificazione professionale.
Ci sono poi i c.d. bias di incertezza, cioè i pregiudizi che possono influenzare in modo distorto il comportamento dell’IA, derivante da dati imparziali, da errori nei modelli di apprendimento o dalle scelte fatte dagli sviluppatori durante la progettazione dell’algoritmo.
A ciò si aggiunge una questione cruciale: la gestione dei dati personali. L’estensione capillare delle tecnologie di raccolta e analisi solleva nuove urgenze in materia di privacy, esponendo cittadini e istituzioni a vulnerabilità non trascurabili. I recenti casi di violazioni informatiche hanno infatti riportato al centro dell’attenzione il tema della protezione delle informazioni sensibili, con un impatto diretto sulla fiducia nei confronti dell’innovazione digitale.
Non solo. Gli episodi di black box dimostrano che chi utilizza una macchina intelligente non ne ha sempre il pieno controllo, poichè le tecnologie spesso operano come un misterioso sistema chiuso, con meccanismi interni sconosciuti che rendono difficile identificare e correggere errori o bias [6].
Diviene poi fondamentale riflettere anche sull’impiego dell’intelligenza artificiale in ambito medico, soprattutto per quanto riguarda la responsabilità legata agli errori nelle diagnosi e nelle terapie. La necessità di individuare chi debba rispondere degli sbagli causati dall’IA diventa cruciale, soprattutto quando non è chiaro chi detenga effettivamente il controllo delle macchine e dei sistemi che le alimentano.
Anche le strategie imprenditoriali stanno subendo una profonda evoluzione grazie all’apporto dell’Intelligenza Artificiale: le aziende ne sfruttano la potenzialità per migliorare l’efficienza operativa, personalizzare l’offerta in base alle esigenze dei clienti e adottare decisioni fondate su analisi più rapide e accurate.
Nel marketing, ad esempio, l’IA rende possibile anticipare i comportamenti dei clienti, proporre contenuti su misura e costruire campagne pubblicitarie mirate con una precisione mai vista prima.
Sul fronte del servizio clienti, trasforma l’esperienza dell’utente grazie a chatbot capaci di rispondere in tempo reale, 24 ore su 24, alleggerendo al contempo il carico del personale.
Infine, uno dei contributi più rilevanti riguarda l’analisi dei dati: l’IA è in grado di elaborare grandi quantità di informazioni, restituendo indicazioni strategiche che supportano scelte più consapevoli e mirate da parte delle imprese.
Secondo l’Osservatorio Artificial Intelligence del Politecnico di Milano, nel 2024 il mercato italiano delle soluzioni e dei servizi di IA ha raggiunto un valore di 1,2 miliardi di euro, registrando una crescita del 58% rispetto all’anno precedente. Questo incremento è stato trainato principalmente dalle sperimentazioni che utilizzano la Generative AI, che rappresentano il 43% del valore totale.
Per quanto riguarda l’adozione dell’IA nelle imprese italiane, il 59% delle grandi aziende ha già un progetto attivo in questo ambito, posizionando l’Italia all’ultimo posto tra otto Paesi europei analizzati, dove la media è del 69%. Tra le PMI, solo il 7% delle piccole e il 15% delle medie imprese hanno avviato progetti di IA, evidenziando un ritardo significativo rispetto alle grandi aziende [7].
Quindi, l’Intelligenza Artificiale sta progressivamente attraversando l’intero tessuto sociale, incidendo su tutti i livelli e permeando ogni ambito lavorativo, senza che alcun settore possa dirsi estraneo a questa trasformazione.
In questo contesto, il diritto assume un ruolo centrale. È essenziale adottare leggi che stabiliscano limiti all’IA, assicurando trasparenza, sicurezza ed equità.
A livello europeo, già nel dicembre 2018, la Commissione Europea per l’Efficienza della Giustizia (CEPEJ) del Consiglio d’Europa ha adottato la Carta Etica Europea sull’uso dell’Intelligenza Artificiale nei sistemi giudiziari e in ambiti connessi, stabilendo principi fondamentali per garantire che l’uso dell’IA rispetti i diritti fondamentali.
Nel 2024 è stato inoltre adottato il Regolamento (UE) 2024/1689, noto come Artificial Intelligence Act (AI Act), volto a stabilire norme armonizzate per l’Intelligenza Artificiale, con l’obiettivo di assicurare che i sistemi di IA siano sicuri e rispettino i diritti fondamentali e i valori dell’UE.
Ancor più recentemente, il 4 febbraio 2025, la Commissione Europea ha pubblicato le Linee Guida sulle Pratiche di IA vietate, che forniscono una panoramica delle pratiche di IA considerate inaccettabili a causa dei potenziali rischi per i valori europei e i diritti fondamentali. Queste linee guida affrontano specificamente pratiche come la manipolazione dannosa, il punteggio sociale e l’identificazione biometrica remota in tempo reale.
A livello nazionale, il quadro normativo sull’intelligenza artificiale si è recentemente consolidato con l’approvazione del già citato Disegno di legge n. 1146/24 da parte del Senato il 20 marzo 2025. Questo provvedimento, intitolato “Disposizioni e delega al Governo in materia di intelligenza artificiale”, mira a stabilire un quadro normativo nazionale coerente con il Regolamento (UE) 2024/1689 (AI Act).
Dal quadro sin qui delineato, seppur in forma sintetica, emerge chiaramente come l’Intelligenza Artificiale non rappresenti soltanto una questione tecnologica, ma, paradossalmente, una tematica profondamente umana. Essa coinvolge l’etica, le scelte politiche, l’economia e il diritto e coinvolge i valori collettivi e la responsabilità individuale.
Rappresenta una sfida che trascende l’ambito tecnico, incidendo le fondamenta della nostra società. Affrontarla richiede un impegno condiviso per sviluppare e implementare principi etici, regolamentazioni adeguate e una governance responsabile, affinchè l’Intelligenza Artificiale sia guidata dall’uomo e non diventi essa stessa guida dell’umanità.
[1] Secondo A. BARBANO “non ci sono un umano e un tecnologico separati, perché la tecnica è parte dell’umano, l’abbiamo inventata noi.(…) L’umano si qualifica nel rapporto con la tecnica, tramite questo si allena, cresce. (…) Se la macchina serve come strumento che aumenta la conoscenza dell’umano per decidere nella libertà, allora è uno strumento grandioso, che aiuta l’umano. Quindi il problema è sempre l’uso. Quando le tecnologie sviluppano queste accelerazioni, in una prima fase ti danno la sensazione che la libertà dell’umano sia vincolata. Poi però per fortuna l’umano si riappropria dei suoi spazi, e io sono fiducioso che anche nel governo di questa tecnologia noi riusciremo a difendere, anzi ad aumentare, gli spazi di differenziazione e di libertà”, su https://www.nagora.org/barbano-dallia-piu-promesse-che-minacce
[2] Pico della Mirandola, nel suo celebre Discorso sulla dignità dell’uomo, sosteneva che l’uomo ha la libertà di plasmare se stesso e di elevarsi quasi a livello divino grazie alla propria volontà e intelligenza: «Già il Sommo Padre, Dio creatore […] accolse l’uomo come opera di natura indefinita e postolo nel cuore del mondo così gli parlò: “Non ti ho dato, o Adamo, né un posto determinato, né un aspetto proprio, né alcuna prerogativa tua, perché quel posto, quell’aspetto, quelle prerogative che tu desidererai, tutto secondo il tuo voto e il tuo consiglio ottenga e conservi. La natura limitata degli altri è contenuta entro leggi da me prescritte. Tu te la determinerai da nessuna barriera costretto, secondo il tuo arbitrio, alla cui potestà ti consegnai. Ti posi nel mezzo del mondo perché di là meglio tu scorgessi tutto ciò che è nel mondo. Non ti ho fatto né celeste né terreno, né mortale né immortale, perché di te stesso quasi libero e sovrano artefice ti plasmassi e ti scolpissi nella forma che avresti prescelto. Tu potrai degenerare nelle cose inferiori che sono i bruti; tu potrai, secondo il tuo volere, rigenerarti nelle cose superiori che sono divine”», Oratio de hominis dignitate.
[3] Le tecnologie neuro-digitali, o neurotecnologie, comprendono strumenti e dispositivi in grado di interagire direttamente con il sistema nervoso, monitorando o modulando l’attività cerebrale. Tra queste rientrano le interfacce cervello-computer (BCI), che permettono al cervello di comunicare con dispositivi esterni, e le tecniche di stimolazione neurale per scopi medici o riabilitativi. Sebbene promettano importanti applicazioni terapeutiche e cognitive, sollevano interrogativi etici su identità, libertà e tutela dei dati neurali.
[4] “Firenze, 30 marzo 2025 – Un processo su plagio e riproduzione di marchio industriale, si è trasformato in un caso-scuola su giustizia e intelligenza artificiale. Tutto inizia durante la discussione in aula: l’avvocato della parte reclamante presenta nella memoria difensiva delle sentenze di Cassazione in tema di acquisto di merce contraffatta. Le sentenze, però, non esistono, non sono mai state pubblicate. E il legale si difende spiegando che “i riferimenti giurisprudenziali citati nell’atto erano il frutto della ricerca effettuata da una collaboratrice di studio mediante lo strumento dell’intelligenza artificiale ChatGpt, del cui utilizzo lui non era a conoscenza”. Il cervellone artificiale, capace di fornire risposte alle domande più disparate, ha fatto quindi cilecca. Inventandosi dispositivi giuridici che mai sono stati emessi dalla Cassazione. (…) I giudici del tribunale di Firenze, sezione imprese, nelle motivazione della sentenza parlano di “allucinazioni giurisprudenziali” provocate dall’intelligenza artificiale. Ovvero quando “l’IA genera risultati errati che, anche a seguito di una seconda interrogazione, vengono confermati come veritieri”. P. Mecarozzi, L’intelligenza artificiale in tribunale: avvocato cita sentenze di ChatGpt, ma non esistono, La Nazione
[5] A. BARBANO ritiene che: “(…) questa accelerazione che si è prodotta, che ci dà a volte la sensazione di un non governo e che effettivamente si è prodotta in maniera anarcoide, determinando delle rotture di equilibri preesistenti, si riposizionerà dentro un equilibrio di valore capace di restituire all’umano la sua signoria, come è giusto che sia. Su questo, però, è chiaro che ci dobbiamo applicare con consapevolezza e maturità. Per esempio, dobbiamo capire che il diritto d’autore non è un orpello del capitalismo da debellare, ma è una garanzia dei diritti individuali da proteggere. (…) Siccome il futuro è aperto, io da liberale vedo un futuro aperto, non dico che vinceremo certamente questa sfida, però dico che questa sfida la possiamo vincere. Dipende sempre dall’uomo”, intervista cit.
[6] Questo accade soprattutto con le tecnologie basate sul deep learning. Per tecnologie basate sul deep learning si intendono sistemi di intelligenza artificiale che utilizzano reti neurali artificiali multilivello per elaborare grandi quantità di dati e apprendere in modo autonomo. Questi modelli non seguono istruzioni predefinite, ma sviluppano schemi decisionali complessi attraverso l’esperienza.
[7] Osservatorio Artificial Intelligence, Politecnico di Milano- Osservatori Digital Innovation, 2024, disponibile su: https://www.osservatori.net/comunicato/artificial-intelligence/intelligenza-artificiale-italia