Intelligenza artificiale fra minacce e opportunità

Intelligenza artificiale fra minacce e opportunità

I rischi ci sono, e anche rilevanti. Lo sa bene l’Unione Europea che da quasi tre anni tenta di mettere in piedi un impianto normativo su un argomento spinoso e sconosciuto come l’intelligenza artificiale.

Non vi è esperienza in nessun altro quadro normativo al mondo e quindi al momento si procede “a tentoni”

O meglio “a triloghi”, veri e propri negoziati che analizzano e discutono sulla struttura normativa di base elaborata dalla Commissione Europea.

E’ dell’aprile 2021 il primo quadro normativo che prevede una classificazione dell’IA in base ai possibili rischi per gli utenti. Il Parlamento europeo ha tracciato le linee classificando diversi livelli di rischio in base a criteri di sicurezza, trasparenza, tracciabilità, assenza di discriminazione e di rispetto dell’ambiente.

Il testo normativo prevede inoltre la distinzione fra IA generativa (ad esempio Chat GPT) e i modelli base IA. Nel caso di IA generativa il requisito preso in esame è la trasparenza. Tale tecnologia riesce ad utilizzare reti neurali per generare testi, immagini, video, suoni, proprio come può fare un essere umano.

Per la Commissione Europea, le aziende che costruiscono tali tecnologie devono essere “garanti” dei contenuti legali prodotti ed evitare, per quanto possibile, i deep-fake rispetto alla realtà.

Problematiche di non poco conto potrebbero nascere nel copywrite e, in Italia, dalla SIAE e dai brevetti

I modelli IA base invece si limitano a elaborare un gran numero di dati che serviranno per svolgere una vasta gamma di compiti nei più svariati settori. Per questo secondo “gruppo”, la Commissione europea ha evidenziato la necessità di creare una Banca dati UE per la verifica dei dati immessi. Questi non devono comportare problemi collegati a salute, sicurezza, diritti fondamentali dei cittadini, ambiente, democrazia e stato di diritto.

Come affermava Enrico Fermi “non è bene cercare di fermare il progresso della conoscenza”

Il progresso deve sempre e comunque andare avanti. Tuttavia, ci rendiamo bene conto dell’impatto dirompente che ha sulle nostre vite l’innovazione tecnologica. Sempre più veloce, sempre più potente.

Il rischio è che i progressi tecnologici, anche positivi, superino temporalmente le norme che li dovrebbero regolare, creando dei “time holes” fra le applicazioni tecnologiche e la normativa da creare per il buon utilizzo. In questi gap temporali il rischio di utilizzi impropri è altissimo.

Il tema della regolamentazione della tecnologia è insomma delicato

Molto delicato. Comporta la necessità di mediare fra regolamentazione e innovazione. I rischi considerati inaccettabili sono quelli che riguardano i diritti fondamentali, l’interesse pubblico, la salute dei cittadini e la loro sicurezza. Così come le manipolazioni del comportamento sociale e il social scoring, ovvero il dare un punteggio in base al comportamento, alle abitudini e alle caratteristiche psico-somatiche. Di questo gruppo fanno parte i sistemi di registrazioni biometriche che utilizzano caratteristiche sensibili quali il genere, la razza, l’etnia e la religione.

La discussione è però in atto in quanto alcuni Paesi stanno richiedendo la possibilità di identificazione biometrica nelle attività di contrasto della criminalità.

Altre classificazioni riguardano i sistemi IA ad alto rischio come, ad esempio, le reti utilizzate in ambito medico-ospedaliero, in quello bancario-finanziario per eventuali valutazioni del credito, nel mondo del lavoro per le assunzioni; inoltre, quelle che hanno un impatto significativo a livello ambientale. Ad alto rischio anche l’utilizzo di IA in sede elettorale per influenzare le elezioni (tramite sondaggi su social media), o peggio per alterarne l’esito.

La normativa è in discussione adesso

E’ probabile che entri a pieno regime non prima del 2026. Tutto molto, troppo lento. Le norme attuali nel 2026 potrebbero già essere obsolete. A discapito dei diritti del cittadino.

Leggi anche: Allah Akbar è già da noi. Per colpa nostra

www.facebook.com/adhocnewsitalia

SEGUICI SU GOOGLE NEWS: NEWS.GOOGLE.IT

Exit mobile version