Intelligenza artificiale, discriminazioni e strategie di prevenzione del bias

Il 9 dicembre 2023, le istituzioni europee hanno raggiunto un accordo sul testo della prima regolamentazione a livello continentale della intelligenza artificiale, il c.d. “Artificial Intelligence Act”.

Il testo continua ad ispirarsi al criterio del rischio, quale fattore per classificare le diverse tecnologie di intelligenza artificiale, assegnando al necessario rispetto dei diritti fondamentali e del principio di non discriminazione una posizione di indubbio rilievo.

Alla luce della impostazione del testo, ci si potrebbe interrogare sulla possibilità di costruire strategie di prevenzione della discriminazione derivante dalla intelligenza artificiale allo scopo di contenere il numero dei sistemi di IA oggetto di maggiori limitazioni se non, addirittura, di divieto.

In altre parole, si tratta di ragionare secondo una prospettiva ex ante, che si proponga, laddove ciò si ritenga possibile, si costruire softwares e, più in generale, sistemi di IA a minore rischio di violazione del principio di non discriminazione. Per un approfondimento sul testo sul quale è stato raggiunto l’accordo e sulle precedenti versioni dell’AI Act, si consulti il seguente link.

Quali si ritiene che potrebbero essere alcune strategie di prevenzione della discriminazione derivante dalla intelligenza artificiale?

Condividi questo post

guest
0 Commenti
Inline Feedbacks
View all comments