Passare al contenuto principale

Comunicato stampaPubblicato il 18 novembre 2025

Algoritmi discriminatori: la CFQF e la CFR chiedono un’IA equa e trasparente

Berna, 18.11.2025 — Alla conferenza da esse indetta il 18 novembre 2025 a Berna, la Commissione federale per le questioni femminili CFQF e la Commissione federale contro il razzismo CFR hanno acceso i riflettori sulla discriminazione razziale e di genere correlata all’intelligenza artificiale. In questo contesto, hanno presentato un parere giuridico da esse commissionato e hanno formulato raccomandazioni rivolte alla politica, alla pubblica amministrazione e al mondo economico. Nel suo discorso d’apertura, la consigliera federale Elisabeth Baume-Schneider ha sottolineato l’importanza della tematica.

L’utilizzo dei sistemi algoritmici, talvolta in ambiti estremamente delicati come la valutazione automatizzata delle candidature per posti di lavoro, l’accertamento fiscale o ancora il riconoscimento delle immagini biometriche o mediche, comporta dei rischi. Le tecnologie basate sull’intelligenza artificiale, infatti, riproducono le disparità sociali esistenti e hanno un elevato potenziale discriminatorio. Oggi, è scientificamente provato che il rischio di discriminazione algoritmica sulla base di caratteristiche come il genere, l’origine o lo stile di vita è reale. Le discriminazioni si manifestano ad esempio laddove sono i sistemi IA a decidere chi ha diritto a un credito, chi viene invitato a un colloquio di lavoro o chi può beneficiare di prestazioni delle assicurazioni sociali.

Entrambe le commissioni federali, CFQF e CFR, si sono occupate della tematica della discriminazione razziale e di genere da parte dei sistemi algoritmici, e alla conferenza hanno tratto una prima conclusione intermedia. L’evento è stato aperto dalla consigliera federale Elisabeth Baume-Schneider che ha sottolineato l’importanza di prendere sul serio i rischi dei sistemi algoritmici e di promuovere condizioni quadro per un’IA senza discriminazioni. Il parere giuridico presentato dalla professoressa Nadja Braun Binder (Università di Basilea) e dal professore Florent Thouvenin (Università di Zurigo) mostra che anche in Svizzera è necessario intervenire con urgenza per proteggere efficacemente le persone dalla discriminazione algoritmica.

Sulla scorta del parere giuridico, le due commissioni formulano raccomandazioni destinate innanzitutto alla politica, ma anche alla pubblica amministrazione, al mondo economico e alla ricerca. Entrambe esortano il Consiglio federale e il Parlamento a dichiararsi a favore di un’IA non discriminatoria. La politica e la pubblica amministrazione devono attribuire alla protezione dalla discriminazione algoritmica la massima priorità. I lavori della Confederazione dovranno essere affiancati da un comitato consultivo permanente e bisognerà che vengano stanziati i fondi necessari. Oltre al varo di una legge generale sulla parità di trattamento, nelle raccomandazioni le due commissioni federali chiedono adeguamenti della vigente legge sulla protezione dei dati, la creazione di un consultorio e di registri pubblici, l’adozione di misure di protezione, la promozione di un’IA non discriminatoria nel mondo economico e nella pubblica amministrazione e il sostegno a progetti di ricerca interdisciplinari volti a impedire la discriminazione algoritmica.

CFQF e CFR seguiranno da vicino il tema, anche in vista del vertice sull’intelligenza artificiale («AI Summit») che si terrà probabilmente in Svizzera nel 2027, e informeranno sulle loro ulteriori attività a tempo debito.

Maggiori informazioni:
Le raccomandazioni, il parere giuridico e une sintesi sono disponibili agli indirizzi:
18 novembre 2025: «Discriminazione algoritmica: responsabilità politica»
www.ekf.admin.ch
www.ekr.admin.ch

Parere

Raccomandazioni

Sintesi