I primi problemi della bozza sul Regolamento IA

Diletta Huyskes
3 min readApr 14, 2021

--

[Photo: Alexis Fauvet/Unsplash; Spenser/Unsplash]

La pubblicazione della bozza del regolamento europeo sull’intelligenza artificiale da parte della Commissione Europea è prevista per mercoledì prossimo, il 21 aprile.

Inutile parlare di quanto sia atteso il documento, data la mancanza fino a questo punto di un set di norme europee che regolasse l’utilizzo di IA in Europa. Finora, infatti, per garantire il rispetto dei valori europei e della protezione dei cittadini sono state applicate altre normative nate con intenti diversi da quelli di regolare l’IA, primo tra tutti il GDPR.

Dalla “terza via” europea ci si aspetta una maggiore attenzione nei confronti dei diritti fondamentali dei cittadini, soggetti in qualche modo agli utilizzi di IA e ai rischi che ciò comporta. Questo aspetto va bilanciato con la volontà di garantire opportunità economiche derivanti dallo sviluppo e impiego di sistemi IA, ed è qui che si gioca il trade-off più importante del regolamento EU. Le pressioni commerciali sono gigantesche, e la WTO sta già spingendo sugli accordi aziendali circa la segretezza dei codici e degli algoritmi sviluppati dalle compagnie.

Da ieri ha iniziato a circolare una bozza del regolamento risalente a gennaio, che probabilmente nel frattempo è stata modificata ma che può fornirci comunque un’idea degli elementi più importanti che leggeremo ufficialmente la prossima settimana con la pubblicazione definitiva della bozza.

Dopo averla letta, ho individuato tre punti secondo me particolarmente problematici:

  • L’articolo 4 del regolamento sarà dedicato agli utilizzi vietati dell’IA, e quindi ai BAN, come richiesto da molte organizzazioni della società civile tra cui Privacy Network con #ReclaimYourFace. Oltre ad essere molto vaghi, alcuni divieti importanti “non si applicano quando tali pratiche sono autorizzate dalla legge e sono effettuate [dalle autorità pubbliche o per conto delle autorità pubbliche] per salvaguardare la sicurezza pubblica”. Ciò significherebbe che la “sorveglianza di massa indiscriminata” e la “manipolazione del comportamento umano” saranno possibili per salvaguardare la sicurezza pubblica.
  • L’articolo 8 fa riferimento ai requisiti dei sistemi IA considerati “ad alto rischio”, e si riferisce esclusivamente ai “dataset” di quei sistemi che prevedono l’utilizzo di dati per addestrare i modelli. I dataset dovranno essere di altà qualità, privi di bias e non produrre effetti prevedibilmente indesiderati. 1) Non vengono fornite indicazioni su come giudicare e definire questi requisiti. 2) Considerare i dataset come unica fonte di potenziali problemi di un modello o sistema IA è assolutamente limitante e fuorviante. Come dimostrato e sostenuto da molti esperti di ML e fairness (questo un esempio recente), le cause di bias o di aspetti problematici che emergono da una decisione automatizzata possono emergere ovunque nel sistema: i dati iniziali sono solo una (la prima) delle possibili cause. Il problema principale è mettere nero su bianco che il problema dei bias sia un problema dei dati, quando in realtà le scelte progettuali, gli scopi prefissati, il design influiscono direttamente sul danno finale. Non riconoscerlo non permette di individuare le necessarie tecniche di mitigazione. Effettuare controlli esclusivamente sulla qualità e la robustezza dei dati — oltre ad essere estremamente complesso — potrebbe non essere sufficiente nella maggior parte dei casi.
  • Come saranno giudicati i sistemi ad “alto rischio”, da chi e in base a quali indicazioni? Considerando che da questa definizione si stabilisce quali sistemi saranno soggetti a queste restrizioni, si tratta forse dell’aspetto più importante.

--

--

Diletta Huyskes

Empirista radicale e idealista pragmatica, studio il rapporto tra tecnologia e società, le discriminazioni algoritmiche, il femminismo tecnologico.