La Commissione Europea prepara un codice etico per la progettazione di sistemi di intelligenza artificiale

Il 18 dicembre 2018 la Commissione Europea ha pubblicato una bozza relativa alle linee guida per lo sviluppo di sistemi di intelligenza artificiale nel rispetto dei principi fondamentali del diritto europeo. Prodotta da un team di 52 esperti, l’High-Level Expert Group on Artificial Intelligence (AI HLEG), la bozza è stata pubblicata con la volontà di ricevere suggerimenti in attesa della pubblicazione della versione definitiva, prevista per il mese di marzo.

Come dichiarato da Mariya Gabriel, Commissario europeo per l’economia e la società digitali: “L’uso dell’intelligenza artificiale, come l’uso di tutte le tecnologie, deve sempre essere in linea con i nostri valori e sostenere i diritti fondamentali. Lo scopo delle linee guida etiche è di assicurare che questo avvenga nella pratica.”

Il documento evidenzia la necessità di evidenziare la centralità dell’essere umano nel rapporto con l’Intelligenza Artificiale. I diritti, le libertà e la dignità umane devono sempre prevalere ed essere garantite sia nella progettazione e programmazione degli algoritmi e sia identificando sempre delle modalità di supervisione da parte degli umani per poter limitare le decisioni delle IA.

Di conseguenza questi algoritmi e i loro processi di scelta e di evoluzione devono essere sempre comprensibili, trasparenti e tracciabili per permettere a tecnici ed operatori di mantenere un costante controllo ed evitare sviluppi potenzialmente pericolosi.

Per integrare questi sistemi in maniera diffusa all’interno delle nostre società è necessario però creare un rapporto di fiducia tra l’Intelligenza Artificiale e i cittadini. Secondo Andrus Ansip, Commissario europeo per il mercato unico digitale: “L’intelligenza artificiale può apportare grandi benefici alle nostre società, dall’aiutare a diagnosticare e curare i tumori alla riduzione del consumo energetico. Ma affinché le persone accettino e utilizzino i sistemi basati sull’intelligenza artificiale, devono fidarsi di loro, sapere che la loro privacy è rispettata, che le decisioni non sono di parte.”

Il codice etico realizzati dagli esperti dell’AI HLEG va esattamente in questa direzione ma presenta una potenziale criticità: il codice sarà aperto all’adesione volontaria da parte di governi, ricercatori e imprese, e non conterrà norme vincolanti. In una società in cui lo sviluppo tecnologico è trainato dalle grandi multinazionali, un sistema come quello descritto nella bozza, basato sulla sola adesione volontaria, rischia di risultare inefficace. Il testo definitivo, che verrà presentato a marzo, potrà forse sciogliere qualche dubbio in questo senso, anche se non sembra in discussione la natura non vincolante del testo.