domenica, 25 agosto 2024

W la Privacy

W la Privacy

Per sviluppare un approccio etico all’intelligenza artificiale occorre prendere posizione

Per sviluppare un approccio etico all’intelligenza artificiale occorre prendere posizione
16/08/2024

L’intelligenza artificiale forse cambierà la vita dell’uomo e dell’umanità. In futuro molti di noi, intelligenze naturali, saranno connesse con Intelligenza Artificiale (IA), Blockchain, Big Data, IoT, robotica, etc..

L’IA non va rifiutata o esaltata, va adottata, come se fosse un bimbo, e come un figlio educata, sgridata, indirizzata, … ci farà preoccupare, gioire, arrabbiare … e come un figlio potrebbe procurarci dolori immensi. Detto questo, la messa a terra delle soluzioni di intelligenza artificiale nelle organizzazioni di qualsiasi tipo implica anche un approccio etico delle funzioni che devono valutarle preventivamente.

La domanda ricorrente in questa fase storica è: come sviluppare questo approccio?

Se non si ha una preparazione filosofica e se in azienda non vi sono organismi o competenze specifiche su questa materia, non resta che ricorrere ad una pratica “fai da te” molto concreta che consiste nel “prendere posizione”; in altre parole, come esperti privacy bisogna recuperare criteri di valutazione dai valori del personale patrimonio di conoscenze e dai disvalori (leggi problemi) del mondo contemporaneo.

Le cose da fare sarebbero due: una operativa e una teorica.

L’operativa - Se l’organizzazione ha già impiantato la privacy by design, bene! Altrimenti male. In questo caso meglio fare subito una normativa interna che dica “Le soluzioni di I.A. devono essere preliminarmente valutate dalla funzione competente in materia di protezione dei dati personali”. Invece, i sistemi by design potrebbero essere integrati con una tabellina contenente 5 punti di valutazione - che ci aiutino a declinare un posizionamento etico di massima lato data protection verso l’I.A. - che chiameremo “i cinque consumi”: 1) consumo di energia, 2) consumo di dati, 3) consumo di lavoro, 4) consumo di diritti, 5) consumo geopolitico.

Ad esempio, se si consuma energia rinnovabile si può spuntare l’ok; se la creazione o l’addestramento ha usato dati impropriamente o illegalmente si può dare ko; se per l’allenamento si è sfruttato lavoro si può dare ko; se la soluzione ha un black box oppure presenta una logica di algoritmi con “pesature” di dati che possono causare discriminazioni si può dare ko; infine se le soluzioni provengono da aree del mondo non coerenti con quella europea o, diciamo così, Atlantica si può dare ko… e così via.

La teorica - Quello che abbiamo nel nostro cervello (e nel nostro cuore) potrebbe considerarsi un big data. Il recupero e l’elaborazione del nostro passato per dedurre concetti potrebbe dirsi un machine learning? Facciamo finta di sì, e facciamo finta di rivolgerci alla nostra mente come se fosse una I.A. generativa per chiedergli tre cose: dei contenuti per crearci un posizionamento professionale etico verso l’IA e due versioni di questo posizionamento, uno che prenda in considerazione in genere la specie Umana e uno individualmente il singolo uomo. Cominciamo questo esperimento allora? “Chat DP” (il mio nome è Davide Panella quindi la chiamo DP) mi estrai contenuti utili a formarmi un posizionamento etico verso l’IA?

Per proseguire la lettura di questo interessante articolo, curato da Davide Panella - Team Leader Funzione Data Protection di grande Gruppo Bancario Italiano ed Europeo - questo è il link


maggiori informazioni su:
www.federprivacy.org



Tutte le news