iit_cnr_logo
UNITÀ DI RICERCA Trust, Security and Privacy
Chi siamo Persone Ricerca Progetti Formazione Conferenze Collaborazioni
cnr_logo
UNITÀ DI RICERCA Trust, Security and Privacy
Chi siamo Persone Ricerca Progetti Formazione Conferenze Collaborazioni

Trustworthy AI

La cosiddetta Trustworthy AI (“intelligenza artificiale degna di fiducia”) comprende tutti gli aspetti relativi alla privacy, alla sicurezza, alla fiducia e all’etica delle applicazioni dell’Intelligenza Artificiale in contesti di vita reale. A seguito della proposta della Commissione UE per le “Harmonised Rules on Artificial Intelligence” (Artificial Intelligence Act, 21 aprile 2021), questo tema emergente sta diventando sempre più importante, poiché l’IA viene ampiamente utilizzata in molti contesti relativi a dati e applicazioni sensibili.

Le nostre attività di ricerca si concentrano sulla tutela della privacy e sulla explainable data analysis. In particolare, progettiamo modelli innovativi per consentire analisi dei dati basate su un’intelligenza artificiale efficace, efficiente e accurata, che minimizzi la divulgazione di informazioni che necessitano di privacy alle parti coinvolte nell’analisi. Inoltre, modelliamo meccanismi per diversi tipi di applicazioni e tipi di dati, in grado di bilanciare privacy, accuratezza e esplicabilità dell’analisi eseguita. Quest’ultimo fattore diventa essenziale per garantire che i modelli di analisi proposti non basino le proprie decisioni su parametri non etici.

Insieme alla tutela della privacy, la consapevolezza etica mira ad aumentare la possibilità di adottare soluzioni di data analysis basate sull’intelligenza artificiale, in conformità con le direttive UE e con il paradigma della cosiddetta human-centered AI. La nostra ricerca copre anche gli aspetti relativi alla fiducia, in particolare quando l’intelligenza artificiale viene utilizzata in ambienti peer-to-peer distribuiti e le decisioni di classificazione dipendono da valutazioni collaborative. A tal fine studiamo e progettiamo meccanismi di trust distribuiti dinamici che siano adattabili ad ambienti Machine-to-Machine (M2M) zero trust, architetture di trust gerarchico e architetture decisionali human-in-the-loop.