Il progetto è un’azione di coordinamento e sostegno della durata di 24 mesi che riunisce professionisti della sicurezza, scienziati dell’IA, ricercatori dell’etica e della vita privata, organizzazioni della società civile nonché esperti di scienze sociali e umanistiche allo scopo di consolidare le conoscenze, scambio di esperienze e sensibilizzazione nel settore dell’UE, secondo una metodologia di lavoro ben pianificata. La visione di base della Pop-AI è quella di promuovere la fiducia nell’IA per il settore della sicurezza attraverso una maggiore consapevolezza, un costante impegno sociale, il consolidamento di distinte sfere di conoscenza e l’offerta di una visione europea unificata attraverso le LEA e i risultati delle conoscenze specializzate (raccomandazioni, roadmaps, ecc.) creando nel contempo un ecosistema che costituirà la base strutturale per un hub europeo dell’IA sostenibile e inclusivo per l’applicazione della legge.
Il progetto si propone di utilizzare le conoscenze esistenti, ma anche una vasta serie di studi, per identificare e registrare gli stakeholder diretti e indiretti del contesto “sicurezza e AI”, così come i loro rispettivi punti di vista (preoccupazioni, opportunità percepite, sfide). Questa registrazione mira a approfondire ulteriormente le interazioni dinamiche di queste parti interessate e a garantire un’adeguata rappresentanza del genere e della diversità nei processi partecipativi. In questo modo Pop-AI attingerà alla ricca conoscenza dei professionisti della sicurezza, delle organizzazioni della società civile e dei cittadini, nonché degli esperti di scienze sociali e umanistiche, per definire interazioni e materiali appropriati che consentiranno la co-creazione all’interno dell’ecosistema.
Coordinatore: National Center For Scientific Research “Demokritos” Csrd (GR), Trilateral Research Limited (IRL), Eticas research and innovation (ES), KEMEA (GR), CERTH (GR), Technische Universiteit eindhoven (NL), Zanasi Alessandro SRL (IT), European citizen action service (BE), Hellenic Police (GR), HFOD (DE), Gobierno Vasco Departamento seguridad (ES), APZ (SL).
Il PLTO sarà coinvolto nella ricerca e nell’analisi delle attuali funzionalità IA utilizzate in sicurezza, con l’obiettivo di evidenziare le caratteristiche tecniche delle diverse soluzioni e funzionalità. In particolare, l’uso dell’IA nelle forze di polizia sarà esplorato concentrandosi su questioni organizzative e correlate quali l’impatto dei processi tecnologici sulla salute e la sicurezza, l’autonomia o la responsabilità delle LEAs. La ricerca e l’analisi saranno realizzate con un Stakeholder Policy Labs, al fine di facilitare lo scambio tra le LEA pertinenti e gli esperti correlati, sviluppare idee per le politiche intelligenti e testare la soluzione di controversie individuate in modelli sperimentali.
Questo progetto è stato finanziato dal programma di ricerca e innovazione Horizon 2020 dell’Unione Europea con l’accordo di sovvenzione n. 101022001.
Contributo UE alla città di Torino
Partner
Durata progetto in mesi