Entro il 2026, Gartner prevede che il 50% dei governi di tutto il mondo imporrà l’uso dell’IA responsabile mediante regolamenti, politiche e la necessità di garantire la privacy dei dati. Parallelamente all’elaborazione di queste linee guida, l’IA continua a evolversi a grande velocità. i-PRO (ex Panasonic Security), specialista mondiale nelle soluzioni di sicurezza professionali per la sorveglianza e la sicurezza pubblica, sottolinea l’importanza fondamentale delle pratiche di IA etiche e responsabili nel settore della sicurezza fisica.
Consapevole del profondo impatto dell’intelligenza artificiale sulla società, i-PRO ha sempre attribuito la massima importanza ad un ambiente di utilizzo responsabile ed etico dell’IA. A tal fine, i-PRO ha formulato i suoi Principi etici per l’IA, tracciando un quadro di riferimento volto a bilanciare il progresso della tecnologia IA con la responsabilità sociale e le considerazioni etiche.
I concetti chiave dei Principi etici per l’IA di i-PRO comprendono:
1.Migliorare la qualità della vita e promuovere una società più sicura e protetta: i-PRO si impegna a creare un valore duraturo che contribuisca alla sicurezza e alla protezione della società attraverso la ricerca e lo sviluppo continui dell’intelligenza artificiale. L’azienda valuterà costantemente l’impatto umano, sociale e ambientale dei suoi prodotti e servizi di IA per migliorare ulteriormente la sua offerta tecnologica.
2.Protezione dei diritti umani e della privacy: nello sviluppo e nell’implementazione delle sue soluzioni di IA, i-PRO dà priorità alla protezione dei diritti umani fondamentali. Il rispetto dei principi di protezione dei dati e della privacy guida ogni aspetto delle nostre attività. Applichiamo protocolli di autorizzazione e autenticazione rigorosi per salvaguardare i dati sensibili all’interno delle nostre applicazioni IA. Inoltre, ci impegniamo a fornire ai nostri clienti strumenti integrati per facilitare la conformità alle normative sull’IA in continua evoluzione.
3.Trasparenza ed equità: i-PRO si impegna a sostenere i principi di trasparenza ed equità, promuovendo la diversità e l’uguaglianza per combattere i potenziali pregiudizi, le discriminazioni e le pratiche sleali che potrebbero risultare dall’uso dell’IA. Per raggiungere questo obiettivo, intendiamo testare in modo coerente e approfondito i nostri modelli di IA al fine di creare fiducia nelle loro prestazioni e mitigare i rischi.
4.Istruzione e formazione: In quanto promotrice dello sviluppo di soluzioni IA, i-PRO continuerà a educare la propria forza lavoro, i partner, i clienti ed il settore in generale riguardo al peso, il potenziale e la valutazione etica dell’IA nel campo della sicurezza fisica. Promuovendo la collaborazione e stabilendo un dialogo aperto con le principali parti interessate, i-PRO sarà in grado di affrontare le sfide emergenti e guidare un cambiamento significativo nell’ecosistema dell’IA.
“Se da un lato crediamo che le soluzioni di IA possano migliorare l’automazione e contribuire ad informare le decisioni, dall’altro crediamo che questo non debba andare a scapito di un utilizzo responsabile, degli standard etici o della conformità alla privacy”, ha dichiarato Masato Nakao, CEO di i-PRO. “Il settore della sicurezza fisica sta continuando ad abbracciare il potenziale dell’intelligenza artificiale e noi non vediamo l’ora di collaborare con i nostri colleghi, partner e clienti del settore per promuovere una cultura di sviluppo ed utilizzo responsabile dell’IA.”
Sostenendo i principi etici, i-PRO si adopera per stabilire un nuovo standard di integrità nel settore della sicurezza fisica, riaffermando il suo impegno incrollabile per la sicurezza, la protezione e il benessere della società.