Nel suo blog, il gigante della ricerca spiega che ” Google aspira a creare tecnologie che risolvono problemi importanti e aiutano le persone nella loro vita quotidiana “. L’azienda crede enormemente nel potenziale dell’IA e intende compiere sforzi ancora maggiori per svilupparla. Concretamente, gli utenti ne beneficiano già attraverso molti servizi offerti dalla società. L’esempio più concreto è quello di Google Assistant e, più recentemente, Lens che è appena approdato in Italia e che consente di riconoscere oggetti, luoghi e monumenti tra le altre cose. Tuttavia, Google non ha sempre usato la sua intelligenza artificiale in modo benevolo.

Google: scopri l’elenco dei 7 principi etici del gigante

Infatti, Google ha partecipato allo sforzo bellico collaborando con il Pentagono al progetto Maven. L’intelligenza artificiale e le infrastrutture del gigante sono utilizzate per sviluppare tecnologie al fine di riconoscere oggetti e in particolare potenziali obiettivi. Internamente, le tensioni sono state acute, poiché l’azienda ha dovuto affrontare molteplici minacce di dimissioni. Alla fine, Google ha dovuto dimettersi e non collaborerà più entro il 2019 con l’esercito americano . Ma non è ancora finita, così che non accada di nuovo, Google ha dovuto costituire un gruppo “un comitato etico” per mostrare il suo buon fegato e ne ha fatto una copia! Ecco l’elenco dei 7 principi etici di Google:

  • Essere socialmente utile: ” La portata delle nuove tecnologie sta interessando sempre più la società nel suo complesso. I progressi nell’IA avranno effetti trasformativi in ​​una vasta gamma di settori, tra cui assistenza sanitaria, sicurezza, energia, trasporti, produzione e intrattenimento. Quando guardiamo alle possibilità di sviluppare e utilizzare le tecnologie IA, prenderemo in considerazione una vasta gamma di fattori sociali ed economici … “. Questo è un forte impegno di Google che probabilmente vuole lasciare un segno con questo primo punto.
  • Evitare l’ingiustizia: ” Cercheremo di evitare impatti sleali sulle persone, in particolare quelli relativi a caratteristiche sensibili come razza, etnia, genere, nazionalità, reddito, orientamento sessuale capacità e convinzioni politiche e religiose “.
  • Essere costruito e testato per la sicurezza: ” Progetteremo attentamente i nostri sistemi di IA e cercheremo di svilupparli secondo le migliori pratiche nella ricerca sulla sicurezza dell’intelligenza artificiale “.
  • Responsabile delle persone: ” Progetteremo sistemi di intelligenza artificiale che forniscano opportune opportunità di feedback, spiegazioni rilevanti e appello “.
  • Integrare i principi della privacy: ” Daremo l’opportunità di preavviso e consenso, incoraggeremo le architetture con le garanzie sulla privacy e forniremo trasparenza e controllo appropriati sull’uso dei dati “.
  • Mantenere alti standard di eccellenza scientifica: ” L’innovazione tecnologica è radicata nel metodo scientifico e un impegno per aprire inchiesta, rigore intellettuale, integrità e collaborazione. Gli strumenti di intelligenza artificiale hanno il potenziale per sbloccare nuove aree di ricerca e conoscenza scientifica in aree critiche come la biologia, la chimica, la medicina e le scienze ambientali “.
  • Essere resi disponibili per usi conformi a questi principi: ” Molte tecnologie hanno diversi usi. Lavoreremo per limitare le applicazioni potenzialmente dannose o abusive . “

Google: l’IA non perseguirà questi 4 obiettivi

Non è finita, Google proibisce anche certe pratiche , l’azienda è probabilmente guidata dai numerosi dipendenti che si sono fatti avanti nella sua azienda. Ecco l’elenco di esempi di applicazioni AI che non intendono sviluppare Google:

  • Tecnologie che causano o possono causare danni globali. Laddove sussiste un rischio significativo di danno, procederemo solo laddove riteniamo che i benefici superino i rischi e incorporino i vincoli di sicurezza appropriati.
  • Armi o altre tecnologie il cui scopo principale o implementazione è quello di causare o facilitare direttamente lesioni alle persone.
  • Tecnologie che raccolgono o utilizzano le informazioni per la sorveglianza in violazione degli standard accettati a livello internazionale.
  • Tecnologie il cui scopo è contrario ai principi ampiamente accettati del diritto internazionale e dei diritti umani.

Google avverte che questo elenco potrebbe evolvere nel tempo e il suo apprendimento nel campo dell’intelligenza artificiale.