Google publie un nouveau document d’orientation mettant l’accent sur la confidentialité dans le développement de l’IA
Google a publié le 4 juin un nouveau document de travail intitulé « IA générative et confidentialité », soulignant le besoin crucial de protection de la vie privée dans le développement et le déploiement de technologies d’intelligence artificielle (IA).
Le document, rédigé par Kate Charlet, directrice mondiale de la politique de confidentialité et de sécurité de Google, décrit l’approche de l’entreprise visant à intégrer dès le départ des garanties de confidentialité dans les produits d’IA.
Selon Chartlet :
« L’IA a le potentiel de s’attaquer à un large éventail de tâches, depuis les tâches banales jusqu’aux découvertes médicales révolutionnaires. Cependant, pour exploiter pleinement son potentiel, nous devons veiller à ce que l’IA soit développée avec de solides protections de la vie privée.
Confidentialité dès la conception
Le document d’orientation décrit le cadre de confidentialité dès la conception de Google, qui intègre des pratiques de longue date en matière de protection des données, des mesures de transparence et des mécanismes de contrôle des utilisateurs dans le processus de développement de l’IA. Cette approche vise à atténuer les risques tels que l’exposition involontaire d’informations personnelles tout en donnant aux utilisateurs un meilleur contrôle sur leurs données.
Le cadre de Google répond à des questions critiques concernant la minimisation des données et la transparence dans l’IA. Il souligne l’importance de minimiser l’utilisation des données personnelles lors de la formation des modèles et de garantir que les systèmes d’IA offrent une transparence significative sur leur fonctionnement.
Le document souligne également la nécessité d’expériences d’IA adaptées à l’âge, en particulier pour les adolescents, dans un paysage numérique en évolution rapide.
Données personnelles
Selon le document, l’inclusion de données personnelles dans la formation à l’IA peut contribuer à réduire les biais et à améliorer la précision des modèles en apprenant à l’IA à comprendre divers contextes culturels. Toutefois, les mesures de protection de la vie privée devraient se concentrer principalement au niveau des applications, où le risque de fuite de données personnelles est plus élevé.
Le document notait :
« L’IA générative présente d’importantes opportunités pour améliorer la confidentialité des utilisateurs et renforcer les cyberdéfenses. Les technologies améliorant la confidentialité, telles que les données synthétiques et la confidentialité différentielle, peuvent offrir des avantages sociétaux substantiels sans compromettre les informations personnelles.
Google a appelé à des efforts de collaboration au sein de la communauté de la protection de la vie privée pour garantir que les technologies d’IA générative profitent à la société de manière responsable. La société a déclaré qu’elle s’engageait à travailler avec les régulateurs, les experts du secteur et d’autres parties prenantes pour équilibrer de solides protections de la vie privée avec les droits fondamentaux et les objectifs sociaux.
Google a déclaré que le nouveau document politique s’aligne sur ses initiatives en cours visant à favoriser le dialogue sur l’IA et la confidentialité. Cela reflète l’engagement proactif de l’entreprise auprès des décideurs politiques pour promouvoir l’utilisation responsable de l’IA tout en protégeant la vie privée des utilisateurs.
L’article Google publie un nouveau document de politique mettant l’accent sur la confidentialité dans le développement de l’IA apparaît en premier sur CryptoSlate.