Les grandes entreprises technologiques reconnaissent les risques liés à l’IA dans leurs documents réglementaires

Dans une série de documents récents déposés auprès de la SEC, de grandes entreprises technologiques, dont Microsoft, Google, Meta et NVIDIA, ont souligné les risques importants associés au développement et au déploiement de l’intelligence artificielle (IA).

Ces révélations reflètent des inquiétudes croissantes quant au potentiel de l’IA à nuire à la réputation, à engager la responsabilité juridique et à faire l’objet d’un contrôle réglementaire.

Préoccupations liées à l’IA

Microsoft a exprimé son optimisme à l’égard de l’IA, mais a averti qu’une mise en œuvre et un développement médiocres pourraient causer « un préjudice à la réputation ou à la concurrence ou une responsabilité » pour l’entreprise elle-même. Elle a souligné la large intégration de l’IA dans ses offres et les risques potentiels associés à ces avancées. L’entreprise a souligné plusieurs préoccupations, notamment les algorithmes défectueux, les ensembles de données biaisés et le contenu nuisible généré par l’IA.

Microsoft a reconnu que des pratiques d’IA inadéquates pourraient entraîner des problèmes juridiques, réglementaires et de réputation. L’entreprise a également souligné l’impact de la législation actuelle et proposée, comme la loi sur l’IA de l’UE et le décret exécutif sur l’IA des États-Unis, qui pourraient encore compliquer le déploiement et l’acceptation de l’IA.

Le dossier déposé par Google reflète bon nombre des inquiétudes de Microsoft, soulignant l’évolution des risques liés à ses efforts en matière d’intelligence artificielle. L’entreprise a identifié des problèmes potentiels liés au contenu préjudiciable, aux inexactitudes, à la discrimination et à la confidentialité des données.

Google a souligné les défis éthiques posés par l’IA et la nécessité d’investissements importants pour gérer ces risques de manière responsable. L’entreprise a également reconnu qu’elle pourrait ne pas être en mesure d’identifier ou de résoudre tous les problèmes liés à l’IA avant qu’ils ne surviennent, ce qui pourrait entraîner des mesures réglementaires et une atteinte à sa réputation.

Meta a déclaré que ses initiatives en matière d’IA « pourraient ne pas aboutir », ce qui pose les mêmes risques commerciaux, opérationnels et financiers. L’entreprise a mis en garde contre les risques importants encourus, notamment le potentiel de contenu préjudiciable ou illégal, de désinformation, de partialité et de menaces à la cybersécurité.

Meta a exprimé ses inquiétudes quant à l’évolution du paysage réglementaire, soulignant que de nouveaux contrôles ou des contrôles renforcés pourraient nuire à ses activités. L’entreprise a également souligné les pressions concurrentielles et les défis posés par d’autres entreprises développant des technologies d’IA similaires.

Nvidia n’a pas consacré de section aux facteurs de risque de l’IA, mais a largement évoqué ce sujet dans ses préoccupations réglementaires. L’entreprise a évoqué l’impact potentiel de diverses lois et réglementations, notamment celles liées à la propriété intellectuelle, à la confidentialité des données et à la cybersécurité.

NVIDIA a souligné les défis spécifiques posés par les technologies d’IA, notamment les contrôles à l’exportation et les tensions géopolitiques. L’entreprise a noté que l’accent croissant mis par la réglementation sur l’IA pourrait entraîner des coûts de conformité importants et des perturbations opérationnelles.

Avec d’autres entreprises, Nvidia a souligné la loi européenne sur l’IA comme un exemple de réglementation qui pourrait conduire à une action réglementaire.

Les risques ne sont pas nécessairement probables

Bloomberg a été le premier à annoncer la nouvelle le 3 juillet, en soulignant que les facteurs de risque divulgués ne sont pas des résultats probables. Au contraire, ces révélations visent à éviter d’être pointé du doigt pour sa responsabilité.

Adam Pritchard, professeur de droit des sociétés et des valeurs mobilières à la faculté de droit de l’université du Michigan, a déclaré à Bloomberg :

« Si une entreprise ne divulgue pas un risque que ses pairs présentent, elle peut devenir la cible de poursuites judiciaires. »

Bloomberg a également identifié Adobe, Dell, Oracle, Palo Alto Networks et Uber comme d’autres sociétés ayant publié des informations sur les risques liés à l’IA dans les documents déposés auprès de la SEC.

L’article Les grandes entreprises technologiques reconnaissent les risques liés à l’IA dans les documents réglementaires est apparu en premier sur CryptoSlate.