Microsoft bloque brièvement ChatGPT pour ses employés, attribuant l’erreur au test du système

Microsoft a brièvement empêché ses employés d’utiliser ChatGPT et d’autres outils d’intelligence artificielle (IA) le 9 novembre, a rapporté CNBC le même jour.

CNBC a affirmé avoir vu une capture d’écran indiquant que le chatbot alimenté par l’IA, ChatGPT, était alors inaccessible sur les appareils d’entreprise de Microsoft.

Microsoft a également mis à jour son site interne, déclarant qu’en raison de problèmes de sécurité et de données, « un certain nombre d’outils d’IA ne sont plus disponibles pour les employés ».

Cet avis faisait allusion aux investissements de Microsoft dans OpenAI, le parent de ChatGPT, ainsi qu’aux propres protections intégrées de ChatGPT. Cependant, il a mis en garde les employés de l’entreprise contre l’utilisation du service et de ses concurrents, tandis que le message continue :

« [ChatGPT] est… un service externe tiers… Cela signifie que vous devez faire preuve de prudence en l’utilisant en raison des risques de confidentialité et de sécurité. Cela vaut également pour tous les autres services d’IA externes, tels que Midjourney ou Replika.

CNBC a déclaré que Microsoft avait également brièvement nommé Canva, un outil de conception graphique basé sur l’IA, dans son avis, bien qu’il ait ensuite supprimé cette ligne du message.

Microsoft a bloqué accidentellement des services

CNBC a déclaré que Microsoft avait rétabli l’accès à ChatGPT après avoir publié sa couverture de l’incident. Un représentant de Microsoft a déclaré à CNBC que l’entreprise avait involontairement activé la restriction pour tous les employés lors du test des systèmes de contrôle des points finaux, conçus pour contenir les menaces de sécurité.

Le représentant a déclaré que Microsoft encourage ses employés à utiliser ChatGPT Enterprise et son propre Bing Chat Enterprise, notant que ces services offrent un haut degré de confidentialité et de sécurité.

Cette nouvelle intervient dans un contexte de préoccupations généralisées en matière de confidentialité et de sécurité concernant l’IA aux États-Unis et à l’étranger. Alors que la politique restrictive de Microsoft semblait initialement démontrer la désapprobation de l’entreprise à l’égard de l’état actuel de la sécurité de l’IA, il semble que cette politique soit en fait une ressource qui pourrait protéger contre de futurs incidents de sécurité.

Le message Microsoft bloque brièvement ChatGPT pour ses employés, attribuant une erreur au test du système apparaît en premier sur CryptoSlate.