OpenAI in early talks to collaborate with Jony Ive on AI rival to the iPhone

OpenAI n’a pas révélé de faille de sécurité en 2023 – NYT

OpenAI a connu une faille de sécurité en 2023 mais n’a pas divulgué l’incident en dehors de l’entreprise, a rapporté le New York Times le 4 juillet.

Les dirigeants d’OpenAI auraient divulgué l’incident en interne lors d’une réunion en avril 2023, mais ne l’ont pas révélé publiquement car l’attaquant n’a pas accédé aux informations sur les clients ou les partenaires.

De plus, les dirigeants n’ont pas considéré l’incident comme une menace pour la sécurité nationale, car ils considéraient l’agresseur comme un particulier sans lien avec un gouvernement étranger. Ils n’ont pas signalé l’incident au FBI ni à d’autres organismes chargés de l’application de la loi.

Selon certaines informations, l’attaquant aurait accédé aux systèmes de messagerie interne d’OpenAI et volé des informations sur les conceptions de la technologie d’IA de l’entreprise à partir de conversations entre employés sur un forum en ligne. Il n’a pas accédé aux systèmes où OpenAI « héberge et construit son intelligence artificielle », ni au code.

Le New York Times a cité deux personnes proches du dossier comme sources.

Un ancien employé a exprimé ses inquiétudes

Le New York Times a également fait référence à Leopold Aschenbrenner, un ancien chercheur d’OpenAI qui a envoyé une note aux directeurs d’OpenAI après l’incident et a appelé à des mesures pour empêcher la Chine et les pays étrangers de voler des secrets d’entreprise.

Selon le New York Times, Aschenbrenner a fait allusion à l’incident dans un podcast récent.

La représentante d’OpenAI, Liz Bourgeois, a déclaré que l’entreprise comprenait les préoccupations d’Aschenbrenner et avait exprimé son soutien au développement sûr d’AGI, mais avait contesté certains détails. Elle a déclaré :

« Nous sommes en désaccord avec de nombreuses [Aschenbrenner’s claims] … Cela inclut ses caractérisations de notre sécurité, notamment cet incident, que nous avons abordé et partagé avec notre conseil d’administration avant qu’il ne rejoigne l’entreprise. »

Aschenbrenner a déclaré qu’OpenAI l’avait licencié pour avoir divulgué d’autres informations et pour des raisons politiques. Bourgeois a déclaré que les inquiétudes d’Aschenbrenner n’avaient pas conduit à son départ.

Matt Knight, responsable de la sécurité chez OpenAI, a souligné les engagements de l’entreprise en matière de sécurité. Il a déclaré au New York Times que l’entreprise « a commencé à investir dans la sécurité des années avant ChatGPT ». Il a admis que le développement de l’IA « comporte certains risques, et nous devons les comprendre ».

Le New York Times a révélé un conflit d’intérêts apparent en indiquant qu’il poursuivait OpenAI et Microsoft pour violation présumée du droit d’auteur sur son contenu. OpenAI estime que l’affaire est sans fondement.

L’article OpenAI n’a pas révélé de faille de sécurité en 2023 – NYT est apparu en premier sur CryptoSlate.