Le co-fondateur d’OpenAI, Ilya Sutskever, lance une société d’IA axée avant tout sur la sécurité

Le co-fondateur d’OpenAI et ancien scientifique en chef, Ilya Sutskever, a annoncé qu’il lançait une nouvelle société d’IA qui se concentrera principalement sur le développement d’une « superintelligence sûre ».

L’ancien membre d’OpenAI Daniel Levy et l’ancien responsable de l’IA d’Apple Daniel Gross sont également co-fondateurs de la société, baptisée Safe Superintelligence Inc., selon l’annonce du 19 juin.

Selon l’entreprise, la superintelligence est « à portée de main » et garantir qu’elle est « sans danger » pour les humains est le « défi technique le plus important de notre époque ».

L’entreprise a ajouté qu’elle avait l’intention d’être un « laboratoire de superintelligence (SSI) sûr et direct » avec la technologie comme unique produit et la sécurité comme objectif principal. Il ajoutait :

« Nous rassemblons une équipe réduite et performante composée des meilleurs ingénieurs et chercheurs du monde qui se consacrent à se concentrer sur le SSI et rien d’autre. »

Safe Superintelligence Inc. a déclaré qu’elle visait à faire progresser ses capacités le plus rapidement possible tout en recherchant la sécurité. L’approche ciblée de l’entreprise signifie que la gestion, les frais généraux, les pressions commerciales à court terme et les cycles de produits ne la détourneront pas de son objectif.

« De cette façon, nous pouvons évoluer en toute tranquillité. »

La société a ajouté que les investisseurs sont d’accord avec l’approche consistant à donner la priorité au développement sûr par rapport à tout le reste.

Dans une interview accordée à Bloomberg, Sutskever a refusé de nommer les bailleurs de fonds ou de préciser le montant levé jusqu’à présent, tandis que Gross a commenté de manière générale et a déclaré que « lever des capitaux ne sera pas » un problème pour l’entreprise.

Safe Superintelligence Inc. sera basée à Palo Alto, en Californie, avec des bureaux à Tel Aviv, en Israël.

Le lancement fait suite à des problèmes de sécurité chez OpenAI

Le lancement de Safe Superintelligence fait suite à un différend chez OpenAI. Sutskever faisait partie du groupe qui a tenté de destituer le PDG d’OpenAI, Sam Altman, de ses fonctions en novembre 2023.

Les premiers rapports, notamment ceux de The Atlantic, suggéraient que la sécurité était une préoccupation pour l’entreprise au moment du conflit. Pendant ce temps, une note interne de l’entreprise suggérait que la tentative de licenciement d’Altman était liée à un problème de communication entre lui et le conseil d’administration de l’entreprise.

Sutskever a quitté la scène publique pendant des mois après l’incident et a officiellement quitté Open AI il y a quelques semaines en mai. Il n’a cité aucune raison pour son départ, mais les développements récents au sein de la société d’IA ont mis la question de la sécurité de l’IA au premier plan.

Les employés d’OpenAI, Jan Leike et Gretchen Krueger, ont récemment quitté l’entreprise, invoquant des inquiétudes concernant la sécurité de l’IA. Entre-temps, des rapports de Vox suggèrent qu’au moins cinq autres « employés soucieux de leur sécurité » ont quitté l’entreprise depuis novembre.

Dans une interview avec Bloomberg, Sutskever a déclaré qu’il entretenait de bonnes relations avec Altman et a déclaré qu’OpenAI était au courant de la nouvelle société « dans ses grandes lignes ».

Le post Le co-fondateur d’OpenAI, Ilya Sutskever, lance une société d’IA axée avant tout sur la sécurité apparaît en premier sur CryptoSlate.