OpenAI présente le modèle GPT-4o, promettant une conversation en temps réel

OpenAI a annoncé un nouveau modèle, GPT-4o, qui permettra bientôt une conversation en temps réel avec un assistant IA.

Lors d’une démonstration du 13 mai, les membres d’OpenAI ont montré que le modèle pouvait fournir des informations sur la respiration, raconter une histoire et aider à résoudre un problème mathématique, entre autres applications.

Le responsable de Frontiers Research, Mark Chen, a noté que, même si les utilisateurs pouvaient auparavant accéder au mode vocal, le nouveau modèle permet des interruptions, n’a plus de délai de plusieurs secondes et peut reconnaître et communiquer dans différents styles émotionnels.

Le PDG d’OpenAI, Sam Altman, a commenté la mise à jour dans un article de blog séparé, la qualifiant de « meilleure interface informatique que j’ai jamais utilisée », ajoutant qu’elle « ressemble à l’IA des films ».

Il a dit:

« Atteindre des temps de réponse et une expressivité au niveau humain s’avère être un grand changement. »

En plus de fonctionnalités améliorées de texte, de vidéo et de visuel, GPT-4o est plus rapide et offre le même niveau d’intelligence que GPT-4.

Disponibilité complète en attente

Initialement, GPT-4o aura des fonctionnalités limitées, mais le modèle peut déjà comprendre et discuter des images « bien mieux que n’importe quel modèle existant ». Dans un exemple, OpenAI a suggéré que le modèle puisse examiner un menu et fournir des traductions, un contexte et des recommandations.

Chacun des modèles d’abonnement de l’entreprise comprend des limites d’accès différentes. À partir d’aujourd’hui, les utilisateurs de ChatGPT Free peuvent accéder à la fonctionnalité avec des limites d’utilisation. Les utilisateurs de GPT-4o vers ChatGPT Plus et Team peuvent également accéder à GPT-4o avec des limites d’utilisation cinq fois supérieures.

La société prévoit également d’étendre ultérieurement cette fonctionnalité aux utilisateurs d’entreprise avec « des limites encore plus élevées ».

OpenAI introduira prochainement le « mode vocal » mis à jour. Il prévoit de publier une version alpha dans les semaines à venir, avec un accès anticipé pour les utilisateurs Plus.

Secteur de l’IA compétitif

Les mises à jour d’OpenAI suivent d’autres mises à niveau d’entreprises concurrentes.

En mars, Anthropic a publié une mise à niveau de Claude qu’elle a qualifiée de supérieure au GPT-4 d’OpenAI. Meta, quant à lui, a annoncé Llama 3 avec un nombre de paramètres amélioré en avril.

D’autres développements industriels doivent encore se produire. Google devrait organiser sa conférence I/O le 14 mai, mettant en vedette l’IA dans plusieurs keynotes. Apple devrait annoncer iOS 18 en juin, qui devrait inclure diverses nouvelles fonctionnalités d’IA.

Le post OpenAI présente le modèle GPT-4o, une conversation prometteuse en temps réel apparue en premier sur CryptoSlate.