banner
Centre d'Information
Nous nous engageons à fournir des produits de qualité supérieure à des prix compétitifs.

OpenAI publie GPT

Apr 11, 2024

OpenAI a publié un nouveau modèle d'IA puissant pour la compréhension des images et des textes, GPT-4, que la société appelle « la dernière étape dans ses efforts visant à développer l'apprentissage en profondeur ».

GPT-4 est disponible aujourd'hui pour les utilisateurs payants d'OpenAI via ChatGPT Plus (avec un plafond d'utilisation), et les développeurs peuvent s'inscrire sur une liste d'attente pour accéder à l'API.

Le prix est de 0,03 $ pour 1 000 jetons « d’invite » (environ 750 mots) et de 0,06 $ pour 1 000 jetons « d’achèvement » (encore une fois, environ 750 mots). Les jetons représentent du texte brut ; par exemple, le mot « fantastique » serait divisé en jetons « fan », « tas » et « tic ». Les jetons d'invite sont les parties de mots introduites dans GPT-4, tandis que les jetons d'achèvement sont le contenu généré par GPT-4.

Il s’avère que GPT-4 se cache à la vue de tous. Microsoft a confirmé aujourd'hui que Bing Chat, sa technologie de chatbot co-développée avec OpenAI, fonctionne sur GPT-4.

Parmi les autres premiers utilisateurs, citons Stripe, qui utilise GPT-4 pour analyser les sites Web des entreprises et fournir un résumé au personnel du support client. Duolingo a intégré GPT-4 dans un nouveau niveau d'abonnement à l'apprentissage des langues. Morgan Stanley crée un système alimenté par GPT-4 qui récupérera les informations des documents de l'entreprise et les transmettra aux analystes financiers. Et Khan Academy utilise GPT-4 pour créer une sorte de tuteur automatisé.

Les nouvelles capacités de GPT-4 alimentent un « volontaire virtuel » pour les malvoyants

GPT-4 peut générer du texte et accepter des entrées d'images et de texte – une amélioration par rapport à GPT-3.5, son prédécesseur, qui n'acceptait que du texte – et fonctionne au « niveau humain » sur divers critères professionnels et académiques. Par exemple, GPT-4 réussit un examen du barreau simulé avec un score se situant autour des 10 % des meilleurs candidats ; en revanche, le score de GPT-3,5 se situait autour des 10 % inférieurs.

OpenAI a passé six mois à « aligner de manière itérative » GPT-4 en utilisant les leçons d’un programme de tests contradictoires internes ainsi que de ChatGPT, ce qui a abouti aux « meilleurs résultats jamais obtenus » en termes de factualité, de maniabilité et de refus de sortir des garde-fous, selon l’entreprise. Comme les modèles GPT précédents, GPT-4 a été formé à l’aide de données accessibles au public, notamment provenant de pages Web publiques, ainsi que de données sous licence OpenAI.

OpenAI a travaillé avec Microsoft pour développer un « superordinateur » à partir de zéro dans le cloud Azure, qui a été utilisé pour entraîner GPT-4.

"Dans une conversation informelle, la distinction entre GPT-3.5 et GPT-4 peut être subtile", a écrit OpenAI dans un article de blog annonçant GPT-4. "La différence apparaît lorsque la complexité de la tâche atteint un seuil suffisant : GPT-4 est plus fiable, créatif et capable de gérer des instructions beaucoup plus nuancées que GPT-3.5."

Sans aucun doute, l’un des aspects les plus intéressants de GPT-4 est sa capacité à comprendre les images ainsi que le texte. GPT-4 peut sous-titrer – et même interpréter – des images relativement complexes, par exemple en identifiant un adaptateur de câble Lightning à partir d'une photo d'un iPhone branché.

La capacité de compréhension d’image n’est pas encore disponible pour tous les clients d’OpenAI – OpenAI la teste avec un seul partenaire, Be My Eyes, pour commencer. Propulsée par GPT-4, la nouvelle fonctionnalité de volontariat virtuel de Be My Eyes peut répondre aux questions sur les images qui lui sont envoyées. L'entreprise explique son fonctionnement dans un article de blog :

« Par exemple, si un utilisateur envoie une photo de l'intérieur de son réfrigérateur, le Volontaire Virtuel pourra non seulement identifier correctement ce qu'il contient, mais aussi extrapoler et analyser ce qui peut être préparé avec ces ingrédients. L’outil peut également proposer un certain nombre de recettes pour ces ingrédients et envoyer un guide étape par étape sur la façon de les préparer.

Une amélioration plus significative de GPT-4 est potentiellement l’outil de orientabilité susmentionné. Avec GPT-4, OpenAI introduit une nouvelle fonctionnalité API, les messages « système », qui permettent aux développeurs de prescrire un style et une tâche en décrivant des instructions spécifiques. Les messages système, qui arriveront également sur ChatGPT à l'avenir, sont essentiellement des instructions qui donnent le ton – et établissent les limites – pour les prochaines interactions de l'IA.

Par exemple, un message système peut indiquer : « Vous êtes un tuteur qui répond toujours dans le style socratique. Vous ne donnez jamais la réponse à l’élève, mais essayez toujours de poser la bonne question pour l’aider à apprendre à penser par lui-même. Vous devez toujours adapter votre question à l'intérêt et aux connaissances de l'élève, en décomposant le problème en parties plus simples jusqu'à ce qu'il atteigne le niveau qui lui convient.