Montrez à GPT-4 une image d’un écureuil avec des jumelles et l’ordinateur vous dira pourquoi c’est drôle. Le fait que le système traite les images et raisonne ce qu’il voit est l’une des innovations du successeur du populaire chatbot ChatGPT.
OpenAI a publié GPT-4. C’est le dernier modèle de langage utilisé dans des programmes comme le populaire ChatGPT. Entre autres choses, le modèle d’IA est capable de fournir des réponses plus créatives que ses prédécesseurs.
Le nouveau modèle est impressionnant, déclare Peter van der Putten. Il est chercheur à l’Université de Leiden et au AI Lab de la société de logiciels Pega. « GPT-4 peut mieux raisonner, interpréter et résoudre les problèmes », dit-il. « Le modèle comprend mieux quelle est réellement la question de l’utilisateur. Il libère alors une plus grande capacité de résolution de problèmes. »
Van der Putten a déjà testé le système. « Le modèle fantasme moins et ne se contente pas de divaguer », dit-il. « Il y a plus de contenu. »
Des notes élevées aux examens
OpenAI a fait du GPT-4 plusieurs examens académiques et professionnels américains, qui sont en fait destinés aux humains. Ceux-ci incluent, par exemple, l’examen uniforme du barreau (un examen de droit), l’AP Biology (biologie) et le SAT Math. Le modèle n’a pas été spécialement formé pour les examens, mais a réussi à obtenir des scores élevés.
Des exemples de ce que les développeurs ont réalisé avec GPT-4 peuvent déjà être vus sur les réseaux sociaux. Par exemple, quelqu’un a réussi à contrôler l’ordinateur en une minute Pong être fabriqué. GPT-4 peut également enregistrer des appels de robot frauduleux en appuyant simplement sur un bouton, transcrire l’appel, puis envoyer un déposer une plainte.
La quatrième version de GPT est actuellement disponible pour les personnes qui paient l’abonnement ChatGPT Plus. GPT-4 est disponible dans Bing Chat depuis un certain temps, confirme Microsoft. Le chatbot a été créé en collaboration avec OpenAI.
Malheureusement, ce contenu ne peut pas être affichéNous n’avons pas l’autorisation pour les cookies nécessaires. Acceptez les cookies pour voir ce contenu.
Différences subtiles dans les conversations à bas seuil
GPT-4 peut également lire des images. De cette façon, le système sait ce qui peut être vu sur une image et quel est le contexte. Une démonstration montre comment quelqu’un montre un croquis dessiné d’un site Web à GPT-4, qui conçoit ensuite le code pour créer le site Web.
La différence entre GPT-4 et son prédécesseur GPT-3.5 sera « subtile » dans les conversations à bas seuil, écrit OpenAI. GPT-3.5 est le modèle derrière la version publique de ChatGPT. Les personnes qui utilisent le chatbot de cette manière ne doivent donc pas s’attendre immédiatement à des réponses complètement différentes.
Pas encore parfait
Le directeur d’OpenAI, Sam Altman, tempère également les attentes. « GPT-4 est toujours imparfait, toujours limité, et il semble plus impressionnant la première fois que si vous passez plus de temps avec », écrit-il sur Twitter.
Certaines de ces limitations sont mentionnées par OpenAI lui-même. Par exemple, le modèle d’IA peut toujours réagir de manière biaisée et avec des informations incorrectes. La société dit qu’elle travaille sur ces restrictions.
Il y a aussi des critiques d’OpenAI. L’entreprise a commencé comme une organisation à but non lucratif dans le but de développer une IA qui devrait faire avancer l’humanité. Cette conception à but non lucratif a maintenant été en partie mise de côté et OpenAI se concentre également sur le travail commercial.
Les critiques se demandent également à quel point OpenAI est transparent. « Il n’y a pas de détails sur le fonctionnement exact du modèle », déclare Van der Putten. « OpenAI est maintenant tout ce qu’il promettait autrefois de ne pas être », a écrit Vice il y a un moment.