OpenAI a récidivé. Justo cuando parecía que sus rivales se estaban acercando a las posibilidades de ChatGPT, especialmente Google con Gemini, la compañía comandada por Sam Altman ha dado un golpe en la mesa con la presentación de GPT-4o, su nuevo modelo de lenguaje que puede cambiarlo todo , encore une fois.
Le lancement de ChatGPT a été un tremblement de terre dont l’industrie technologique ne s’est pas encore remise ; et maintenant, à peine 18 mois plus tard, tout change à nouveau. La présentation de GPT-4o pourrait entrer dans l’histoirecar c’est la première fois que les histoires de science-fiction les plus surréalistes peuvent devenir réalité.
Pour comprendre l’importance de la sortie de GPT-4o, il faut comprendre qu’il s’agit de plus qu’une « simple » mise à jour de ChatGPT comme les précédentes. Il est vrai que GPT-4 et GPT-4 Turbo constituaient déjà des pas de géant par rapport à leurs prédécesseurs, mais ce n’étaient que cela, des pas sur un chemin déjà tracé. GPT-4o, en revanche, constitue un bond en avant.
Ceci est GPT-4o et ce qu’il peut faire
Le « o » dans GPT-4o fait référence à « omni », en particulier à ses capacités multimodales. C’est facile à comprendre si vous regardez ChatGPT et réalisez que tout ce qu’il fait est lié au texte ; Il est capable de comprendre ce que nous écrivons et nous répond par des mots écrits. D’autre part, GPT-4o est capable de travailler avec du texte, de la voix et de la vidéo en même temps; Et même si cela peut sembler un changement mineur, c’est en réalité ce qui ouvre la porte à de nombreuses possibilités.
Bien que GPT-4o ne soit pas « plus intelligent » que GPT-4, être capable de comprendre et de raisonner en utilisant les différents modes lui confère un avantage essentiel : permet l’interaction entre les humains et les machines. De la même manière que deux personnes utilisent des méthodes différentes pour communiquer, souvent au cours d’une même conversation, cette IA est désormais capable de faire de même pour mieux nous comprendre et surtout, nous aider à la comprendre.
Le chien rencontre GPT-4o pic.twitter.com/5C0hlYq5ws
-OpenAI (@OpenAI) 13 mai 2024
L’assistant personnel présenté dans la présentation est le meilleur exemple de la façon dont GPT-4o peut changer nos vies. Les réponses de l’assistant sont plus personnelles et adaptées à chaque situation, évitant les réponses standardisées. Par exemple, l’assistant est capable de savoir si nous sommes en colère, tristes ou heureux, en utilisant la caméra frontale du téléphone mobile pour détecter notre visage ; À partir de ces informations, elle pourra réagir différemment, en s’adaptant à nos besoins et non l’inverse.
L’utilisation de la vision permet également d’autres fonctions, certaines utiles et d’autres curieuses, comme la possibilité de jouer à la pierre, au papier ou aux ciseaux avec une Intelligence Artificielle ; même si de nombreux étudiants seront probablement intéressés par la façon dont l’IA peut détecter les fonctions géométriques que nous avons sur l’écran et nous les expliquer dans une langue que nous pouvons comprendre.
Problèmes mathématiques avec GPT-4o et @khanacademy pic.twitter.com/RfKaYx5pTJ
-OpenAI (@OpenAI) 13 mai 2024
Les comparaisons du GPT-4o avec les technologies de science-fiction ne manquent pas. Le plus évident est son (2014), le film de Spike Jonze, dans lequel un homme entame une relation amoureuse avec une assistante personnelle à la voix féminine, la seule « personne » qui le comprend vraiment et vous aide au-delà des besoins de base fournis par un ordinateur. Ce n’est pas une comparaison étrange ; Sam Altman lui-même l’avait déjà annoncé lors d’une interaction sur X (Twitter) la veille de la présentation.
Mais ce n’est pas la seule inspiration de science-fiction pour GPT-4o. L’une des fonctions les plus frappantes est la traducteur automatique en temps réel; Tel un appareil tiré de Star Trek, notre téléphone mobile est capable de passer nativement d’une langue à une autre. Il suffit de l’indiquer, et l’IA est capable de servir d’intermédiaire entre deux personnes qui parlent dans leur propre langue. Et si nous préférons apprendre des langues, nous pouvons pointer la caméra vers un objet, et l’IA nous expliquera comment dire ce que nous voyons dans la langue que nous voulons.
Traduction en temps réel avec GPT-4o pic.twitter.com/J1BsrxwYdE
-OpenAI (@OpenAI) 13 mai 2024
L’aspect le plus révolutionnaire de la présentation a peut-être été la révélation que GPT-4o serait partiellement gratuit. Dans un premier temps, il n’est disponible que pour les utilisateurs payants des versions Plus et Enterprise de ChatGPT, mais OpenAI proposera également accès à certaines fonctionnalités aux utilisateurs de la version gratuite. La balle est désormais dans le camp de Google, qui aura beaucoup à prouver lors du Google I/O qui se tient aujourd’hui.