OpenAI a dévoilé la dernière version de la technologie qui sous-tend son chatbot IA ChatGPT.
Elle s’appelle GPT-4o et sera déployée auprès de tous les utilisateurs de ChatGPT, y compris les non-abonnés.
Elle est plus rapide que les modèles précédents et a été programmée pour paraître bavarde et parfois même coquette dans ses réponses aux invites.
La nouvelle version peut lire et discuter d’images, traduire des langues et identifier les émotions à partir d’expressions visuelles. Il y a aussi de la mémoire pour pouvoir rappeler les invites précédentes.
Elle peut être interrompue et le rythme de conversation est plus facile : il n’y a aucun délai entre la question et la réponse.
Défaillance.
Lors d’une démonstration en direct utilisant la version vocale de GPT-4o, celle-ci a fourni des suggestions utiles sur la façon de résoudre une équation simple écrite sur un morceau de papier – plutôt que de simplement la résoudre. Elle a analysé du code informatique, traduit entre l’italien et l’anglais et interprété les émotions d’un selfie d’un homme souriant.
Utilisant une voix féminine américaine chaleureuse, elle a salué ses animateurs en leur demandant comment ils allaient. Lorsqu’on lui faisait un compliment, elle répondait : « Arrête, tu me fais rougir ! ».
Ce n’était pas parfait : à un moment donné, elle a pris l’homme souriant pour une surface en bois et a commencé à résoudre une équation qui ne lui avait pas encore été montrée. Cela a involontairement démontré qu’il reste encore du chemin à parcourir avant que les problèmes et les hallucinations qui rendent les chatbots peu fiables et potentiellement dangereux puissent être résolus.
Mais ce que cela nous montre, c’est la direction à suivre pour OpenAI, qui, je pense, vise à ce que GPT-4o devienne la prochaine génération d’assistant numérique IA, une sorte de Siri suralimenté ou Hey, Google qui se souvient de ce qui lui a été dit dans le passé et peut interagir au-delà de la voix ou du texte.
BBC. COPYRIGHTS.