Les modèles actuels d’intelligence artificielle sont « incapables de prédire les conséquences de leurs actions », critique Yann LeCun. Cet ingénieur est souvent cité par les professionnels de l’IA en Israël.
En 2018, LeCun a reçu le prix Turing, souvent appelé le « prix Nobel de l’informatique », conjointement avec Geoffrey Hinton et Yoshua Bengio, pour leurs travaux novateurs sur l’apprentissage profond. Avec Geoffrey Hinton et Yoshua Bengio , LeCun est considéré comme l’un des trois pionniers de l’apprentissage profond . À l’instar de ces derniers, il a défendu l’idée que les réseaux de neurones artificiels, imitant le cerveau humain, permettraient aux ordinateurs de développer des compétences impossibles à programmer manuellement . Il s’est heurté à une forte résistance de la part du milieu informatique , qui avait depuis longtemps relégué les réseaux de neurones artificiels au rang de science-fiction.Selon l’ingénieur informatique français, ex-responsable de la recherche IA chez Meta, « on touche aux limites des IA actuelles avec les modèles de langage probabilistes comme ChatGPT, conçu par OpenAI ».
Les modèles actuels de l’intelligence artificielle (IA) « sont incapables de prédire les conséquences de leurs actions », alerte l’ingénieur informatique français Yann LeCun, figure de l’IA, au micro de France Inter vendredi 20 février. Il assiste au sommet mondial de l’IA en Inde. L’ancien responsable de la recherche IA de Meta a quitté le groupe de Mark Zuckerberg pour lancer sa propre entreprise : AMI Labs (Advanced Machine Intelligence Labs). Avec cette « entreprise globale, avec des bureaux un peu partout dans le monde, mais dont le siège est à Paris », Yann LeCun vise « une nouvelle révolution de l’IA avec des systèmes, une architecture complètement nouvelle ».
L’ingénieur français est persuadé qu’on touche aux limites des IA actuelles avec les modèles de langage probabilistes comme ChatGPT, conçu par OpenAI. « Elles sont en fait incapables de prédire les conséquences de leurs actions, et donc ne peuvent être appliquées que dans des situations où il n’y a pas trop de problèmes de sécurité, etc. », affirme-t-il.
Laisser un commentaire