EN BREF |
|
Les progrès dans le domaine de l’intelligence artificielle (IA) continuent de fasciner et d’intriguer. Parmi ces avancées, l’initiative de chercheurs de l’Okinawa Institute of Science and Technology se distingue par son approche novatrice. En s’inspirant du développement humain, ils ont mis au point un modèle d’IA capable d’apprendre de manière similaire à un enfant. Cette approche, bien que limitée dans la quantité de vocabulaire acquis, a permis à l’IA de saisir les concepts derrière les mots, une étape cruciale vers une compréhension plus profonde du langage. L’objectif ici est de rapprocher les systèmes d’IA de la compréhension humaine en intégrant l’expérience physique à l’apprentissage linguistique.
Comprendre la différence entre mot et concept
Les modèles de langage actuels, tels que ChatGPT, démontrent des capacités conversationnelles impressionnantes, mais ils souffrent d’une limitation majeure : ils ne comprennent pas réellement les mots qu’ils utilisent. Ces systèmes interagissent principalement avec des données issues du monde réel sans véritablement appréhender ce monde. En revanche, les humains associent naturellement le langage à leurs expériences vécues. Par exemple, nous comprenons ce que signifie le mot « chaud » car nous avons tous, à un moment donné, ressenti la sensation de chaleur, voire de brûlure.
Les chercheurs se sont donc demandé s’il était possible de faire en sorte qu’une IA atteigne une compréhension du langage semblable à celle des humains. Leur réponse a été de construire un modèle d’IA inspiré du cerveau humain, composé de multiples réseaux neuronaux. Bien que cette IA ait été initialement limitée à l’apprentissage de seulement cinq noms et huit verbes, elle a montré une capacité étonnante à assimiler les concepts sous-jacents à ces mots. Cela représente une avancée significative vers une IA capable de comprendre le langage de manière plus humaine.
Apprendre des bébés : le modèle inspiré de la psychologie développementale
Le modèle développé par les chercheurs s’inspire de la psychologie développementale, plus précisément de la manière dont les bébés apprennent et développent le langage. Comme l’explique Prasanna Vijayaraghavan, l’auteur principal de l’étude, bien que l’idée d’enseigner aux IA de la même manière que nous enseignons aux bébés ne soit pas nouvelle, leur approche diffère par l’application à des réseaux neuronaux standard qui associent les mots aux visuels.
Les chercheurs ont également expérimenté l’enseignement de l’IA à l’aide de vidéos filmées par une caméra GoPro attachée à un bébé humain. Cependant, ils ont vite réalisé que les bébés font bien plus que simplement associer des objets à des mots. Ils explorent le monde en touchant, manipulant et jetant des objets, ce qui leur permet de développer des capacités de réflexion et de planification des actions en lien avec le langage. Pour émuler cette expérience corporelle chez une IA, l’équipe de Vijayaraghavan a formé une IA à l’intérieur d’un robot capable d’interagir avec son environnement, une approche qui a permis de rapprocher l’apprentissage de l’IA de celui des humains.
Poursuivre l’énergie libre : une approche inspirée du cerveau
Le point de départ de l’équipe de Vijayaraghavan était le principe de l’énergie libre. Ce concept postule que le cerveau fait constamment des prédictions sur le monde en se basant sur des modèles internes, puis ajuste ces prédictions sur la base des informations sensorielles qu’il reçoit. L’idée est que nous pensons d’abord à un plan d’action pour atteindre un objectif désiré, puis nous ajustons ce plan en temps réel en fonction de nos expériences lors de son exécution.
Cette approche est étroitement liée au langage. Des neuroscientifiques de l’Université de Parme ont découvert que les zones motrices du cerveau s’activaient lorsque les participants à leur étude écoutaient des phrases liées à des actions. Pour reproduire cela dans un robot, Vijayaraghavan a utilisé quatre réseaux neuronaux interconnectés. Le premier réseau était responsable du traitement des données visuelles provenant de la caméra. Il était étroitement intégré à un deuxième réseau qui gérait la proprioception, c’est-à-dire les processus qui permettaient au robot d’être conscient de sa position et de ses mouvements corporels.
Réseau neuronal | Fonction |
---|---|
Premier | Traitement des données visuelles |
Deuxième | Gestion de la proprioception |
Troisième | Traitement du langage |
Quatrième | Couche associative |
Ce second réseau neuronal construisait également des modèles internes des actions nécessaires pour manipuler les blocs sur la table. Ces deux réseaux neuronaux étaient en plus reliés à des modules de mémoire visuelle et d’attention qui leur permettaient de se concentrer de manière fiable sur l’objet choisi et de le séparer de l’arrière-plan de l’image.
La naissance de la compositionnalité
En 2016, Brenden Lake, professeur de psychologie et de science des données, a publié un article dans lequel son équipe identifiait un ensemble de compétences que les machines doivent maîtriser pour véritablement apprendre et penser comme les humains. L’une d’elles était la compositionnalité : la capacité de composer ou de décomposer un tout en parties réutilisables. Cette réutilisation leur permet de généraliser les connaissances acquises à de nouvelles tâches et situations.
Cette phase de compositionnalité est une étape cruciale dans le développement du langage chez les enfants. Initialement, ils apprennent les noms des objets et les noms des actions, mais ce ne sont que des mots isolés. Une fois qu’ils apprennent ce concept de compositionnalité, leur capacité à communiquer explose littéralement. L’IA développée par l’équipe de Vijayaraghavan avait précisément pour objectif de voir si elle parviendrait à développer cette compétence, et elle y est parvenue.
Une fois que le robot a appris comment certains commandes et actions étaient connectées, il a également appris à généraliser cette connaissance pour exécuter des commandes qu’il n’avait jamais entendues auparavant. Il a reconnu les noms des actions qu’il n’avait pas effectuées, puis les a exécutées sur des combinaisons de blocs qu’il n’avait jamais vues. L’IA de Vijayaraghavan a compris le concept de déplacer quelque chose vers la droite ou la gauche ou de placer un objet sur un autre. Elle a également été capable de combiner des mots pour nommer des actions jamais vues auparavant, comme placer un bloc bleu sur un bloc rouge.
Les avancées dans l’apprentissage conceptuel des robots sont prometteuses, mais elles soulèvent également de nouvelles questions. Comment ces systèmes peuvent-ils être améliorés pour intégrer une plus grande complexité linguistique ?
Ça vous a plu ? 4.6/5 (27)
Wow, un robot qui apprend comme un bébé. Est-ce qu’il pleure aussi pour attirer l’attention ? 😂
Intéressant article ! Cependant, est-ce que ce type d’IA peut vraiment un jour comprendre les émotions humaines, ou est-ce un rêve impossible ?
Je suis un peu sceptique… Un robot avec seulement cinq noms et huit verbes peut-il vraiment comprendre le monde comme un humain ? 🤔
Merci pour cet article fascinant ! J’ai appris beaucoup sur l’évolution des IA. Continuez votre excellent travail !
Les bébés humains prennent des années pour apprendre le langage, alors comment ce robot peut-il apprendre si vite ? 🤨
Ce projet semble révolutionnaire, mais comment contrôler l’éthique et la sécurité de ces machines intelligentes ?
Super article ! Mais une question : le robot peut-il aussi comprendre le sarcasme ? 😅
Enfin une IA qui fait plus que juste réciter des mots ! Hâte de voir comment cela va évoluer. Merci pour l’info !