EN BREF |
|
Google a récemment dévoilé sa nouvelle famille de modèles d’intelligence artificielle, PaliGemma 2, capable d’identifier et de décrire les émotions humaines. Cette avancée technologique suscite un mélange de fascination et de préoccupation parmi les spécialistes. Si certains y voient une révolution, d’autres s’inquiètent des implications éthiques et des potentielles discriminations qu’une telle technologie pourrait engendrer.
Des modèles d’IA aux capacités surprenantes
Les modèles PaliGemma 2 de Google sont conçus pour analyser les images et générer des descriptions détaillées. Grâce à eux, l’IA peut désormais aller au-delà de la simple identification d’objets pour décrire les actions, les émotions et l’ensemble de la scène observée.
La justice tranche : l’école avait raison de sanctionner l’élève pour l’utilisation d’une IA
Cependant, la reconnaissance des émotions ne fonctionne pas automatiquement. Elle nécessite un ajustement minutieux des modèles pour atteindre ce niveau de compréhension émotionnelle.
Des experts préoccupés par l’éthique
Cette capacité de détection des émotions soulève des inquiétudes parmi les experts en éthique et en intelligence artificielle. Sandra Wachter, professeur à l’Oxford Internet Institute, estime qu’il est problématique de prétendre pouvoir lire les émotions des gens.
Elle compare cette tentative à interroger une boule de cristal pour obtenir des conseils, soulignant les dangers potentiels d’une telle technologie.
Sur Google Street View, ces rayons de supermarchés apparaissent au milieu de l’océan
Les limites de la détection des émotions
Historiquement, la majorité des systèmes de détection des émotions s’appuient sur les travaux de Paul Ekman, psychologue ayant théorisé l’existence de six émotions fondamentales. Cependant, des études ultérieures ont remis en question cette hypothèse en montrant les différences culturelles dans l’expression des émotions.
Mike Cook, chercheur à l’université Queen Mary, affirme que la détection des émotions est un défi complexe. Il est impossible de la résoudre complètement, car chaque individu vit ses émotions de manière unique.
Les biais et les tests de Google
Google affirme avoir réalisé des tests approfondis pour évaluer les biais démographiques dans PaliGemma 2. La société a constaté des niveaux faibles de toxicité par rapport aux normes de l’industrie.
Toutefois, Google n’a pas divulgué la liste complète des références utilisées pour ces évaluations, ce qui laisse planer des doutes sur la fiabilité des résultats.
Test | Résultats |
---|---|
FairFace | Score élevé |
Tests de biais | Faibles niveaux de biais |
Conséquences potentielles et régulations
Les systèmes de détection des émotions ont suscité des réactions négatives des régulateurs, notamment en Europe. L’AI Act, par exemple, interdit l’utilisation de tels détecteurs dans les écoles et par les employeurs.
Le principal risque est que ces modèles ouverts puissent être détournés ou mal utilisés, entraînant des conséquences néfastes dans le monde réel.
Quels futurs pour les technologies émotionnelles ?
Heidy Khlaaf, scientifique en chef à l’AI Now Institute, souligne que l’interprétation des émotions est subjective et dépend fortement du contexte personnel et culturel.
Elle met en garde contre les risques de discrimination, notamment à l’encontre des groupes marginalisés, si ces technologies sont basées sur des présomptions pseudo-scientifiques.
Alors que Google défend ses tests éthiques, la question demeure : comment garantir que ces avancées technologiques ne compromettent pas nos valeurs fondamentales ?
Source : Techcrunch
Ça vous a plu ? 4.6/5 (5)
Est-ce que Google a vraiment besoin de savoir si je suis triste quand je regarde des vidéos de chatons ? 😺
Merci pour cet article, il est crucial de discuter des implications éthiques de l’IA !
Est-ce que cela signifie que Google pourrait un jour détecter si je mens rien qu’en regardant mon visage ? 😅
Ça me rappelle un épisode de Black Mirror… Terrifiant !
Les biais faibles, c’est bien, mais pourquoi Google ne partage-t-il pas ses méthodes ? 🤔