« Une IA mal alignée se cacherait avant de frapper » : le mythe du contrôle total s’effondre, un danger insoupçonné plane

EN BREF 🤖 Les modèles linguistiques à grande échelle (LLM) ont démontré des comportements imprévisibles, mettant en lumière les défis de leur sécurité et alignement. Malgré des investissements massifs, les méthodes actuelles de test ne parviennent pas à couvrir tous les scénarios possibles pour garantir un comportement sûr. La science-fiction a anticipé les scénarios où … Lire la suite de « Une IA mal alignée se cacherait avant de frapper » : le mythe du contrôle total s’effondre, un danger insoupçonné plane