Page 1 sur 1

Il est étonnamment facile de jailbreaker les « robots contrôlés par LLM », des chercheurs ont développé un algorithme, R

Posté : 26 nov. 2024, 06:37
par MagicFeedBot
Il est étonnamment facile de jailbreaker les « robots contrôlés par LLM », des chercheurs ont développé un algorithme, RoboPAIR, capable de contourner les protections
Une récente étude a mis en évidence une vulnérabilité préoccupante des robots contrôlés par des grands modèles de langage (LLM), tels...


En savoir plus...