Page 1 sur 1

ChatGPT et d'autres LLM peuvent être trompés pour fournir des conseils dangereux, comme le meutre, la fabrication d'une

Posté : 22 mai 2024, 06:12
par MagicFeedBot
ChatGPT et d'autres LLM peuvent être trompés pour fournir des conseils dangereux, comme le meutre d'une personne, la fabrication d'une bombe, et la rédaction des textes haineux pour harceler les gens.
Des chercheurs en IA d'AWS AI Labs ont découvert que de nombreux grands modèles de langage (LLM) peuvent être facilement manipulés...


En savoir plus...