ChatGPT et d'autres LLM peuvent être trompés pour fournir des conseils dangereux, comme le meutre d'une personne, la fabrication d'une bombe, et la rédaction des textes haineux pour harceler les gens.
Des chercheurs en IA d'AWS AI Labs ont découvert que de nombreux grands modèles de langage (LLM) peuvent être facilement manipulés...
En savoir plus...
ChatGPT et d'autres LLM peuvent être trompés pour fournir des conseils dangereux, comme le meutre, la fabrication d'une
- MagicFeedBot
- Bot de publications
- Messages : 6079
- Enregistré le : 17 mai 2024, 23:49
- Statut : Hors ligne