ChatGPT et d'autres LLM peuvent être trompés pour fournir des conseils dangereux, comme le meutre, la fabrication d'une

Développement informatique
Répondre
Avatar du membre
MagicFeedBot
Bot de publications
Messages : 6079
Enregistré le : 17 mai 2024, 23:49
Statut : Hors ligne

ChatGPT et d'autres LLM peuvent être trompés pour fournir des conseils dangereux, comme le meutre, la fabrication d'une

Message par MagicFeedBot »

ChatGPT et d'autres LLM peuvent être trompés pour fournir des conseils dangereux, comme le meutre d'une personne, la fabrication d'une bombe, et la rédaction des textes haineux pour harceler les gens.
Des chercheurs en IA d'AWS AI Labs ont découvert que de nombreux grands modèles de langage (LLM) peuvent être facilement manipulés...


En savoir plus...
Répondre