ChatGPT et d'autres LLM peuvent être trompés pour fournir des conseils dangereux, comme le meutre, la fabrication d'une
Posté : 22 mai 2024, 06:12
ChatGPT et d'autres LLM peuvent être trompés pour fournir des conseils dangereux, comme le meutre d'une personne, la fabrication d'une bombe, et la rédaction des textes haineux pour harceler les gens.
Des chercheurs en IA d'AWS AI Labs ont découvert que de nombreux grands modèles de langage (LLM) peuvent être facilement manipulés...
En savoir plus...
Des chercheurs en IA d'AWS AI Labs ont découvert que de nombreux grands modèles de langage (LLM) peuvent être facilement manipulés...
En savoir plus...