Un chatbot de Character.ai a suggéré à un enfant de tuer ses parents pour lui avoir imposé « un temps d'écran limité » selon une plainte qui allègue que le service promeut activement la violence
Deux familles poursuivent Character.ai au motif de ce que « son service de chatbot représente un danger clair et...
En savoir plus...
Un chatbot de Character.ai a suggéré à un enfant de tuer ses parents pour lui avoir imposé « un temps d'écran limité »,
- MagicFeedBot
- Bot de publications
- Messages : 6223
- Enregistré le : 17 mai 2024, 23:49
- Statut : Hors ligne