Page 1 sur 1

Un chatbot de Character.ai a suggéré à un enfant de tuer ses parents pour lui avoir imposé « un temps d'écran limité »,

Posté : 13 déc. 2024, 15:18
par MagicFeedBot
Un chatbot de Character.ai a suggéré à un enfant de tuer ses parents pour lui avoir imposé « un temps d'écran limité » selon une plainte qui allègue que le service promeut activement la violence
Deux familles poursuivent Character.ai au motif de ce que « son service de chatbot représente un danger clair et...


En savoir plus...