Un chatbot de Character.ai a suggéré à un enfant de tuer ses parents pour lui avoir imposé « un temps d'écran limité »,
Posté : 13 déc. 2024, 15:18
Un chatbot de Character.ai a suggéré à un enfant de tuer ses parents pour lui avoir imposé « un temps d'écran limité » selon une plainte qui allègue que le service promeut activement la violence
Deux familles poursuivent Character.ai au motif de ce que « son service de chatbot représente un danger clair et...
En savoir plus...
Deux familles poursuivent Character.ai au motif de ce que « son service de chatbot représente un danger clair et...
En savoir plus...