___alt a écrit :
Chais pas combien c'est payé reviewer mais chuis pas sûr que ça soit assez payé reviewer.
|
pour le coup aucune des vidéos ne contient de CSAM elle memes, mais c'est juste des vidéos "pour se remémorer le bon vieux temps", , ou farmer le fait que ce type de contenu semble populaire.
Petite mention spéciale aux gens qui font des blagues dans les commentaires genre "oh ben elle a eu une GROSSE surprise après"
C'est plus l'idée que des gens postent (et consomment) ce type de contenu qui est le truc choquant, sur la vidéo tu vois une gamine habillée qui sourie, y'a rien de spécial. (sauf que cette gamine est genre une victime connue de CSAM, et donc y'a une sorte de fan club
)
CSAM ce sont des cas assez rares, et c'est une équipe spécialisées qui bosse avec les autorités.
Les gens qui douillent le plus ce sont ceux qui font "self harm" (suicide en direct dans la vidéo par exemple, ça te reste bien en tete) et Graphic violence (là tu peux voir du gros gore qui tache)
A coté Adult c'est rigolo (au pire t'as du porn, bon...), et child safety c'est essentiellement des enfants faisant des trucs stupides ou dangereux, ou une vidéo naze de 3h donc 0.5sec montrent un gamin cul nu parce qu'il courrait par là, et donc on enlève.
Du coup quand les gens m'expliquent que Grok c'est bien parce qu'il faut pas limiter l'AI, j'ai tout de suite des grosses suspicions 
---------------
Jubi Photos : Flickr - 500px