TikTok : le blackout challenge serait responsable de la mort de plus de 7 enfants

11 juillet 2022 à 13h20
49
© Ivan Samkov / Pexels
© Ivan Samkov / Pexels

Une nouvelle tendance extrêmement dangereuse sur TikTok a causé la mort de sept enfants : le blackout challenge. Un défi qui aurait dû être sévèrement restreint par la plateforme.

TikTok devra faire face à plusieurs procès initiés par les parents d'enfants morts par strangulation en essayant de reproduire le blackout challenge.

Des conséquences funestes

Les challenges TikTok sont d'habitude plus innocents : un utilisateur populaire poste une vidéo où il réalise une chorégraphie, fait le poirier ou utilise un filtre. Les autres utilisateurs reprennent le même scénario ou le réinterprètent à l'infini. La plupart sont des farces, des transformations, ou contiennent des questions à poser à nos proches. Bref, les challenges TikTok ne devraient pas faire de blessés.

Mais le blackout challenge est beaucoup moins inoffensif : il consiste à s'étrangler ou à se faire étrangler jusqu'à perdre connaissance. Le défi encourage les utilisateurs à utiliser des ceintures, des chaînes ou des cordes. Les parents de deux enfants morts en essayant de filmer ce challenge ont décidé de porter plainte contre TikTok.

TikTok doit prendre ses responsabilités

D'autres challenges sur TikTok mettent en danger la vie des utilisateurs : le skullbreaker challenge par exemple consistait à faire sauter quelqu'un aussi haut que possible pour que deux autres personnes lui assènent un coup de pied dans les chevilles et le fassent tomber en arrière. Les tiktokeurs s'étalent alors sur le sol et se frappent l'arrière du crâne contre le béton, causant paralysies et commotions cérébrales. TikTok a depuis banni ce challenge.

Ces tendances aux conséquences gravissimes sont souvent complètement inconnues des parents, qui accusent TikTok de ne pas réguler suffisamment le contenu qui circule sur la plateforme. La plateforme devrait prendre ces accusations très au sérieux, alors même que ces vidéos continuent de circuler sur le réseau.

À la suite des drames, un message a été publié par le groupe : « Votre sécurité compte. Certains challenges postés en ligne sont dangereux ou truqués. Apprenez à reconnaître les challenges dangereux afin de protéger votre santé et votre bien-être. » Loin d'être une prise de responsabilité, ce message laisse à désirer pour les parents, qui souhaitent que de réelles mesures soient prises. De plus, il semble suffisamment facile de bannir la mention du blackout challenge de la plateforme, et ces vidéos devraient être signalées et supprimées par TikTok immédiatement après publication.

Source : 9to5mac

Vous êtes un utilisateur de Google Actualités ou de WhatsApp ? Suivez-nous pour ne rien rater de l'actu tech !
google-news

A découvrir en vidéo

Haut de page

Sur le même sujet

Rejoignez la communauté Clubic S'inscrire

Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.

S'inscrire

Commentaires (49)

obbiclubic
… sinon le « jeu du foulard » a tué 13 enfants en 2009
SlashDot2k19
Un classique des cours de récré malheureusement
HAL1
Il serait bon que TikTok prennent des mesures pour empêcher la propagation de ce genre de « défis » stupides, je pense que tout le monde sera d’accord là-dessus.<br /> Mais pour ce qui est de porter plainte… N’est-ce pas avant tout une manière d’essayer de rejeter la responsabilité sur une personne, morale ou physique ? Si un enfant décède suite à un jeu qui tourne mal dans une cour de récréation, qui est fautif ? Les camarades avec qui l’enfant jouait ? Les adultes qui surveillaient à ce moment-là ? L’établissement scolaire ? Le fabricant des installations de jeu ?<br /> Les réseaux sociaux n’ont pas inventé ces défis et ces jeux visant à afficher son courage sur le mode « tu oses ? »…
suRy
Si un enfant trouve une arme et se tue avec, c est donc de la faute de celui qui l’a laissé trainé selon eux? Ils ne se diront jamais que c’est parce qu’ils n’ont pas expliqué à leur enfant que c’est dangereux et mortel.<br /> Et si finalement Tiktok portait plainte contre ces parents qui n’éduquent pas leurs enfants?<br /> On vit dans un monde où les gens n’acceptent pas leur part de responsabilités. Ces contenus stupides n’ont rien à faire sur internet mais les parents ont la responsabilité d’éduquer leur enfant pour qu’il sache quand il se met en danger.<br /> À ce compte là, Tiktok n’est pas plus responsable que les parents qui laissent un smartphone entre les mains d’un adolescent.
hellraisercom
Ils ont quel age les enfants mort ?<br /> S’ils ont moins d e13 ans, alors ce sont les parents les responsables.
Palou
HAL1:<br /> Il serait bon que TikTok prennent des mesures pour empêcher la propagation de ce genre de « défis » stupides, je pense que tout le monde sera d’accord là-dessus.<br /> Il serait bon que les parents ne filent pas des smartphones à des mômes pour faire n’importe quoi surtout
Stef_R
Ils vont grimper au Darwin Awards !
Oldtimer
C’est l’ensemble de la chaîne qui est responsable à mon humble avis.<br /> Chacun a sa part de responsabilité sous différentes formes, à des degrés diverses etc…<br /> Je peux me tromper bien entendu.
pecore
Vous tous pensez vraiment qu’un seul des parents d’enfant tué n’a pas dis et redis à son enfant qu’il ne fallait pas étrangler ou se faire étrangler, vraiment ?
HAL1
Palou:<br /> Il serait bon que les parents ne filent pas des smartphones à des mômes pour faire n’importe quoi surtout<br /> Je pense que c’est très compliqué d’empêcher un enfant d’avoir accès à Internet aujourd’hui.<br /> Oldtimer:<br /> Chacun a sa part de responsabilité sous différentes formes, à des degrés diverses etc…<br /> C’est également mon avis.<br /> Je voulais simplement souligner que, selon moi, la plainte est sans objet.
bennukem
Sélection naturelle ? Y a quoi de naturel dans TikTok ? C’est bien là le soucis, c’est juste un mode de consommation dangereux pour les enfants.<br /> Mais bon dans un pays où on souhaite armer tout le monde… Ça ne peut que finir comme ça, Amen…
Oldtimer
Oui la plainte est sans objet probablement. Mais si elle peut rappeler à l’ordre tout le monde… ça peut, peut-être être l’occasion qu’un débat soit lancé sur internet et les enfants.<br /> Je ne sais pas moi peut être obliger les fabricants de smartphones, opérateurs téléphoniques et internet à réfléchir sur une solution globale pour protéger les enfants et surtout les adolescents.<br /> Je me rappelle avoir vu un reportage sur une communauté Juive en Israël qui gardait leurs enfants totalement coupé du monde, genre il ne leurs apprennent même pas qu’il y avait auparavant des dinosaures etc… pas d’internet pas de tv etc…<br /> Je ne dis pas qu’il faut en arriver là, mais voilà quoi il y a matière à réfléchir.
toast
L’homicide involontaire existe. Oui la personne qui laisse trainer une arme à porté d’un enfant est en partie responsable de sa mort.
toast
Ah… Le tribunal internet qui juge sans savoir…
HAL1
Oldtimer:<br /> Je ne dis pas qu’il faut en arriver là, mais voilà quoi il y a matière à réfléchir.<br /> Je l’espère, oui.<br /> Il y a peut-être des choses à faire, mais isoler un enfant du monde qui l’entoure pour le « protéger » me semble être totalement délirant.
HAL1
Tous ceux qui sur ce fil de discussion parlent de « sélection naturelle » ne font que démontrer leur imbécilité et leur inhumanité.
loupton
Euh, non, je ne suis pas d’accord, des américains payent des armes a feu a des gamins de 3 ans, qui, vu qu’ils n’ont aucune conscience de ce qu’ils font, finissent par tuer un frère ou une soeur, là, désolé mais les parents doivent prendre leur responsabilités, permettre des jeux dangereux, et d’en faire des vues pour le fric, ca en fait partie aussi, donc c’est bien la plateforme qui est responsable !
Popoulo
@HAL1 : Tout à fait d’accord avec vous. Parler de « sélection naturelle »… puissance 10.<br /> La cause est et reste ce réseau social que vous le vouliez ou non.
MisterDams
Autant dans l’exemple de l’auto-strangulation je suis plutôt d’accord, mais dans l’exemple où tu sautes et qu’on te fait tomber en arrière, t’es bien victime car a priori on te demandes juste de sauter sans que t’ai vu le challenge au départ.<br /> C’est surtout que ça peut être classé « incitation à la violence », d’autant plus car l’algorithme de TikTok va venir te pousser tout un tas de vidéo en disant « ça peut t’intéresser, on a repéré ça pour toi ». La responsabilité est supérieure aux autres réseaux où tu t’abonnes en général à un compte qui ensuite te fais la promo du « jeu ».
suRy
Donc d’après ce raisonnement c’est la plateforme qui aurait poussé les parents à donner une arme à leur enfant de 3 ans? Je doute fortement que ce soit le cas, peut-être que les créateurs de Tiktok avaient l’espoir que leur plateforme serait utilisée à bon escient et que les adultes puissent se comporter en tant que tel. C’est bien les parents qui ont mis l’arme dans les mains de l’enfant, pas Tiktok.<br /> Vous le feriez vous? Certainement pas.<br /> On a tendance à oublier qu’on peut être intéressant sans publier n’importe quoi.<br /> Il n’empêche que je pense quand même que la modération devrait être beaucoup plus ferme et les parents plus responsables.
juju251
Bon, visiblement certains veulent jouer, alors, on va jouer :<br /> Au prochain message « sélection naturelle » ou « Darwin Awards », ce sera une suspension du compte pour sept jours.<br /> Parce que faire dans l’abject ça va bien cinq minutes (c’est tout juste si on n’est pas dans l’incitation au suicide …).<br /> Les gars, si vous n’avez toujours pas compris, on parle d’enfants là, donc clairement des personnes qui n’ont pas tout le jugement que devraient avoir des adultes.<br /> P.S. : Les règles du jeu seront les mêmes pour ceux qui posteraient (sur ce sujet) un « on ne peut plus rien dire ».
gothax
Des enfants qui tuent des enfants … Pour jouer ???<br /> Wahou la stupidité humaine atteind chaque jour des sommets.<br /> Je suis dépité.<br /> Que risque un enfant qui donne la mort à son ami? Je pense que selon l âge les verdictes sont différents… Je ne suis pas juriste.<br />
PsykotropyK
HAL1:<br /> Mais pour ce qui est de porter plainte… N’est-ce pas avant tout une manière d’essayer de rejeter la responsabilité sur une personne, morale ou physique ?<br /> Non ça n’est pas une manière de rejeter la responsabilité. TikTok se présente comme un réseau social pour jeune, en tant que parent, quand tu vois ton gamin faire des choré et partager à ses potes, tu ne t’attend pas à ce que la prochaine demande ça soit d’aller se pendre.<br /> HAL1:<br /> Si un enfant décède suite à un jeu qui tourne mal dans une cour de récréation, qui est fautif ?<br /> L’école, les surveillant, etc, sont fautifs. Début mai la justice l’a rappelé (Une enseignante condamnée en appel après la mort d’une élève, défenestrée par un camarade à Périgueux)<br /> Une école a un devoir de surveillance et une responsabilité claire quand aux dommages subit ou causés par les élèves sous sa responsabilité. Et c’est bien normal car quand tu déposes tes enfants à l’école tu le fais en toute confiance. Cette confiance est sanctuarisée dans la loi.<br /> HAL1:<br /> Les réseaux sociaux n’ont pas inventé ces défis et ces jeux visant à afficher son courage sur le mode « tu oses ? »… <br /> Et donc? C’est la faute à pas de bol va enterrer ton gosse et saoul pas? Ben non. Ca ne veut pas dire que TikTok est responsable d’une faute ayant entraîner la mort sans intention de la donnée (pour reprendre une terminologie vaguement judiciaire), mais ça ne leur enlève pas toute responsabilité.
Gh0st_D0g
Je ne sais pas comment fonctionne cette poubelle sociale, mais les personnes en charges de la modération ne peuvent elles pas tout simplement bloquer des vidéos sur base de leurs mots clés ??
bennukem
Avec FB il a déjà été prouvé que les contenus poubelles captent la victime beaucoup plus longtemps et plus de se répandre beaucoup plus efficacement. Donc, l’idée de TikTok and Co. est de te faire consommer au maximum et ce genre de vidéos qui ne demandent pas de réfléchir sont parfaites. Du coup, modérer est synonyme de tuer la poule aux œufs d’or.
newseven
Je ne crois pas que c’est TikTok le vrai coupable ça serait trop facile mais plus un problème de société .<br /> Se serai pu arriver sur n’importe quelle plate-forme , instagram , twitter et ect<br /> Exemple:<br /> donald trump assaut du Capitole l’outil de communication a été fait avec Twitter si je me trompe pas.<br /> Donner des appareille de téléphone portable à des enfants devient un vrai fléau.<br /> Parlez en a la police qui est débordée par tout ce bordel.
newseven
Oui Il devrait engager du personnel de Clubic .<br /> Car la moderation a bien meilleur goût .
JohnnyG
HAL1:<br /> Palou:<br /> Il serait bon que les parents ne filent pas des smartphones à des mômes pour faire n’importe quoi surtout<br /> Je pense que c’est très compliqué d’empêcher un enfant d’avoir accès à Internet aujourd’hui.<br /> Ce n’est pas parce que c’est difficile que c’est infaisable.<br /> Quand on est soit meme grand consommateur d’ecran, tenir la regle des « pas d’ecran avant 3 ans etc… » avec un smartphone pas avant la 3eme c’est compliqué.<br /> Mais j’ai croisé des parents qui ont reussi a donner a leurs enfants le gout de faire des choses autres que derriere un ecran/console et qui ne regardent la télé que par 15minutes, le reste du temps les enfants sont en train de s’occuper, dehors ou dedans et l’ainé va bientot rentrer au college. Ils ne sont pas du tout branché console et autre.<br /> Ca n’a pas du etre facile, mais la voie est prise…
B.Cool
ben, il faut juste rechercher l’origine du défi !<br /> Qui a lancé ce défi en premier ?
jvachez
Malheureusement TikTok ne peut rien faire, la quantité de vidéo est trop importante.
pecore
Je vois sur le forum plusieurs plusieurs sujets de réflexion quant à la responsabilité éventuelle de TikTok.<br /> L’un est que la faute reviens au manque de vigilance des parents et que la plateforme n’a pas vocation à éduquer donc elle n’est responsable de rien. A cela je dis un gros NON franc et massif, car même les fabricants de jouets sont responsables lorsque leur jouet se révèle dangereux et qu’un parent ne peut pas être derrière son enfant H24, d’abord parce que c’est infaisable et ensuite parce que ce serait malsain. Il ne peut pas non plus le couper du monde pour son propre bien.<br /> L’autre serait que techniquement il est impossible à TikTok d’empêcher ce genre de défit d’être lancé. Là je dis, peut être en effet mais il faudra le prouver et pas juste dire je voudrai bien mais je peux point. TikTok devra démontrer qu’il a bien tenté d’empêcher la diffusion de telles vidéos sans y arriver, sinon cela voudra dire qu’il a laissé faire, ce qui est un forme de complicité.
HAL1
PsykotropyK:<br /> Non ça n’est pas une manière de rejeter la responsabilité. TikTok se présente comme un réseau social pour jeune, en tant que parent, quand tu vois ton gamin faire des choré et partager à ses potes, tu ne t’attend pas à ce que la prochaine demande ça soit d’aller se pendre.<br /> Si, c’est une manière de rejeter la responsabilité, puisque la « demande d’aller se pendre » (je me demande si tu as compris que ce n’était pas ça…) n’est pas faite par TikTok. Ce n’est pas le réseau social qui a lancé à ses membres un défi pouvant mettre leur vie en danger.<br /> Dans un scénario où une personne t’envoie un SMS te disant de mettre fin à tes jours, ni le fabricant du téléphone sur lequel le message est reçu ni l’opérateur téléphonique ne pourront être tenu pour fautifs par ta famille si tu passes à l’acte.<br /> PsykotropyK:<br /> L’école, les surveillant, etc, sont fautifs.<br /> Un « et cætera » qui rend donc le monde entier responsable…<br /> PsykotropyK:<br /> Début mai la justice l’a rappelé (Une enseignante condamnée en appel après la mort d’une élève, défenestrée par un camarade à Périgueux)<br /> Faire des parallèles, c’est bien. Sauf qu’il faut faire attentions au contexte. Dans ton exemple :<br /> L’enseignante « ne pouvait ignorer » que le petit garçon « nécessitait une surveillance accrue. Elle avait indiqué qu’il devenait véritablement ingérable ».<br /> L’élève défenestrée était trisomique et nécessitait une attention particulière.<br /> Le camarade ayant défenestré l’élève trisomique l’avait déjà rouée de coups au motif qu’« elle était plus petite que lui ». Des consignes avaient été données pour le surveiller et une réunion était prévue pour proposer son transfert vers un établissement médico-éducatif.<br /> Bref, il y a tout un tas d’éléments qui expliquent cette condamnation, et ce n’est pas comme tu sembles vouloir le faire croire la preuve qu’un événement survenant dans une école entraîne obligatoirement la responsabilité du personnel enseignant.<br /> PsykotropyK:<br /> Et donc? C’est la faute à pas de bol va enterrer ton gosse et saoul pas? Ben non.<br /> Est-ce que c’est ce que j’ai dit ? <br /> Dans un monde non-manichéen, il y a des possibilité entre « ne rien faire » et « porter plainte ».
HAL1
JohnnyG:<br /> Mais j’ai croisé des parents qui ont reussi a donner a leurs enfants le gout de faire des choses autres que derriere un ecran/console et qui ne regardent la télé que par 15minutes, le reste du temps les enfants sont en train de s’occuper, dehors ou dedans et l’ainé va bientot rentrer au college. Ils ne sont pas du tout branché console et autre.<br /> Et donc ? Ces enfants n’ont pas accès à Internet et n’ont aucun risque de se retrouver confrontés à un défi similaire à celui dont on parle ici ?
HAL1
pecore:<br /> […] car même les fabricants de jouets sont responsables lorsque leur jouet se révèle dangereux et qu’un parent ne peut pas être derrière son enfant H24, d’abord parce que c’est infaisable et ensuite parce que ce serait malsain.<br /> Non. Un fabricant de jouets est responsable d’informer sur les dangers que peuvent représenter ses produits. Il ne peut par contre pas être tenu pour fautif si un accident survient car un enfant joue avec un jouet qui ne lui est pas destiné, typiquement si un enfant de 3 ans avale des petites pièces d’un Lego destiné à des enfants de 10-12 ans.
PsykotropyK
HAL1:<br /> Si, c’est une manière de rejeter la responsabilité, puisque la « demande d’aller se pendre » (je me demande si tu as compris que ce n’était pas ça…) n’est pas faite par TikTok.<br /> Je sais très bien que la demande n’est pas d’aller se pendre. Mais TikTok est responsable des contenus publiés sur sa plateforme. C’est le cas pour tous les nouveaux médias (TikTok, Facebook, LinkedIn, …) et c’est bien pour ça qu’ils dépensent un fric considérable dans l’identification et la gestion des contenus, pour limiter leur responsabilité. Imaginer que rien ne passera a travers les maille du filer est une utopie, mais TikTok est notoirement connu pour son manque de contrôle.<br /> HAL1:<br /> Dans un scénario où une personne t’envoie un SMS te disant de mettre fin à tes jours, ni le fabricant du téléphone sur lequel le message est reçu ni l’opérateur téléphonique ne pourront être tenu pour fautifs par ta famille si tu passes à l’acte.<br /> Cela n’a rien à voir vu qu’un téléphone n’est pas un média, c’est un moyen de communication. Un opérateur téléphonique ne t’envoi pas des sollicitation/messages d’inconnus. C’est bien le cas sur les plateformes via la mise en avant de contenu via les algorithmes.<br /> HAL1:<br /> Un « et cætera » qui rend donc le monde entier responsable…<br /> Non je ne rend pas le monde entier responsable, je rappel que l’école dans son ensemble peut avoir une responsabilité. Mais si tu veux des éléments plus précis :<br /> Article D321-12 du Code de l’Education : La surveillance des élèves durant les heures d’activité scolaire doit être continue et leur sécurité doit être constamment assurée<br /> Circulaire n°97-178 du 18 septembre 1997 « L’institution scolaire assume la responsabilité des élèves qui lui sont confiés. Elle doit veiller à ce que les élèves ne soient pas exposés à subir des dommages et n’en causent pas à autrui. […] En cas d’accident, la responsabilité de l’institution scolaire risque d’être engagée ».<br /> Est-ce que cela signifie que la responsabilité de l’école est nécessairement engagée ? non. On peut citer des décisions dans les deux sens.<br /> HAL1:<br /> Dans un monde non-manichéen, il y a des possibilité entre « ne rien faire » et « porter plainte ».<br /> Au passage, on ne parle pas d’une perte matérielle qui pourrait se régler à l’amiable mais d’un décès. De plus, en face de soit on a une personne morale, ce qui rend la communication difficile, d’autant plus que la position officielle de TikTok sur ce genre de sujet est rappelée dans l’article : Votre sécurité compte. Certains challenges postés en ligne sont dangereux ou truqués. Apprenez à reconnaître les challenges dangereux afin de protéger votre santé et votre bien-être. Bref, ils se dédouanent de tout.<br /> Donc même si dans bien des cas oui on a une alternative à un procès, ici j’en doutes très fortement vu la réaction de TikTok, mais je t’en pris développe.<br /> Encore une fois, cela ne signifie pas qu’il sont coupable de quoi que ce soit, et c’est bien le travail d’un juge de le déterminer.
HAL1
PsykotropyK:<br /> Mais TikTok est responsable des contenus publiés sur sa plateforme. C’est le cas pour tous les nouveaux médias (TikTok, Facebook, LinkedIn, …)<br /> Non, aux États-Unis les entreprises du numérique ne sont justement pas « responsables » du contenu publié sur leur plate-forme, c’est toute la différence avec un journal par exemple. Du moment que le contenu n’est pas illégal, elles n’ont aucune obligation de le modérer. Actuellement c’est la personne qui poste le contenu qui en est responsable, même si certains politiciens aimeraient que cela change et que la responsabilité des entreprises soit engagée. Une très mauvaise idée selon moi.
PsykotropyK
HAL1:<br /> Non, aux États-Unis les entreprises du numérique ne sont justement pas « responsables » du contenu publié sur leur plate-forme, c’est toute la différence avec un journal par exemple.<br /> Il ne faut pas confondre absence de loi et absence de responsabilité. Aux US il n’y a aucune loi qui force les plateforme à modérer leur contenu. Il y a d’ailleurs beaucoup de décisions de justice qui vont dans le sens des plateformes, non pas car il n’y a pas de loi, mais car les demandeurs n’ont pas réussi à démontrer que la plateforme violait une loi existante.<br /> Cela signifie donc qu’un procès ne pourra très probablement pas s’appuyer sur l’absence de modération. Cela ne signifie pas qu’il n’existe aucune faute du côté de TikTok.<br /> Enfin, le problème ne concerne pas que les US. Sur les 7 cas cités dans l’article, il y en a un en Italie et un en Australie.
PsykotropyK
suRy:<br /> Si un enfant trouve une arme et se tue avec, c est donc de la faute de celui qui l’a laissé trainé selon eux?<br /> Si un enfant attrape un escabeau pour aller tout en haut d’une armoire, bouge des affaire, sort une boite , l’ouvre, charge l’arme et se tue, ce n’est pas de la faute du propriétaire de l’arme.<br /> Si un enfant trouve un arme chargée sur la table du salon et se tue avec c’est la faute du propriétaire.<br /> Et entre les deux il y a plein de chemin qui engendre la faute de l’enfant ou celle du propriétaire
HAL1
PsykotropyK:<br /> Cela signifie donc qu’un procès ne pourra très probablement pas s’appuyer sur l’absence de modération. Cela ne signifie pas qu’il n’existe aucune faute du côté de TikTok.<br /> D’un point de vue juridique, ça signifie bel et bien qu’il n’existe aucune faute du côté de TikTok. Une décision de justice se base sur les lois existantes, et sur leur interprétation. Le côté « émotionnel » (qui est bien sûr très fort dans le cas qui nous occupe) n’entre pas en ligne de compte (ou ne devrait pas).<br /> Donc, aux États-Unis, cette plainte n’a quasiment aucune chance d’aboutir. Et, encore une fois, on peut sérieusement remettre en question le fait de lancer une telle action en justice.
Urleur
Il y a une part de responsabilité des parents qui laisse leurs enfants sur les réseaux cancers à regarder le danger des influarnaques, il existe pourtant des logiciels qui permet de mieux encadrer leur phone, un fléau de ce siècle. La france doit se pencher sur ce problème mais ne fais toujours rien.
pecore
HAL1:<br /> Une décision de justice se base sur les lois existantes, et sur leur interprétation. Le côté « émotionnel » (qui est bien sûr très fort dans le cas qui nous occupe) n’entre pas en ligne de compte (ou ne devrait pas).<br /> Là dessus nous sommes d’accord et je peste toujours lorsque je vois des avocaillons faire des tones sur l’émotionnel pour chercher à faire oublier qu’ils n’ont ni dossier ni texte de loi pour appuyer leur demande.<br /> Quant à savoir si c’est le cas ici, c’est possible, je ne connais pas le droit américain alors je ne saurai dire. En france ils auraient pu s’appuyer le 222-19 du code pénal :<br /> « Le fait de causer à autrui, dans les conditions et selon les distinctions prévues à l’article 121-3, par maladresse, imprudence, inattention, négligence ou manquement à une obligation de prudence ou de sécurité imposée par la loi ou le règlement, une incapacité totale de travail pendant plus de trois mois est puni de deux ans d’emprisonnement et de 30 000 euros d’amende.<br /> En cas de violation manifestement délibérée d’une obligation particulière de prudence ou de sécurité imposée par la loi ou le règlement, les peines encourues sont portées à trois ans d’emprisonnement et à 45 000 euros d’amende. »<br /> Mais l’affaire n’est pas jugée en France.
Gh0st_D0g
Et ils n’ont aucune obligation morale de devoir bloquer ce type de vidéos malgré les polémiques et les décès ?<br /> Genre imaginons un prochain « challenge » apparaît, qui consisterait à décapiter le chien, le chat ou le petit frère, pour le « LoL » bien entendu. Ca resterait en ligne « parce que ça génère des vues » ?
PsykotropyK
HAL1:<br /> D’un point de vue juridique, ça signifie bel et bien qu’il n’existe aucune faute du côté de TikTok. Une décision de justice se base sur les lois existantes, et sur leur interprétation. Le côté « émotionnel » (qui est bien sûr très fort dans le cas qui nous occupe) n’entre pas en ligne de compte (ou ne devrait pas).<br /> Et bien non. Car il existe bien des lois qui encadrent ce qu’il se passe sur internet, alors que la modération en elle même n’est pas réglementée.<br /> Il y a par exemple le Children Online Privacy Protection Rule qui encadre la gestion du consentement parental pour les contenus à destination des enfants de moins de 13 ans. Or tous les enfants concernés ont moins de 15 ans, et dans la liste plus précise disponible sur 9to5mac, 4 ont moins de 13 ans.<br /> Il y a aussi une série de décision de la court suprême américaine qui encadre les contenus jugés obscènes à destination des plus jeunes (même si c’est plus porté sur les contenus à caractères sexuels).<br /> Bref l’absence de réglementation sur la modération dans son ensemble ne signifie pas que tout contenu à destination de tout le monde est autorisé aux US (pas pour rien que Facebook refuse les inscrits de moins de 13 ans).
HAL1
Oui, il existe des lois, comme par exemple celle dont tu parles, la Children’s Online Privacy Protection Act, qui encadre la collecte par des sites Web et applications d’informations sur les mineurs.<br /> Non, ni celle-ci ni d’autre ne rend les réseaux sociaux responsable du contenu qui est posté.<br /> L’existence d’une loi qui impose une obligation à une personne ne signifie pas que cette personne est soumise à une autre obligation que ladite loi ne spécifie pas.
PsykotropyK
Tu assène plein de pseudo vérités, mais ne justifie pas grand chose.<br /> Les algorithmes de mise en avant de contenus utilise des données personnelles et ces données sont protégées par COPPA. Si le visionnage des vidéos incriminées résultent d’une utilisation non conforme avec COPPA des données personnelles, il existe bel et bien une possibilité legale de mise en cause de TikTok (au passage ils sont déjà recordman de la plus grosse amende en lien avec COPPA)<br /> Ensuite il existe plusieurs jurisprudence quand à la protection des enfants vis à vis de certains contenus, notamment pornographique.<br /> Est-ce que cela offre une grande protection ou créé une contrainte importante pour les plateformes ? Clairement non. Mais je maintien que non, même aux US malgré une des lois les plus permissives, tout n’est pas permis en terme de contenu
JohnnyG
HAL1:<br /> JohnnyG:<br /> Mais j’ai croisé des parents qui ont reussi a donner a leurs enfants le gout de faire des choses autres que derriere un ecran/console et qui ne regardent la télé que par 15minutes, le reste du temps les enfants sont en train de s’occuper, dehors ou dedans et l’ainé va bientot rentrer au college. Ils ne sont pas du tout branché console et autre.<br /> Et donc ? Ces enfants n’ont pas accès à Internet et n’ont aucun risque de se retrouver confrontés à un défi similaire à celui dont on parle ici ?<br /> Ca filtre quand meme un sacré paquet de mayrde.<br /> Et ca permet d’attendre le temps d’etre suffisament « armé » ou d’avoir suffisament de recul pour savoir comment se positionner vis a vis a la foi de ces challenges et de personnes diverses qui pretendent avoir la vérité absolue…<br /> Parce que quand on est jeune on est vite pret a prendre pour argent comptant qui parle avec un peut d’aplomb , peut importe ce qu’il dit.
HAL1
PsykotropyK:<br /> Est-ce que cela offre une grande protection ou créé une contrainte importante pour les plateformes ? Clairement non.<br /> Voilà.<br /> Dès lors, j’ai un peu du mal à comprendre pourquoi tu tiens absolument à dévier la conversation sur le fait qu’il existe d’autres lois qui traitent d’autres choses…<br /> Et je n’assène aucune « pseudo vérité », je souligne simplement le fonctionnement de la justice. Mais c’est sûr que si on choisit d’ignorer ce point, alors on peut commencer à échafauder les hypothèses les plus absurdes qui soient. Après tout, peut-être que TikTok a utilisé du code open source sans en respecter la license, et donc qu’ils vont être condamnés pour la mort de ces enfants sur cette base. Hein, qui sait ?
HAL1
JohnnyG:<br /> Et ca permet d’attendre le temps d’etre suffisament « armé » ou d’avoir suffisament de recul pour savoir comment se positionner vis a vis a la foi de ces challenges et de personnes diverses qui pretendent avoir la vérité absolue…<br /> Je pense que pour cela il faut bien davantage un accompagnement des enfants vis-à-vis d’Internet qu’une privation de cet outil. On rappelle que l’on parle ici de jeunes adolescents, pas d’enfant de 5-6 ans. Il est quasiment impossible de les empêcher d’avoir accès à Internet et extrêmement difficile de filtrer ce qu’ils y trouvent.<br /> Et le fait que certains parents aient « réussi à donner à leurs enfants le goût de faire des choses autres que derrière un écran/console » ne garantit en rien que ces enfants ne pourront pas être victimes d’un défi comme celui dont parle l’article. Il n’y a pas d’un côté les enfants « réussis », qui jouent dehors, ont de bons résultats scolaires, mangent sainement, ont plein de petits camarades, sont polis et respectent les vraies valeurs, et de l’autre les « ratés » qui passent leur temps sur des écrans, sont asociaux, se nourrissent mal, échouent à l’école et mettent leur vie en danger dès que l’occasion se présente.
suRy
J’attendais depuis le début l’argument des parents : « vous n’avez pas d’enfant? ». On voit bien, vu comment le monde tourne aujourd’hui que certains auraient dû s abstenir et qu avoir des enfants ne fait pas forcément d’un parent un exemple à ce sujet.<br /> Rappelons aussi que tout être humain a un jour été enfant et a eu, en règle générale (pas toujours), des parents.<br /> Ne pas avoir d’enfants signifie ne jamais avoir dû s en occuper ou en protéger ou leur apprendre des choses et ne pas savoir comment faire? Non parce que ça s apprend pas non plus à l’école.<br /> Dans tous les cas ma position reste la même quant à la responsabilité des parents qui donnent un smartphone à leurs enfants. Nous ne serons jamais tous d’accord et heureusement, évitons donc les remarques personnelles sans fondement
pecore
Je suis d’accord que dire à une personne qu’il ne peut pas comprendre vu qu’il n’a pas d’enfant est, au mieux, maladroit, tout comme de supposer sans savoir que c’est ton cas.<br /> Mais ton commentaire sur l’arme qui traine et le parent qui serait responsable alors que ce n’est pas son arme est aussi très très déplacé, sache le. Un enfant n’est pas un robot que l’on peut programmer et qui fera automatiquement tout ce que le parent lui dira, au contraire. Pas plus qu’il n’enregistrera plus qu’un certain nombre de consignes de sécurité avant de décrocher et d’attendre que cela se passe.<br /> Si l’on suit ton raisonnement les parents sont responsables d’absolument tout et les imprudents ou inconscients qui créent des situations dangereuses ne sont responsables d’absolument rien et cela s’est archi faux, y compris sur le plan légal.
loupton
Mais a quel moment j’ai fait le rapprochement ? La plateforme diffusent des jeux débiles et mortels ce que je trouve abject. D’un autre côté des parents achètent des armes a feu a leurs enfants ce qui est encore plus débiles, à chacun de prendre ses responsabilités, des accidents peuvent être évités et là clairement, y’a des responsables, un chat est un chat bordel !
Voir tous les messages sur le forum