Facebook : une entreprise privée dégoûtée par le travail de modération

17 août 2023 à 09h15
33
© Nothing Ahead / Pexels
© Nothing Ahead / Pexels

Sama, entreprise spécialisée dans l'annotation et la modération de contenus pour diverses sociétés, a déclaré publiquement qu'elle regrettait d'avoir accepté la mission liée à la modération du contenu sur Facebook.

D'anciens salariés basés au Kenya disent avoir été traumatisés et ont décidé de porter plainte.

Des images choquantes par milliers

Travailler en tant que modérateur sur Internet est un travail difficile : en effet, on peut être amené à lire et voir des choses assez terrifiantes. De ce fait, il est compliqué de trouver les effectifs suffisants.

Comme beaucoup de très grandes entreprises, Meta sous-traite au moins en partie la modération de ses plateformes, exposant les travailleurs à des images sensibles. D'anciens employés de Sama, société basée au Kenya, ont déclaré avoir été traumatisés par certains des contenus qu'ils ont été contraints de visionner avant de les modérer.

Certains anciens salariés, dont Daniel Motaung, attaquent désormais l'entreprise américaine devant les tribunaux afin de faire reconnaître leur traumatisme. Ce dernier indique que la première vidéo qu'il a dû voir était une décapitation en direct, des images difficiles à oublier. Wendy Gonzales, directrice générale, a indiqué que cette activité de modération pour Meta ne représentait que 4 % du chiffre d'affaires, mais qu'elle n'a pas renouvelé le contrat en janvier dernier. Au micro de la BBC, elle a déclaré :

« Vous me demandez : "est-ce que je le regrette ?". Eh bien, je le dirais probablement de cette façon, oui. Si j'avais su ce que je sais maintenant, y compris le nombre d'opportunités et l'énergie que cela enlèverait à l'activité principale, je n'aurais pas conclu [l'accord]. »

© Time
© Time

Sama, encore et toujours

Dès qu'on parle de sous-traitance et de modération, Sama, qui se présente comme une société éthique, réapparaît sur les radars. L'entreprise californienne était déjà liée à une affaire dans laquelle Time accusait Sama d'avoir exploité des travailleurs kenyans pour modérer le contenu utilisé par OpenAI dans le cadre de ChatGPT. Salaires bas, pas d'assurance santé ni de jours de congés payés… Sama a été forcée de réagir.

En février 2022, tout en contestant les allégations de Time, l'entreprise avait augmenté ses salaires les plus bas. En 2018, la BBC avait déjà écrit sur Sama, mettant en avant des informations selon lesquelles les travailleurs regardaient énormément de contenus sensibles et qu'ils étaient sous-payés.

Cependant, de nombreux travailleurs, de même que la BBC, ont souligné l'énorme attractivité de Sama en Afrique, qui offre de nombreux emplois. L'entreprise a obtenu une certification B Corp de la part de plusieurs ONG, même si les scandales ont mis la certification en danger. Désormais, Sama ne travaille plus avec Meta, qui a cependant toujours besoin de nombreux modérateurs.

Facebook
  • Réseau social incontournable
  • Nombreuses fonctionnalités sociales
  • Services annexes variés (Messenger, Live, etc.)

Facebook pour Android est l'application mobile de la plateforme de réseau social Facebook conçue pour être utilisée sur les smartphones et tablettes Android. L'application permet aux utilisateurs d'accéder à leurs comptes Facebook, de consulter leur fil d'actualité, de publier des mises à jour, de partager des photos et des vidéos, de rejoindre des groupes et d'envoyer des messages à leurs amis et à leur famille. À télécharger sur Android dans sa dernière version en lieu et place de la version web !

Facebook pour Android est l'application mobile de la plateforme de réseau social Facebook conçue pour être utilisée sur les smartphones et tablettes Android. L'application permet aux utilisateurs d'accéder à leurs comptes Facebook, de consulter leur fil d'actualité, de publier des mises à jour, de partager des photos et des vidéos, de rejoindre des groupes et d'envoyer des messages à leurs amis et à leur famille. À télécharger sur Android dans sa dernière version en lieu et place de la version web !

Source : BBC

Mallory Delicourt

Historien finalement tombé dans le jeu vidéo, je me passionne pour ces deux domaines ainsi que pour l'espace, les sciences en général, la technologie et le sport. Streameur en pointillé, j'ai tellemen...

Lire d'autres articles

Historien finalement tombé dans le jeu vidéo, je me passionne pour ces deux domaines ainsi que pour l'espace, les sciences en général, la technologie et le sport. Streameur en pointillé, j'ai tellement de jeux à faire que j'ai dû créer un tableur. Rédacteur newseur depuis 6 ans, j'aime faire vivre l'actualité aux lecteurs.

Lire d'autres articles
Vous êtes un utilisateur de Google Actualités ou de WhatsApp ? Suivez-nous pour ne rien rater de l'actu tech !
google-news

A découvrir en vidéo

Rejoignez la communauté Clubic S'inscrire

Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.

S'inscrire

Commentaires (33)

MisterDams
Je vois pas en quoi ils peuvent gagner un procès contre Meta.<br /> On exige de Meta qu’ils modèrent les contenus.<br /> Meta engage une société pour le faire.<br /> La société engage des équipes pour le faire.<br /> Éventuellement la société peut dénoncer le contrat en disant que Meta a sciemment minimisé la typologie des contenus à modérer, mais c’est à elle de protéger ses salariés (suivi psychologique, alerte en amont…).
dredd
C’est ça le truc. Méta a probablement présenté la mission avec une description qui pourrait être jugée fausse et mensongère par omission.<br /> C’est une problématique quand même très complexe qui passe au dessus de pas mal de têtes quand tu lis les réactions des précédents sujets sur les traumatismes des modérateurs des réseaux sociaux.
Muggsy68
Les réseaux sociaux font perdre la boule.
StephaneGotcha
C’est malheureux … mais c’est le métier de modérateur.<br /> Pour une fois qu’il n’y aurait (presque) pas de débat, je ne vois pas pourquoi il n’y a pas déjà des IA qui font de la modération. J’imagine que pour les entraîner il faudrait encore «&nbsp;mettre les mains dans le cambouis&nbsp;» mais ensuite tout bénef.
kplan
La modération de contenus sur les réseaux sociaux, un domaine où une IA serait vraiment utile pour les contenus «&nbsp;extrêmes&nbsp;» afin d’éviter aux équipes de modération d’être surexposés à des contenus immondes. On est capable de détecter un nichon dans les tableaux de maître et de les censurer mais pour les vidéos de décapitation c’est à un humain de faire le job ?
F4FEnder
Quand on voit la puanteur qui traîne sur Facebook et qui n’est pas modéré, on imagine à peine ce qui est modéré.
Roger_Pimpon
Ce qui est malheureux, c’est qu’encore une fois, dés lors qu’il s’agit d’un travail, d’un vrai labeur avec sa charge de pénibilité avérée, on passe la main à la sous-traitance. Qui déresponsabilise de tout (alors que les cadres sont sur-payés soit disant au regard des responsabilités qu’ils doivent assumer). Dans une économie libérale pilotée par l’offre et la demande, et ne reposant pas pour accomplir «&nbsp;son miracle&nbsp;» sur l’exploitation de la misère et donc l’absence de liberté de choix, on devrait payer très cher les personnes acceptant d’accomplir ce type de besogne. Des profils rares.<br /> Les réseaux sociaux, une très grande partie de l’économie 2.0, s’épanouie en fait sur le principe de non responsabilité. C’est souvent la clef sur laquelle se repose leur montage économique. Ce qui permet ses réussites «&nbsp;exceptionnelles&nbsp;». Il serait peut être temps dans l’intérêt du plus grand nombre de recadrer ces choses là.
ccvman
Kenya, 3€ la journée de travail pour un employé
norwy
Meta est une poubelle numérique à ciel ouvert.<br /> S’habituer à l’odeur de la benne pour les dédouaner n’est pas une excuse.
Feunoir
Les videos/images devraient peut être être affichées sous forme de contenu flouté ou comme un canal+ analogique crypté pour les modérateurs.<br /> Si on devine ce qu’il se passe cela suffirait pour bloquer mais serait peut être moins traumatisant que le gore en 4k.<br /> Bon j’imagine le boulot à voir du flou toute la journée.
arbor111
Modéré au Kenya pour payer toujours moins cher ! Le milliardaire Mark Zuckerberg n’a pas les moyens de s’offrir des modêrateurs aux USA, en Europe ? Conséquence, les contenus sont soumis à la vision de modérateurs ultra religieux avec une pudibonderie digne du XVIe siècle.
superjoy
@arbor111<br /> Tu connais le Kenya ? Y es tu déjà allé?<br /> Et parce que les USA ne sont pas ultra religieux et pudibond? Les modérateurs ne font que suivre les regles dictées par facebook au US. Mais ton com’ est pas mal en termes d’etroitesse d’esprit et de mépris envers le Kenya…
arbor111
Je n’ai aucun mépris pour le Kenya qui n’est d’ailleurs pas le seul pays où Facebook sous-traite sa modération. Ce sont généralement des pays émergents.<br /> Pour la religion, je m’appuie sur des chiffres<br /> fr.m.wikipedia.org<br /> Religion au Kenya<br /> Les principales religions au Kenya (près de 48&nbsp;millions d'habitants en 2019, diasporas non comprises) sont le christianisme (80..85&nbsp;%) (Église catholique et protestantisme) et l’islam (10..11&nbsp;%), dans les années 2020.<br /> Selon les estimations de 2019&nbsp;:<br /> L'Église catholique au Kenya compte 13 millions de baptisés.<br /> La Convention baptiste du Kenya, fondée en 1971 , compterait en 2015 3&nbsp;252 églises et 600&nbsp;000 membres .<br />
glouric
pour info , une grande partie des modérateurs de Meta au USA ont été virés.
Eknal
Il serait temps d’arrêter de confier du boulot trash à des fragiles. Après tout on ne recrute pas des sensibles chez les pompiers si c’est pour ramasser littéralement des gens à la petite cuillère.
juju251
glouric:<br /> pour info , une grande partie des modérateurs de Meta au USA ont été virés.<br /> Source ?<br /> Parce que le «&nbsp;faut me croire fréro&nbsp;» très peu pour moi.<br /> Eknal:<br /> Il serait temps d’arrêter de confier du boulot trash à des fragiles.<br /> Meilleure excuse du monde pour ne jamais améliorer les conditions de travail des gens.<br /> S’il y a tant de contenu trash, c’est sans doute aussi symptomatique de la pensée de certains et peut-être qu’il y aurait pas mal de boulot là-dessus …
kplan
T’as pas l’air de connaître beaucoup de pompiers apparemment, sinon tu saurais que ramasser des gens à la petite cuillère ne se fait pas sans payer de sa personne. Même en étant préparé.<br /> Ensuite tu m’expliqueras comment on recrute des gens insensibles aux horreurs véhiculées sur les réseaux, diplôme, conditionnement psy, stabilité personnelle et familiale, etc.
Eknal
@juju251<br /> Aseptiser la société serait donc une bonne chose ?<br /> En attendant que le boulot soit fait, ce sont aux modérateurs de faire le nécessaire. Quand on sait que les réseaux sociaux contiennent ce qu’il y a de plus glauque, on ne confie pas ce travail à n’importe qui.<br /> Le problème avec les bots ou les IA c’est la prolifération des erreurs de jugement, il est donc préférable que ce travail soit fait par un humain. Malheureusement avec facebook il n’y a pas de moyen de contester et encore moins d’avoir un interlocuteur.<br /> @kplan<br /> Détrompe toi, je connais plusieurs pompiers dont un ancien pompier de Paris. Mon meilleur ami est lui aussi un ancien pompier volontaire. Ils m’ont raconté diverses histoires peu ragoutantes (suicidé avec un train, des histoires concernant des enfants, etc…). Ils ne font pas ramasser les morceaux par les nouvelles recrues mais par les éléments les plus solides, et heureusement.
juju251
Eknal:<br /> @juju251<br /> Aseptiser la société serait donc une bonne chose ?<br /> Est-ce ce que j’ai dit ?<br /> C’est toujours la même histoire (essayer de faire dire aux gens ce qu’ils n’ont pas dit) :<br /> Vu ce qui est moderé sur les réseaux sociaux, genre des vidéos de décapitations, voir même ici sur Clubic des messages d’incitations au meurtre (c’est très rare ici, mais c’est arrivé), c’est peut-être tout de même symptomatique que certains ont des soucis, non ?<br /> Mais je n’ai jamais dit qu’il fallait aseptiser la société.<br /> Autre chose, merci de ne pas me sortir le célèbre (et hors de propos) «&nbsp;Il FaUt LaIsSeR La LiBeRtE d’ExPrEsSiOn&nbsp;» …<br /> Les messages hors la loi attenant au personnes ne font pas partie de la liberté d’expression, ce sont des infractions ou des délits (et ce n’est pas négociable et je ne vais pas m’étendre là dessus parce que la modération a déjà eu beaucoup trop l’occasion d’y revenir).<br /> Eknal:<br /> Ils ne font pas ramasser les morceaux par les nouvelles recrues mais par les éléments les plus solides, et heureusement.<br /> Quand bien même, ça les marque quand-même, hein …
kplan
Alors tu comprends à quel point on a besoin d’expérience. Malheureusement dans la modération, je ne vois pas comment on peut en avoir, comment il peut y avoir des séniors qui ont l’habitude.<br /> En outre la modération c’est sur des centaines de contenus chaque jour. Les pompiers, heureusement pour eux, ne sont pas confrontés à l’horreur et à la violence à la même fréquence. Pourtant ils peuvent bénéficier d’un suivi psy, ce dont je doute pour les modérateurs.<br /> Payé à coup de bâton pour nettoyer les ordures des sociétés parmi les plus riches du monde, sans aucune reconnaissance, je ne vois aucune personne qui rêverait de ce job.<br /> Au moins les pompiers ont la reconnaissance et l’aura que leur confère la noblesse de leur travail et parfois de leur sacrifice.<br /> Modérateur, tu n’es rien.
Eknal
S’il y a tant de contenu trash, c’est sans doute aussi symptomatique de la pensée de certains et peut-être qu’il y aurait pas mal de boulot là-dessus …<br /> Que quel genre de boulot parles-tu ?<br /> Les messages hors la loi attenant au personnes ne font pas partie de la liberté d’expression, ce sont des infractions ou des délits (et ce n’est pas négociable et je ne vais pas m’étendre là dessus parce que la modération a déjà eu beaucoup trop l’occasion d’y revenir).<br /> Entièrement d’accord, si ce n’est qu’il y a beaucoup d’interprétation tarabiscotées de la part de modérateurs (y compris ici) afin de faire passer des propos legit pour des propos interdits. Reste aussi le contexte à prendre en compte (voir le ban twitch de JDG par exemple).<br /> Concernant les pompiers, ça les marque oui, à des niveaux différents. Certains craquent en rentrant chez eux, d’autres vont avoir du mal à dormir pendant la nuit mais le lendemain ce sera complètement passé. Tu comprends bien qu’ils ne peuvent pas se permettre de craquer en plein milieu de l’intervention. C’est bien pour ça qu’ils sont suivis s’ils le souhaitent et qu’ils n’envoient pas les plus fragiles sur les interventions les plus violentes psychologiquement.<br /> Il serait donc normal de procéder de la même façon pour la modération de facebook. Quitte à utiliser l’IA, pourquoi ne pas ne pas en utiliser une pour trier les contenus les plus virulents et les envoyer à des modérateurs qui sont plus blindés.
Palou
Eknal:<br /> Que quel genre de boulot parles-tu ?<br /> C’est si dur que ça à comprendre ?<br /> Eknal:<br /> Entièrement d’accord, si ce n’est qu’il y a beaucoup d’interprétation tarabiscotées de la part de modérateurs (y compris ici) afin de faire passer des propos legit pour des propos interdits.<br /> Si la modération n’est pas comme tu le souhaites, tu peux toujours postuler (mais les multicomptes ne sont pas acceptés ici par exemple ! )
Blackalf
kplan:<br /> Alors tu comprends à quel point on a besoin d’expérience. Malheureusement dans la modération, je ne vois pas comment on peut en avoir, comment il peut y avoir des séniors qui ont l’habitude.<br /> C’est en fait assez simple, quand tu es recruté comme modo à un certain âge comme je l’ai été en 2014, tu as tout simplement une solide expérience de la vie et surtout de ce dont tes semblables sont capables.<br /> Ca aide à relativiser, les pires messages ne t’atteignent pas vraiment, parce que tu as pris la mesure de l’humanité depuis longtemps et tu n’es pas étonné de voir jusqu’où peuvent s’abaisser certaines personnes.<br /> Et toujours grâce à l’âge, tu as aussi acquis de la résilience et de la force de caractère qui ne sont peut-être pas encore très présentes chez des personnes plus jeunes.
kroman
C’est pas X qui va faire les news à ce sujet😅
kplan
Attention, ici on parle de modération de Facebook. Le lieu où ces fameux modérateurs doivent trier ce qui relève de la torture, de la pornographie infantile, de la mutilation de personnes, de suicides ou d’assassinats en ligne, de maltraitance animale, d’apologie du terrorisme, de fanatisme religieux, de décapitations et autres actes ignobles, et j’en passe.<br /> Peu importe l’âge, ce n’est pas une solide expérience de la vie qui va te faire supporter facilement une centaine de ces horreurs par jour pendant ne serait-ce que pendant un an.<br /> On prend ces personnes pour des machines mais ils n’en sont pas.
Blackalf
kplan:<br /> Peu importe l’âge, ce n’est pas une solide expérience de la vie qui va te faire supporter facilement une centaine de ces horreurs par jour pendant ne serait-ce que pendant un an.<br /> Et je n’ai pas dit ça, je dis que plus âgé et plus expérimenté, tu auras plus de résilience mentale qu’un débutant.
juju251
Eknal:<br /> Que quel genre de boulot parles-tu ?<br /> Peut-être qu’une remise en question de l’éducation, notamment sur la culture scientifique, l’histoire des sciences pourrait avoir une importance pour éviter que tant de personnes soient dans la «&nbsp;pensée magique&nbsp;».<br /> Peut-être aussi qu’un autre regard sur les relations aux autres, l’apprentissage de la gestion des sentiments et rendre «&nbsp;normal&nbsp;» le fait de consulter des psys pourrait aider les personnes les plus perdues par exemple (plutôt que de encore et toujours les stigmatiser).<br /> Idem d’ailleurs pour les conditions de travail, de tous boulots, le travail étant un important facteur de mal être et de «&nbsp;pétage de plombs&nbsp;».<br /> Eknal:<br /> Entièrement d’accord, si ce n’est qu’il y a beaucoup d’interprétation tarabiscotées de la part de modérateurs (y compris ici) afin de faire passer des propos legit pour des propos interdits. Reste aussi le contexte à prendre en compte (voir le ban twitch de JDG par exemple).<br /> Oui, OuI, oUi.<br /> Bien sûr, ce sont les équipes de modération qui déconnent. <br /> Quand au contexte, certes il faut le prendre en compte, MAIS attention : Tous les services différent et chacun à ses propres règles, ce qui passe sur la plateforme X ne passera peut-être pas sur la plateforme Y.<br /> Autre chose, le contexte est une chose, certes, cependant il faut quand-même prendre en compte les propos en eux-même.<br /> Sous couvert d’humour doit-on tolérer une incitation à la mort (ceci n’est qu’un exemple, je ne fait pas référence à un cas précis) ?<br /> Personnellement, je ne pense pas.<br /> A noter également, concernant la modération de Clubic que nous parlons très régulièrement entre modos, voir avec la team Clubic de messages que l’on peut rencontrer lorsque nous avons des doutes sur ce qu’il conviendrait de faire.<br /> Autre chose, nous sommes également ouvert à la discussion avec la personne concernée, tant que cela se fait en MP et de manière raisonnable et raisonner (sans menace, avec un ton cordial et si une personne qui a dérapé sait se remettre en question, cela facilite les choses).
MisterDams
Pour ceux qui ne connaissent pas, je vous recommande la qualitative vidéo de Broute sur les modérateurs de réseaux sociaux<br /> Et plus premier degré, le reportage de Cash investigation sur cette activité (qu’on aime ou pas la «&nbsp;méthode Lucet&nbsp;», y’a plein d’infos intéressantes)<br /> Sinon, ayant moi-même modéré/administré sur un gros forum il y a quelques années, faut avoir beaucoup de patience, un sens raisonnable du jugement et pas trop prendre les messages pour soi. Il y a bien une usure à la longue, mais on se parle malgré tout pas des mêmes métiers.<br /> Ces gens-là ne participent absolument pas aux échanges, comme l’équipe peut le faire ici, ils sont juste payés à swiper gauche/droite pour dire OK ou STOP.<br /> Le contenu qui leur est proposé est pré-trié par les signalements, ils ne sont donc pas là à parcourir le réseau, c’est la quasi-totalité du contenu qu’ils chargent qui est du contenu choquant, qui plus est souvent sur des formats vidéo qu’ils sont un peu obligés de lancer pour évaluer. Et quand on voit les nombreuses demandes qui ne sont à tort pas retenues par les équipes de modération (racisme, incitation à la haine, etc.), ça donne un peu l’idée d’échelle des contenus auxquels ils doivent être exposés.
Eknal
Peut-être qu’une remise en question de l’éducation, notamment sur la culture scientifique, l’histoire des sciences pourrait avoir une importance pour éviter que tant de personnes soient dans la « pensée magique ».<br /> Peut-être aussi qu’un autre regard sur les relations aux autres, l’apprentissage de la gestion des sentiments et rendre « normal » le fait de consulter des psys pourrait aider les personnes les plus perdues par exemple (plutôt que de encore et toujours les stigmatiser).<br /> Ce qui ne peut se faire que sur le long terme. Le temps que la population soit éduquée (j’appelle ça «&nbsp;aseptisée&nbsp;» d’où le malentendu), il est bien obligé que certains mettent les mains dans la fosse à purin. Mon propos est que ce travail ne doit pas être fait par des personnes fragile.<br /> Bien sûr, ce sont les équipes de modération qui déconnent. <br /> On va bientôt nous dire qu’elles sont infaillibles (je ne parle pas uniquement de Clubic mais en général)<br /> Autre chose, le contexte est une chose, certes, cependant il faut quand-même prendre en compte les propos en eux-même.<br /> Sous couvert d’humour doit-on tolérer une incitation à la mort (ceci n’est qu’un exemple, je ne fait pas référence à un cas précis) ?<br /> Je pense que oui, c’est une question de contexte. A titre d’exemple je trouve le sketche «&nbsp;Le Suicide Raté&nbsp;» de Dany Boon assez drôle alors que je ne suis pas spécialement fan de sa période d’humoriste. La phrase «&nbsp;je l’aurai tué&nbsp;» dans ce sketche est bien amenée, jouée avec justesse et drôle dans le contexte, mais on peut être sûr que les bots FB, Twitch ou YT auraient censuré ce passage au mieux, banni au pire.<br /> Quand je prend comme exemple le ban twitch de JDG, c’est exactement pareil. Les propos reprochés sont dis par un personnage dans le cadre d’une partie rôleplay. Malgré ça il a écopé de 15 jours de ban (tandis que des transgressions plus graves ne sont sanctionnées qu’1 jour ou 2) sans préavis et cela n’a pas été traité par un bot mais par un humain.<br /> Dans la plupart de ces cas il n’est pas possible de contacter qui que ce soit une fois qu’on est sanctionné.<br /> Autre chose, nous sommes également ouvert à la discussion avec la personne concernée, tant que cela se fait en MP et de manière raisonnable et raisonner (sans menace, avec un ton cordial et si une personne qui a dérapé sait se remettre en question, cela facilite les choses).<br /> Cela signifie qu’une fois banni il est possible de contacter la modération Clubic ?<br /> «&nbsp;si une personne qui a dérapé sait se remettre en question&nbsp;» je pense que cette condition est problématique. Lorsque le point de discorde est subjectif, qu’il a été expliqué, justifié via un raisonnement cohérent par l’utilisateur et que malgré tout ça c’est mal compris ou plus simplement pas accepté par un modérateur, le fait d’exiger que l’utilisateur se remette en question revient à lui demander de renoncer à ses principes, à ses convictions, et j’ai du mal avec ça.
Palou
@Eknal Qui joue avec le feu peut se bruler …
Caramel34
Comme disait Desproges, on peut rire de tout mais pas avec n’importe qui.<br /> D’ailleurs on peut rire de moins en moins, les «&nbsp;gens&nbsp;» sont de plus en plus premier degré, on lit moins entre les lignes.
Eknal
Oui, je pensais aussi à cette citation.<br /> Sans compter les internautes malveillants qui reportent dans le seul but de nuire (c’est de plus en plus fréquent). Ca me rappelle un youtubeur (virtualdevil je crois) qui faisait un live avec le chat en direct sur la vidéo. Un utilisateur a utilisé une image porno en tant qu’avatar afin que les bots Youtube le repère et bloquent la chaine. Ca n’a pas loupé.
Papy65
@ Roger Pimpon : De nombreuses société peuvent choisir entre faire le travail par ses propres moyens ce qui implique des salariés dédiés à ce travail avec tout ce que cela comporte (salaires, charges sociales, absences etc etc), des investissements en matériel, locaux et les charges qui leur correspondent ou faire appel à la sous-traitance où il leur suffit de commander et payer un service. Je ne dis pas que c’est juste ou bien mais le plus souvent c’est plus rentable pour la société et si pas moins cher mais au moins pas plus cher pour le client final
Roger_Pimpon
Il y a bien sûr des cas de sous-traitance raisonnables et acceptables (lorsque le volume horaire ne permet pas d’envisager la création d’un poste, pour des fonctions très rares sans profil sur le marcher. Pour absorber une fluctuation de charge). Valables surtout pour les petites et voir-moyennes entreprises.<br /> Mais tout de même, de façon très large, et indiscutablement pour les grande entreprises, la sous-traitance est bien souvent une mauvaise (car délégation et perte de compétences) solution de facilité. Une façon détournée d’obtenir plus pour moins (en fermant les yeux). Une façon de se déresponsabiliser (pas de gestion de ressource humaine. Possibilité de dégager la faute sur autrui sans se soucier des conséquences dans le corps des ressources de la boite).<br /> Notons aussi que du coté du sous-traité, c’est rarement très rose. On vous vend des experts qui n’en sont jamais ou rarement. On rajoute dans ce monde souvent déjà un peu vicié qu’est celui du travail de la dissimulation, de la malhonnêteté (puisqu’agissent des commerciaux là où ne devraient pas y en avoir), de la méfiance. C’est tout de même rarement sain.<br /> Et ne parlons pas du phénomène commun de sous-traitance en cascade. Comment une telle chose pourrait être saine, de tels montages où n personnes se grattent du bénéfice là où il ne devrait pas y en avoir.<br /> Moins cher, ce n’est pas toujours mieux. Déjà parce que cela peut être une vision court-termiste (en grande entreprise, il se rende compte parfois avoir perdu tout le savoir sur un sujet fondamental. Observé chez EDF). Et deux parce que l’intérêt de l’entreprise ne va alors plus du tout dans l’interêt de la société au plus large. Et une entreprise qui ne sert qu’à elle même, qui dessert l’interêt de tous pour de l’interêt uniquement particulier, est ce vraiment une entreprise qu’il faut défendre ? Est ce un bon choix de société ?
Voir tous les messages sur le forum
Haut de page

Sur le même sujet