Airbnb dépose un brevet pour détecter d'éventuels psychopathes sur les réseaux sociaux

Alexandre Boero
Chargé de l'actualité de Clubic
08 janvier 2020 à 09h51
5
Airbnb
© AlesiaKan / Shutterstock.com

Le géant de la location d'hébergements en ligne a déposé, l'an dernier, un brevet visant à déterminer « la loyauté et la compatibilité » d'une personne. En somme : une intelligence artificielle qui se charge de dresser votre portrait psychologique, en partie à l'aide des médias sociaux.

Voilà qui devrait rappeler à leur bon souvenir les fans de science-fiction. Selon un brevet déposé en 2019, Airbnb détient les droits pour concevoir un logiciel qui permettrait d'établir le profil psychologique d'un voyageur, ce qui permettrait à la plateforme et aux propriétaires de logements mis en location d'anticiper leur réponse et de refuser éventuellement la demande d'un client potentiel qui pourrait se révéler, selon le logiciel, névrosé, narcissique, machiavélique, voire psychopathe.

Un logiciel pour éviter les dégradations des logements et protéger les hôtes

Il arrive parfois, à l'issue d'une période de location, que certains hôtes constatent la dégradation de leurs biens ou de leur logement, sans avoir de véritable moyen juridique de se retourner contre les voyageurs irrespectueux. Pour se prémunir de ce genre d'abus, la société Airbnb s'est dotée d'un logiciel qui va forcément faire débat, tant il peut aller loin dans la fouille des éléments de la vie privée de ses voyageurs.


Si la plateforme affirme officiellement ne pas appliquer toutes les méthodes de filtrage de l'outil (libre à vous de la croire ou pas), on peut tout de même s'inquiéter du contenu du brevet.

Le voyageur est noté à partir des informations qui remontent à son sujet

Dans les grandes lignes, le logiciel identifie et scrute des documents, textes, messages, sites web, photos et vidéos en rapport avec la personne ciblée, de façon à en déduire des indices sur le comportement et les traits de personnalité, avec comme but l'évaluation du comportement et de la personnalité du sujet. Les nom, adresse électronique, numéro de téléphone, géolocalisation, date de naissance, liens sociaux, antécédents scolaires et professionnels, permis de conduire, informations de compte bancaire, adresse IP et identifiant de l'appareil utilisé sont autant d'informations scrutées et analysées.

Ainsi, l'outil basé sur le machine learning octroie au voyageur une note, en fonction des indices collectés. Et si un membre de l'entourage du voyageur a laissé un peu trop de traces en ligne, l'outil peut se servir de celui-ci, de la relation qui le lie au voyageur et de leurs interactions réciproques, pour ajuster la notation.

L'IA va jusqu'à identifier les traits de personnalité du client

L'IA permet d'indiquer si le voyageur a créé un faux profil, s'il a l'intention de frauder, s'il est consommateur d'alcool ou de drogues, membre d'une organisation haineuse, d'un gang, si il a été coupable d'escroquerie par le passé, fait partie du monde pornographique ou s'il a récemment posté « un contenu en ligne avec un langage négatif ».


Grâce aux nombreuses informations récoltées, le logiciel peut identifier différents traits de personnalité et déterminer si le voyageur est méchant, antisocial, bon, généreux, ouvert, extraverti, sympathique, névrosé, narcissique, machiavélique ou psychopathe.

« Nous déposons un certain nombre de brevets, allant des listes de recherche à l'automatisation de la disponibilité des réservations, et cela ne signifie pas nécessairement que nous appliquons en entier ni même en partie le contenu de ces brevets », indique pour sa part Airbnb.

Source : Evening Standard

Alexandre Boero

Chargé de l'actualité de Clubic

Chargé de l'actualité de Clubic

Journaliste, chargé de l'actualité de CLUBIC. Reporter, vidéaste, animateur et même imitateur-chanteur, j'ai écrit mon premier article en 6ème. J'ai fait de cette vocation mon métier (diplômé de l'EJC...

Lire d'autres articles

Journaliste, chargé de l'actualité de CLUBIC. Reporter, vidéaste, animateur et même imitateur-chanteur, j'ai écrit mon premier article en 6ème. J'ai fait de cette vocation mon métier (diplômé de l'EJCAM), pour écrire, interroger, filmer, monter et produire au quotidien. Des atomes crochus avec la Tech, certes, mais aussi avec l'univers des médias, du sport et du voyage. Outre le journalisme, la prod' vidéo et l'animation, je possède une chaîne YouTube (à mon nom) qui devrait piquer votre curiosité si vous aimez les belles balades à travers le monde, les nouvelles technologies et Koh-Lanta :)

Lire d'autres articles
Vous êtes un utilisateur de Google Actualités ou de WhatsApp ? Suivez-nous pour ne rien rater de l'actu tech !
google-news

A découvrir en vidéo

Rejoignez la communauté Clubic S'inscrire

Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.

S'inscrire

Commentaires (5)

BetaGamma
Cela sent le logiciel hautement discriminatoire !!!
Hiro_kool
Je penses qu’on a tous des photos, historique ou simplement des « traces » sur le net qui pourront nous mettre à l’aise car ils ne nous représentent pas vraiment.<br /> Nous sommes humain après tout et l’erreur est permise.<br /> Voilà pourquoi les concepteurs ont du prendre en compte ce point et que l’IA ne nous donnerais un profil dévalorisant que s’il y en avait en alarmante quantité.<br /> So don’t panic!
Hiro_kool
Ce qui pourrait être au contraire inquiétant c’est que ce genre d’IA soit utilisé lors d’un recrutement pour révélé au recruteur tous nos « points » négatifs.<br /> L’être humain a tendance a voir la chose qu’il ne fais pas comme inadmissible.<br /> Ex: Quelqu’un a trop bu et a crié sur son gosse. Conclusion: l’éventuel employé n’a aucune moral lorsqu’il boit.<br /> Mais est-ce que l’IA révélera que cette personne a fait un énorme gâteau le lendemain pour se faire pardonner?<br /> Là est le vrai problème, on a juste à espérer que cette IA ne sera pas utilisé dans d’autre secteur ou chaque erreur compte.
K4minoU
Cela me donne envie de revoir Minority Report dis donc =)<br /> Je trouve personnellement que la finalité est moralement douteuse avec sans aucun doute des dérives excessives, ayant pour seules limites les imaginations des personnes au commande de ces IA/SI.<br /> Ici, Air BnB veut « rassurer » les propriétaires existants (et futurs) de la fiabilité des locataires, dans une optique très charitable de gonfler la masse des offres qui transitent par son site et donc des rentrées d’argent.<br /> Il est certain que cela est toujours rassurant pour les propriétaires de savoir que leurs biens ne seront pas défoncés par des abrutis finis, comme on peut entendre parfois dans des faits divers.<br /> Cependant ces genres de cas restent relativement marginaux, pour ne pas dire carrément inexistants (par rapport à la masse existante des locations), pourquoi doivent-ils servir donc de prétexte pour créer ces genres d’IA et/ou de système d’informations? Récupérer encore plus de données? Croiser tjs plus de données?..<br /> Parce qu’il y a d’autres façons de rassurer les propriétaires, comme par exemple ouvrir simplement une police d’assurance qui couvre les dégâts… Cela permet en plus, de gagner de l’argent car le nb de remboursement sera faible comparativement aux gains perçus.<br /> Air BnB &amp; les propriétaires sortent tous 2 gagnants :<br /> • le premier va gagner plus d’argent<br /> • le second est sûr d’être couvert en cas de problèmes<br /> Conclusion, je suis pas convaincu d’une telle démarche que je trouve vraiment moralement douteuse.
Voir tous les messages sur le forum
Haut de page