Airbnb dépose un brevet pour détecter d'éventuels psychopathes sur les réseaux sociaux

Alexandre Boero
Par Alexandre Boero, Journaliste-reporter, responsable de l'actu.
Publié le 08 janvier 2020 à 09h51
Airbnb
© AlesiaKan / Shutterstock.com

Le géant de la location d'hébergements en ligne a déposé, l'an dernier, un brevet visant à déterminer « la loyauté et la compatibilité » d'une personne. En somme : une intelligence artificielle qui se charge de dresser votre portrait psychologique, en partie à l'aide des médias sociaux.

Voilà qui devrait rappeler à leur bon souvenir les fans de science-fiction. Selon un brevet déposé en 2019, Airbnb détient les droits pour concevoir un logiciel qui permettrait d'établir le profil psychologique d'un voyageur, ce qui permettrait à la plateforme et aux propriétaires de logements mis en location d'anticiper leur réponse et de refuser éventuellement la demande d'un client potentiel qui pourrait se révéler, selon le logiciel, névrosé, narcissique, machiavélique, voire psychopathe.

Un logiciel pour éviter les dégradations des logements et protéger les hôtes

Il arrive parfois, à l'issue d'une période de location, que certains hôtes constatent la dégradation de leurs biens ou de leur logement, sans avoir de véritable moyen juridique de se retourner contre les voyageurs irrespectueux. Pour se prémunir de ce genre d'abus, la société Airbnb s'est dotée d'un logiciel qui va forcément faire débat, tant il peut aller loin dans la fouille des éléments de la vie privée de ses voyageurs.


Si la plateforme affirme officiellement ne pas appliquer toutes les méthodes de filtrage de l'outil (libre à vous de la croire ou pas), on peut tout de même s'inquiéter du contenu du brevet.

Le voyageur est noté à partir des informations qui remontent à son sujet

Dans les grandes lignes, le logiciel identifie et scrute des documents, textes, messages, sites web, photos et vidéos en rapport avec la personne ciblée, de façon à en déduire des indices sur le comportement et les traits de personnalité, avec comme but l'évaluation du comportement et de la personnalité du sujet. Les nom, adresse électronique, numéro de téléphone, géolocalisation, date de naissance, liens sociaux, antécédents scolaires et professionnels, permis de conduire, informations de compte bancaire, adresse IP et identifiant de l'appareil utilisé sont autant d'informations scrutées et analysées.

Ainsi, l'outil basé sur le machine learning octroie au voyageur une note, en fonction des indices collectés. Et si un membre de l'entourage du voyageur a laissé un peu trop de traces en ligne, l'outil peut se servir de celui-ci, de la relation qui le lie au voyageur et de leurs interactions réciproques, pour ajuster la notation.

L'IA va jusqu'à identifier les traits de personnalité du client

L'IA permet d'indiquer si le voyageur a créé un faux profil, s'il a l'intention de frauder, s'il est consommateur d'alcool ou de drogues, membre d'une organisation haineuse, d'un gang, si il a été coupable d'escroquerie par le passé, fait partie du monde pornographique ou s'il a récemment posté « un contenu en ligne avec un langage négatif ».


Grâce aux nombreuses informations récoltées, le logiciel peut identifier différents traits de personnalité et déterminer si le voyageur est méchant, antisocial, bon, généreux, ouvert, extraverti, sympathique, névrosé, narcissique, machiavélique ou psychopathe.

« Nous déposons un certain nombre de brevets, allant des listes de recherche à l'automatisation de la disponibilité des réservations, et cela ne signifie pas nécessairement que nous appliquons en entier ni même en partie le contenu de ces brevets », indique pour sa part Airbnb.

Source : Evening Standard
Alexandre Boero
Par Alexandre Boero
Journaliste-reporter, responsable de l'actu

Journaliste, responsable de l'actualité de Clubic. En soutien direct du rédacteur en chef, je suis aussi le reporter et le vidéaste de la bande. Journaliste de formation, j'ai fait mes gammes à l'EJCAM, école reconnue par la profession, où j'ai bouclé mon Master avec une mention « Bien » et un mémoire sur les médias en poche.

Vous êtes un utilisateur de Google Actualités ou de WhatsApp ?
Suivez-nous pour ne rien rater de l'actu tech !
Commentaires (0)
Rejoignez la communauté Clubic
Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.
Commentaires (4)
BetaGamma

Cela sent le logiciel hautement discriminatoire !!!

Hiro_kool

Je penses qu’on a tous des photos, historique ou simplement des « traces » sur le net qui pourront nous mettre à l’aise car ils ne nous représentent pas vraiment.
Nous sommes humain après tout et l’erreur est permise.
Voilà pourquoi les concepteurs ont du prendre en compte ce point et que l’IA ne nous donnerais un profil dévalorisant que s’il y en avait en alarmante quantité.
So don’t panic!

Hiro_kool

Ce qui pourrait être au contraire inquiétant c’est que ce genre d’IA soit utilisé lors d’un recrutement pour révélé au recruteur tous nos « points » négatifs.
L’être humain a tendance a voir la chose qu’il ne fais pas comme inadmissible.
Ex: Quelqu’un a trop bu et a crié sur son gosse. Conclusion: l’éventuel employé n’a aucune moral lorsqu’il boit.
Mais est-ce que l’IA révélera que cette personne a fait un énorme gâteau le lendemain pour se faire pardonner?
Là est le vrai problème, on a juste à espérer que cette IA ne sera pas utilisé dans d’autre secteur ou chaque erreur compte.

K4minoU

Cela me donne envie de revoir Minority Report dis donc =)

Je trouve personnellement que la finalité est moralement douteuse avec sans aucun doute des dérives excessives, ayant pour seules limites les imaginations des personnes au commande de ces IA/SI.

Ici, Air BnB veut « rassurer » les propriétaires existants (et futurs) de la fiabilité des locataires, dans une optique très charitable de gonfler la masse des offres qui transitent par son site et donc des rentrées d’argent.

Il est certain que cela est toujours rassurant pour les propriétaires de savoir que leurs biens ne seront pas défoncés par des abrutis finis, comme on peut entendre parfois dans des faits divers.

Cependant ces genres de cas restent relativement marginaux, pour ne pas dire carrément inexistants (par rapport à la masse existante des locations), pourquoi doivent-ils servir donc de prétexte pour créer ces genres d’IA et/ou de système d’informations? Récupérer encore plus de données? Croiser tjs plus de données?..

Parce qu’il y a d’autres façons de rassurer les propriétaires, comme par exemple ouvrir simplement une police d’assurance qui couvre les dégâts… Cela permet en plus, de gagner de l’argent car le nb de remboursement sera faible comparativement aux gains perçus.

Air BnB & les propriétaires sortent tous 2 gagnants :
• le premier va gagner plus d’argent
• le second est sûr d’être couvert en cas de problèmes

Conclusion, je suis pas convaincu d’une telle démarche que je trouve vraiment moralement douteuse.