Commentaires : Airbnb dépose un brevet pour détecter d'éventuels psychopathes sur les réseaux sociaux

Le géant de la location d’hébergements en ligne a déposé, l’an dernier, un brevet visant à déterminer « la loyauté et la compatibilité » d’une personne. En somme : une intelligence artificielle qui se charge de dresser votre portrait psychologique, en partie à l’aide des médias sociaux.

Cela sent le logiciel hautement discriminatoire !!!

Je penses qu’on a tous des photos, historique ou simplement des « traces » sur le net qui pourront nous mettre à l’aise car ils ne nous représentent pas vraiment.
Nous sommes humain après tout et l’erreur est permise.
Voilà pourquoi les concepteurs ont du prendre en compte ce point et que l’IA ne nous donnerais un profil dévalorisant que s’il y en avait en alarmante quantité.
So don’t panic!

Ce qui pourrait être au contraire inquiétant c’est que ce genre d’IA soit utilisé lors d’un recrutement pour révélé au recruteur tous nos « points » négatifs.
L’être humain a tendance a voir la chose qu’il ne fais pas comme inadmissible.
Ex: Quelqu’un a trop bu et a crié sur son gosse. Conclusion: l’éventuel employé n’a aucune moral lorsqu’il boit.
Mais est-ce que l’IA révélera que cette personne a fait un énorme gâteau le lendemain pour se faire pardonner?
Là est le vrai problème, on a juste à espérer que cette IA ne sera pas utilisé dans d’autre secteur ou chaque erreur compte.

Cela me donne envie de revoir Minority Report dis donc =)

Je trouve personnellement que la finalité est moralement douteuse avec sans aucun doute des dérives excessives, ayant pour seules limites les imaginations des personnes au commande de ces IA/SI.

Ici, Air BnB veut « rassurer » les propriétaires existants (et futurs) de la fiabilité des locataires, dans une optique très charitable de gonfler la masse des offres qui transitent par son site et donc des rentrées d’argent.

Il est certain que cela est toujours rassurant pour les propriétaires de savoir que leurs biens ne seront pas défoncés par des abrutis finis, comme on peut entendre parfois dans des faits divers.

Cependant ces genres de cas restent relativement marginaux, pour ne pas dire carrément inexistants (par rapport à la masse existante des locations), pourquoi doivent-ils servir donc de prétexte pour créer ces genres d’IA et/ou de système d’informations? Récupérer encore plus de données? Croiser tjs plus de données?..

Parce qu’il y a d’autres façons de rassurer les propriétaires, comme par exemple ouvrir simplement une police d’assurance qui couvre les dégâts… Cela permet en plus, de gagner de l’argent car le nb de remboursement sera faible comparativement aux gains perçus.

Air BnB & les propriétaires sortent tous 2 gagnants :
• le premier va gagner plus d’argent
• le second est sûr d’être couvert en cas de problèmes

Conclusion, je suis pas convaincu d’une telle démarche que je trouve vraiment moralement douteuse.