2020 est une année décisive pour l’apprentissage automatique (deep learning) et l’intelligence artificielle (AI). C’est cette année qu’apparaît la vraie démocratisation de l’apprentissage automatique avec des modèles et des algorithmes prêts à l’emploi disponibles sur l’Internet. Les GPUs (processeurs graphiques) sont plus abordables et encore plus disponibles qu’avant, de nouvelles méthodes d’entraînement telles que le “transfer learning” ont même rendu possible de créer de puissants modèles à partir de peu de données.
Mais l’apprentissage automatique plus accessible a aussi des désavantages. Un article récent du New York Times par Kashmir Hill a profilé clearview.ai, un service de reconnaissance faciale en roue libre qui a téléchargé près de 3 milliards de photos de personnes depuis internet pour les utiliser comme modèles afin de construire un système de reconnaissance faciale pour des millions de citoyens sans leur accord ni même les informer de cet usage. Clearview.ai démontre à quel point il est facile de créer des outils invasifs pour monitorer et tracker en utilisant l’apprentissage automatique.
Comment se protéger contre des tiers qui construisent des modèles de reconnaissance faciale qui vont nous reconnaître où que nous allons ? Les régulations peuvent et vont aider à restreindre l’usage de l’apprentissage automatisé mais auront peu d’impact sur les organisations privées, les individus et même les états qui poursuivent des buts similaires.
C’est pour cette raison que le SAND Lab de l’Université de Chicago a développé Fawkes*, un logiciel et un algorithme (fonctionnant sur votre propre ordinateur) qui donne la possibilité aux individus de limiter comment leur propres images peuvent être utilisés pour les tracker. En résumé, Fawkes modifie vos photos personnelles et opère des changements très précis au niveau des pixels de l’image qui sont invisibles à l’œil humain, dans un procédé que est appelé masquage de l’image.
Vous pouvez par la suite utiliser ces photos “masquées” comme vous le feriez habituellement, les partager sur les réseau sociaux, les envoyer à des amis, les imprimer et les afficher comme pour n’importe quelle autre photo. La différence est qui si quelqu’un se base sur l’une de ces photos “masquées” pour construire un modèle de reconnaissance faciale, ce modèle sera faussé et il sera alors impossible de vous reconnaître réellement en se basant sur une vraie photo de vous soumise à ce modèle. Ce système de masque est difficilement détectable par l’œil humain ou une machine et ne produira aucune erreur quand il est utilisé mais faussera complètement les modèles qui seront donc incapable de vous reconnaitre si une “vraie” photo de vous leur est soumise.
Fawkes a été testé de manière extensive dans une variété d’environnements et est à 100 % efficace contre les meilleurs modèles de reconnaissance faciale (Microsoft Azure Face API, Amazon Rekognition & Face++).
Un exemple en image, laquelle de ces deux photos a-t-elle été masquée ?


Télécharger Fawkes et plus d’informations :
Rendez-vous sur le site de Fawkes pour télécharger l’utilitaire qui est disponible sur Linux, Mac et Windows ou pour obtenir encore plus d’information sur cet utilitaire prometteur !
*Fawkes pour Guy Fawkes, personnage dont l’icone du film V pour Vendetta a été reprise par Anonymous.