Compte-rendu du meetup « Computer Vision » du 13 novembre 2019 @ Algolia

Meetup computer vision chez Algolia – 13 novembre 2019

Étant particulièrement intéressé par la computer vision et ses différents cas d’applications, je me suis rendu à la soirée organisée par l’équipe ‘Meetup Computer Vision Paris’ chez Algolia, Paris 9ème.
Le contenu était franchement technique (surtout pour quelqu’un qui sort d’une business school…) mais pas incompréhensible en s’accrochant un peu. Ce fût une excellente occasion d’assister à la prise de parole de 2 sociétés que je suis depuis un moment. Tenter de mieux comprendre ce qui se cache derrière Meero et sa levée de fonds largement commentée (qui me laisse un peu perplexe), et écouter EarthCube sur leur outil à destination des acteurs de la Défense / intelligence économique. Compte-rendu !

Le cycle de vie du photon – par Meero, présentation Juliette Chataigner

Le cycle de vie du photon, présentation Meero

Le sujet de la présentation était d’exposer les soucis opérationnels rencontrés par les équipes de Meero, et comment les résoudre avec du logiciel. Les cas exposés étaient tous tirés de la verticale immobilier. « Nous avons des photographes que l’on mandate pour des shootings de biens immobiliers, comment est-ce que l’on traite les défauts des images qu’ils nous livrent ».

Même avec un matériel de qualité, l’absence de défauts dans les photos livrées n’est pas garantie. Voici une liste non-exhaustive des problèmes relevés :

  • les lignes droites qui deviennent des courbes (une arête de mur, une poutre, …)
  • une poussière sur l’objectif du photographe que l’on va retrouver sur chaque cliché
  • le capteur utilisé qui génère du bruit sur l’image
  • la résolution
  • l’exposition (cf. les photos présentant de forts contrastes d’exposition)
Le travail sur la balance des blancs expliqué

Chez Meero, il y a (logiquement) beaucoup de photos à disposition. Par conséquent, l’ensemble de ces problèmes sont bien documentés et il existe de grosses bases d’apprentissage pour leurs algorithmes. C’est dans cette logique que les outils suivants ont été développés :

  • un algorithme pour gérer la balance des blancs
  • un algorithme permettant de faire du bracketing : sur base de plusieurs photos avec un temps d’exposition différent, on opère une fusion de plusieurs clichés pour obtenir une photo au rendu optimisé (du détail dans les zones d’ombre, un rendu qui ne soit pas brûlé sur les zones surexposées, etc…)
  • pour obtenir un bon alignement lors de la fusion de plusieurs photos, on utilise les les points SIFT (points d’intérêt de l’image)
  • la profondeur de champ reste elle gérée par le matériel
  • travail en cours sur l’utilisation de GAN pour faire de la sur-résolution (article sur les GAN à lire ici : http://wintics.com/fr/quand-la-data-science-devient-creative-avec-les-gan/)

L’ensembling pour booster la performance en détection d’objets – par EarthCube, présentation Matthieu Lambert

EarthCube est une société qui développe des solutions de surveillance basées sur l’analyse automatique d’informations géospatiales grâce à l’intelligence artificielle. Concrètement, interpréter des images satellites. Un des principaux défis pour EarthCube (équipe de 20 data scientist), c’est de détecter avec suffisamment de précision des entités sur des photos prises à plus de 600km d’altitude. Comment un algorithme peut arriver à bien reconnaître une voiture alors qu’on distingue à peine un pare-brise sur la photo.

Le deep learning pour de l’analyse d’image.

Avec les techniques classiques de deep learning, pas de problème particulier pour de la segmentation, de la détection d’objet ou de la classification. Et donc pas de souci pour identifier un véhicule sur un parking de supermarché en pleine journée. En revanche, cela devient beaucoup plus compliqué d’arriver au même niveau de résultat pour un véhicule à l’ombre, à moitié occulté par un arbre ou dans le désert. Sachant que les images mal détectées amènent en plus des faux positifs. Quelle solution retenir alors ?

On aurait pu tenter d’avancer en apportant toujours plus de données, mais il s’agit d’un process très long et itératif (alors que ce sont toujours les derniers pourcentages les plus compliqués).

Pour arriver à de meilleurs résultats, l’équipe de data scientist a posé un plan d’action en 3 étapes : considérer l’état de l’art actuel, adapter de nouvelles techniques à cet état de l’art puis combiner. C’est ainsi que plusieurs techniques ont été essayées, dont :

  • le boosting : chaque modèle corrige les erreurs du précédent, après avoir utilisé des modèles les uns derrière les autres
  • du bagging : on divise le dataset d’entraînement en plusieurs dataset, on test l’algorithme sur chaque dataset, et on refusionne
  • faire de l’augmentation de données

Earthcube a finalement fait le choix de retenir une solution d’ensembling, avec pour résultat une amélioration de plus de 50% sur les détections réalisées. Cette méthode a notamment permis d’enlever de nombreux faux positifs sur des arbustes, des rochers ou des maisons pour la détection de véhicules. Aujourd’hui, l’ensembling marche bien pour les voitures. À l’avenir, il est prévu de l’appliquer également aux bateaux et aux avions, et prochainement à des catégories d’objets.

Avant / Après

Hugo Le Guennec

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *