Classification contextuelle pour OSO

Même si la production de la carte OSO est passée au stade opérationnel grâce à l'équipe d'exploitation MUSCATE du CNES, au CES OSO, nous continuons à travailler à l'amélioration des algorithmes et des outils (la chaîne iota2).

Nous avons récemment intégré dans iota2 une méthode de classification contextuelle développée par Dawa Derksen dans le cadre de sa thèse (les planches de sa soutenance sont disponibles ici). Le détail de la méthode a été publié dans cet article, où l'on montre que la méthode fait aussi bien que des approches utilisant le Deep Learning, mais avec un coût en calculs (et donc en énergie) bien moindre.

Comme la plupart des chercheurs publiant dans ces journaux réputés, on aurait pu s'arrêter là, mais Dawa a fait du code basé sur l'Orfeo Toolbox et l'a libéré (public money, public code), puis Arthur Vincent (le gourou de iota2) a fait tout ce qu'il faut pour que iota2 puisse se servir de ce code pour traiter des pays entiers!

Ci-dessous, une petite animation qui compare les résultats de la classification "OSO classique" et la version contextuelle pour l'année 2018.

Vue aérienne, classique, puis contextuelle

La version contextuelle contient mois de bruit tout en conservant une définition précise de la forme des objets.

Pour que vous puissiez vous faire votre avis, nous avons rendu disponible au télé-chargement la carte 2018 sur un tiers sud de la France métropolitaine (environ 30 tuiles Sentinel-2). Le fichier raster au format Geotiff est ici :

Pour rappel, la carte publiée pour le millésime 2018 est ici :

Vous pourrez ainsi comparer les deux versions et nous donner votre avis. La carte 2019, est en cours de production, mais n'utilisera pas la version contextuelle de la chaîne de traitement. Nous attendons les retours des utilisateurs pour décider si cette nouvelle version est préférable à la précédente. Si tel était le cas, les prochaines productions pourraient utiliser cet algorithme.

N'hésitez donc pas à nous faire des retours.

Merci!