7 Évaluation d’exactitude

Une fois que nous avons produit une classification de l’occupation du sol (ou autre) à partir d’une image de télédétection, une question évidente est « quelle est l’exactitude de cette carte ? ». Il est important de répondre à cette question, car nous voulons que les utilisateurs de la carte aient un degré de confiance approprié en elle. Si la carte est parfaite, nous voulons que les gens le sachent afin qu’ils puissent en tirer le maximum d’avantages. Et si la carte n’est pas plus précise qu’une affectation aléatoire des classes aux pixels ne l’aurait été, nous voulons aussi que les gens le sachent, afin qu’ils ne l’utilisent pas pour quoi que ce soit (sauf peut-être pour l’accrocher au mur ou la montrer aux étudiants comme exemple de ce qu’il ne faut pas faire…).

Le sujet de l’évaluation de l’exactitude va également au-delà des classifications et concerne les cartes de variables continues, telles que la température de la surface de la Terre, la concentration de CO2 près de la surface, la santé de la végétation, ou d’autres variables se présentant sous la forme de variables continues plutôt que discrètes. Quel que soit le contenu de votre carte, vous voudrez que les gens sachent à quel point elle est bonne, à quel point ils peuvent lui faire confiance. Bien qu’il y ait des similitudes entre l’évaluation de cartes de variables catégorielles et continues, les mesures spécifiques utilisées pour quantifier l’exactitude sont différentes dans les deux cas, c’est pourquoi nous les traiterons tour à tour dans ce chapitre.

Évaluation de l’exactitude des classifications

Le principe de base pour toute évaluation de l’exactitude est de comparer les estimations avec la réalité, et de quantifier la différence entre les deux. Dans le contexte des classifications de l’occupation du sol basées sur la télédétection, les « estimations » sont les classes cartographiées pour chaque pixel, et la « réalité » est l’occupation réelle du sol dans les zones correspondant à chaque pixel. Étant donné que l’algorithme de classification nous a déjà fourni les « estimations » , le premier défi de l’évaluation de l’exactitude est de trouver des données sur la « réalité » . Ces données sont souvent appelées « données de terrain » et consistent généralement en des observations de terrain géoréférencées de l’occupation du sol. Une technique souvent utilisée consiste à se rendre physiquement dans la zone d’étude avec un GPS et un appareil photo, et à prendre des photos géoréférencées qui permettent ensuite de déterminer visuellement la couverture du sol à partir de chaque photo. Étant donné que les gens peuvent visuellement distinguer les différents types d’occupation du sol avec une grande exactitude, ces données peuvent raisonnablement être considérées comme représentant la « réalité ». Dans de nombreux cas, cependant, le terme « vérité terrain » surestime l’exactitude de ce type d’information. Les gens peuvent être capables de distinguer le « désert » de la « forêt » sur une photo, mais ils sont nettement moins bons pour distinguer la « forêt à haute densité » de la « forêt à moyenne densité ». En particulier, si la différence entre deux classes est basée sur le pourcentage de couverture (par exemple, la différence entre une forêt de densité moyenne et une forêt de haute densité peut résider dans le fait que les arbres couvrent plus ou moins de 50 % de la surface), les observations sur le terrain ne conduisent pas toujours à une description parfaite de la réalité. De nombreux spécialistes de la télédétection aiment donc mieux le terme de « données de validation », suggérant que ces données sont appropriées comme base de comparaison avec les classifications basées sur la télédétection, tout en reconnaissant la possibilité qu’elles ne correspondent pas parfaitement à la « vérité ».

Création de données de validation

Si vous voulez produire une évaluation honnête et impartiale de l’exactitude de votre carte d’occupation du sol (et je suppose que c’est le cas !), il y a quelques éléments à prendre en compte lors de la création de votre ensemble de données de validation :

  • Vous devez disposer de données de validation couvrant toutes les différentes classes d’occupation du sol de votre carte. Si ce n’est pas le cas, vous ne pourrez vraiment évaluer l’exactitude que des parties de la carte couvertes par les classes pour lesquelles vous disposez de données.
  • Idéalement, vous devriez aussi avoir des données de validation qui sont distribuées de façon aléatoire (ou plus ou moins égale) dans votre zone d’étude. Pour produire un ensemble de données de validation qui couvre toutes les classes et qui présente une bonne distribution spatiale dans votre zone d’étude, une sélection aléatoire stratifiée de points de validation est souvent utilisée (c’est-à-dire qu’elle inclut un certain nombre de points de chaque classe, les points appartenant à chaque classe étant distribués aléatoirement dans la zone couverte par cette classe).
  • Le nombre de points de données utilisés pour chaque classe doit être soit le même, soit refléter l’étendue relative de chaque classe sur votre carte. La première approche est la plus appropriée si vous souhaitez comparer des classes et déterminer lesquelles sont mieux cartographiées que d’autres. La seconde approche est la plus adaptée si vous souhaitez produire une seule estimation de l’exactitude pour l’ensemble de la carte.
  • Plus il y a de données de validation, mieux c’est. Cependant, la création de données de validation peut prendre du temps et de l’argent, donc obtenir « suffisamment » de données est souvent un objectif raisonnable. Il existe des règles empiriques sur ce qui constitue une quantité « suffisante » de données (par exemple, 50 par classe), mais il existe de nombreuses exceptions à ces règles. 
Si vous utilisez des observations sur le terrain pour créer vos données de validation, il est important de se rappeler que les données de validation doivent être comparables aux classes dérivées de votre image, de plusieurs façons.

Si vous utilisez des observations sur le terrain pour créer vos données de validation, il est important de se rappeler que les données de validation doivent être comparables aux classes dérivées de votre image, de plusieurs façons :

  • Les définitions utilisées pour chaque classe doivent être les mêmes entre la classification et les données de validation. Par exemple, si dans votre classification vous considérez qu’une « masse d’eau » doit avoir une taille d’au moins 0,1 km2, vous devez garder cela à l’esprit lorsque vous créez vos données de validation. Ainsi, lorsque vous allez sur le terrain et que l’un de vos points de données se trouve dans une flaque d’eau, vous ne le considérez pas comme une « masse d’eau », mais vous déterminez plutôt quelle est la couverture terrestre autour de la flaque.
  • En rapport avec le point précédent, gardez à l’esprit la résolution spatiale de l’image utilisée pour produire votre classification. Si vous avez basé votre classification sur l’imagerie Landsat (TM, ETM+, OLI) sans pansharpening, chaque pixel correspond à une zone d’environ 30 x 30 mètres sur le terrain. Ainsi, lorsque vous allez sur le terrain, vous devriez documenter la couverture terrestre dominante dans des zones de 30 x 30 mètres, plutôt que la couverture terrestre aux coordonnées exactes du point de données.

Une autre approche pour créer des données de validation, utile lorsque se rendre dans la zone d’étude et recueillir des observations sur le terrain est trop coûteux, est l’inspection visuelle d’images de télédétection à haute résolution. Si vous choisissez cette approche, vous devez être sûr de pouvoir distinguer visuellement toutes les différentes classes, à partir de l’image, avec une grande exactitude. Les gens utilisent parfois l’imagerie de Google Earth pour la validation, ou ils utilisent l’interprétation visuelle de la même image utilisée pour la classification. Cette dernière option semble un peu circulaire — comme dans « pourquoi utiliser un classificateur en premier lieu, si vous pouvez en toute confiance attribuer des classes sur la base de l’interprétation visuelle de l’image ? ». Cependant, l’interprétation visuelle peut être tout à fait appropriée pour définir avec exactitude la couverture du sol pour un certain nombre de points de données de validation, tandis que l’interprétation visuelle d’une image entière pourrait être une tâche extrêmement laborieuse. Les mêmes considérations décrites dans les points ci-dessus s’appliquent que les données de validation soient créées à partir d’observations sur le terrain ou d’une interprétation visuelle de l’imagerie.

Une nouvelle approche intéressante pour créer des données de validation consiste à utiliser des photos géolocalisées accessibles au public, telles que celles disponibles sur Flickr ou d’autres sites où les gens partagent leurs photos. En particulier pour les villes et les sites touristiques populaires, l’Internet contient un vaste référentiel de photos géolocalisées qui peuvent être utilisées par n’importe qui comme observations sur le terrain. Un certain contrôle de la qualité est cependant nécessaire, car toutes les photos disponibles en ligne ne sont pas géolocalisées automatiquement avec le GPS (certaines sont » géolocalisées » manuellement lorsqu’elles sont mises en ligne), et la plupart des photos montrent les conditions de la couverture terrestre à un moment différent de celui où l’image de télédétection a été acquise (par exemple, en hiver ou en été).

La matrice de confusion

Une fois que vous avez créé un ensemble de données de validation auxquelles vous faites confiance, vous pouvez utiliser leur géoréférence pour les associer à la couverture terrestre correspondante cartographiée dans la classification. Vous pouvez considérer la comparaison résultante comme un tableau qui ressemble à ceci  :

Tableau 5: Comparaison des estimations dérivées d’un algorithme de classification (à gauche) avec les données de validation (à droite).

Mapped land cover (estimate)

Validation data (reality)

Forest

Forest

Water

Water

Forest

Grassland

Grassland

Grassland

Grassland

Bare soil

Bare soil

Bare soil

Avec de nombreux points de données de validation, une méthode est nécessaire pour résumer toute cette information. En télédétection, la méthode utilisée universellement, et ce depuis des décennies, s’appelle la matrice de confusion (également appelée » matrice d’erreur » ou » tableau de contingence “). En utilisant les quatre classes énumérées dans l’exemple ci-dessus, le cadre de la matrice de confusion ressemblerait à ceci  :

Tableau 6: Exemple de matrice de confusion, avant l’introduction des valeurs.

Validation data

Class

Forest

Water

Grassland

Bare soil

Total

Classification

Forest

Water

Grassland

Bare soil

Total

Lisez le long des lignes, chaque ligne vous indique ce que sont en réalité les pixels classés dans une classe donnée selon les données de validation. Lisez le long des colonnes, chaque colonne vous indique ce que les données de validation connues pour être une classe donnée ont été classées comme. Par exemple :

Tableau 7: Matrice de confusion avec les valeurs saisies.

Validation data

Class

Forest

Water

Grassland

Bare soil

Total

Classification

Forest

56

0

4

2

62

Water

1

67

1

0

69

Grassland

5

0

34

7

46

Bare soil

2

0

9

42

53

Total

64

67

48

51

230

En lisant les lignes, le tableau ci-dessus vous indique que 56 pixels classés comme « forêt » étaient également considérés comme « forêt » dans les données de validation, que 0 pixel classé comme « forêt » était considéré comme « eau » dans les données de validation, que 4 pixels classés comme « forêt » étaient considérés comme « prairie » dans les données de validation et que 2 pixels classés comme « forêt » étaient considérés comme « sol nu » dans les données de validation, soit un total de 62 pixels classés comme forêt. Et ainsi de suite.

Exactitude de l’utilisateur, du producteur, et globale

En utilisant les informations de la matrice de confusion, nous pouvons trouver des réponses à des questions raisonnables concernant l’exactitude de la carte d’occupation du sol produite par la classification. Il y a trois types de questions typiquement posées et répondues avec la matrice de confusion.

L’exactitude de l’utilisateur répond à une question du type suivant : « Si je dispose de votre carte et que je me rends sur un pixel que votre carte indique comme étant de classe “x”, quelle est la probabilité que j’y trouve effectivement la classe “x” ? ». En utilisant l’exemple des « prairies » du tableau ci-dessus, nous pouvons voir qu’un total de 46 pixels classés comme « prairies » ont été vérifiés par rapport aux données de validation. Sur ces 46 pixels, 34 ont été considérés comme des « prairies » dans les données de validation. En d’autres termes, 34 pixels, sur les 46 pixels classés comme « prairie », sont réellement des « prairies ». 34 sur 46 est 74 %, donc l’exactitude de l’utilisateur de la classification, pour la classe « prairie », est de 74 %. L’exactitude de l’utilisateur varie selon les classes, car certaines classes sont plus faciles à distinguer des autres que d’autres. Les caractéristiques de l’eau ont tendance à être faciles à cartographier parce qu’elles sont sombres et bleuâtres et que peu de caractéristiques terrestres leur ressemblent. Dans l’exemple ci-dessus, l’exactitude de l’utilisateur pour la classe « eau » est de 67 sur 69, soit 97 %.

L’exactitude du producteur répond à une question du type suivant : « Si une zone est effectivement de la classe “x”, quelle est la probabilité qu’elle ait également été cartographiée en tant que telle ? En utilisant à nouveau l’exemple des “prairies”, nous constatons qu’un total de 48 points de données de validation ont été considérés comme des “prairies”, et que 34 d’entre eux ont également été classés comme tels. 34 sur 48 est 71 %, donc l’exactitude du producteur pour la classe “prairie” est 71 %.

Alors que les exactitudes de l’utilisateur et du producteur se concentrent sur les classes individuelles, l’exactitude globale répond à la question suivante : » quelle proportion de la carte est correctement classée. « , ce qui peut souvent être interprété simplement comme » quelle est l’exactitude de la carte ? « . En regardant les valeurs dans la diagonale de la matrice de confusion dans l’exemple ci-dessus, nous pouvons voir que 56 pixels étaient considérés comme “forêt” dans les données de validation et avaient également été classés comme “forêt”, et nous pouvons observer des nombres similaires de 67 pour “eau”, 34 pour “prairie”, et 42 pour “sol nu”. Le total est de 56 +67 +34 +42=199, sur un total de 230 pixels dans l’ensemble de données de validation. 199 sur 230 est 87 %, donc sur la base des données de validation nous estimons que 87 % de la carte est correctement classée.

L’exactitude globale doit être rapportée avec précaution, comme l’illustre l’exemple suivant. Imaginons que l’image utilisée pour la classification couvre une zone côtière et que la trajectoire suborbitale du satellite ait été un peu au large, de sorte que 80 % de l’image est couverte par de l’eau. Les 20 % restants de l’image étaient recouverts de “sol nu” ou de “végétation”. Si vous reflétiez cette distribution inégale dans la création de vos données de validation, 80 % de vos données de validation se trouveraient au-dessus de l’eau, et comme l’eau est relativement facile à distinguer d’autres types de surface, votre matrice de confusion pourrait ressembler à ceci  :

Tableau 8: Un autre exemple de matrice de confusion. Notez le nombre très différent de points de validation utilisés pour chaque classe.

Validation data

Class

Water

Vegetation

Bare soil

Total

Classification

Water

82

1

0

83

Vegetation

0

12

2

14

Bare soil

0

2

9

11

Total

82

15

11

108

Alors que les exactitudes de l’utilisateur et du producteur pour la “végétation” et le “sol nu” ne sont pas impressionnantes dans ce scénario, comme prévu, l’ » eau » a été classée presque parfaitement. La prédominance des pixels d’ » eau » influence le calcul de l’exactitude globale, qui est de 82 +12 +9=103 sur 108, soit une exactitude globale de 95 %. Si le but de la carte est de déterminer où se trouve le littoral, ou quelque chose d’autre qui ne nécessite que de séparer l’eau de la terre, cela peut être acceptable comme estimation de la qualité de la carte. Mais si vous avez réalisé la carte pour une agence gouvernementale locale chargée de surveiller la végétation côtière, l’exactitude globale de 95 % peut faussement donner l’idée que la carte doit être utilisée en toute confiance à cette fin, ce qui nécessite en grande partie de séparer la « végétation » du « sol nu ».

En général, tant que vous rapportez a) comment vous avez produit la carte, b) comment vous avez produit les données de validation, et c) l’ensemble de la matrice de confusion ainsi que toute mesure de précision supplémentaire qui en découle, un lecteur intelligent sera en mesure de juger si la carte est appropriée pour un but donné, ou non.

Évaluation de l’exactitude des classifications lorsque vous essayez de cartographier une seule chose.

Un cas particulier d’évaluation de la précision se présente lorsque vous faites une carte d’un seul type d’objet, comme des maisons, des piscines, etc. Si cette situation est encore rare en télédétection, elle devient de plus en plus nécessaire avec l’analyse d’images basée sur l’objet, qui est un moyen efficace de cartographier des types d’objets spécifiques. Nous allons utiliser les piscines comme exemple. Imaginez que vous ayez créé un flux de travail d’analyse d’image basé sur l’objet qui prend une image satellite haute résolution et tente de détecter toutes les piscines dans la zone couverte par l’image. Le produit de ce flux de travail est un ensemble de polygones qui délimitent toutes les piscines identifiées sur l’image. De même, vos données de validation sont constituées d’un ensemble de polygones décrivant toutes les piscines identifiées manuellement sur l’image, pour une petite partie de l’image que vous utilisez pour la validation. Vous avez donc maintenant deux ensembles de polygones à comparer, l’un étant votre « estimation », l’autre la « réalité ». Votre matrice de confusion peut être configurée de la manière suivante (explication ci-dessous) :

Tableau 9: Matrice de confusion utilisée pour calculer le score F1 lorsque la précision est évaluée pour la détection d’un seul type d’objets.

Validation data

Class

Presence

Absence

Total

Classification

Presence

TP

FP

Precision = TP / (TP + FP)

Absence

FN

TN

Total

Recall = TP / (TP + FN)

Dans ce tableau, « presence » indique la présence d’une piscine (dans l’un ou l’autre des ensembles de données) et « absence » indique l’absence d’une piscine (également dans l’un ou l’autre des ensembles de données). TP est le nombre de Vrais Positifs (en anglais, « True Presences ») — piscines qui existent dans les données de validation, et qui ont été correctement identifiées dans votre carte comme étant des piscines. FP est le nombre de Fausses Présences (en anglais, « False Presences ») — objets identifiés dans votre carte comme étant des piscines, mais qui sont en réalité autre chose. FN est le nombre de faux négatifs — des piscines qui existent en réalité, mais que votre carte n’a pas détectées. Notez que dans ce tableau, il n’y a pas de Vrais Négatifs (objets qui ne sont en réalité pas des piscines, et qui n’ont pas non plus été identifiés dans l’image comme des piscines). Ceci a été omis, car, dans le cas d’une analyse d’image qui ne vise à trouver qu’une seule chose, aucun autre objet n’est identifié dans l’image ni dans les données de validation.

L’objectif d’une bonne analyse d’image est, bien sûr, d’obtenir un grand nombre de vraies présences, un petit nombre de fausses présences et un petit nombre de faux négatifs. Pour quantifier la réussite de l’analyse d’image, la valeur généralement calculée est appelée le score F1, qui se calcule comme suit : F1 = (2*Precision*Recall)/(Precision+Recall). Le score F1 a l’avantage d’avoir des valeurs allant de 0 (pire) à 1 (meilleur), ce qui le rend facile à interpréter.

Évaluation de l’exactitude pour les variables continues

Lorsqu’il s’agit de variables continues, la comparaison entre les « estimations » et la « réalité » ne consiste plus à vérifier si elles sont identiques ou non, car lorsqu’elles sont mesurées avec suffisamment de détails, elles ne le sont jamais. Par exemple, vous pouvez avoir cartographié un pixel comme ayant une température de surface de 31,546 °C alors que votre observation de terrain correspondante indique qu’elle est en réalité de 31,543 °C. Bien que les deux valeurs ne soient pas identiques, vous ne voudriez probablement pas que ce pixel soit simplement considéré comme « non conforme ». Ce que nous devons faire, c’est donner aux utilisateurs de la carte une idée de la différence typique entre l’estimation cartographiée et la réalité.

Création de données de validation

Comme pour l’évaluation de la précision de la classification, vous avez besoin d’un ensemble de données de validation considérées comme représentatives de la réalité. Celles-ci proviennent presque universellement de mesures sur le terrain, et il est important de se rappeler que, comme pour l’évaluation de la précision des classifications, les données de validation doivent être comparables aux mesures dérivées de votre image. La question de la résolution spatiale peut être particulièrement problématique ici, car il est difficile d’effectuer des mesures précises sur de grandes surfaces avec la plupart des équipements de terrain. Prenons le cas de la température de surface, qui est généralement mesurée avec un thermomètre infrarouge portatif (Figure 62).

Un thermomètre infrarouge (comme les thermomètres auriculaires utilisés pour vérifier si vous avez de la fièvre ou non) mesure le rayonnement provenant d’une petite zone circulaire de la surface de la Terre, là où le thermomètre est pointé. Les satellites mesurent essentiellement le même rayonnement et estiment la température de la même manière qu’un thermomètre infrarouge portatif, sauf qu’ils intègrent le rayonnement mesuré sur une plus grande surface (100 x 100 mètres, dans le cas de TIRS sur Landsat 8) alors que la version portative mesure une très petite surface (par exemple 0,5 x 0,5 mètre). Étant donné que la température de surface varie notamment en fonction de l’humidité du sol, de la couverture végétale et des matériaux de surface, prendre une mesure sur le terrain qui soit représentatif de la température de surface moyenne dans une zone de 100 x 100 m est un défi presque insurmontable dans des environnements hétérogènes. Une façon de contourner ce problème est de créer toutes vos données de validation dans des zones aussi homogènes que possible, une autre est de prendre plusieurs mesures et d’utiliser les valeurs moyennes sur chaque site pour produire un seul point de données de validation. Quelle que soit votre stratégie, il est essentiel de faire correspondre les données de validation à la résolution spatiale de l’image pour produire une évaluation de précision importante.

image

Figure 62: Thermomètre infrarouge portatif du type utilisé pour mesurer la température de surface d’une petite zone. Isometric Medical Digital Non-Contact Infrared Thermometer Temperature Measurement Device blue white par Jernej Furman, Flickr, CC BY 2.0.

Une fois que vous disposez d’un bon ensemble de données de validation, le tableau qui sert de base à l’évaluation de la précision est un tableau qui compare des valeurs numériques, comme dans l’exemple ci – dessous de la biomasse ligneuse par ha dans une forêt :

Tableau 10: Exemple de tableau utilisé pour comparer les estimations cartographiées d’une variable continue avec les données de validation provenant d’observations sur le terrain :

Mapped biomass, tons per ha (estimate)

Observed biomass, tons per ha (reality)

10.1

9.2

5.7

4.8

3.2

4.0

6.7

6.6

7.8

7.1

9.3

9.1

L’une des premières choses que nous pouvons quantifier avec ce type de données est de savoir si les estimations cartographiées sont typiquement sous-estimées ou surestimées, lorsqu’elles sont comparées aux données de validation. Si c’est le cas, le flux de travail (algorithme) qui a produit les estimations est considéré comme biaisé, et il peut être utile de le réviser. Le biais peut être calculé comme l’erreur moyenne, c’est-à-dire la valeur moyenne de l’estimation moins la validation. Nous pouvons le calculer en mettant à jour le tableau 10 pour obtenir le tableau 11 :

Tableau 11: Le biais est calculé comme l’erreur moyenne des estimations.

Mapped biomass, tons per ha (estimate)

Observed biomass, tons per ha (reality)

Error

(estimate – reality)

10.1

9.2

0.9

5.7

4.8

0.9

3.2

4.0

-0.8

6.7

6.6

0.1

7.8

7.1

0.7

9.3

9.1

0.2

Mean Error:

0.33

Dans le tableau 11, nous pouvons voir que les estimations ont une erreur moyenne de 0,33. En d’autres termes, en moyenne, les estimations de la biomasse dans notre carte surestiment la réalité de 0,33 tonne par ha. Cela peut ou non justifier le perfectionnement de l’algorithme utilisé pour produire les estimations, mais c’est au moins quelque chose qui mérite d’être signalé aux utilisateurs potentiels de la carte de la biomasse qui contient les surestimations.

Un autre élément crucial à quantifier est le degré d’erreur typique des estimations. C’est important, car on peut imaginer avoir une carte non biaisée qui surestime fortement la biomasse dans une partie et la sous-estime fortement ailleurs. Une telle carte, non biaisée, serait toujours fausse partout ! La manière la plus simple de rendre compte de cette situation est d’utiliser l’erreur absolue moyenne, comme le montre le tableau 12 :

Tableau 12: L’erreur absolue moyenne (en Anglais « Mean Absolute Error », MAE) est généralement indiquée pour montrer la « précision » de la carte.

Mapped biomass, tons per ha (estimate)

Observed biomass, tons per ha (reality)

Error

(estimate – reality)

Absolute Error

10.1

9.2

0.9

0.9

5.7

4.8

0.9

0.9

3.2

4.0

-0.8

0.8

6.7

6.6

0.1

0.1

7.8

7.1

0.7

0.7

9.3

9.1

0.2

0.2

Mean Absolute Error:

0.6

La MAE vous indique la différence à laquelle vous devez vous attendre entre l’estimation et la réalité, mais pas si cette différence prend la forme d’une surestimation ou d’une sous-estimation. Comme la plupart des algorithmes utilisés pour cartographier les variables continues sont très efficaces pour minimiser les biais, la MAE est souvent utilisée pour comparer différentes approches de cartographie d’une variable continue, en considérant comme l’approche qui conduit à la MAE le plus faible comme la « meilleure ».

Une autre mesure de la « précision » pour les variables continues est l’erreur quadratique moyenne (en anglais « Root Mean Square Error », RMSE), qui est calculée comme dans le tableau 13 :

Table 13: Calcul de l’erreur quadratique moyenne.

Mapped biomass, tons per ha (estimate)

Observed biomass, tons per ha (reality)

Error

(estimate – reality)

Squared Error

10.1

9.2

0.9

0.81

5.7

4.8

0.9

0.81

3.2

4.0

-0.8

0.64

6.7

6.6

0.1

0.01

7.8

7.1

0.7

0.49

9.3

9.1

0.2

0.04

Mean Squared Error:

0.47

Root Mean Squared Error:

0.68

La RMSE est plus grande que la MAE (ou égale à celle-ci, dans des cas extrêmement rares), car elle pèse plus lourdement sur les grosses erreurs dans son calcul. Les algorithmes qui évitent les erreurs importantes sont donc avantagés lorsqu’ils sont comparés à l’aide de la RMSE, tandis que les algorithmes qui ont souvent des erreurs très faibles, mais occasionnellement des erreurs très importantes ne le sont pas.

Enfin, une autre valeur généralement rapportée lors de la cartographie d’une variable continue est le coefficient de détermination, ou R2, qui indique dans quelle mesure la variance des valeurs des données de validation (« réalité ») est prévisible à partir des estimations.

Bien qu’il soit important de comprendre pourquoi et comment rendre compte de l’exactitude de toute carte que vous produisez, en termes pratiques, c’est plus facile que ce que l’on pourrait croire dans les sections ci-dessus. La plupart des logiciels utilisés pour le traitement d’images ont des fonctions intégrées pour l’évaluation de l’exactitude, et offrent même souvent une fonctionnalité pour vous aider à créer les données de validation. Si le logiciel que vous utilisez ne vous permet pas de calculer une mesure spécifique (par exemple la MAE, ou le score F1), il vous aidera probablement à exporter les données nécessaires vers un fichier facilement lisible dans Excel, R, ou tout autre logiciel que vous connaissez et que vous pouvez utiliser pour effectuer le reste des calculs manuellement.

Licence

Symbole de Licence Creative Commons Attribution 4.0 International

Télédétection Copyright © 2021 by Anders Knudby is licensed under a Licence Creative Commons Attribution 4.0 International, except where otherwise noted.

Partagez ce livre