En cliquant sur "Accepter", vous acceptez que des cookies soient stockés sur votre appareil afin d'améliorer la navigation sur le site, d'analyser son utilisation et de contribuer à nos efforts de marketing. Consultez notre politique de confidentialité pour plus d'informations.
5 septembre 2022

Qu'est-ce que l'Intersection par rapport à l'Union dans la détection d'objets ?

5 septembre 2022

Qu'est-ce que la détection d'objets ?

La détection d'objets est une technique utilisée sur computer vision pour identifier et localiser des objets dans des images ou des vidéos numériques. Elle permet de détecter un objet ciblé dans l'image ou la vidéo.

Quelles sont les composantes de la détection des objets ?

Classification 

Il s'agit de l'attribution d'un objet à une image. En d'autres termes, il s'agit de trouver quelles classes d'objets sont présentes dans une image ou une vidéo.

Localisation

Il cherche à localiser l'objet le plus visible dans une image ou une vidéo. Généralement, il est centré dans une boîte de délimitation serrée. Elle permet de déterminer facilement l'emplacement d'un objet de l'image.

Qu'est-ce que l'Intersection sur l'Union (IOU) ?

Elle décrit le niveau de chevauchement entre deux boîtes, à savoir la boîte de prédiction et la boîte de délimitation réelle. Plus le chevauchement est grand, plus la reconnaissance de dette est importante. 

En détection d'objets, l'intersection de l'union est une unité de mesure permettant de vérifier le niveau de chevauchement entre la boîte prédite d'un objet et sa boîte de délimitation réelle dans un ensemble de données particulier. Son symbole est $IoU$.

Pourquoi utilisons-nous Intersection plutôt que Union ?

En général, il est peu probable que la boîte de prédiction et la boîte de délimitation réelle soient identiques. C'est là qu'intervient la fonction Intersection sur Union. Elle mesure le chevauchement entre les deux boîtes, et détermine ainsi le niveau de précision du détecteur d'objets.

Quelles sont les techniques de détection d'objets ?

Transformation des caractéristiques invariantes à l'échelle (SIFT)

David Lowe est à l'origine de SIFT. Il utilise des invariants d'échelle et de rotation pour détecter les caractéristiques locales d'une image, également appelées points clés. La taille et l'orientation de l'image ne l'affectent pas. Le processus SIFT comporte quatre étapes principales.

(i)Construction de l'espace d'échelle

Cela garantit l'indépendance des caractéristiques par rapport à l'échelle.

(ii) Localisation du point clé

C'est ici que les caractéristiques de l'image sont identifiées.

(iii) Mission d'orientation

C'est ici que nous nous assurons de l'invariance des points clés en cas de rotation.

(iv) Descripteur du point clé

C'est là qu'une empreinte digitale unique est attribuée à chaque point clé.

Fonctionnalité robuste accélérée (SURF)

SURF est un détecteur d'objets breveté, présenté pour la première fois par Herbert Bay lors de la conférence européenne de 2006 sur Computer Vision. Il comporte trois domaines principaux :

Détection

Il utilise le détecteur de blob, qui se base sur la matrice hessienne pour trouver les points d'intérêt. La matrice hessienne calculée est la mesure du changement du point d'intérêt et la valeur maximale des points déterminants qui sont sélectionnés.

Descripteur

Ici, il fournit des descriptions uniques d'une caractéristique de l'image. Il fixe une orientation qui est reproductible sur la base des informations reçues de la région circulaire autour du point d'intérêt.

Correspondant

Nous trouvons ici les paires qui correspondent à l'aide de la comparaison des descripteurs obtenus à partir de différentes images.

Caractéristiques du détecteur d'angles FAST (Accelerated Segment Test)

Il s'agit d'une méthode de détection des coins avec une efficacité de calcul, introduite par Tom Drummond et Edward Rosten. Elle fournit des points d'angle qui sont utilisés comme points clés. Elle convient bien aux applications de traitement vidéo en temps réel en raison de sa vitesse élevée. Cependant, elle est incapable de détecter les coins sur des images dont les coordonnées sont générées par ordinateur. Il attribue un segment par pixel dans un cercle de 16 pixels autour du pixel.

On ne regarde qu'une fois(YOLO)

YOLO détecte différents objets d'image en temps réel grâce à l'utilisation de réseaux neutres. Un seul parcours logarithmique en jaune est suffisant pour la détection d'images. 

Comment est mesuré iOu ? 

La formule de calcul de l'intersection sur l'union s'appelle l'indice de Jaccard. La zone d'intersection des deux cases est calculée. Ensuite, elle est divisée par l'aire de l'Union des deux boîtes. Cela signifie que la zone d'intersection est divisée par la zone d'union.

IoU= (ANB)÷ (AUB) ou (I) ÷(U)

Comment fonctionne la détection des objets ?

La détection d'objets dessine une boîte de délimitation autour d'un objet détecté, ce qui permet de détecter l'emplacement spécifique de l'objet, ou encore la façon dont il se déplace dans une scène particulière.

Le défi majeur de l'intersection par rapport à l'Union dans la détection d'objets 

Sa mesure de précision est un peu douteuse. En effet, sa formule ne reflète pas vraiment si les deux boîtes englobantes sont proches ou éloignées l'une de l'autre. 

Vous pourriez également aimer
ces autres articles

Vous voulez grandir vos projets de labellisations de données
et le faire de manière éthique ?

Nous disposons d'une large gamme de solutions et d'outils qui vous aideront à former vos algorithmes. Cliquez ci-dessous pour en savoir plus !