Qu'est-ce que l'Intersection par rapport à l'Union dans la détection d'objets ?
La détection d'objets est une technique utilisée sur computer vision pour identifier et localiser des objets dans des images ou des vidéos numériques. Elle permet de détecter un objet ciblé dans l'image ou la vidéo.
Il s'agit de l'attribution d'un objet à une image. En d'autres termes, il s'agit de trouver quelles classes d'objets sont présentes dans une image ou une vidéo.
Il cherche à localiser l'objet le plus visible dans une image ou une vidéo. Généralement, il est centré dans une boîte de délimitation serrée. Elle permet de déterminer facilement l'emplacement d'un objet de l'image.
Il décrit le niveau de chevauchement entre deux boîtes, à savoir la boîte de prédiction et la boîte de délimitation réelle. Plus le chevauchement est important, plus la reconnaissance de dette est élevée.
En détection d'objets, l'intersection de l'union est une unité de mesure permettant de vérifier le niveau de chevauchement entre la boîte prédite d'un objet et sa boîte de délimitation réelle dans un ensemble de données particulier. Son symbole est $IoU$.
En général, il est peu probable que la boîte de prédiction et la boîte de délimitation réelle soient identiques. C'est là qu'intervient la fonction Intersection sur Union. Elle mesure le chevauchement entre les deux boîtes, et détermine ainsi le niveau de précision du détecteur d'objets.
David Lowe est à l'origine de SIFT. Il utilise augmentez et des invariants de rotation pour détecter les caractéristiques locales d'une image, également connues sous le nom de points clés. La taille et l'orientation de l'image n'ont pas d'incidence. Le processus SIFT comporte quatre étapes principales.
Cela permet de garantir l'indépendance des caractéristiques sur le site augmentez .
C'est ici que les caractéristiques de l'image sont identifiées.
C'est ici que nous nous assurons de l'invariance des points clés en cas de rotation.
C'est là qu'une empreinte digitale unique est attribuée à chaque point clé.
SURF est un détecteur d'objets breveté, présenté pour la première fois par Herbert Bay lors de la conférence européenne de 2006 sur Computer Vision. Il s'articule autour de trois axes principaux :
Il utilise le détecteur de taches, qui se base sur la matrice hessienne, pour trouver les points d'intérêt. La matrice hessienne calculée est la mesure du changement du point d'intérêt et la valeur maximale des points déterminants qui sont sélectionnés.
Ici, il fournit des descriptions uniques d'une caractéristique de l'image. Il fixe une orientation qui est reproductible sur la base des informations reçues de la région circulaire autour du point d'intérêt.
Nous trouvons ici les paires qui correspondent à l'aide de la comparaison des descripteurs obtenus à partir de différentes images.
Il s'agit d'une méthode de détection des coins avec une efficacité de calcul, introduite par Tom Drummond et Edward Rosten. Elle fournit des points d'angle qui sont utilisés comme points clés. Elle convient bien aux applications de traitement vidéo en temps réel en raison de sa vitesse élevée. Cependant, elle est incapable de détecter les coins sur des images dont les coordonnées sont générées par ordinateur. Il attribue un segment par pixel dans un cercle de 16 pixels autour du pixel.
YOLO détecte différents objets d'image en temps réel grâce à l'utilisation de réseaux neutres. Un seul parcours logarithmique en jaune est suffisant pour la détection d'images.
La formule permettant de calculer l'intersection par rapport à l'union s'appelle l'indice de Jaccard. La zone d'intersection des deux cases est calculée. Elle est ensuite divisée par la surface de l'union des deux cases. En d'autres termes, la zone d'intersection est divisée par la zone d'union.
IoU= (ANB)÷ (AUB) ou (I) ÷(U)
La détection d'objets dessine une boîte de délimitation autour d'un objet détecté, ce qui permet de détecter l'emplacement spécifique de l'objet, ou encore la façon dont il se déplace dans une scène particulière.
Sa mesure de précision est un peu douteuse. En effet, sa formule ne reflète pas vraiment si les deux boîtes englobantes sont proches ou éloignées l'une de l'autre.
Nous disposons d'une large gamme de solutions et d'outils qui vous aideront à former vos algorithmes. Cliquez ci-dessous pour en savoir plus !