Active Learning et Semi-Supervised Learning Retrouvez toutes nos autres videos sur notre chaîne YouTube. Dans le cadre de l’apprentissage supervisé, l’entraînement d’un réseau de neurones repose sur l’exploitation d’un ensemble de données dites labellisées, i.e. qui contiennent des informations permettant de guider l’entraînement du modèle. Dans le cas d’un problème de classification d’images […]
Pendant les deux dernières décennies, l’arrivée des nouvelles familles d’algorithmes provenant du domaine Data Mining et les nouvelles puissances de calcul permettant d’entraîner des réseaux profonds contenant des centaines de millions de paramètres ont révolutionné le domaine de l’IA. Cette révolution, initialement adoptée par les chercheurs, s’est rapidement propagé à quasiment tous les secteurs de l’industrie.
Dans les projets de Machine Learning, en général, les modèles fonctionnent correctement si les proportions des classes du jeu de données utilisé sont relativement similaires. Cependant, des déséquilibres s’invitent parfois dans l’équation.
Découvrez dans cet article comment gérer ce type de problématique.
Ce nouvel article dresse l’état de l’art de l’extraction d’informations des images pour servir un objectif fixé. Un intérêt particulier y est porté sur la cartographie de l’occupation des sols.
Désennuagement, pan-sharpening, imagerie hyperspectrale… Découvrez les nouveaux pré-traitements en télédétection spatiale et aérienne.
Un article pour comprendre la télédétection spatiale et aérienne, qui regroupe l’ensemble des techniques liées à la reconnaissance d’objets sur la surface terrestre par le biais de capteurs embarqués sur des satellites.
Dans le monde, 2.5 quintillions de bytes de données sont générés par jour en moyenne, et cela ne cesse d’augmenter. Dans l’univers de l’intelligence artificielle, ces données sont une ressource primaire alimentant des algorithmes de plus en plus performants et entrainés. Mais… sont-ils responsables pour autant ?
Cet article présente une nouvelle approche méthodologique pour améliorer l’interprétation des modèles de Deep Learning, qui sont souvent très opaques : la méthode des « Integrated gradients ».
Les modèles de ML sont souvent des boites noires qu’on évalue selon leurs performances sans savoir exactement comment leurs décisions sont prises. Obtenir les meilleures performances possible peut suffire, mais comprendre les décisions est de plus en plus indispensable.