Apprentissage à plusieurs instances à partir de Distributions

Apprentissage à plusieurs instances à partir de Distributions

Gary Doran, Soumya Ray; 17(128):1-50, 2016.

Résumé

Nous proposons un nouveau cadre théorique pour l’analyse du paramètre MIL (multiple-instance learning). Dans MIL, des exemples d’apprentissage sont fournis à un algorithme d’apprentissage sous la forme d’ensembles étiquetés, ou  » sacs  » d’instances. Les applications de MIL incluent la prédiction quantitative de la relation structure-activité 3D pour la découverte de médicaments et la récupération d’images basée sur le contenu pour la recherche sur le Web. Le but d’un algorithme est d’apprendre une fonction qui étiquette correctement les nouveaux sacs ou une fonction qui étiquette correctement les nouvelles instances. Nous proposons que les sacs soient traités comme des distributions latentes à partir desquelles des échantillons sont observés. Nous montrons qu’il est possible d’apprendre des fonctions précises d’étiquetage des instances et des sacs dans ce paramètre, ainsi que des fonctions qui classent correctement les sacs ou les instances sous des hypothèses faibles. De plus, nos résultats théoriques suggèrent qu’il est possible d’apprendre à se classer efficacement en utilisant des approches d’apprentissage « supervisées » traditionnelles et bien étudiées. Nous effectuons une évaluation empirique approfondie qui corrobore les prédictions théoriques entraînées par le nouveau cadre. Le cadre théorique proposé conduit à une meilleure compréhension de la relation entre l’IM et les paramètres d’apprentissage supervisé standard, et il fournit de nouvelles méthodes d’apprentissage à partir des données d’IM qui sont plus précises, plus efficaces et qui ont des propriétés théoriques mieux comprises que les algorithmes spécifiques à l’MI existants.

& copie JMLR 2016. (édition, version bêta)

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.