Lernen mehrerer Instanzen aus Distributionen

Lernen mehrerer Instanzen aus Distributionen

Gary Doran, Soumya Ray; 17(128):1-50, 2016.

Abstract

Wir schlagen einen neuen theoretischen Rahmen für die Analyse des Multiple-Instance Learning (MIL) Settings vor. In MIL werden Trainingsbeispiele für einen Lernalgorithmus in Form von beschrifteten Sätzen oder „Taschen“ von Instanzen bereitgestellt. Zu den Anwendungen von MIL gehören die Vorhersage quantitativer 3D-Struktur- Aktivitätsbeziehungen für die Wirkstoffentdeckung und der inhaltsbasierte Abruf von Bildern für die Websuche. Das Ziel eines Algorithmus ist es, eine Funktion zu lernen, die neue Taschen korrekt beschriftet, oder eine Funktion, die neue Instanzen korrekt beschriftet. Wir schlagen vor, dass Beutel als latente Verteilungen behandelt werden sollten, aus denen Proben beobachtet werden. Wir zeigen, dass es möglich ist, genaue Instance- und Bag-Labeling-Funktionen in dieser Einstellung zu lernen, sowie Funktionen, die Taschen oder Instanzen unter schwachen Annahmen richtig einordnen. Darüber hinaus legen unsere theoretischen Ergebnisse nahe, dass es möglich ist, mit traditionellen, gut untersuchten „überwachten“ Lernansätzen effizient rangieren zu lernen. Wir führen eine umfangreiche empirische Evaluation durch, die die theoretischen Vorhersagen des neuen Frameworks unterstützt. Der vorgeschlagene theoretische Rahmen führt zu einem besseren Verständnis der Beziehung zwischen dem MI und den Standardeinstellungen für überwachtes Lernen, und es bietet neue Methoden zum Lernen aus MI-Daten, die genauer sind, effizienter, und haben theoretische Eigenschaften besser verstanden als bestehende MI-spezifische Algorithmen.

& kopieren JMLR 2016. (bearbeiten, beta)

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.