FrançaisEnglish

Érudit | Dépôt de documents >
CIRANO - Centre interuniversitaire de recherche en analyse des organisations >
Cahiers scientifiques >

Please use this identifier to cite or link to this item:

https://depot.erudit.org//id/000884dd

Full metadata record

DC FieldValueLanguage
dc.contributor.authorGrandvalet, Yvesfr_CA
dc.contributor.authorBengio, Yoshuafr_CA
dc.date.accessioned2004-06-15T16:40:53Z-
dc.date.available2004-06-15T16:40:53Z-
dc.date.issued2004-05fr_CA
dc.identifier.issn1198-8177fr_CA
dc.identifier.other2004s-28fr_CA
dc.identifier.urihttp://www.cirano.qc.ca/pdf/publication/2004s-28.pdffr_CA
dc.identifier.urihttps://depot.erudit.org/id/000884dd-
dc.description.abstractCet article introduit le régularisateur à entropie minimum pour l'apprentissage d'étiquettes partielles. Ce problème d'apprentissage incorpore le cadre non supervisé, où une règle de décision doit être apprise à partir d'exemples étiquetés et non étiquetés. Le régularisateur à entropie minimum s'applique aux modèles de diagnostics, c'est-à-dire aux modèles des probabilités postérieures de classes. Nous montrons comment inclure d'autres approches comme un cas particulier ou limité du problème semi-supervisé. Une série d'expériences montrent que le critère proposé fournit des solutions utilisant les exemples non étiquetés lorsque ces dernières sont instructives. Même lorsque les données sont échantillonnées à partir de la classe de distribution balayée par un modèle génératif, l'approche mentionnée améliore le modèle génératif estimé lorsque le nombre de caractéristiques est de l'ordre de la taille de l'échantillon. Les performances avantagent certainement l'entropie minimum lorsque le modèle génératif est légèrement mal spécifié. Finalement, la robustesse de ce cadre d'apprentissage est démontré : lors de situations où les exemples non étiquetés n'apportent aucune information, l'entropie minimum retourne une solution rejetant les exemples non étiquetés et est aussi performante que l'apprentissage supervisé.fr
dc.description.abstractThis paper introduces the minimum entropy regularizer for learning from partial labels. This learning problem encompasses the semi-supervised setting, where a decision rule is to be learned from labeled and unlabeled examples. The minimum entropy regularizer applies to diagnosis models, i.e. models of the posterior probabilities of classes. It is shown to include other approaches to the semi-supervised problem as particular or limiting cases. A series of experiments illustrates that the proposed criterion provides solutions taking advantage of unlabeled examples when the latter convey information. Even when the data are sampled from the distribution class spanned by a generative model, the proposed approach improves over the estimated generative model when the number of features is of the order of sample size. The performances are definitely in favor of minimum entropy when the generative model is slightly misspecified. Finally, the robustness of the learning scheme is demonstrated: in situations where unlabeled examples do not convey information, minimum entropy returns a solution discarding unlabeled examples and performs as well as supervised learning.en
dc.format.extent252596 bytes-
dc.format.mimetypeapplication/pdf-
dc.language.isoenfr_CA
dc.publisherCentre interuniversitaire de recherche en analyse des organisations (CIRANO)fr_CA
dc.relation.ispartofseriesSérie scientifique (CIRANO);2004s-28fr
dc.relation.ispartofseriesScientific series (CIRANO);2004s-28en
dc.titleLearning from Partial Labels with Minimum Entropyen
dc.typearticleen
Appears in Collections:Cahiers scientifiques

Files in This Item:

2004s-28.pdf (Adobe PDF ; 246.68 kB)

Items in the Repository are protected by copyright, with all rights reserved, unless otherwise indicated.

 

About Érudit | Subscriptions | RSS | Terms of Use | Contact us |

Consortium Érudit ©  2016