FrançaisEnglish

Érudit | Dépôt de documents >
CIRANO - Centre interuniversitaire de recherche en analyse des organisations >
Cahiers scientifiques >

Veuillez utiliser cette adresse pour citer ce document :

https://depot.erudit.org//id/000883dd

Titre: Spectral Dimensionality Reduction
Auteur(s): Bengio, Yoshua
Delalleau, Olivier
Le Roux, Nicolas
Paiement, Jean-François
Vincent, Pascal
Ouimet, Marie
Date de publication: 2004-05
Editeur: Centre interuniversitaire de recherche en analyse des organisations (CIRANO)
Collection/Numéro: Série scientifique (CIRANO);2004s-27
Scientific series (CIRANO);2004s-27
Résumé: Dans cet article, nous étudions et développons un cadre unifié pour un certain nombre de méthodes non linéaires de réduction de dimensionalité, telles que LLE, Isomap, LE (Laplacian Eigenmap) et ACP à noyaux, qui font de la décomposition en valeurs propres (d'où le nom "spectral"). Ce cadre inclut également des méthodes classiques telles que l'ACP et l'échelonnage multidimensionnel métrique (MDS). Il inclut aussi l'étape de transformation de données utilisée dans l'agrégation spectrale. Nous montrons que, dans tous les cas, l'algorithme d'apprentissage estime les fonctions propres principales d'un opérateur qui dépend de la densité inconnue de données et d'un noyau qui n'est pas nécessairement positif semi-défini. Ce cadre aide à généraliser certains modèles pour prédire les coordonnées des exemples hors-échantillons sans avoir à réentraîner le modèle. Il aide également à rendre plus transparent ce que ces algorithmes minimisent sur les données empiriques et donne une notion correspondante d'erreur de généralisation.

In this paper, we study and put under a common framework a number of non-linear dimensionality reduction methods, such as Locally Linear Embedding, Isomap, Laplacian Eigenmaps and kernel PCA, which are based on performing an eigen-decomposition (hence the name 'spectral'). That framework also includes classical methods such as PCA and metric multidimensional scaling (MDS). It also includes the data transformation step used in spectral clustering. We show that in all of these cases the learning algorithm estimates the principal eigenfunctions of an operator that depends on the unknown data density and on a kernel that is not necessarily positive semi-definite. This helps to generalize some of these algorithms so as to predict an embedding for out-of-sample examples without having to retrain the model. It also makes it more transparent what these algorithm are minimizing on the empirical data and gives a corresponding notion of generalization error.
URI/URL: http://www.cirano.qc.ca/pdf/publication/2004s-27.pdf
https://depot.erudit.org/id/000883dd
ISSN: 1198-8177
Collection(s) :Cahiers scientifiques

Fichier(s) constituant ce document :

2004s-27.pdf (Adobe PDF ; 367.63 kB)

Tous les documents du dépôt d’Érudit sont protégés par droit d'auteur, avec tous droits réservés.

 

À propos d’Érudit | Abonnements | RSS | Conditions d’utilisation | Pour nous joindre |

Consortium Érudit ©  2016