edit · history · print

Analyse de Données et Méthodes à Noyaux / ADMN (ex TADTI) - M2 - Master d'Informatique - Paris 6

Année 2010 - 2011


  • Soutenances du projet - Lundi 22 Mars après-midi
 ** Envoyez moi un mail pour me dire à quelle heure vous souhaitez passer (toutes les 1/2h à partir de 13h30)
 ** 13h30 : Antoine Brenner
 ** 14h00 : Riad AKROUR
 ** 14h30 : thomas jannaud
 ** 15h00 : abraham alexandre
 ** 15h30 : ISMAIL GOKHAN ALTAY
 ** 16h00 : LIU Xiao
 ** 16h30 : Jérémie DECOCK

  • Projet
 ** Telechargez l'archive --> ici
  • Regles de comparaison des méthodes
 ** Donnees inconnues
 - 200 premiers exemples en apprentissage, 150 restants en test.
 Mesures de performances : taux de reconnaissance global, moyenne arithmétique et géométrique des taux par classe
 - Cross validation (100 folds aléatoires) avec nombre d'exemples d'apprentissage équilibré pour les deux classes.
 Memes mesures de performance

 ** Donnees YaleFace
 - Performance (taux de reconnaissance) en identification de la personne
 - Performance (taux de reconnaissance) en identification de la pose
  • Livres
 ** Site Web de Robert Tibshirani
 ** Livre de Hastie et Tibshirani sur l'apprentissage statistique

  • Séance 5
 Slides
  • Séance 4
 Slides
 Projet
  • Séance 3
 Slides
 TME 3
  • Séance 2
 Slides
 TME 2
  • Séance 1
 Slides
 TME 1
 BCI Data x
 BCI Data y
  • Séance 1
 Slides
 TME
 Données
 Lien Rapid Miner Operator Reference
  • Séance 2
 Slides
 TME
 Données
 Données sparse PAN 2012
  • Séance 3
 Slides
 TME
 RapidMinerRepository
 DatasPAN2013
  • Seance 4
 Slides
 TME
 Codes OCtave sur Isompa, MDS, etc
 Comment etendre MDS a des nouvelles données
  • Seance 5
 Slides
 Corpus 9 auteurs littérature anglais
 Corpus PAN 2012
 Corpus 18000 auteurs / blogs
 Liste 60 auteurs / blogs
  • Seance 6
 Slides
  • Seance 7
 Slides
  • Cours 7
 ** Cours7 GDA
 ** Cours7 Structured Data
  • Cours 6
 ** Cours6
 ** TME6
 ** Code6
 ** Article sur KDA
  • Cours 5
 ** Cours5
 ** TME5
 ** Code5
  • Cours 4
 ** Cours4
 ** TME4
 ** Code4
 ** Lien sur Isomap et LLE
  • Cours 3
 ** Cours3
 ** TME3
 ** L'article originel de Schölkopf
  • Cours 2
 ** Cours2
 ** TME2
 ** Code2
  • Cours 1
 **Archive Cours1
  • Cours 6
 ** Cours6
 ** Code6
 ** Article sur KDA
  • Cours 5
 ** Cours5
 ** Donnees projet
  • Cours 4
 ** Cours4
 ** TME4
 ** Code4
 ** Lien sur Isomap et LLE
  • Cours 3
 ** Cours3
 ** TME3
 ** TME3
 ** L'article originel de Schölkopf
  • Cours 2
 **Cours2
 ** Datas Breiman
  • Cours 1
 **Cours1



  • Contenu indicatif du cours
    • Introduction

Ce module est un module d'approfondissement de certains concepts d'apprentissage automatique abordés dans le module APAS.

Le cours est focalisé sur des méthodes avancées proposées pour dépasser les limites de méthodes traditionnelles souvent linéaires.

Ces méthodes avancées reposent souvent sur la kernélisation des méthodes, via l'astuce du noyau, qui permet de rendre non linéaire (donc plus puissante) une méthode initialement linéaire.

Elles concernent l'analyse de données, le clustering, la classification pour des données simples (vectorielles) ou complexes (séquences, arbres) etc. La présentation met en évidence les liens avec les méthodes de la reconnaissance des formes et de l'apprentissage automatique vues dans d'autres cours (APAS).

  • Aspects pratiques du module

Le cours s'appuie sur la manipulation effective sur machine des principaux algorithmes pour des applications réelles.

L'évaluation est réalisée sur la base d'un projet d'apprentissage automatique sur des données réelles (clustering de stations Velib à Paris en 2008, classification de sons de voyelles en 2007, etc) réalisé en parallèle pendant la durée du module.

  • Bibliographie
    • Gilbert Saporta, Probabilités, analyse des données et statistique www.editionstechnip.com/F/saportaprobabilitesanalysedonnees147.asp)
    • Kernel Methods for Pattern Analysis John Shawe-Taylor & Nello Cristianini Kernel Methods, Cambridge University Press, 2004 ISBN: 0521813972
    • Bernhard Schölkopf , Alexander Smola , Klaus-Robert Müller, Nonlinear component analysis as a kernel eigenvalue problem, Neural Computation, July 1998.
    • Isabelle Guyon, Steve Gunn, Masoud Nikravesh, and Lofti Zadeh, Editors. Feature Extraction, Foundations and Applications Series Studies in Fuzziness and Soft Computing, Physica-Verlag, Springer, 2006.
  • Contenu indicatif par semaine
    • Semaine 1: Techniques d'analyse de données classiques :

Analyse en composantes principales (ACP) & co

  • Semaine 2: Méthodes de sélection de variables

Forward et Backward selection, Approches de type Wrapers et Filters

  • Semaine 3: Méthodes de réduction de dimension non linéaires :

Local Linear Embeding - Cartes topologiques - Random Projection - etc

  • Semaine 4: Astuce du noyau et kernélisation

Application aux techniques d'analyse de données (Kernal ACP)

  • Semaine 5: Méthodes de clustering avancées :

K-Means Kernelisé , Support Vector Clustering, Méthodes de propogation

  • Semaine 6: Méthodes de classification avancées :

Analyses discriminantes (Fisher, Quadratique) et versions kernélisées.

  • Semaine 7: Méthodes de classification avancées pour les données structurées

Maximum Margin Networks, Conditional Random fields, et versions kernélisées


Séance 1

 * Cours 1



 * TD/TME 1 
 * Jeux de Données 
 * Codes Octave

Séance 2

 * Cours 2
 * TD/TME 2 
 * Codes Octave + Datas

Séance 3

 * Cours 3
 * TD/TME 3 
 * Codes Octave

Séance 4

 * Cours 4
 * Sujet du Projet 
 * Données du Projet
 * Code de Kmeans

Séance 5

 * Cours 5
 * Sujet de TME 5 

Séance 6

 * Cours 6
 * Code TME 6 

Projet

 * Altitude des stations de velib  (merci François Giraud)
edit · history · print
Page last modified on March 12, 2014, at 10:52 AM