User Tools

Site Tools


Sidebar

Home

Research

Teaching

Master
Old courses

Private

teaching:master

This is an old revision of the document!


A PCRE internal error occured. This might be caused by a faulty plugin

====== Data Mining/Machine learning ====== ===== Syllabus ===== ==== Informations de base ==== * Nom du cours : Data Mining/Machine learning. * Nombre de crédits : 4 ECTS * Mode d'évaluation : **Partiel (FIX%) + Examen final (FIX %)** * Nombre de séances : 24h Cours et 12h TP (sur {{teaching:rlogo.jpg?25}} ou Weka). * Prérequis : Cours M1 en Analyse Factorielle, Algèbre linéaire, éléments de statistiques descriptives et inférentielles. ==== Motivations ==== Ce cours a pour objectif d'introduire les notions de fouille de données et d'apprentissage statistique dans un contexte de grands volumes de données. Il s'agit de former les étudiants aux méthodes de description et de représentation de données multidimensionnelles ainsi qu'aux méthodes de base de leur analyse ; en particulier les méthodes de réduction de dimensionalité (ACP), d'apprentissage non-supervisé (kmeans, CAH, régles d'association) et d'apprentissage supervisé. Le cours sera guidé par des exemples pratiques de données d'entreprises. Les Travaux dirigés se feront sous le logiciel {{teaching:rlogo.jpg?25}} et/ou Weka. ==== Domaines d’applications, quelques exemples : ==== * Marketing (anticiper les comportements des clients, concevoir des offres ciblées). * bioinformatique (étude des lien entre gènes). * Analyse d’enquêtes. * Séries financières. * le Web. * etc. ==== Objectifs d’apprentissage ==== * Savoir se débrouiller face à des grands volumes de données. * Savoir quelle méthode appliquer dans quel cas. * Se souvenir de tout cela en entreprise et dans les cours du Master : * Devenir un //Data Analyst/Scientist// ==== Programme Prévisionnel ==== - ** Introduction générale** - ** Classification non-supervisée** * K-means * Classification hiérarchique * Association * Réduction de dimensionalité : ACP, SVD * Latent Semantic Analysis - **Classification Supervisée** * Arbres de décision * Régression * Séparateurs à Vaste Marge ==== Calendrier Prévisionnel parcours normal ==== ^ Séance ^Semaine^ Materiel ^TD/TP | 1 | 3 dec. | {{teaching:cours_M2_0.pdf|Introduction}} | | | 2 | 10 dec. | {{teaching:coursM2_1.pdf|Kmeans/CAH}} | {{teaching:id_td_cah_kmeans_assoc.pdf|TD Kmeans CAH Association}} | | | | {{teaching:coursM2_2.pdf|Association}} | | | 3 | 18 dec. | {{teaching:m2-id_em.pdf|EM}} |{{teaching:id_tp1_association.pdf|TP Association}} | | 4 | 7 jan. | |{{teaching:id_tp2_kmeans_em.pdf|TP Kmeans vs EM}}| | 5 | 15 jan. | {{:teaching:cours_dimred.pdf |ACP, SVD, LSA}}| {{:teaching:tp_textmining.pdf|TP Text Mining}}| | | | {{:teaching:decisiontrees.pdf| Arbres de décision}} | {{teaching:tp_textmining.zip|Data Text Mining}} | | 6 | | {{:teaching:knn_naivebayes.pdf| Knn,Naive Bayes}} | | | | | {{:teaching:validation.pdf| Validation}} | | | 7 | | {{:teaching:coursm2_regression.pdf| Regression}} | {{:teaching:td_regression.pdf|TD Regression}} | | 7 | | {{:teaching:deeplearning_isi.pdf| Deep learning}} | |

teaching/master.1456750100.txt.gz · Last modified: 2016/02/29 13:48 by atif