0972 311 312 (prix appel local)

Ingénierie de la fouille et de la visualisation de données massives (RCP216)

Objectifs

Cet enseignement s'intéresse à l'impact des caractéristiques des données massives (volume, variété, vélocité) sur les méthodes de fouille de données. Sont examinées les approches actuelles qui permettent de faire passer à l'échelle les méthodes de fouille, en insistant sur les spécificités des opérations de fouille en environnement distribué. Les caractéristiques mentionnées...En lire plus

Compétences

Capacité à mettre en œuvre des techniques de fouille de données et de visualisation sur des données massives. Maîtrise de techniques adaptées à quelques problèmes fréquents.

Légende :

  100% Internet - national

Condition d'accès / publics visés

Bonnes connaissances mathématiques et statistiques générales, maîtrise de méthodes statistiques pour la fouille de données, connaissance de techniques de gestions de données massives faiblement structurées, connaissance de techniques de passage à l'échelle par distribution. Capacité à utiliser le système d'exploitation linux, connaissance d'au moins un langage de programmation.
Vous êtes encouragés à évaluer votre capacité à suivre cette UE en répondant au questionnaire en ligne accessible ici (section Conditions d'accès). Vous pouvez répondre sans vous identifier, les réponses vous sont données immédiatement et les résultats ne sont pas enregistrés.

Objectifs pédagogiques

Cet enseignement s'intéresse à l'impact des caractéristiques des données massives (volume, variété, vélocité) sur les méthodes de fouille de données. Sont examinées les approches actuelles qui permettent de faire passer à l'échelle les méthodes de fouille, en insistant sur les spécificités des opérations de fouille en environnement distribué.
Les caractéristiques mentionnées sont ensuite considérées de façon plus spécifique pour certains problèmes fréquents dans le traitement des données massives. Sont ainsi abordés les systèmes de recommandation et la recherche efficace par similarité, la classification automatique et l'apprentissage supervisé sur une plate-forme distribuée, les opérations spécifiques au traitement des données textuelles souvent hétérogènes, les implications de la vélocité sur la fouille de flux de données, l'analyse de grands graphes et de réseaux sociaux.
L'UE s'intéresse ensuite au rôle de la visualisation et de l'interaction, non seulement dans la présentation des résultats mais aussi dans les opérations de fouille de données.

Compétences visées

Capacité à mettre en œuvre des techniques de fouille de données et de visualisation sur des données massives. Maîtrise de techniques adaptées à quelques problèmes fréquents.

Niveau

Niveau 7 (Bac+5)

Contenu de la formation

1. Introduction : applications, typologie des données, typologie des problèmes
2. Approches : réduction de la complexité, distribution
3. Passage à l'échelle de quelques problèmes fréquents
a. Recherche par similarité, systèmes de recommandation
b. Classification automatique
c. Fouille de données textuelles
d. Fouille de flux de données
e. Apprentissage supervisé à large échelle
f. Fouille de graphes et réseaux sociaux
4. Visualisation d'information : historique, applications, outils
5. Enjeux perceptifs de la visualisation d'information : couleurs, formes, immersion, lecture
6. Techniques de représentations : graphes, hiérarchies, lignes de temps
7. Techniques d'interaction : association focus/contexte, distorsion, filtrage
Le cours est complété par des travaux pratiques (TP) permettant de mettre en pratique des techniques présentées. Pour la partie fouille de données, les TP seront réalisés à l'aide de Apache Spark. Pour le travail sur le projet, l'auditeur devra installer le logiciel Spark (gratuit) sur un ordinateur personnel de capacité suffisante, suivant les instructions disponibles en ligne.
Les supports de cours et de TP, ainsi que d'autres explications concernant le déroulement de l'UE sont accessibles à partir de http://cedric.cnam.fr/vertigo/Cours/RCP216/
Pour la partie visualisation, les TP seront effectués avec le logiciel Processing (gratuit) ; une séance d'introduction est réservée à son apprentissage.

Modalités de validation

Note finale = ((note de projet + note d'examen) / 2), avec la contrainte note d'examen >= 10

Accompagnement et suivi

Sous l’autorité pédagogique du certificateur Cnam, les équipes du Cnam Bretagne vous offrent un accompagnement pendant votre parcours de formation à la fois sur les aspects administratifs, financiers, pédagogiques et techniques.

Cette UE est constitutive des diplômes suivants :

ECTS : 6

Modalité Volume horaire CPF Employeur Pôle Emploi Auto-financement
 
45 heures   900 € 225 € 225 €
Indexation officielle
FORMACODES

[C0A1B0A4] statistique descriptive - [C0A1B0] statistique - [C0A1] mathématiques - [C0] sciences

[M0A2B7] informatique décisionnelle - [M0A2] informatique - [M0] information

communication

[M0A2C1] intelligence artificielle - [M0A2] informatique - [M0] information

[Z5A0A0] application réseau social - [Z5A0] application - [Z5] logiciels/outils/applications/services

Mots clés

Datavisualisation, Flux de données, fouille de donnees, Algorithme d'apprentissage, Data mining, Cloud Computing, big data, data scientist

INFOS
PRATIQUES

Durée

45 heures

Modalité

100% Internet - national  

Date de début des cours

19/10/2020

Date de fin des cours

20/02/2021