Ingénierie de la fouille et de la visualisation de données massives (RCP216)
Cet enseignement s'intéresse à l'impact des caractéristiques des données massives (volume, variété, vélocité) sur les méthodes de fouille de données. Sont examinées les approches actuelles qui permettent de faire passer à l'échelle les méthodes de fouille, en insistant sur les spécificités des opérations de fouille en environnement distribué. Les caractéristiques mentionnées...En lire plus
Capacité à réaliser la fouille de données massives en utilisant une plate-forme de calcul distribué (Spark) via JupyterHub. Capacité à mettre en place un système de recommandation. Capacité à réaliser la fouille de textes en exploitant des encodages (word embeddings) et des modèles de langage (language models) en se servant...En lire plus
Condition d'accès / publics visés
Bonnes connaissances mathématiques et statistiques générales, maîtrise de méthodes statistiques pour la fouille de données, connaissance de techniques de gestions de données massives faiblement structurées, connaissance de techniques de passage à l'échelle par distribution. Capacité à utiliser le système d'exploitation Linux, connaissance d'au moins un langage de programmation.
Vous êtes encouragés à évaluer votre capacité à suivre cette UE en répondant au questionnaire en ligne accessible sur http://cedric.cnam.fr/vertigo/Cours/RCP216/questionnaire.html. Vous pouvez répondre sans vous identifier, les réponses vous sont données immédiatement et les résultats ne sont pas enregistrés.
Objectifs pédagogiques
Cet enseignement s'intéresse à l'impact des caractéristiques des données massives (volume, variété, vélocité) sur les méthodes de fouille de données. Sont examinées les approches actuelles qui permettent de faire passer à l'échelle les méthodes de fouille, en insistant sur les spécificités des opérations de fouille en environnement distribué.
Les caractéristiques mentionnées sont ensuite considérées de façon plus spécifique pour certains problèmes fréquents dans le traitement des données massives. Sont ainsi abordés les systèmes de recommandation et la recherche efficace par similarité, la classification automatique et l'apprentissage supervisé sur une plate-forme distribuée, les opérations spécifiques au traitement des données textuelles souvent hétérogènes, les implications de la vélocité sur la fouille de flux de données, l'analyse de grands graphes et de réseaux sociaux.
L'UE s'intéresse également au rôle de la visualisation et de l'interaction, non seulement dans la présentation des résultats mais aussi dans les opérations de fouille de données.
Compétences visées
Capacité à réaliser la fouille de données massives en utilisant une plate-forme de calcul distribué (Spark) via JupyterHub. Capacité à mettre en place un système de recommandation. Capacité à réaliser la fouille de textes en exploitant des encodages (word embeddings) et des modèles de langage (language models) en se servant d'une bibliothèque logicielle évoluée (SparkNLP). Capacité à concevoir une visualisation pertinente des données. Capacité à traiter des données en flux. Capacité à construire des modèles descriptifs et décisionnels sur des données massives. Capacité à évaluer des critères observationnels d'équité des prédictions et à modifier un modèle prédictif pour respecter des critères d'équité.
Niveau
Niveau 7 (Bac+5)
Contenu de la formation
1. Introduction : applications, typologie des données, typologie des problèmes
2. Approches : réduction de la complexité, distribution
3. Passage à l'échelle de quelques problèmes fréquents
a. Recherche par similarité, systèmes de recommandation
b. Classification automatique
c. Fouille de données textuelles
d. Fouille de flux de données
e. Apprentissage supervisé à large échelle
f. Fouille et visualisation de graphes et réseaux sociaux
4. Visualisation d'information : historique, applications, outils
5. Aspects éthiques dans la fouille de données
Le cours est complété par des travaux pratiques (TP) permettant de mettre en pratique des techniques présentées. Pour la partie fouille de données, les TP seront réalisés à l'aide de Apache Spark. Pour le travail sur le projet les auditeurs peuvent utiliser le JupyterHub du Cnam.
Les supports de cours et de TP, ainsi que d'autres explications concernant le déroulement de l'UE sont accessibles à partir de http://cedric.cnam.fr/vertigo/Cours/RCP216/
Modalités de validation
Projet(s), Examen final
Description des modalités de validation
Note finale = ((note de projet + note d'examen) / 2).
Accompagnement et suivi
Sous l’autorité pédagogique du certificateur Cnam, les équipes du Cnam Bretagne vous offrent un accompagnement pendant votre parcours de formation à la fois sur les aspects administratifs, financiers, pédagogiques et techniques.
Cette UE est constitutive des diplômes suivants :
ECTS : 6
Modalité | Volume horaire | Employeur | France travail | Auto-financement |
---|---|---|---|---|
|
45 heures | 900 € | 260 € | 260 € |
Indexation officielle
FORMACODES
[M0A2C1] intelligence artificielle - [M0A2] informatique - [M0] information
communication
[M0A2B7] informatique décisionnelle - [M0A2] informatique - [M0] information
[Z5A0A0] application réseau social - [Z5A0] application - [Z5] logiciels/outils/applications/services
[C0A1B0A4] statistique descriptive - [C0A1B0] statistique - [C0A1] mathématiques - [C0] sciences
Mots clés
Datavisualisation, Intelligence artificielle, Flux de données, fouille de donnees, Algorithme d'apprentissage, Data mining, Cloud Computing, big data, data scientist
Indicateurs de résultat
INFOS
PRATIQUES
45 heures
13/10/2025
14/02/2026