0972 311 312 (prix appel local)

Ingénierie de la fouille et de la visualisation de données massives (RCP216)

Objectifs

Cet enseignement s'intéresse à l'impact des caractéristiques des données massives (volume, variété, vélocité) sur les méthodes de fouille de données. Sont examinées les approches actuelles qui permettent de faire passer à l'échelle les méthodes de fouille, en insistant sur les spécificités des opérations de fouille en environnement distribué. Les caractéristiques mentionnées...En lire plus

Compétences

Capacité à réaliser la fouille de données massives en utilisant une plate-forme de calcul distribué (Spark) via JupyterHub. Capacité à mettre en place un système de recommandation. Capacité à réaliser la fouille de textes en exploitant des encodages (word embeddings) et des modèles de langage (language models) en se servant...En lire plus

Légende :

  100% Internet - national

Condition d'accès / publics visés

Bonnes connaissances mathématiques et statistiques générales, maîtrise de méthodes statistiques pour la fouille de données, connaissance de techniques de gestions de données massives faiblement structurées, connaissance de techniques de passage à l'échelle par distribution. Capacité à utiliser le système d'exploitation Linux, connaissance d'au moins un langage de programmation.
Vous êtes encouragés à évaluer votre capacité à suivre cette UE en répondant au questionnaire en ligne accessible sur ici . Vous pouvez répondre sans vous identifier, les réponses vous sont données immédiatement et les résultats ne sont pas enregistrés.

Objectifs pédagogiques

Cet enseignement s'intéresse à l'impact des caractéristiques des données massives (volume, variété, vélocité) sur les méthodes de fouille de données. Sont examinées les approches actuelles qui permettent de faire passer à l'échelle les méthodes de fouille, en insistant sur les spécificités des opérations de fouille en environnement distribué.

Les caractéristiques mentionnées sont ensuite considérées de façon plus spécifique pour certains problèmes fréquents dans le traitement des données massives. Sont ainsi abordés les systèmes de recommandation et la recherche efficace par similarité, la classification automatique et l'apprentissage supervisé sur une plate-forme distribuée, les opérations spécifiques au traitement des données textuelles souvent hétérogènes, les implications de la vélocité sur la fouille de flux de données, l'analyse de grands graphes et de réseaux sociaux.
L'UE s'intéresse ensuite au rôle de la visualisation et de l'interaction, non seulement dans la présentation des résultats mais aussi dans les opérations de fouille de données.

Compétences visées

Capacité à réaliser la fouille de données massives en utilisant une plate-forme de calcul distribué (Spark) via JupyterHub. Capacité à mettre en place un système de recommandation. Capacité à réaliser la fouille de textes en exploitant des encodages (word embeddings) et des modèles de langage (language models) en se servant d'une bibliothèque logicielle évoluée (SparkNLP). Capacité à concevoir une visualisation pertinente des données. Capacité à traiter des données en flux. Capacité à construire des modèles descriptifs et décisionnels sur des données massives. Capacité à évaluer des critères observationnels d'équité des prédictions et à modifier un modèle prédictif pour respecter des critères d'équité.

Niveau

Niveau 7 (Bac+5)

Contenu de la formation

1. Introduction : applications, typologie des données, typologie des problèmes
2. Approches : réduction de la complexité, distribution
3. Passage à l'échelle de quelques problèmes fréquents
            a. Recherche par similarité, systèmes de recommandation
            b. Classification automatique
            c. Fouille de données textuelles
            d. Fouille de flux de données
            e. Apprentissage supervisé à large échelle
            f. Fouille et visualisation de graphes et réseaux sociaux
4. Visualisation d'information : historique, applications, outils
5. Aspects éthiques dans la fouille de données

Le cours est complété par des travaux pratiques (TP) permettant de mettre en pratique des techniques présentées. Pour la partie fouille de données, les TP seront réalisés à l'aide de Apache Spark. Pour le travail sur le projet les auditeurs peuvent utiliser le JupyterHub du Cnam.

Modalités de validation

Projet(s), Examen final

Accompagnement et suivi

Sous l’autorité pédagogique du certificateur Cnam, les équipes du Cnam Bretagne vous offrent un accompagnement pendant votre parcours de formation à la fois sur les aspects administratifs, financiers, pédagogiques et techniques.

Cette UE est constitutive des diplômes suivants :

ECTS : 6

Modalité Volume horaire Employeur France travail Auto-financement
 
45 heures 900 € 225 € 225 €
Indexation officielle
FORMACODES

<span class="input">[M0A2C1] intelligence artificielle - [M0A2] informatique - [M0] information

communication

[M0A2B7] informatique décisionnelle - [M0A2] informatique - [M0] information

[Z5A0A0] application réseau social - [Z5A0] application - [Z5] logiciels/outils/applications/services

[C0A1B0A4] statistique descriptive - [C0A1B0] statistique - [C0A1] mathématiques - [C0] sciences</span>

Mots clés

Intelligence artificielle, Algorithme d'apprentissage, Datavisualisation, big data, data scientist, Cloud Computing, Data mining, Flux de données, fouille de donnees

Indicateurs de résultat

En savoir plus

Dernière mise à jour : 26/05/2023

INFOS
PRATIQUES

Durée

45 heures

Modalité

100% Internet - national  

Date de début des cours

14/10/2024

Date de fin des cours

15/02/2025

Accessibilité handicap

En savoir plus

Comment s’inscrire ?

En savoir plus