Cookie Consent by Free Privacy Policy Generator

Informatique / Réseaux et télécommunications

Master | Contrat d'apprentissage | RNCP 38687

Master EEEA_IISC - Parcours Ingénierie des Données pour les systèmes intelligents distribués (M_EEEA_IISC-IDO)

PRÉSENTATION

Présentation de la formation

Le master est centré sur les 3 métiers informatiques les plus demandés dans le monde industriel. Les métiers informatiques sont représentés par 3 parcours, permettant d'acquérir les compétences nécessaires, dans les domaines suivants :
- Informatique Embarquée
- Réseaux et Sécurité
- Systèmes Intelligents Distribués (objet de cette fiche).
La spécialisation se fait en deuxième année avec l'orientation vers un des 3 parcours professionnalisants proposés.

Les + :
- Plusieurs semaines dédiées aux ateliers et projets en groupe qui fédèrent plusieurs thèmes phares du master ;
- De nombreuses séances de manipulation des environnements professionnels,
- L'apprentissage qui peut être effectué dès la 1ère année de master.

En parcours Ingé. des Données pour systèmes intelligents distribués (IDO) : cette formation regroupe les compétences du domaine de Systèmes d'information d'entreprise, analyse des données, apprentissage machine (ML ... Machine Learning) et l'intelligence artificielle (IA), Business Intelligence, commerce électronique et applications web, cloud computing, domotique et systèmes de capteurs, informatique mobile, etc.

Objectifs de la formation

- Identifier et utiliser des logiciels d'acquisition et d'analyse de données adaptés pour l'observation de phénomènes et l'étude du comportement de systèmes
- Poser et résoudre les problématiques générales des systèmes complexes en particulier dans les domaines de l'ingénierie grâce à la compréhension et la mise en oeuvre couplées des notions scientifiques de base du domaine
- Comprendre et analyser la complexité des systèmes répondant aux enjeux futurs et actuels en matière d'énergie et de ressources nouvelles

Plus d'informations sur le site de l'établissement…

Métiers visés

Les métiers ciblés sont :
- Data scientist
- Ingénieur
- Chef de projet dans le secteur de l'informatique de gestion et décisionnelle, l'analyse et l'ingénierie des données ou des nouvelles technologies de l'information et de la communication.

Rythme d’alternance

1 semaine université / 1 semaine entreprise
Avec une période plus longue dédiée au projet de synthèse (académique) en mai/juin. Et une période dédiée à l'entreprise en juillet/août.

Dates de la formation et volume horaire

  • 1ère année : 09/09/2024  > 11/09/2026 (549 heures)
  • 2ème année : 09/09/2024  > 12/09/2025 (550 heures)
  • Durée : 2 ans
  • Nombre d’heures : 1099h

UNIVERSITE/ECOLE

Siège Établissement

CY Cergy Paris Université

33 boulevard du Port
95011 CERGY PONTOISE


Adresse administrative Composante

CY Tech - sciences et techniques

Av. du Parc
95000 CERGY PONTOISE

Campus principal

CY Tech - sciences et techniques - Av. du Parc - 95000 CERGY PONTOISE

Accéssible aux personnes à mobilité réduite

Accès aux personnes à mobilité réduite

ADMISSION

Conditions d’admission

Pré-requis : Etre titulaire d'une Licence en Informatique, Mathématiques ou équivalent.

Pour les non-européens l'apprentissage n'est possible qu'après un année d'études précédentes en France.

Modalités de candidature

Sélection sur dossier via la plateforme e-candidat et entretien individuel avec les responsables de parcours
L'ensemble des pièces justificatives à transmettre est :
- CV
- Diplômes obtenus (Bac inclus)
- Lettre de motivation
- Programme de la dernière année d'étude
- Lettre de recommandation (pour les candidatures hors université CY Cergy Paris)
- Relevés de notes

Candidature en ligne via la plateforme e-candidat

Lien candidature

CONTACTS

Vos référents FORMASUP PARIS IDF

Corinne MAIN

contact@formasup-paris.com

Fabienne HETZEL

Pour les publics en situation de handicap : consultez nos pages dédiées Apprenants et Entreprises.

Accéssible aux personnes à mobilité réduite

Vos contacts « École/Université »

AZIS Koulou

secretariat_master_pro@ml.u-cergy.fr
01 34 25 66 28

PROGRAMME

RNCP 38687

Direction et équipe pédagogique

Les enseignements du Master sont assurés par :
- des enseignants de l'université,
- des enseignants-chercheurs du laboratoire ETIS, Unité Mixte de Recherche CNRS (UMR 8051) portée par CY Cergy Paris Université et l'ENSEA,
- des professionnels du monde industriel.

Responsables :
- Aikaterini TZOMPANAKI
- Sara BERRI

Programme détaillé de la formation

  • Conception Orientée Objet
  • Traitement du signal et des images
  • Informatique embarquée
  • Bases de données avancées
  • Probabilités et statistiques pour le signal et les réseaux (PSSR)
  • Intelligence Artificielle
  • Gestion de Projet
  • Projet de synthèse
  • Anglais
  • Choix 2 options (réseau, STI, Archi, cryptographie, IED, Cloud, statistique, communication numérique)
  • Conception d'infos-appliances
  • Gestion de Projets Agile
  • Devenir cadre : Création d'entreprise
  • Techniques de Data Analysis et Warehousing
  • Data Mining et Machine Learning
  • Systèmes et applications distribuées

Modalités pédagogiques

Pédagogie par projet (projet de synthèse) et ateliers (communs, mais aussi spécifiques à certains parcours).

Contrôle des connaissances

Examens écrits / oraux. Contrôle continu.
Démonstrations de projets et soutenances en équipe
Restitution d'un rapport écrit de mission en entreprise + soutenance

Diplôme délivré

Diplôme national de niveau 7 Parcours Systèmes Intelligents Distribués (SID) du Ministère de l'Enseignement supérieur, de la Recherche et de l'Innovation, délivré par CY Cergy Paris Université.

COMPÉTENCES

Les étudiants issus de cette formation sont capables de développer et exploiter des systèmes d'information autour de bases et d'entrepôts de données, des systèmes d'aide à la décision, des applications web et des systèmes distribués.
Ils peuvent également assurer le transfert de technologies, assumer des responsabilités d'encadrement et de chef de projet, ou concourir au développement économique régional et national, notamment par la création et le développement d'entreprises de haute technologie.

- Définition, mise en application et contrôle de systèmes de management environnemental et des procédures d'hygiène et de sécurité sur les postes de travail et sur le site
- Réalisation de veille technique, technologique et réglementaire
- Réalisation d'audits, d'études techniques et de conseils en recherche et développement et production
- Rédaction de rapports d'essais, de protocoles de fabrication, de notes de synthèse

Activités

Année 1 : Pour la 1ère année de tronc commun aux 3 parcours professionnels, les objectifs sont :
- Savoir organiser de bout en bout le bon déroulement d'un projet, rédiger un cahier de charge, diriger une équipe, passer des commandes, développer un prototype, rédiger de la documentation et les dérivables, faire des tests, faire la démonstration et l'exposé, faire une recette.
- Animer une conversation en anglais. Réaliser des démonstrations en anglais. Lire et rédiger de la documentation technique
- Savoir créer une entreprise : réaliser une analyse de marché, rédiger un business model et un business plan, travailler sur le marketing et travailler sur le financement (chiffre d'affaire, seuil de rentabilité, plan de financement et de trésorerie, fond de roulement) Avoir des notions juridiques (droit des entreprises, du travail et de l'informatique) et de ressources humaines (organigramme de fonctionnement, dimensionnement)
- Travailler en entreprise à un niveau ingénieur ou de chef de projet

Année 2 : Le Parcours Systèmes Intelligents Distribués vise à former des experts pour concevoir, développer et exploiter des systèmes d'information autour de :
- bases et d'entrepôts de données,
- systèmes d'aide à la décision (analyse de données, machine learning et data mining),
- applications web,
- cloud et systèmes distribués.

Technique de Data Analyse et Warehousing

  • - Analyser un problème de mégadonnées complexe. Développer des solutions complexes qui nécessitent la construction de pipelines de traitement de données analytiques complexes.
  • - Construire/ exploiter un entrepôt de données, comprendre la liaison entre les entrepôts de données et les bases de données classiques(relationnelles) et les avantages d'utilisation d'un entrepôt de données.
  • - Connaître des modèles de coût pour choisir des vues à matérialiser afin d'améliorer la performance d'un entrepôt de données. Utilisation des langages SQL adéquats et MDX pour extraire les informations et faire la surveillance des fonctionnements d'un serveur OLAP.

Data Mining et Machine Learning

  • - Savoir répondre à un ensemble de questionnements qu'on peut avoir sur un ensemble de données en utilisant les méthodes de fouille de données et en analysant les résultats produits. Connaissance des techniques de fouille de données non-supervisée et supervisée.
  • - Validation des résultats (pour les techniques d'extraction de motifs fréquents rules d'association, le clustering ou la classification) Connaissance générale du machine learning, d'un point de vu des données, à partir de collection de données jusqu'à la création d'un model et son interprétation.
  • - Savoir quelle classe d'algorithmes correspond à un problème donné, comment nettoyer les données et altérer les paramètres d'un algorithme du machine learning pour obtenir de meilleurs résultats. Évaluer la performance des algorithmes. Expérimentation pratique en python et R.

Systèmes et applications distribuées (1/2)

  • - Configurer et utiliser une plateforme de traitement distribuée (p. ex., Spark, Flink, etc.) afin de stocker et de traiter des données. Traitement, interrogation et stockage d'ensembles de données diversifiés et volumineuses.
  • - Expérience dans diverses formes de stockage distribué (p. ex., chaînes de blocs), pouvant être utilisées dans le développement d'applications distribuées.
  • - Compétences liées à la programmation distribuée et au développement de programmes pouvant être exécutés dans des infrastructures distribuées, dans une multitude de domaines.

Systèmes et applications distribuées (2/2)

  • - Compréhension, traitement et utilisation de données des grands graphs et de flux (en temps réel) par exemple données des réseaux sociaux, des logs, des capteurs et IoT, etc.
  • - Compétences sur les algorithmes qui permettent de traiter ces types d'ensembles de données. Transformation de ces algorithmes en algorithmes distribués, familiarisation avec les problèmes de distribution en termes de complexité et de faisabilité des algorithmes.