Informations à propos de la formation
Public cible
- Étudiants ou professionnels souhaitant découvrir la data science
- Décideurs, ingénieurs, techniciens, enseignants ou analystes débutants
- Toute personne souhaitant comprendre comment les données alimentent l’IA et les décisions
Objectifs de la formation
Permettre aux participants d’acquérir une compréhension solide des principes, outils et méthodes de la Data Science, depuis la collecte et la préparation des données jusqu’à la visualisation et la modélisation prédictive.
La formation vise à rendre les apprenants capables d’analyser et d’exploiter des données de manière raisonnée et éthique.
Compétences visées
- Comprendre les étapes du processus de Data Science
- Collecter, nettoyer, transformer et analyser des données
- Utiliser les outils de base (Python, Excel, Power BI, ou outils no-code)
- Visualiser et interpréter les résultats de manière claire
- Comprendre les enjeux éthiques, légaux et organisationnels de la donnée
Thématiques de la formation (12 semaines / 24h)
1. Introduction à la Data Science et à la donnée (4 h)
Objectifs spécifiques :
- Comprendre ce qu’est la Data Science et ses liens avec l’IA et la statistique
- Identifier les différents types de données et leurs sources
- Découvrir les métiers et les applications de la Data Science
Contenu :
- Définitions : données, Big Data, Data Science, Data Analytics
- Domaines d’application (santé, commerce, environnement, etc.)
- Les grandes étapes du cycle de vie d’un projet Data
Activités :
- Quizz interactif “Mythes et réalités sur la Data Science”
- Cartographie d’usages dans différents secteurs
2. Collecte, préparation et nettoyage des données (6 h)
Objectifs spécifiques :
- Identifier les sources et formats de données (CSV, Excel, API, bases de données)
- Comprendre les étapes de nettoyage et de transformation
- Apprendre à manipuler des jeux de données simples
Contenu :
- Techniques d’acquisition et d’importation des données
- Nettoyage (valeurs manquantes, doublons, normalisation)
- Outils : Python (Pandas), Excel, Power Query, outils no-code (Airtable, Tableau Prep)
Activités :
- Atelier pratique : nettoyage d’un jeu de données réel
- Exercice guidé avec Google Sheets / Python Notebook
3. Analyse et exploration des données (6 h)
Objectifs spécifiques :
- Découvrir les bases de la statistique descriptive appliquée
- Identifier les corrélations et tendances dans un jeu de données
- Réaliser des visualisations pour interpréter les résultats
Contenu :
- Statistiques de base : moyenne, médiane, variance, corrélation
- Visualisation : histogrammes, courbes, heatmaps, dashboards
- Outils : Python (Matplotlib, Seaborn), Power BI, Tableau, Google Data Studio
Activités :
- Atelier : explorer un jeu de données socio-économiques
- Création d’un tableau de bord simple avec Power BI ou Python
4. Introduction à la modélisation et au Machine Learning (4 h)
Objectifs spécifiques :
- Comprendre les bases de la modélisation prédictive
- Découvrir les types d’algorithmes utilisés (régression, classification, clustering)
- Évaluer la performance d’un modèle de manière simple
Contenu :
- Apprentissage supervisé vs non supervisé
- Introduction à Scikit-Learn et aux modèles de base
- Mesures de performance : précision, recall, confusion matrix
Activités :
- Démonstration : prédire un résultat simple (ex. prix de maison)
- Atelier guidé sur un mini-modèle avec un outil no-code (Teachable Machine / Orange Data Mining)
5. Mini-projet : de la donnée à la décision (4 h)
Objectifs spécifiques :
- Mettre en pratique tout le processus de Data Science
- Construire une petite analyse complète et la présenter
- Développer l’esprit critique et la communication de résultats
Contenu :
- Choix du jeu de données (ou fourni par le formateur)
- Nettoyage, analyse, visualisation, interprétation
- Présentation des résultats (rapport ou dashboard)
Activités :
- Travail en petits groupes sur un jeu de données
- Soutenance orale ou présentation du tableau de bord
Méthodologie
- Alternance théorie / pratique
- Études de cas réels et manipulation de données
- Apprentissage par projet
- Utilisation d’outils accessibles (Python ou no-code selon le public)
Évaluation
- Évaluation continue : participation, exercices pratiques
- Évaluation finale : mini-projet de data analysis
- Auto-évaluation en fin de parcours
Évaluation et Assurance Qualité :
À la fin de chaque programme de formation, les participants recevront un formulaire d’évaluation et d’assurance qualité.