Attention: cette page est obsolète.
Il n'y aura pas de version "bootcamp"
Le programme est passé en v2 depuis Septembre 2024 qui est une version unique du programme avec des lives réguliers.
Pour plus d'informations:
https://www.formations-data.fr/methode_skill_market_fit_accueil
- postuler sereinement à 80% des offres data
- réussir les tests techniques sans stress
- être autonome et compétent une fois en poste
- gagner 1 à 2h par jour en productivité
- pouvoir aider ses collègues...
... sans re-passer des mois à se former ;)
La stack technique que j'ai utilisée en presta/freelance pour des clients comme:
*ce n'est pas une fatalité ;)
Tous les participants gagnent en efficacité et en autonomie.
(les témoignages ci-dessous sont tous authentiques et consultables en bas de la page)
Pour vous éviter de passer pour un newbie, et vous préparer au cloud ;)
- installation de linux(dual boot / WSL / VM)
- utiliser le terminal efficacement avec bash et vim
- chmod et droits admins
- recherches
- utilitaires: cron & SSH
- Shell like a boss avec "oh-my-zsh"
Pour réussir les interviews et être hyper efficace au jour le jour
- maîtriser les joins à la perfection(y compris cross joins & self joins)
- CTEs
- Agrégations simples et avancées (avec GROUPING SETS & FILTER)
- Windows Functions
- Rank, dense_rank & row_number
- pivot and unpivot
- manipulations (LAG, Coalesce, concat)
- Gestion des dates
Pour ne plus avoir peur de casser un truc et enfin utiliser toute la puissance du versionning
- à quoi ça sert
- les commandes qu'ils faut absolument maîtriser
- tout se qu'il se passe "sous le capôt" quand vous faites ces commandes
- les principes d'une CI-CD avec les pre-commit hooks
+ les commandes "tips & tricks" pour vous faire gagner beaucoup de temps (et impressionner vos collègues ;) )
Produire du code de qualité professionnelle, créer des apps et des API, communiquer avec des BDD SQL ou des services cloud...et savoir faire à peu près tout ce qu'on pourrait vous demander :)
- utiliser PyCharm comme un pro
- black & mypy (+ utilisation avec git)
- environnements virtuels
- Classes, modules, exception-handling, logging, datetime, json...
- UnitTesting
- Pandas avancé & Polars
- créer une app avec Flask
- créer une app avec Streamlit
- créer et requêter une API avec FASTApi
- communiquer avec SQL: DuckDB, SQLite3...
(On profitera de la création des apps et api pour utiliser git en "situation réelle")
Spark revient dans beaucoup d'offres d'emploi, c'est un indispensable.On va voir à quoi ça sert, et apprendre à s'y retrouver dans la jungle Hadoop, Map Reduce, Hive, Yarn, Spark, etc etc ;)
- Spark, HDFS et YARN: en quoi ils sont liés
- Installer Hadoop en local et apprendre à l'utiliser
- utiliser Pyspark pour ouvrir des fichiers HDFS
- Les API SparkSQL et Data Frames
- Les opérations courantes
- fonctionnement interne de spark: caching, shuffling, partitionning... ( questions souvent posées en entretien)
Un peu de airflow, pour booster votre CV et améliorer les projets perso.
Puis je vous présenterai les étapes suivantes que vous pourrez suivre pour bâtir votre carrière dans la data
190€ -> Offert
600€ -> Offert
300€ -> Offert
500€ -> Offert
25€/mois€ -> Offert
75€/mois -> Offert
Valeur infinie
720€ -> Offert