Trouvez votre prochaine offre d’emploi ou de mission freelance Apache Airflow à Paris

Offre d'emploi
Développeur BI Senior (MSBI/GCP)
Contexte: Nous recherchons un Data Analyst / Développeur BI Senior afin de renforcer l’équipe existante. Le profil attendu doit avoir une expertise confirmée dans les environnements GCP et Power BI Online, avec une forte capacité à produire des développements BI robustes, scalables et maintenables. Missions principales: - Réaliser les reportings et tableaux de bord. - Assurer la maîtrise et la modélisation des données. - Concevoir, développer et maintenir des solutions BI performantes, optimisées et réutilisables. - Réaliser des tests fonctionnels et des recettes métiers. - Garantir l’application des bonnes pratiques de développement BI. - Produire la documentation technico-fonctionnelle en fin de sprint. - Conseiller et accompagner les équipes métiers (devoir de conseil). - Collaborer étroitement avec le Product Owner et l’équipe de développement. - Concevoir des maquettes en lien avec le Product Owner. - Participer à l’assistance utilisateurs (formation, transmission de connaissances, support niveau 3). - Débloquer et accompagner les autres développeurs si nécessaire. Environnement technique & compétences attendues Environnement GCP (Google Cloud Platform) : - BigQuery - PySpark - Dataflow - Airflow / DAG - Cloud Storage - Administration de plateforme (IAM, gestion des droits, monitoring, etc.) BI & Data Visualisation : - Power BI Desktop & Online - Modélisation BI - DevOps / CI/CD - Bonnes pratiques BI (scalabilité, performance, maintenabilité). Profil recherché Expérience : minimum 7 ans dans le développement BI et l’exploitation de données. Compétences techniques : maîtrise confirmée de GCP et Power BI Online, avec une bonne pratique des outils de traitement et d’orchestration des données (BigQuery, PySpark, Airflow, Dataflow).

Offre d'emploi
Product Owner Data – Projet de Migration BI (H/F)
Nous recherchons un Product Owner Data confirmé pour accompagner notre client dans un projet de migration stratégique de ses environnements BI vers la plateforme GCP . Contexte : Au sein d’une équipe de développement BI, vous interviendrez dans un environnement hybride autour de Microsoft BI (on-premise) et GCP (BigQuery, Dataflow, Airflow, Spark). L’objectif principal est la migration et l’optimisation des reportings et dashboards vers Power BI Online sur la plateforme GCP . Missions principales : Piloter le backlog produit et assurer la priorisation des besoins. Coordonner plusieurs projets en parallèle liés à la migration BI. Collaborer étroitement avec les équipes techniques (MSBI, GCP, Data Engineering). Garantir la bonne compréhension et traduction des besoins métiers. Accompagner la migration et l’industrialisation des reportings sur GCP et Power BI.

Mission freelance
Product Owner Data – Projet de Migration BI (H/F)
Nous recherchons un Product Owner Data confirmé pour accompagner notre client dans un projet de migration stratégique de ses environnements BI vers la plateforme GCP . Contexte : Au sein d’une équipe de développement BI, vous interviendrez dans un environnement hybride autour de Microsoft BI (on-premise) et GCP (BigQuery, Dataflow, Airflow, Spark). L’objectif principal est la migration et l’optimisation des reportings et dashboards vers Power BI Online sur la plateforme GCP . Missions principales : Piloter le backlog produit et assurer la priorisation des besoins. Coordonner plusieurs projets en parallèle liés à la migration BI. Collaborer étroitement avec les équipes techniques (MSBI, GCP, Data Engineering). Garantir la bonne compréhension et traduction des besoins métiers. Accompagner la migration et l’industrialisation des reportings sur GCP et Power BI.

Mission freelance
Développeur Python _ API _ React JS
Je suis à la recherche pour un de nos clients d'un Développeur Python API React JS. L’objectif de la prestation porte sur le projet de remplacement de l’outil de lutte contre le blanchiment et le financement du terrorisme. Ce projet implique le développement des flux entrants et sortants de l’application de Screening (ASAM), le stockage des données et la création d’une interface pour le pilotage de l’activité. • Les connaissances techniques requises : o Jira, o Python, Flask, SQL Alchemy, o Cloud GCP : BigQuery, PostGresql, Airflow, API RESTFUL, … o React JS o La connaissance d’Okta, Swagger et Docker sont un plus Une expérience significative dans le développement est demandée dans les domaines suivants : • développement Back End (API, Python, Cloud function) • développement Front End (React JS) Savoir-faire sur : • Projet en méthode Agile, Kanban, RPE • Principes RGPD

Mission freelance
Data Engineer AWS Sénior
Notre client recherche un Data Engineer senior pour concevoir et maintenir des pipelines de réplication et de traitement de données dans un environnement cloud AWS à grande échelle. Ce poste s’inscrit dans un programme de transformation data visant à développer des applications qui enrichissent l’expérience client et rendent les équipes métiers autonomes dans l’exploitation des données. L’environnement technique intègre : Outils et plateformes : AWS (S3, Kinesis, DMS, Lambda…), Airflow, Terraform, GitLab CI/CD, Python, Snowflake, Dataiku, Braze, Power BI, IA/ML Bases de données : Exadata, Oracle, SQL Server, Snowflake Architectures : Data Lake, Event-driven, Streaming (+100 To/jour) Cas d’usage : moteur de recommandation, chatbot IA, feature store, socle vidéo, plateforme de contenu, partage de données partenaires, data self-service Missions Concevoir, développer et maintenir des pipelines ETL/ELT pour la réplication et le traitement de données issues de sources hétérogènes. Connecter et intégrer les données depuis différentes bases (Exadata, Oracle, etc.) vers AWS. Mettre en œuvre des traitements de nettoyage, mapping, déduplication et enrichissement des données. Collaborer avec les architectes pour appliquer les modèles cibles et les bonnes pratiques de gouvernance data. Automatiser les pipelines via GitLab CI/CD. Concevoir et déployer l’infrastructure avec Terraform, Ansible et Python (IaC). Assurer le monitoring, la qualité et la performance des flux de données. Contribuer aux initiatives FinOps pour optimiser les coûts cloud. Documenter les processus et alimenter les référentiels techniques.
Mission freelance
Tech Lead Data Databricks AWS
Dans le cadre de l’évolution d’une plateforme data existante de niveau entreprise, nous recherchons un Tech Lead Data Engineer pour renforcer une équipe agile internationale. L’environnement est déjà en place – il s’agira de l’optimiser, l’industrialiser et l’étendre à de nouveaux cas d’usage analytiques 🎯 Vos missions principales : ✅ Faire évoluer la plateforme Data existante (Datawarehouse & pipelines) ✅ Implémenter & gérer le Unity Catalog sur Databricks ✅ Développer et maintenir des workflows complexes sous Airflow ✅ Structurer les bonnes pratiques d’ingénierie sur AWS ✅ Garantir la robustesse, la scalabilité et la gouvernance des données ✅ Collaborer avec des profils anglophones sur des projets critiques

Mission freelance
Intégrateur fonctionnelle niveau 2-3
CONTEXTE MISSONS La mission comprend : · L’intégration et le paramétrage des solutions logicielles, en préparant et suivant les mises en exploitation des applications. · Le traitement des incidents & changements. · Le contrôle les livrables. · L’installation des nouveaux modules du progiciel ainsi que les évolutions demandées · Le paramétrage des modules conformément aux besoins métier du client. · La réalisation des tests associés au paramétrage : tests unitaires, tests d’intégration… · Déploiement et maintien des solutions techniques en collaboration avec les Référents Techniques (RT). · Reporting auprès des RT et du responsable de la Gestion de la Production. · La veille technologique et être force de proposition sur l’amélioration continue. · Rigueur et aisance rédactionnelle · Esprit de synthèse · Bonne communication (orale et écrite) et une bonne capacité d’analyse et de vulgarisation. ENVIRONNEMENT TECHNIQUE L’environnement technique du Bureau Technique (BT) et des Référents Techniques (RT) sont composés des éléments ci-dessous selon le niveau de compétence. Le premier tableau sert de référence sur les notations attendues dans le deuxième tableau ciblant l’activité RT et BT. Compétences et niveaux minimum attendus sur chaque catégorie : Systèmes d'exploitation Niveau Attendu Unix 4 Linux 4 Windows 3 Outils d'ordonnancement Niveau Attendu Control-M 2 Outils de supervision Niveau Attendu Zabbix 3 Instana 2 Langage de scripting Niveau Attendu Shell et Python 3 Langage de programmation Niveau Attendu Python 3 SQL 2 JAVA 3 Equilibrage de charge Niveau Attendu HAProxy 3 Nginx 3 Gestion des logs Niveau Attendu LOKI 3 Elasticsearch 3 Outil de gestion des workflows (orchestration) Niveau Attendu Airflow 3 Plateformes de gestion de code source Niveau Attendu Github 3 Gitlab 3 Outils de conteneurisation Niveau Attendu Docker 3 Kubernetes 3 Outils d'automatisation Niveau Attendu Ansible 3 Terraform 3 Puppet 3 Chef 2 Outils d'intégration et déploiement continue (CI/CD) Niveau Attendu Jenkins 3 GitLab 3 JFrog 1 Technologies de messagerie Niveau Attendu Kafka 2 Rabbit MQ 2 IBM MQ Series 2 Solutions de transfert de fichiers Niveau Attendu TOM/CFT/Pe-Sit 2 Bases de données Niveau Attendu Oracle 1 REDIS 3 MS SQL 2 MongoDB 2 PostgreSQL 2 Serveurs d'application Niveau Attendu Apache 2 TOMCAT 2 JBOSS 2 Visualisation de données Niveau Attendu Prometheus 2 Grafana 2 Kibana 2
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.