Trouvez votre prochaine offre d’emploi ou de mission freelance Apache Airflow

Offre d'emploi
Product Owner Data – Projet de Migration BI (H/F)
Nous recherchons un Product Owner Data confirmé pour accompagner notre client dans un projet de migration stratégique de ses environnements BI vers la plateforme GCP . Contexte : Au sein d’une équipe de développement BI, vous interviendrez dans un environnement hybride autour de Microsoft BI (on-premise) et GCP (BigQuery, Dataflow, Airflow, Spark). L’objectif principal est la migration et l’optimisation des reportings et dashboards vers Power BI Online sur la plateforme GCP . Missions principales : Piloter le backlog produit et assurer la priorisation des besoins. Coordonner plusieurs projets en parallèle liés à la migration BI. Collaborer étroitement avec les équipes techniques (MSBI, GCP, Data Engineering). Garantir la bonne compréhension et traduction des besoins métiers. Accompagner la migration et l’industrialisation des reportings sur GCP et Power BI.

Mission freelance
Ops Data Lake - Aix en Provence cloud public AWS, CI/CD, gitlab pipelines, ansible, kubernetes/o
Ops Data Lake Ops Data Lake - Aix en Provence cloud public AWS, CI/CD, gitlab pipelines, ansible, kubernetes, Helm charts, certificats SSL,, Kafka, Kafka connect, Airflow, Starburst, Control-m, Dataiku, Python, Spark, Linux Contexte de la mission Le prestataire étant orienté big data et ayant des compétences dans les domaines listés ci-dessous, le Client fait appel à l'expertise du prestataire pour l'équipe Datalake Ops : cloud public AWS, CI/CD, gitlab pipelines, ansible, kubernetes, Helm charts, certificats SSL,, Kafka, Kafka connect, Airflow, Starburst, Control-m, Dataiku, Python, Spark, Linux Objectifs et livrables En étroite collaboration avec notre profils devops AWS, l’expert technique sur le Datalake (plateforme Big Data) devra s'affranchir des mission suivantes : · Assurer le maintien en conditions opérationnelles de la plateforme Datalake cloud public AWS /privé: gestion des incidents et des demandes effectuées par les projets ou les utilisateurs finaux · Contribuer à l’implémentation/automatisation des solutions · Effectuer les actions de déploiement sur les environnements (int, preprod et prod) · Contribuer à l’amélioration continue des outils d’exploitation et de déploiement · Communication auprès des utilisateurs finaux Le Prestataire devra fournir les livrables suivants : · Récapitulatif mensuel des tickets traités (incidents, demandes de travaux, mises en production) · Statut bi-mensuel sur l’avancée des projets sur lesquels il sera contributeur

Offre d'emploi
Consultant Data Engineer (H/F)
À ce poste, vous serez une référence technique dans le domaine du Big Data, aussi bien vis-à-vis des clients pour lesquels vous interviendrez, que de l'équipe de réalisation à laquelle vous appartiendrez. Vos missions : Participer aux processus d'avant-vente et à l'élaboration des propositions commerciales ; Diriger la conception et la mise en oeuvre de projets Big Data ; Concevoir et développer des solutions de traitement de données massives (Hadoop, Spark, Kafka, Python, Scala, Hive...) ; Mettre en place des pipelines de traitement de données ETL et assurer la qualité des données (NiFi, Talend, Airflow, SQL...) ; Assurer la gestion et l'optimisation des bases de données distribuées et NoSQL (Cassandra, MongoDB, ElasticSearch...). Plus largement, vous pourrez?enrichir nos bonnes pratiques en matière d'architecture et de développement dans le domaine du Big Data, effectuer de la veille technologique, élaborer des supports de formation technique pour nos clients et nos consultants, ou encore contribuer à l'animation du pôle technique

Mission freelance
Product Owner Data – Projet de Migration BI (H/F)
Nous recherchons un Product Owner Data confirmé pour accompagner notre client dans un projet de migration stratégique de ses environnements BI vers la plateforme GCP . Contexte : Au sein d’une équipe de développement BI, vous interviendrez dans un environnement hybride autour de Microsoft BI (on-premise) et GCP (BigQuery, Dataflow, Airflow, Spark). L’objectif principal est la migration et l’optimisation des reportings et dashboards vers Power BI Online sur la plateforme GCP . Missions principales : Piloter le backlog produit et assurer la priorisation des besoins. Coordonner plusieurs projets en parallèle liés à la migration BI. Collaborer étroitement avec les équipes techniques (MSBI, GCP, Data Engineering). Garantir la bonne compréhension et traduction des besoins métiers. Accompagner la migration et l’industrialisation des reportings sur GCP et Power BI.

Mission freelance
Développeur Python _ API _ React JS
Je suis à la recherche pour un de nos clients d'un Développeur Python API React JS. L’objectif de la prestation porte sur le projet de remplacement de l’outil de lutte contre le blanchiment et le financement du terrorisme. Ce projet implique le développement des flux entrants et sortants de l’application de Screening (ASAM), le stockage des données et la création d’une interface pour le pilotage de l’activité. • Les connaissances techniques requises : o Jira, o Python, Flask, SQL Alchemy, o Cloud GCP : BigQuery, PostGresql, Airflow, API RESTFUL, … o React JS o La connaissance d’Okta, Swagger et Docker sont un plus Une expérience significative dans le développement est demandée dans les domaines suivants : • développement Back End (API, Python, Cloud function) • développement Front End (React JS) Savoir-faire sur : • Projet en méthode Agile, Kanban, RPE • Principes RGPD

Offre d'emploi
Ingénieur de production
Nous recherchons un ingénieur de production pour notre client grand compte basé à la Paris. 🎯 Objectifs de la mission : Intégration et paramétrage de solutions logicielles Suivi des mises en production, gestion des incidents et changements Contrôle de la qualité des livrables Installation et configuration des modules applicatifs Réalisation des tests (unitaires, d’intégration…) Collaboration étroite avec les Référents Techniques (RT) Reporting et participation à la veille technologique 💻 Environnement technique : Les compétences suivantes sont requises (niveau ≥ 3 sauf mention contraire) : Systèmes : Unix, Linux, Windows Langages : Shell, Python, Java, SQL CI/CD : Jenkins, GitLab, GitHub Supervision : Zabbix, Instana Ordonnanceur : VTOM Conteneurisation : Docker, Kubernetes Outils DevOps : Ansible, Terraform, Puppet, Airflow Base de données : Redis, PostgreSQL, MongoDB, MS SQL Messagerie : Kafka, RabbitMQ, IBM MQ Orchestration / Workflows / Logs : HAProxy, NGINX, LOKI, Elasticsearch, Prometheus, Grafana, Kibana

Mission freelance
Tech lead Big data Hadoop , Spark, Hive Kafka / 550 e par j
Tech lead Big data Hadoop , Spark, Hive Kafka / 550 e par j Référent technique Big Data, vous assurez le lead technique de l’équipe de développeurs, avec en responsabilité, la conception et la mise en œuvre des solution Big Data, ainsi que le pilotage technique de projets. étude et prise en compte des besoins de traitement de la data, gestion des priorités et de la cohérence des besoins, choix des outils et solutions conception et mise en œuvre des architectures de données évolutives et performantes, sécurisées et résilientes direction et encadrement technique d’une équipe de data ingénieurs composée d’intervenants externes : suivi, support, adoption des bonnes pratiques de développement sécurisé Maîtrise des technologies du Big Data telles que Hadoop, Spark, Hive/Impala, Kafka - Excellentes compétences en programmation, maitrisant des langages tels que : Python, Scala ou Java, - Capacité à résoudre des problématiques complexes avec un esprit de synthèse et une pensée analytique - Bonne expérience dans la conception et la mise en œuvre de pipelines de données fiables et scalables, en utilisant des frameworks tels que Spark, Oozie, Airflow … - Bonnes compétences en mathématiques et statistiques - Connaissances monétiques 550 e par j

Mission freelance
Ops Data Lake - Aix en Provence cloud public AWS, CI/CD, gitlab pipelines, ansible, kubernetes/o
Ops Data Lake - Aix en Provence cloud public AWS, CI/CD, gitlab pipelines, ansible, kubernetes, Helm charts, certificats SSL,, Kafka, Kafka connect, Airflow, Starburst, Control-m, Dataiku, Python, Spark, Linux Contexte de la mission Le prestataire étant orienté big data et ayant des compétences dans les domaines listés ci-dessous, le Client fait appel à l'expertise du prestataire pour l'équipe Datalake Ops : cloud public AWS, CI/CD, gitlab pipelines, ansible, kubernetes, Helm charts, certificats SSL,, Kafka, Kafka connect, Airflow, Starburst, Control-m, Dataiku, Python, Spark, Linux Objectifs et livrables En étroite collaboration avec notre profils devops AWS, l’expert technique sur le Datalake (plateforme Big Data) devra s'affranchir des mission suivantes : · Assurer le maintien en conditions opérationnelles de la plateforme Datalake cloud public AWS /privé: gestion des incidents et des demandes effectuées par les projets ou les utilisateurs finaux · Contribuer à l’implémentation/automatisation des solutions · Effectuer les actions de déploiement sur les environnements (int, preprod et prod) · Contribuer à l’amélioration continue des outils d’exploitation et de déploiement · Communication auprès des utilisateurs finaux Le Prestataire devra fournir les livrables suivants : · Récapitulatif mensuel des tickets traités (incidents, demandes de travaux, mises en production) · Statut bi-mensuel sur l’avancée des projets sur lesquels il sera contributeur

Mission freelance
Data ingénieur Python Arflow 400 e par jour
Data ingénieur Python Arflow 400 e par jour je suis à la recherche d’un profil Data Ingénieur confirmé (4-5 ans XP, avec de solides compétences en : Python Arklow, IOT ou traitement de données en temps réel, SQL et AWS Développement en python AIRFLOW , AWS, SQL , IOT Bonne connaissance de Python Bonne capacité d'adaptation, bon relationnel , ayant travaillé sur des projets similaire. Bonne expression Mission gagnée en région Parisienne Asap Budget 400 e par jour Merci par avance pour la proposition de CV

Offre d'emploi
Expert Cloud
Descriptif du poste Au sein de la division Automation Lab, vous intégrerez une équipe dynamique, en charge du maintien en condition opérationnelle des différents orchestrateurs chargés de provisionner les infrastructure de [entreprise bancaire] et ses clients (entités [groupe bancaire]). Les orchestrateurs sont composés des outils Hashicorp Terraform et Airflow, ainsi que de développement en java ou en python. Mission Dans le cadre de sa gestion de son offre d'infrastructure, l'équipe Cloud en charge de l'orchestrateur des différents Cloud privés [groupe bancaire], recherche un développeur expert PYTHON qui traitera des sujets liés à la résilience. À ce titre, il participera à : La conception et l'écriture de l'orchestrateur afin de permettre le provisioning dans différents environnements onPremises, Clouds Le RUN (DEVOPS) en autonomie Les développements pilotés en mode AGILE SCRUM Les compétences en JAVA sont appréciables. Responsabilités Revoir et assurer la documentation Maintenance de certains orchestrateurs (micro-services)

Mission freelance
Analytics Engineer Senior - Workday Finance (localisation Lille)
Contexte du poste L’Analytics Engineer est chargé de délivrer des datasets modélisés pour un domaine métier afin d'accélérer les cas d’usage. Il en assure la qualité , la disponibilité , le suivi et l’ accessibilité , pour permettre aux utilisateurs d’exploiter efficacement les données (Self Service Analytics, analyses, modèles, dashboards). Missions principales 1. Délivrer les bonnes données, à temps Assurer le rafraîchissement fréquent et fiable des données pour soutenir la prise de décision. Garantir la stabilité et la fiabilité des datasets exposés. Corriger rapidement les données corrompues. Anticiper et planifier l’évolution des datasets. Déployer les évolutions avec un délai court mais soutenable. 2. User Centric Connaître les utilisateurs et comprendre leurs usages métiers. Collaborer avec les PM Analytics, Data Analysts, Data Scientists et BI Engineers. Automatiser puis industrialiser les datasets nécessaires aux use cases. Suivre et mesurer l’utilisation réelle des datasets. Définir et communiquer le niveau de confiance dans les données. Informer sur l’état et les éventuelles corruptions des datasets. 3. Playmaker / Team player Participer au recrutement et à l’onboarding des nouveaux membres. Contribuer à la communauté Data (partage d’expérience, ateliers, revues de code, pair programming). Collaborer avec les équipes Core Data Products pour fiabiliser les pipelines. Être force d’entraide et de transmission auprès des autres Analytics Engineers. 4. Better Way Améliorer en continu les pratiques de delivery data. Faire évoluer la stack et les outils. Être proactif sur l’amélioration des processus. Contribuer à la réduction de l’impact écologique et économique des solutions déployées. Compétences techniques : Data modeling dbt SQL Tests and expectations Git Airflow Python Spark Data Architecture Databricks Redshift Indicateurs de performance Fiabilité et fraîcheur des données exposées Temps de correction des anomalies Fréquence des déploiements et time to market des datasets Satisfaction et autonomie des utilisateurs Contribution à la communauté Data et aux rituels d’équipe

Offre d'emploi
PPO / PO
Le projet s’inscrit dans une stratégie de modernisation, incluant la migration de clients vers cette nouvelle offre et l’introduction de fonctionnalités critiques. 1.2. Organisation Le projet a impliqué : • Une équipe dédiée composée de 4 développeurs, 1 architecte (partagé), 1 Scrum Master et 1 Tech Lead. • Collaboration avec des équipes transverses de BP2I (sécurité, cloud, support technique). • Un partenariat stratégique avec les parties prenantes métier et techniques pour assurer l’alignement des objectifs. 2. Rôle du PO 2.1. Description de notre rôle : En tant que Product Owner, les responsabilités incluaient : • Gestion de la roadmap produit : o Priorisation des objectifs stratégiques. o Ajustement des priorités en fonction des contraintes et besoins des parties prenantes. • Gestion du backlog : o Rédaction et découpage des User Stories. o Collaboration étroite avec les développeurs pour définir les tâches techniques. • Animation Agile : o Participation active et animation des plénières QAP (agilité à l’échelle). o Organisation des cérémonies Agile : sprint planning, rétrospectives, daily scrums. • Accompagnement client : o Support personnalisé pour la migration de trois clients stratégiques. o Organisation de démonstrations et d’événements pour présenter les évolutions produit. • Améliorations fonctionnelles et techniques : o Implémentation de fonctionnalités clés telles que les backups/restaurations à la demande, activation d’Integration Services (ETL) et SSRS (BI). o Renforcement de la sécurité avec TLS et TDE, et externalisation des backups. o Standardisation des comptes utilisateurs et optimisation du monitoring avec Quest. • Montée en compétences de l’équipe : o Introduction d’Airflow pour remplacer IBM BPM. o Recrutement et formation d’un nouveau collaborateur pour gérer l’augmentation de la charge de travail. • Echanges fréquents avec IBM en anglais. Environnement technique et fonctionnel • Produit : Platform as a Service (PaaS) • Outils de gestion : JIRA, ServiceNow, Clarity. • Méthodologie : Agile (Scrum). • Bases de données : SQL Server, T-SQL. • Automatisation : Integration Services, SSRS, PowerShell. • Monitoring : Quest. • Sécurité : TLS, TDE. • Cloud : IBM

Offre d'emploi
Data Engineer | AWS | Databricks
Contexte Dans le cadre de la mise en place et de l’évolution d’une plateforme DATA centralisée, nous renforcons son équipe avec un Data Ingénieur confirmé. Cette plateforme permet l’intégration, la mise en qualité et la mise à disposition de données brutes ou retravaillées issues de différents producteurs, afin de répondre à des besoins métiers opérationnels et analytiques à grande échelle. Rôle et responsabilités Développement et ingestion de données Concevoir, développer et optimiser des jobs d’ingestion et de transformation de données en Python et Spark sur Databricks , avec gestion de gros volumes. Mettre en place et maintenir des flux de données entre sources externes (ex. bases Oracle) et Delta Lake sur AWS S3 . Orchestration et supervision Créer et orchestrer des workflows avec AWS Airflow et automatiser les traitements. Mettre en place des mécanismes de contrôle qualité et de validation des données pour garantir cohérence et fiabilité. Développer des jobs de monitoring pour détecter et corriger automatiquement les anomalies. Maintien en condition opérationnelle Assurer la disponibilité et la performance des jobs en production. Analyser et corriger les incidents et anomalies détectées. Contribution stratégique Participer aux ateliers de conception technique et fonctionnelle. Promouvoir les bonnes pratiques de développement et d’optimisation Big Data. Documenter les processus, architectures et scripts. Compétences techniques requises MUST : Python Spark Databricks SQL SHOULD : AWS (S3, Glue, Airflow, CloudWatch, Lambda, IAM) COULD : Big Data (gestion et traitement de très gros volumes de données) WOULD : Git Méthodologies et outils : CI/CD avec GitLab JIRA / Confluence Méthodologie agile Scrum

Offre d'emploi
Expert ServiceNow APP Engine, workflow , orchestration
Contexte & objectif Au sein d’un grand groupe bancaire européen , la DSI met en place un datawarehousing des référentiels groupe (clients, produits, organisations, etc.). L’objectif est de sécuriser le cycle de vie de l’information (création, validation, mise à jour, archivage) via des workflows robustes et traçables, en s’appuyant sur ServiceNow et des orchestrateurs du SI. Missions principales Concevoir et développer des workflows complexes de gestion du cycle de vie des données référentielles. Orchestrer des enchaînements inter-outils en interaction avec d’autres ordonnanceurs/ETL (ex. Airflow, Control-M, Talend, Informatica) et APIs internes. Industrialiser CI/CD des composants ServiceNow (branching, packaging, déploiements multi-environnements, tests automatisés). Piloter des prestataires/équipes externes : cadrage, planification, revues de code, suivi de qualité et de délais. Assurer la conformité (auditabilité, séparation des tâches, gestion des droits) et la traçabilité des modifications de données. Mettre en place la supervision (alerting, SLA, reporting d’exécution) et gérer l’amélioration continue.

Offre d'emploi
IA Engineer (H/F)
Winside, en bref ? Winside Technology est un pure player Tech, basé à Paris, Lyon, Lille, Bordeaux, Nantes et au Maroc. Crée en 2020, l’entreprise compte plus de 250 consultants, accompagne plus de 50 clients grands comptes et a réalisé 30M€ de chiffre d’affaires en 2025. Notre ADN repose sur l’expertise, la qualité, la proximité et l’esprit d’équipe. Au-delà des missions, nous cultivons une vraie communauté : événements techniques, moments conviviaux, partage de connaissances et ambition collective. Contexte : Concevoir et entraîner des modèles de machine learning / deep learning adaptés aux besoins métier. Réaliser des expérimentations et des benchmarks pour optimiser les performances. Déployer les modèles dans un environnement cloud (GCP). Mettre en place des pipelines CI/CD pour automatiser les tests, le déploiement et la mise à jour des modèles. Assurer le monitoring des performances en production (latence, précision, dérive des données…). Implémenter des mécanismes de retraining automatique ou semi-automatique. Gérer les versions des modèles et des datasets. Collaborer avec les équipes DevOps et Data pour assurer la robustesse et la scalabilité des solutions. Rédiger des documentations techniques et des guides d’utilisation. Promouvoir les bonnes pratiques de développement IA (tests unitaires, revue de code, sécurité…). Type de contrat : CDI ou freelance Localisation : Lille / Télétravail hybride Rémunération : 45 – 60 K€ et TJM selon profil et expérience Et toi dans tout ça, tu as : Minimum 5 ans d’expérience sur un poste similaire (hors stage et alternance). Des compétences sur l'environnement technique ci-dessous : Langages : Python (confirmé). Cloud : Google Cloud Platform (GCP), notamment Vertex AI, Cloud Functions, BigQuery. Outils MLOps : MLflow, Kubeflow, Airflow, Docker, Kubernetes. CI/CD : GitLab CI, GitHub Actions, Terraform. Monitoring : Prometheus, Grafana, ou outils équivalents. Une connaissance des environnements Agile et Scrum. Un anglais professionnel. Une communication claire Ce que tu trouveras chez Winside.. Une communauté d’experts diversifiés ( Craft, Core, Risk & Security etc) Une entreprise en pleine croissance, qui valorise l’initiative et la créativité. Un parcours de formation personnalisé et de vraies perspectives d’évolution. Une vie d’entreprise rythmée par des événements techniques et conviviaux. Des avantages concrets : primes vacances, mutuelle prise en charge à 100 %, frais mobilité, système de cooptation qui impacte ta rémunération sur le long terme Un process simple et rapide : Un premier échange pour faire connaissance. Un entretien avec notre équipe RH, en l'occurrence Perrine. Un entretien technique suivi d’un échange avec la direction. Une réponse rapide et voire une proposition d'embauche

Offre d'emploi
Data Engineer | AWS | Databricks | Big Data
Contexte Dans le cadre de la mise en place et de l’évolution d’une plateforme DATA centralisée, nous renforcons son équipe avec un Data Ingénieur confirmé. Cette plateforme permet l’intégration, la mise en qualité et la mise à disposition de données brutes ou retravaillées issues de différents producteurs, afin de répondre à des besoins métiers opérationnels et analytiques à grande échelle. Rôle et responsabilités Développement et ingestion de données Concevoir, développer et optimiser des jobs d’ingestion et de transformation de données en Python et Spark sur Databricks , avec gestion de gros volumes. Mettre en place et maintenir des flux de données entre sources externes (ex. bases Oracle) et Delta Lake sur AWS S3 . Orchestration et supervision Créer et orchestrer des workflows avec AWS Airflow et automatiser les traitements. Mettre en place des mécanismes de contrôle qualité et de validation des données pour garantir cohérence et fiabilité. Développer des jobs de monitoring pour détecter et corriger automatiquement les anomalies. Maintien en condition opérationnelle Assurer la disponibilité et la performance des jobs en production. Analyser et corriger les incidents et anomalies détectées. Contribution stratégique Participer aux ateliers de conception technique et fonctionnelle. Promouvoir les bonnes pratiques de développement et d’optimisation Big Data. Documenter les processus, architectures et scripts. Compétences techniques requises MUST : Python Spark Databricks SQL SHOULD : AWS (S3, Glue, Airflow, CloudWatch, Lambda, IAM) COULD : Big Data (gestion et traitement de très gros volumes de données) WOULD : Git Méthodologies et outils : CI/CD avec GitLab JIRA / Confluence Méthodologie agile Scrum
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.