Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 191 résultats.
Offre d'emploi
Data Ingénieur (29)
Publiée le
Google Cloud Platform (GCP)
Python
1 an
40k-45k €
340-550 €
Île-de-France, France
Télétravail partiel
Définition du besoin La Direction Technique du Numérique d'une grande organisation médias mène des projets transverses en étroite collaboration avec les autres directions, notamment la direction Data. La Direction Data, au sein de la Direction du Numérique, a été créée avec la volonté de faire de la Data un levier de croissance des offres numériques Prestation de cette équipe Déployer les datasets normés sur un ou plusieurs des data domain Accompagner les utilisateurs des datasets normés dans leurs usages Mettre en place le contrôle qualité sur ces datasets Prestations attendues Dans un premier temps, la prestation consiste à : Concevoir et réaliser les contrôles qualité sur les données de la plateforme Data, en exploitant Dataplex Universal Catalog Industrialiser ces contrôles grâce à Terraform et Terragrunt Concevoir et réaliser les indicateurs nécessaires au pilotage de la qualité des données Concevoir et réaliser la remontée de ces indicateurs dans notre data catalog Collibra En marge de l'objectif de livraison précédent et en interaction avec les membres de l'équipe, la suite de la mission consiste à : Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l'équipe Participer aux initiatives de gouvernance des données en développant les contrôles de qualité des données Construire et maintenir de pipelines data robustes et scalables Accompagner les membres de l'équipe dans l'exploitation et le requêtage des données Organiser et structurer le stockage des données Mettre en place et maintenir des infrastructures scalables capable de répondre aux besoins et à l'accroissement rapide du volume de données Construire et maintenir les workflows de la CI/CD Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur Assurer l'évolutivité, la sécurité, la stabilité des environnements Participer aux différentes instances des data ingénieurs Contribuer et veiller à la mise à jour de la documentation Faire de la veille technologique active dans le domaine
Mission freelance
Data Engineer Senior - Data Warehouse
Publiée le
Audit
Azure
Azure Data Factory
6 mois
600-680 €
Île-de-France, France
Télétravail partiel
Dans un contexte de transformation, la fiabilité de la donnée est devenue un enjeu critique pour le pilotage financier et opérationnel. Contexte & Enjeux Un socle de Data Warehouse a été initié suite à la refonte du SI, mais celui-ci reste aujourd’hui : incomplet, instable (bugs, latences importantes), avec des problématiques de qualité et de disponibilité de la donnée. Le reporting Power BI est géré en interne. 👉 La mission ne concerne pas la data visualisation , mais bien la construction d’un Data Warehouse robuste, industrialisé et exploitable . Nous recherchons un Data Engineer senior / consultant expérimenté capable de reprendre l’existant, de comprendre les enjeux métiers (notamment contrôle de gestion) et de livrer un socle data fiable dans des délais courts. Missions1. Audit & Diagnostic Analyse de l’existant (modèle de données, flux, performances, qualité) Identification des causes de lenteur, bugs et données manquantes Évaluation de la cohérence entre besoins métiers et implémentation technique 2. Modélisation & Refonte du Data Warehouse Reprise et optimisation de la modélisation DWH Structuration d’un réceptacle de données cohérent et évolutif Intégration des flux issus des nouveaux outils : Cegid XRP Microsoft Dynamics Ammon 3. Ingénierie de données (ETL / ELT) Refactorisation et complétion des pipelines existants Mise en place de l’historisation des données Amélioration des performances et de la fiabilité des traitements 4. Qualité, Traçabilité & Documentation Mise en place de contrôles de qualité automatisés Gestion de la traçabilité et des règles de gestion Documentation du socle data pour sécuriser et pérenniser l’existant 5. Interface Métier Compréhension fine des besoins des opérationnels (indicateurs, chiffres, règles de gestion) Traduction des besoins métier en spécifications techniques Capacité à challenger les demandes pour garantir la cohérence globale du modèle
Mission freelance
PRODUCT OWNER DATA SUPPLY
Publiée le
Snowflake
12 mois
560 €
Paris, France
Télétravail partiel
CONTEXTE Intégration chez un grand groupe Retail international. Le PO évoluera dans une équipe Data d’environ 30 personnes structurée par domaines. Rattachement direct au Lead PO Data Supply / Operations. Objectif : piloter la vision, la roadmap et la valeur produit Data sur les périmètres Supply, Operations et Planning. ENVIRONNEMENT TECHNIQUE – Maîtrise avancée du SQL (analyse et manipulation de gros volumes). – Stack technologique : – Snowflake (Data Warehouse cloud) – Matillion pour l'ETL, évolution prévue vers DBT – QlikSense (reporting & visualisation) ENVIRONNEMENT FONCTIONNEL Le PO intervient sur des sujets Data stratégiques liés au Demand Planning, aux opérations retail et à la supply. Responsabilités principales : – Définition des parcours utilisateurs et construction des KPIs clés. – Rédaction de spécifications fonctionnelles pour Data Engineers et Data Analysts. – Gestion et mise à jour du Data Catalog sur le périmètre confié. – Garantie du design produit, cohérence globale et qualité des livrables. Cadre méthodologique : – Organisation Agile, sprints de 3 semaines – Outils : JIRA, Confluence Attentes fortes : capacité à challenger le métier, proposer de la valeur, structurer un produit cohérent. PROFIL RECHERCHÉ – Au moins 8 ans d’expérience dans la Data, dont 4 ans en tant que Product Owner ou Chef de Projet Data. – Solide connaissance du Retail, notamment des enjeux Supply, Planning et opérations. – Qualités clés : – Autonomie, prise de décision – Leadership naturel, capacité à fédérer – Excellente capacité d’analyse – Esprit critique, force de proposition
Mission freelance
Data Egineer - IDF
Publiée le
Apache Spark
Java
6 mois
400-450 €
Paris, France
Télétravail partiel
Nous recherchons pour l'un de nos clients intégrateurs un Data Engineer. Contexte Dans le cadre d’un projet data, nous recherchons un Data Engineer expérimenté pour intervenir sur des problématiques de gestion de bases de données et de traitement de données à grande échelle , au sein d’un environnement international. Missions principales Concevoir, développer et maintenir des pipelines de données fiables et performants Intervenir sur la gestion et l’optimisation des bases de données Développer des traitements data en Java Exploiter et optimiser des traitements Apache Spark SQL Assurer la qualité, la cohérence et la performance des données Collaborer avec les équipes techniques et métiers dans un contexte anglophone Participer aux échanges, réunions et documentation en anglais
Mission freelance
Data Architect ETL, Spark, Kafka; BI, dashboards; SQL/NoSQL, Data Lake, Data Warehouse, BPMN
Publiée le
Apache Kafka
Apache Spark
Business Process Model and Notation (BPMN)
6 mois
550-630 €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Data Architect ETL, Spark, Kafka; BI, dashboards; SQL/NoSQL, Data Lake, Data Warehouse, BPMN - Maîtrise des formalismes de modélisation (BPMN, modèles conceptuels et logiques de données) - Réalise les études de cadrage pour l’architecture Data en s’appuyant sur une expertise des technologies clés - Stockage (SQL/NoSQL, Data Lake, Data Warehouse) - Traitement (ETL, Spark, Kafka) - Restitution (BI, dashboards) - Exploration et référentiels (catalogues, gouvernance) Télétravail : 3 jours max par semaine
Mission freelance
Data Analyst (2/4 ans expérience)
Publiée le
Git
Méthode Agile
Python
12 mois
300-360 €
Île-de-France, France
Télétravail partiel
Participation à la définition et la conception d’outils techniques et d’aide à la décision : - Construction de bases de données - Proposition/Implémentation des solutions techniques pour la gestion des données - Développement et test de machine learning - Mise en production et maintenance des outils/interfaces développées - Déploiement des outils développées. · Bases de données finalisées avec mise à jour automatisée. · Documentations métiers à jour
Mission freelance
Data Engineer / Expert DBT Snowflake
Publiée le
DBT
Snowflake
3 mois
Paris, France
Télétravail partiel
Nous recherchons un Data Engineer / Expert DBT Snowflake Data Engineer senior/expert DBT/Snowflake 5 à 10 ans d’expérience Anglais obligatoire Localisation : Paris / Lyon de préférence Compétences requises : Snowflake : Maîtrise des fonctionnalités avancées de Snowflake (Time Travel, Zero-Copy Cloning) Configuration et optimisation des entrepôts Snowflake Gestion des étapes externes et de Snowpipe pour l'ingestion à partir d'AWS S3 Configuration et mise en œuvre des mécanismes de sécurité RBAC, RLS et Dynamic Data Masking Administration de la base de données Snowflake (création/gestion d'objets, monitoring, optimisation) dbt (outil de création de données) : Développement avancé de modèles SQL dans dbt Création et optimisation de modèles de données Utilisation des macros Jinja pour créer du code SQL dynamique et réutilisable Configuration des tests dbt pour la validation des données Mise en œuvre des instantanés dbt pour le suivi des modifications Création de DAG optimisés avec une gestion appropriée des balises et des dépendances Documentation des modèles de données
Mission freelance
Data Engineer AWS / GenAI
Publiée le
Amazon S3
Apache Airflow
Apache Spark
12 mois
450-550 €
Paris, France
Télétravail partiel
Dans le cadre du plan de transformation DATA de notre Client, notre client développe des applications et plateformes DATA pour rendre nos métiers (pilotage, marketing, commerce, etc.) autonomes dans l’analyse de leurs données et KPI. Les infrastructures et projets incluent : AWS, GitLab, Terraform, DBT, Snowflake, Python, Scala, Spark, PowerBI, AI/GenAI Architectures Big Data sophistiquées pour ingérer plus de 100 par jour (Datalake, Event-Driven, Streaming, etc.) Exemples de projets : Chatbot AI Socle vidéo, navigation et calcul des audiences Recommandation de programmes via IA Feature Store et modernisation des flux financiers Plateformes CRM et partage de données partenaires Kubernetes et applications de data self-service Missions En tant que Data Engineer , vous serez en charge de : Concevoir, développer et maintenir des pipelines de données scalables et performants (ingestion, traitement et stockage de données massives). Développer des architectures Big Data sur AWS (S3, EMR, Lambda, Kinesis, Batch…), Snowflake et Spark. Développer en Scala et Python pour le traitement massif des données. Automatiser les workflows et orchestrer les pipelines avec Airflow et DBT . Concevoir et exposer des APIs customer-facing performantes. Optimiser les performances et garantir la scalabilité pour gérer un volume important d’utilisateurs. Collaborer avec les équipes Data Science, Produit et DevOps pour une intégration fluide.
Mission freelance
Data Engineer GCP
Publiée le
BigQuery
Collibra
Python
12 mois
480-600 €
Paris, France
Télétravail partiel
Dans le cadre du renforcement de la plateforme Data, vous interviendrez sur la qualité, la gouvernance et l’industrialisation des données . Vos missions principales Concevoir et mettre en œuvre des contrôles de qualité des données (Dataplex Universal Catalog) Industrialiser les contrôles via Terraform / Terragrunt Définir et produire des indicateurs de qualité des données Intégrer ces indicateurs dans le data catalog Collibra Construire et maintenir des pipelines data robustes et scalables Participer à la gouvernance des données et aux rituels de l’équipe Mettre en place et maintenir les infrastructures data et CI/CD Garantir la sécurité, la stabilité et l’évolutivité des environnements Contribuer à la documentation et à la veille technologique
Mission freelance
Architecte SI (API, DATA, TOGAF)
Publiée le
API
Architecture
3 mois
400-630 €
Paris, France
Contexte de la mission Dans le cadre de sa nouvelle organisation (en place depuis juin 2025), la DSI ESF a constitué une cellule Urbanisation ayant pour mission de façonner le système d’information afin de : 1) Simplifier les architectures et rationaliser les applications, 2) Renforcer la robustesse et la sécurité du SI 3) Réduire durablement la charge de run (actuellement évaluée à près de 45 % des moyens). Un plan global d’Urbanisation a été défini et structuré autour de six axes stratégiques déclinés en une trentaine de projets et activités : - Centraliser et sécuriser les données clés, - Moderniser et fiabiliser les échanges SI, - Simplifier et robustifier la plateforme digitale ESF, - Consolider la plateforme Data ESF, - Alléger et rationaliser le portefeuille applicatif, - Sécuriser et pérenniser le socle technique du SI - Superviser et contrôler le SI Objectif de la mission La DSI ESF souhaite s’entourer d’un Architecte SI expérimenté, capable : - d’accompagner la déclinaison opérationnelle du plan d’urbanisation, - d’apporter une expertise technique transverse sur plusieurs projets stratégiques, - d'officier en tant que "Product Manager" - le métier étant incarné par la DSI ESF exposant ses propres besoins - et de garantir la cohérence, la performance et la pérennité des choix d’architecture. Périmètre et missions principales Travaux immédiats - Finaliser un POC de sélection de l’API Manager et de l’orchestrateur d’API, incluant la mise en œuvre de cas d’usage fonctionnels réels issus des projets en cours. - Construire la backlog 2026 des projets d’urbanisation, en lien avec la roadmap DSI ESF / DSI Groupe et les projets métiers structurants (ex. : Projet Épargne Retraite Supplémentaire, Projet Commissionnement, Digitalisation des rentiers). - Évaluer et prioriser les besoins d’accompagnement technique des projets par la cellule urbanisation sur l’ensemble du périmètre applicatif. Travaux de fond - Veille technologique et innovation : production trimestrielle d’une synthèse ciblée, incluant des recommandations concrètes sur les évolutions technologiques pertinentes (patterns, frameworks, middleware, solutions open source, cloud, sécurité, data, API management…). - Gestion de l’obsolescence et du patrimoine technique : planification et pilotage des actions de mise à niveau ou de remplacement de composants techniques obsolètes, en coordination avec les responsables applicatifs. - Décommissionnement et rationalisation : accompagnement au démantèlement des applications remplacées, avec pilotage des dépendances et du calendrier. - Évolution des patterns et des paradigmes d’échange : conduite du changement vers des modèles plus découplés, asynchrones et événementiels (par exemple, migration des échanges synchrones vacationnels vers des modèles asynchrones courts ou message-driven). - Contribution à la gouvernance d’architecture : participation active à la définition des standards, principes et bonnes pratiques d’architecture applicative et technique au sein de la DSI La mission se déroule sur le site parisien Une expertise large sur les différentes thématiques d'architecture technique est demandée, en particulier sur les solutions Open Source Architecture applicative et technique : conception de solutions robustes, modulaires et scalables (microservices, API REST, event-driven, CQRS, etc.). API Management & intégration : maîtrise des API Gateway (Kong, WSO2, Apigee, Azure API Management…), orchestrateurs et bus de messages (Kafka, RabbitMQ, NATS, Mule, etc.) Urbanisation et modélisation du SI : TOGAF, ArchiMate, cartographie applicative, modèles de données et dépendances. Sécurité et gouvernance : principes Zero Trust, chiffrement, authentification forte (OAuth2, OpenID Connect). Spécialité Data architecture : principes de gouvernance de la donnée, qualité, MDM, pipelines de données, entrepôts et architectures analytiques.
Offre d'emploi
Data Engineer Elastic/OpenSearch et Kafka
Publiée le
Ansible
Elasticsearch
1 an
40k-45k €
400-620 €
Île-de-France, France
Télétravail partiel
Descriptif du poste Dans le cadre de l'équipe Data Analytic, nous créons et maintenons des architectures Big Data pour les besoins internes de l'entreprise. Pour renforcer notre équipe support, nous proposons une mission de Data Engineering sur Elastic/OpenSearch et Kafka. Technologies principales Elastic Stack (Elasticsearch / Logstash / Kibana / Beats) OpenSearch et Kafka Technologies couramment utilisées L'équipe mettant en avant une approche d'automation, les technologies suivantes sont notamment couramment utilisées :
Mission freelance
Proxy Product Owner (P.PO) Data
Publiée le
Database
Product management
Snowflake
1 an
500-600 €
Paris, France
Télétravail partiel
Proxy PO (P.PO) Data / Snowflake Contexte Projet Au sein d'un grand groupe international, nous recherchons un Proxy Product Owner pour intégrer l'équipe de notre client et travailler avec le PO en place. Projet Datalake, qui gère le pilotage des risques au sein du groupe. Renfort sur la partie "RUN" et monitoring Missions Principales Gestion du RUN : Suivi, rédaction et analyse des incidents. Structuration de la partie support/maintenance. Data & Monitoring : Suivi de la data sur le changement des services. Documentation : Travail de rétro-ingénierie pour documenter l'existant. Change Management : Accompagnement via des vidéos et des ateliers/workshops. Coordination : Collaboration avec le PO déjà en place et lien avec les équipes en Inde (Offshore).
Offre d'emploi
Administrateur Bases de Données PostgreSQL / MySQL – Senior (H/F)
Publiée le
Cloud
MariaDB
MySQL
1 an
Ivry-sur-Seine, Île-de-France
Contexte Rattaché à l’équipe Administration des Bases de Données au sein de la DSI, le consultant intégrera une équipe de plus de 10 DBA dédiée à la mise en œuvre et à l’exploitation de projets de grande envergure . La mission porte sur l’ administration opérationnelle en production de bases de données critiques sur PostgreSQL et MySQL , avec une forte composante RUN, projets, automatisation et Cloud . Objectif de la mission Assurer l’ administration, l’exploitation et l’évolution des bases de données PostgreSQL et MySQL en environnement de production, tout en accompagnant les projets d’architecture, de performance, de sécurité et d’automatisation. Missions principales RUN / Exploitation Administration des bases de données PostgreSQL et MySQL . Support N3 / Expertise , en lien avec les équipes de développement et d’exploitation. Suivi du MCO et mise en place des procédures d’exploitation . Gestion des incidents, changements et problématiques de production. Gestion du PRA et de la continuité de service. Supervision, homologation et veille technologique . Projets & Architecture Participation aux projets d’architecture, de déploiement et d’évolution des SGBD. Optimisation des performances et de la configuration des bases. Maîtrise des opérations de patching, upgrades et migrations . Définition et mise en œuvre des stratégies de sauvegarde, restauration, PITR . Mise en place et gestion de la réplication , des clusters et de la haute disponibilité : PostgreSQL (Patroni) MySQL (Group Replication) Gestion du failover et des stratégies de bascule automatique. Automatisation & Cloud Étudier et accompagner le déploiement des SGBD sur des solutions Cloud / opérateurs . Proposer et mettre en œuvre des tâches d’automatisation pour les déploiements et l’administration. Utilisation et maintien des outils d’automatisation : Ansible, Git . Sécurité & Gouvernance Participation aux projets sécurité, audit et gestion des accès . Contribution aux bonnes pratiques de conformité et de sécurité des données. Environnement technique SGBD : PostgreSQL, MySQL, MariaDB Haute disponibilité : Patroni, MySQL Group Replication Automatisation : Ansible, Git Cloud & conteneurs : OpenStack, OpenShift, Docker Systèmes : Linux (RHEL, Ubuntu, CentOS, Oracle Linux, AIX) Sauvegardes : Commvault, Veeam, DataDomain (ou équivalents) Virtualisation : VMware Compétences techniques Impératives : PostgreSQL – Expert MySQL – Expert Importantes : MariaDB – Confirmé Souhaitables : Cloud Automatisation (Ansible, Git) Compétences linguistiques Français courant (impératif) Anglais professionnel (impératif)
Mission freelance
Data Engineer Big Data – Datalake Hadoop / Spark (on-premise)
Publiée le
Apache Hive
Big Data
CI/CD
2 ans
400-480 €
Île-de-France, France
Télétravail partiel
Dans un contexte Data & BI à forts enjeux, vous intervenez au sein d’une équipe Big Data & API , rattachée à une squad Financing & Risk , en charge du développement et de l’exploitation d’un datalake utilisé comme plateforme data centrale par les équipes IT et métiers. En tant que Data Engineer , vous jouez un rôle clé dans la gestion, l’évolution et la fiabilité de cette plateforme. Vos principales missions sont les suivantes : Assurer la gestion de la production du datalake (suivi, incidents, stabilité des traitements) Prendre en charge la dette technique et contribuer à l’amélioration continue de la plateforme Analyser l’architecture existante et proposer des évolutions techniques pertinentes Réaliser les développements Big Data liés aux projets en cours et à venir Participer à l’industrialisation et aux déploiements via les chaînes CI/CD Vous évoluez dans un environnement technique Big Data on-premise , au sein d’une équipe travaillant en interaction avec des équipes IT et métiers, sur des sujets à forte valeur ajoutée.
Mission freelance
Data Engineer / Expert DBT Snowflake
Publiée le
DBT
Snowflake
3 mois
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Nous recherchons un Data Engineer / Expert DBT Snowflake Data Engineer senior/expert DBT/Snowflake 5 à 10 ans d’expérience Anglais obligatoire Localisation : Paris / Lyon de préférence Compétences requises : Snowflake : Maîtrise des fonctionnalités avancées de Snowflake (Time Travel, Zero-Copy Cloning) Configuration et optimisation des entrepôts Snowflake Gestion des étapes externes et de Snowpipe pour l'ingestion à partir d'AWS S3 Configuration et mise en œuvre des mécanismes de sécurité RBAC, RLS et Dynamic Data Masking Administration de la base de données Snowflake (création/gestion d'objets, monitoring, optimisation) dbt (outil de création de données) : Développement avancé de modèles SQL dans dbt Création et optimisation de modèles de données Utilisation des macros Jinja pour créer du code SQL dynamique et réutilisable Configuration des tests dbt pour la validation des données Mise en œuvre des instantanés dbt pour le suivi des modifications Création de DAG optimisés avec une gestion appropriée des balises et des dépendances Documentation des modèles de données
Mission freelance
Responsable master data
Publiée le
Data analysis
6 mois
700-730 €
Paris, France
Télétravail partiel
Pour le compte de notre client industriel, nous recherchons un Responsable Master Data expérimenté afin de piloter et sécuriser la gestion des données de référence au sein de l’entreprise. Le consultant sera le Key User sur le périmètre Master Data et jouera un rôle central dans la migration vers un nouvel ERP, garantissant l’intégrité et la qualité des données. Il participera activement à la migration des données, à la mise en place et au suivi des processus relatifs aux références, et assurera la coordination avec les équipes IT et métiers. Le profil doit disposer d’une expérience significative sur la Master Data (minimum 10 ans) et avoir déjà réalisé des projets de migration ERP. Anglais courant exigé pour collaborer avec des interlocuteurs internationaux.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
1191 résultats
Contrats
Lieu
1
1
France
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois