Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 2 722 résultats.
Freelance
CDI

Offre d'emploi
DATA Engineer Senior GCP-python

Publiée le
Gitlab

18 mois
10k-55k €
100-550 €
Paris, France
CONTEXTE Au sein de l’équipe Bronze, la mission se déroulera en collaboration avec les autres équipes de la Data, au coeur de la plateforme Data. Cette équipe est composée d’un product owner, d’un data steward et de deux autres data ingénieurs. Notre stack technique est principalement constituée de Python, Spark, SQL pour les traitements de données, Airflow pour l’orchestration et Cloud Storage et Delta lake pour le stockage. La stack inclut aussi les services BigQuery, Dataproc, PubSub et Cloud Storage de la Google Cloud Platform et Terraform et Terragrunt pour la gestion de l’infrastructure. MISSIONS : Prestation de cette équipe 1. Collecter et centraliser les différentes sources de données non homogènes 2. Assurer la conformité et la sécurité des données 3. Participer aux initiatives de gouvernance des données Prestation du data ingénieur En interaction avec les membres de l’équipe, la mission consiste à : • Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l’équipe • Construire et maintenir de pipelines data robustes et scalables • Accompagner les membres de l’équipe dans l’exploitation et le requêtage des données • Organiser et structurer le stockage des données • Mettre en place et maintenir des infrastructures scalables capable de répondre aux besoins et à l’accroissement rapide du volume de données • Construire et maintenir les workflows de la CI/CD • Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur • Assurer l’évolutivité, la sécurité, la stabilité des environnements • Participer aux différentes instances des data ingénieurs • Contribuer et veiller à la mise à jour de la documentation • Faire de la veille technologique active dans le domaine Expertises demandées pour la réalisation de la prestation : • Au moins 3 ans d’expérience en tant que Data Ingénieur dans un environnement data • Compétences solides en data : structures de données, code, architecture • Expériences dans la conception et la réalisation de pipelines data • Expériences dans un environnement du cloud Google (GCP) • Expériences intégrant BigQuery et Dataplex Universal Catalog • Expériences intégrant les langages Python et SQL • Expériences intégrant Spark • Expériences intégrant delta lake • Expériences intégrant Terraform et Terragrunt • Expériences intégrant Gitlab et Gitlab CI/CD • Expériences intégrant les méthodologies Agile : Scrum ou Kanban • Capacité à vulgariser et à communiquer sur des aspects purement techniques
Freelance
CDI

Offre d'emploi
Data Engineer

Publiée le
Dataiku
Microsoft Power BI
PySpark

1 an
40k-45k €
400-690 €
Paris, France
Télétravail partiel
Contexte du Projet Une organisation leader en solutions de financement est à un tournant crucial où l'exploitation des données doit devenir un levier central de transformation et de compétitivité. Cependant, plusieurs défis structurels doivent être adressés pour réussir cette transition vers une organisation véritablement axée sur les données (insuffisance du Data Management existant, dépendances fortes à des systèmes legacy qui ont vocation à être décommissionnés à court et moyen termes, limites structurelles des outils et solutions actuels). Le projet doit permettre de valider la capacité de mise en œuvre d'un projet de data science depuis sa phase exploratoire jusqu'à sa phase d'industrialisation. Il se concentre sur la phase d'exploration des données liées au reporting réglementaire, avec un périmètre limité aux données critiques, provenant de diverses sources. L'objectif est de garantir un accès optimisé et une gouvernance renforcée pour les Data Quality Analysts (DQA). Conception et implémentation des pipelines de données Concevoir et développer des pipelines de données automatisés pour collecter, charger et transformer les données provenant de différentes sources (internes et externes) dans le Data Hub puis pour les transformer en Data Product Data Hub, Data Science ou Data Viz (Power BI). Optimiser les pipelines de données pour garantir des performances élevées, une faible latence, et une intégrité des données et des traitements tout au long du processus. Suivre avec les équipes data science et métiers pour comprendre leurs besoins en données et en traitements, et adapter les pipelines en conséquence. Industrialisation et automatisation des flux de données et des traitements Mettre en place des processus d'industrialisation des modèles de machine learning et des flux de données, en garantissant la scalabilité et la fiabilité des pipelines en production. Automatiser la gestion et le traitement des données à grande échelle, en veillant à réduire les interventions manuelles tout en assurant une supervision proactive des performances et des anomalies. Collaborer étroitement avec les data scientists et MLOps pour assurer une transition des projets de l'exploration à la production, en intégrant les modèles dans des pipelines automatisés. Gestion des données et optimisation des performances Optimiser les performances des requêtes et des pipelines de traitement des données, en utilisant les meilleures pratiques en matière de gestion des ressources et d'architecture de stockage (raw, refined, trusted layers). Assurer la surveillance continue de la qualité des données et mettre en place des contrôles de validation pour maintenir l'intégrité des jeux de données. Sécurité et gouvernance des données Mettre en œuvre des solutions de sécurisation des données (gestion des accès, cryptage, audits) pour garantir la conformité avec les réglementations internes et externes. Travailler en collaboration avec le Data Office pour assurer l'alignement avec les politiques et processus définis. Maintenir la documentation technique des pipelines et des flux de données, en assurant la traçabilité et la gestion des métadonnées.
Freelance
CDI

Offre d'emploi
DATA ENGINEER Python

Publiée le
Python
Terraform

6 mois
40k-45k €
380-470 €
Boulogne-Billancourt, Île-de-France
Nous sommes à la recherche deux consultants de haut niveau spécialisés en Data Engineering, disposant d’une expertise approfondie dans les technologies Python, Data, GenAI, AWS (Kinesis, S3, EMR, etc.), Airflow, Terraform, GitLab CI/CD, Python ainsi qu’une solide maîtrise de SQL, Snowflake et les architectures Data Streaming. Une expertise en Scala et Spark serait fortement appréciée. Il sera chargé de concevoir et développer des pipelines de données, développer sur des chatbots AI dans un environnement cloud tout en contribuant activement à la fiabilité, l’automatisation et la scalabilité de notre plateforme data.
Freelance

Mission freelance
Responsable Strategie Data / IA senior

Publiée le
IA

1 an
400-600 €
Île-de-France, France
Localisation : Hauts-de-Seine Expérience : 7 an et plus Mission : 1 an renouvelable Spécialités technologiques : Intelligence artificielle Big Data Description et livrables de la prestation : Contexte : Un grand groupe français souhaite accélérer un programme transverse Data & IA visant à mieux coordonner plusieurs entités internes expertes (data, IA, plateformes, industrialisation) et à renforcer la cohérence globale de la filière. Des actions ont déjà été engagées (gouvernance, premiers chantiers, animation du collectif), et le groupe veut désormais structurer davantage et passer à l’échelle : clarifier le positionnement, harmoniser les pratiques, renforcer la capacité à travailler “d’une seule voix”, et améliorer l’efficacité de bout en bout (de l’offre au déploiement). Objectifs de l’appel d’offre : - Renforcer l’alignement entre entités contributrices (offres, priorités, modes opératoires, gouvernance). - Accélérer les synergies opérationnelles et business (offres conjointes, réponses coordonnées, passage à des engagements plus ambitieux). -Définir/mettre à jour une roadmap 2025–2026 et sécuriser l’exécution via une gouvernance robuste. -Structurer une stratégie marketing & communication (messages, visibilité, preuves, supports), incluant une réflexion sur une architecture de marque type “marque ombrelle” + déclinaisons, sans logique de fusion. -Renforcer l’animation “collectif” et la capitalisation (veille, retours d’expérience, publications, démarche à impact / IA responsable). Rôle attendu du prestataire : -Le prestataire intervient comme pilote et facilitateur du programme, à l’interface entre direction, sponsors, et entités contributrices : -Pilotage / PMO de programme : cadrage, planification, suivi des chantiers, animation des rituels, préparation/animation des comités, gestion des actions et décisions. -Structuration de l’offre : formalisation d’une offre de service cohérente, lisible et réplicable, articulation des contributions des différentes entités. -Activation des synergies : mise en place de mécanismes concrets (process, coordination, “passage de relais”, construction d’offres croisées, consolidation des retours terrain). -Marketing & communication opérationnels : plan de communication, contenus, kits de présentation, éléments de langage, valorisation des réalisations et cas d’usage. -Rayonnement & animation de l’expertise : cadrer une dynamique de type “lab/collectif” (veille, publications, événements internes/externes, démarche à impact). Livrables attendus : -Roadmap 2025–2026 (priorités, jalons, chantiers, dépendances) + cadre de pilotage associé. -Dispositif de gouvernance : comitologie, rituels, responsabilités, tableaux de suivi et reporting. -Plan marketing & communication : objectifs, messages, cibles, canaux, calendrier, contenus. -Kit de communication & kit commercial : pitchs, trames, supports, éléments de langage, preuves, cas d’usage / retours d’expérience. -Reporting périodique (ex. trimestriel) : avancement, synergies réalisées, points de blocage, recommandations. -Synthèse annuelle : bilan, impacts, perspectives et axes de développement. Expertise souhaitée : - Expérience avérée en accompagnement de programmes de transformation Data & IA - Compétences en marketing stratégique, gouvernance et pilotage d’écosystèmes complexes - Capacité à travailler en contexte multi-entités et à animer la coopération interfiliales - Qualité méthodologique et lisibilité de la proposition - Dynamique, leadership - Expérience en grands groupes Mobilité : Mission Full Time hybride : 2 à 3 jours sur site
Freelance

Mission freelance
Manager AMOA & Gouvernance SI / DATA – DSI Interne

Publiée le
Data management
Gouvernance
Pilotage

6 mois
Île-de-France, France
Télétravail partiel
Vous interviendrez au sein de la Direction des Systèmes d’Information Interne , pour piloter l’équipe AMOA & Gouvernance SI/DATA dans un environnement multi-BUs, multi-outils et multi-process . Votre rôle : garantir la cohérence du SI Corporate et valoriser la donnée au cœur des activités métiers. ✅ Vos missions principales : 👥 Management d’équipe • Encadrer, animer et développer les compétences de l’équipe AMOA & Data • Prioriser la charge et assurer la cohérence avec la feuille de route SI interne • Favoriser la collaboration transverse entre IT et métiers 🚀 Conduite de projets & Transformation SI / Data • Accompagner les métiers dans le cadrage et la mise en œuvre des solutions SI • Piloter les projets de bout en bout (gouvernance, planification, recette, mise en prod) • Garantir la qualité, la sécurité et la conformité des projets Data 🧭 Urbanisation & Gouvernance de la donnée • Déployer la gouvernance des données et animer la culture Data • Gérer les référentiels internes (clients, produits, projets…) • Maintenir la cartographie du SI et la documentation fonctionnelle
Freelance

Mission freelance
[SCH] Développeur COBOL / Data Mainframe - 1105

Publiée le

10 mois
350-400 €
Courbevoie
Dans le cadre du renforcement des équipes Mainframe, nous recherchons 2 Développeurs COBOL orientés Data pour intervenir sur des évolutions applicatives et la maintenance du patrimoine en production. Mission longue sur site client (banque). Missions : -Analyse d’impacts suite aux demandes projets -Rédaction des spécifications techniques (accès aux données, mappings…) -Suivi ou réalisation des développements Mainframe COBOL -Tests unitaires & tests d’intégration -Livraisons en environnement de recette -Respect des normes qualité, documentation et méthodes internes
Freelance
CDI

Offre d'emploi
Data Engineer Senior

Publiée le
Python
SQL

1 an
40k-45k €
400-550 €
Île-de-France, France
Télétravail partiel
Contexte de la mission Au sein de la Direction Data (Direction du Numérique), intégration à l'équipe Bronze (PO, data steward, 2 data engineers) au cœur de la plateforme Data. Stack principale : Python, Spark, SQL (traitements), Airflow (orchestration), Cloud Storage & Delta Lake (stockage), services cloud (BigQuery, Dataproc, Pub/Sub, Cloud Storage), Terraform/Terragrunt (infra). Activités attendues Concevoir et maintenir des pipelines data robustes et scalables ; organiser et structurer le stockage. Mettre en place et maintenir des infrastructures scalables ; assurer sécurité et stabilité des environnements. Construire et maintenir les workflows CI/CD ; accompagner l'équipe sur l'exploitation et requêtage. Gouvernance et conformité (qualité, sécurité, conformité), documentation, veille et participation aux instances Data Ingénieurs.
Freelance

Mission freelance
Data Analyst snowflake, DataBricks Power BI SQL

Publiée le
FinOps
Snowflake

6 mois
La Défense, Île-de-France
Télétravail partiel
Dans ce cadre, une équipe FinOps a été mise en place afin de garantir la maîtrise des coûts Cloud , le respect des budgets et la mise en œuvre d’une gouvernance financière Cloud structurée . La mission s’inscrit au cœur de ce programme stratégique, avec la construction d’une FinOps Tower destinée à centraliser les analyses financières, le monitoring des coûts et les mécanismes d’alerting. Objectifs de la mission Assurer la maîtrise financière des environnements Cloud Azure Mettre en place une plateforme d’analyse FinOps robuste et industrialisée Détecter et prévenir les dérives budgétaires en amont Accompagner les équipes projets sur les bonnes pratiques FinOps Rôle & Responsabilités Mise en place d’ analyses FinOps sur les données de consommation Azure Conception et exploitation d’une sandbox Snowflake pour l’analyse des coûts Cloud Industrialisation des traitements en lien avec l’équipe Data Platform Intégration des données FinOps dans l’écosystème Finance / IT / Applicatif Définition et implémentation de règles d’alerting pour la détection des risques financiers Réalisation de POC pour l’intégration de solutions SaaS (Snowflake, Databricks, GitHub, PowerBI, etc.) Analyse de la consommation des ressources d’infrastructure afin d’assurer la juste utilisation des services Cloud Mise en place de contrôles automatisés FinOps (non-conformités, surconsommation, anomalies) Activités RUN FinOps Surveillance continue des coûts Cloud et gestion des alertes Support FinOps aux équipes projets Définition et suivi des plans de remédiation Gestion des réservations Cloud et identification d’opportunités d’optimisation Accompagnement des projets en phase amont (onboarding FinOps, revues d’architecture, validation budgétaire) Maintenance et enrichissement du reporting FinOps Environnement Technique Cloud : Microsoft Azure Data / FinOps : Snowflake, SQL Restitution & BI : PowerBI Data / SaaS : Databricks, GitHub Scripting / Automation : Python, PowerShell IaC : Terraform Monitoring & requêtage : KQL Livrables clés FinOps Tower opérationnelle (analyses, showback, alerting) Tableaux de bord FinOps à destination des équipes projets Règles d’alerting budgétaire automatisées POCs industrialisés et mis en production Reporting coûts et recommandations d’optimisation Profil de la mission Mission freelance longue durée Forte composante Cloud / Data / FinOps Environnement international – anglais professionnel Forte interaction avec équipes IT, Data et Finance
Freelance

Mission freelance
Data Engineer/ Expert GCP

Publiée le
BigQuery
Cloud
Data science

12 mois
530 €
Toulouse, Occitanie
Mon Client recherche un Data Engineer expérimenté (min. 5 ans en Cloud Engineering GCP) pour intervenir sur un nouveau projet GCP natif dans le domaine Trade-Corporate Sales , à partir du 5 janvier 2026 pour une durée initiale d’un an. La mission, basée exclusivement sur site à Toulouse , vise à concevoir et construire la première itération de la solution cloud. L’expert interviendra sur la mise en place des composants et services GCP , le développement de pipelines de données (Cloud Storage, Dataform, BigQuery) ainsi que l’ intégration d’un moteur de machine learning conçu par les data scientists (probablement via Vertex AI). Il contribuera également à la création d’un tableau de restitution sous Power BI et à la coordination avec une équipe fullstack . Au-delà de la réalisation technique, la mission inclut un fort volet de transfert de compétences pour autonomiser l’équipe interne. Le profil attendu doit allier expertise technique GCP , capacité de conception et de documentation fonctionnelle , autonomie , engagement et aisance relationnelle en environnement collaboratif anglophone.
Freelance
CDI

Offre d'emploi
Data Stewart

Publiée le
Big Data
BigQuery
Cloud

12 mois
40k-48k €
400-500 €
Paris, France
Télétravail partiel
Définition du besoin : Accélération de la transformation digitale avec pour mission de devenir le média numérique de référence pour tous, gratuit, utile et adapté à chacun pour s’informer, se cultiver et se divertir ! La Direction Data est rattachée à la direction du Numérique et met en œuvre l’ensemble de la chaîne de traitement et de valorisation des données afin d’en accélérer son usage. Contribuer à la croissance des offres numériques du groupe via plusieurs plateformes en accompagnant les équipes éditoriales, produit, design et marketing (Acquisition, Réseaux sociaux, Partenariats, CRM) dans le développement d’outils de pilotage, la compréhension et la prévision des usages ainsi que l’amélioration de l’expérience utilisateurs. Au sein du pôle Data Gouvernance, rattachée au responsable du pôle, la prestation sera affectée au data domaine utilisateurs (caractéristiques socio-démographiques, consentements, abonnements…) et permettra d’être le catalyseur et le facilitateur pour améliorer l’efficience de la mise à disposition de la donnée aux utilisateurs métier. Prestations attendues : Comprendre et mettre en œuvre la stratégie data gouvernance : Gestion de la qualité des données : Recueillir les data quality rules et coordonner leur mise en œuvre Assurer une vision complète des étapes de transformation de la donnée Gérer la mise en œuvre des contrôles qualité Effectuer la mesure des écarts de qualité par rapport aux objectifs fixés Coordonner la remédiation à la qualité des données avec les différents acteurs Participer à la gestion des métadonnées : Animer le remplissage du glossaire métier en collaboration avec les data owners Veiller au respect des règles et politiques établies par les équipes data gouvernance Coordonner la mise en synergie entre dictionnaire de données et glossaire métier Participer à la politique des accès : Contribuer à garantir la sécurité des données en mettant en application la politique des accès aux données Participer à l’application des normes RGPD et jouer le rôle de facilitateur entre les différents interlocuteurs Animer et jouer un rôle moteur dans la mise en œuvre de la stratégie data gouvernance : Communiquer et accompagner : Expliquer et faciliter la compréhension de la politique de gouvernance data en place Créer une synergie collaborative entre les équipes data et les équipes métier Être en support des Data Owners Animer le Data domaine : Lister les données sensibles à mettre sous contrôle S’assurer de la mise aux normes des Data Sets du domaine
Freelance

Mission freelance
Data Architecte (Secteur Energie / Industrie)

Publiée le
Apache Airflow
Apache Spark
Architecture

12 mois
690-780 €
Rennes, Bretagne
Télétravail partiel
Contexte & Enjeux Projet stratégique à haute visibilité visant à construire une nouvelle Data Platform . L’infrastructure, livrée sur un modèle Kubernetes , constitue le socle du futur environnement Data. Une équipe backend est déjà en place et développe le socle applicatif en Python / Django . Objectif principal : Structurer et définir l’ architecture Data de la plateforme, dans une logique modulaire, scalable et sécurisée , et préparer l’intégration des premiers cas d’usage métiers. 🧩 Mission Le Data Architecte interviendra sur : Définir l’ architecture cible de la Data Platform après livraison de l’infrastructure ; Segmentation et ségrégation des stockages selon les typologies de données (temps réel, analytics, applicatif) ; Déploiement et orchestration des conteneurs dans l’environnement Kubernetes ; Mise en place du socle Data et des patterns de gouvernance : sécurité, qualité, monitoring, CI/CD Data ; Accompagnement sur les choix technologiques (préférence open source) ; Co-construction avec les équipes métiers utilisant des outils no-code / low-code pour leurs besoins analytiques. 🧠 Profil recherché Architecte Data confirmé, à l’aise sur les environnements Cloud Azure et Kubernetes ; Maîtrise des architectures temps réel , data pipelines et data storage (Data Lake / Data Warehouse) ; Expérience solide sur les environnements open source : Spark, Kafka, Airflow, etc. ; Capacité à intervenir sur des sujets d’ architecture globale (data + applicatif) ; Bon sens du travail en équipe et de la co-construction dans un contexte sensible et confidentiel ; Capacité à proposer des solutions adaptées aux contraintes existantes. ⚙️ Environnement technique (indicatif) Cloud : Azure Orchestration : Kubernetes Backend : Python / Django Data : Open source – Spark, Kafka, Airflow, etc. Usages métiers : No-code / Low-code
Freelance

Mission freelance
Data Engineer DBT / Snowflake

Publiée le
DBT

3 mois
400-500 €
Paris, France
Télétravail partiel
Acteur majeur du luxe Le poste Développer et maintenir les modèles DBT dans l’environnement Snowflake Réaliser les tests unitaires pour garantir la fiabilité et la performance des pipelines Documenter le code et les flux de données selon les standards internes Collaborer étroitement avec les équipes Data Engineering et BI Participer à l’amélioration continue des pratiques de développement et d’intégration Stack technique DBT (Data Build Tool) – confirmé (4 ans min) Snowflake – confirmé Git / GitLab CI/CD Python (pour scripting ou ingestion) DataOps / FinOps / QA (environnement du client) Modélisation : Kimball, Data Vault (bonus)
Freelance
CDI

Offre d'emploi
Data Analyst orienté Cybersécurité & Reporting (H/F)

Publiée le
Cybersécurité
Data analysis
IAM

3 ans
40k-45k €
400-550 €
Île-de-France, France
Télétravail partiel
Nous recrutons : Data Analyst orienté Cybersécurité & Reporting Nous recherchons un profil DATA et REPORTING spécialisé dans l’univers Cyber et IAM pour renforcer nos équipes. Missions principales : Production, suivi et automatisation des KPI/KRI Cyber & IAM Industrialisation de dashboards (Power BI / SQL / Python) Contrôles de qualité de données et fiabilisation des référentiels Définition des indicateurs et challenge des besoins métiers Collaboration transverse entre les équipes Data, Cyber et Risques Analyse de données : habilitations, logs, référentiels IAM Profil recherché : Un Data Analyst spécialisé en cybersécurité, capable de comprendre les enjeux Cyber & IAM sans être un expert applicatif IAM. Rigueur, sens de l’analyse et capacité à manipuler la donnée à grande échelle sont essentiels.
Freelance
CDI

Offre d'emploi
Data Analyste (24)

Publiée le
Piano Analytics
PowerBI

1 an
40k-45k €
400-570 €
Île-de-France, France
Télétravail partiel
Contexte La Direction Data, au sein de la Direction du Numérique, a été créée avec la volonté de faire de la Data un levier de croissance des offres numériques. La Direction du Numérique a en effet de forts enjeux de développement des usages numériques de contenus propres ou issus des chaînes d'une grande entreprise de médias. La Direction Data a 3 grandes missions : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l'expérience utilisateurs et mettre à disposition auprès des équipes internes des outils d'aide à la décision et des outils de pilotage. La Direction Data recherche une prestation en Data Analyse pour accompagner la direction de la croissance des offres (CRM, Acquisition, Social, Partenariat – Chaîne et FAI). Prestations attendues La prestation consistera à participer à : La création de nouveaux rapports automatiques Power BI qui auront pour objectif de mesurer la performance des sites/applications (prise en compte des besoins des équipes internes, détermination des sources à utiliser et création du cahier des charges pour les data ingénieurs, réalisation d'une maquette, création du dashboard, itérations mode projet). Le maintien du bon fonctionnement des dashboards existants sur Power BI. L'accompagnement et le coaching des équipes internes sur l'intégration de la data dans leur processus de décision et de priorisation (Piano Analytics, Nielsen, marqueur interne). La mesure et l'analyse des données issues de nos différents outils afin de mieux comprendre les usages (web analytics, consommation vidéos vues), en collaboration avec l'équipe études. L'accompagnement des équipes internes dans l'identification des indicateurs/KPIs nécessaires au suivi de leurs activités, et avoir une vision transverse sur l'ensemble des KPIs utilisés par les équipes produit et métier et leurs méthodes de calcul. Le partage de son expertise afin de déployer notre marqueur interne sur d'autres produits. L'identification des besoins de prérequis de tracking pour mettre en place ces analyses et les remonter aux équipes internes.
Freelance
CDI

Offre d'emploi
Data Engineer (H/F)

Publiée le
Big Data
Google Cloud Platform (GCP)
Python

1 an
40k-45k €
480-580 €
Paris, France
Télétravail partiel
La Direction Technique du Numérique pilote des projets transverses en collaboration avec la Direction Data, dont la mission est de faire de la donnée un levier de performance et d’aide à la décision. L’équipe Gold Pilotage , composée d’un Product Owner et de deux Data Ingénieurs, développe et maintient la solution Data4All , un produit destiné à la centralisation et à la diffusion des données analytiques via des dashboards et des reportings internes. Objectifs de la mission Le Data Ingénieur interviendra sur : La conception, la mise en production et la maintenance de pipelines data robustes et scalables. Le développement de modèles de données et l’organisation du stockage. La qualité, la fiabilité et la gouvernance des données. La mise en place et la maintenance des workflows CI/CD. L’industrialisation des traitements via des infrastructures scalables et sécurisées. Le partage de bonnes pratiques et la mise à jour continue de la documentation.
Freelance

Mission freelance
Data Engineer Finance et Risque (H/F)

Publiée le
AWS Cloud
Data Warehouse
ETL (Extract-transform-load)

6 mois
400-650 €
Maisons-Alfort, Île-de-France
Télétravail partiel
Localisation : Maisons-Alfort (94) Rythme : 2 jours sur site (lundi & jeudi) / 3 jours télétravail Expérience : +8 ans Démarrage : ASAP Mission longue Expérience en banque obligatoire. Python / Spark / Entrepôts de données / Data Warehouse 1. Description du poste Dans un contexte de transformation globale du SI et d'accélération autour des technologies Data & Cloud, nous recherchons un Data Engineer senior expert en Python , PySpark , traitement de données Spark et parfaitement à l’aise avec l’écosystème AWS . Le rôle implique une forte dimension d’ingénierie logicielle : développement Python , tests unitaires (pytest), participation aux tests fonctionnels automatisés, mise en place de code modulaire , robuste et industrialisé. Au quotidien, le Data Engineer devra concevoir et développer des jobs de traitement de données (notamment via AWS Glue), maîtriser l’ensemble de la stack AWS Data (S3, Athena, Secret Manager…), intervenir ponctuellement sur des instances EC2, et collaborer étroitement avec le Tech Lead afin de respecter les design patterns applicatifs et les standards d'architecture. L’objectif majeur de la mission est de modulariser et architecturer les process Data pour construire des solutions évolutives, intégrées et orientées métier. Le poste nécessite une posture proactive, autonome, dynamique, ainsi qu’un excellent relationnel avec les PM et les équipes métiers, dans un environnement Agile SAFe .
2722 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous