Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 268 résultats.
Freelance
CDI

Offre d'emploi
Tech Lead Data

Publiée le
Databricks

3 ans
40k-50k €
400-550 €
Paris, France
Télétravail partiel
En tant que Tech Lead Data Engineer, vous serez impliqué dans les phases de design des applications et garant de la solution technique . À ce titre, vos principales responsabilités seront : · Assurer un leadership technique auprès des équipes de développement. · Conseiller les parties prenantes et traduire les exigences stratégiques en architectures Azure et Databricks sécurisées, scalables et fiables. · Participer activement aux phases de conception, développement et tests. · Porter la vision technique au sein des équipes Agile. · Garantir la qualité des livrables et veiller à la réduction de la dette technique. · Réaliser la modélisation des données. · Assurer une veille technologique et participer aux POCs. · Enrichir la communauté des Data Engineers par le partage de connaissances et la promotion des bonnes pratiques.
Freelance

Mission freelance
Product Owner Data

Publiée le
Product management

3 mois
400-650 €
Paris, France
Nous recherchons un un(e) Product Owner Data passionné(e) par les enjeux techniques et la gouvernance de la donnée, pour rejoindre un environnement data stimulant et exigeant à Paris , à partir de début 2026 . 🎯 Votre rôle : Piloter et animer une équipe de Data Engineers confirmés intervenant sur de nombreux flux et tables de données. Définir, prioriser et suivre les roadmaps produit data en étroite collaboration avec les équipes métiers et techniques. Garantir la qualité, la fiabilité et la performance des solutions livrées. Contribuer à la vision produit Data , en lien avec la stratégie globale de l’entreprise. Promouvoir les bonnes pratiques Agile (Scrum) au sein de l’équipe.
Freelance

Mission freelance
Expert Alteryx H/F

Publiée le
Alteryx

3 ans
Paris, France
Télétravail partiel
Mission principale Concevoir, optimiser et maintenir des workflows complexes dans Alteryx afin de répondre aux besoins de transformation, d’automatisation et de fiabilisation des données au sein des équipes métiers et IT. L’expert Alteryx sera également chargé d’accompagner les utilisateurs dans l’adoption de la plateforme et la mise en place des bonnes pratiques. Responsabilités Analyser les besoins métiers et traduire les exigences en solutions dans Alteryx. Concevoir, développer et maintenir des workflows et macros complexes (préparation, transformation et automatisation des données). Optimiser la performance et la robustesse des processus existants. Mettre en place des standards et bonnes pratiques pour l’utilisation d’Alteryx au sein des équipes. Former et accompagner les utilisateurs (analystes, risk managers, contrôle de gestion, etc.). Participer à l’intégration d’Alteryx avec d’autres systèmes (bases de données, BI, cloud). Assurer la documentation et la traçabilité des workflows. Contribuer à la veille technologique autour des outils d’automatisation et de data preparation. Compétences techniques Maîtrise approfondie de Alteryx Designer et Alteryx Server . Excellentes connaissances en manipulation et modélisation de données. Bonne maîtrise du SQL (optimisation de requêtes, jointures complexes). Connaissance d’outils complémentaires : Tableau, Power BI, Python ou R (serait un plus). Compréhension des architectures data (ETL, API, entrepôts de données). Connaissance des environnements cloud (Azure, AWS ou GCP) appréciée. Compétences fonctionnelles Compréhension des activités et produits des marchés financiers (actions, taux, dérivés, change, etc.). Sensibilité aux problématiques de conformité, risque et reporting réglementaire. Capacité à dialoguer avec des interlocuteurs variés : métiers, IT, data engineers, contrôleurs.
Freelance

Mission freelance
INGENIEUR DATA BI EXPERIMENTE

Publiée le
BI

24 mois
250-500 €
Paris, France
Télétravail partiel
Nous recherchons un(e) ingénieur Data BI expérimenté Contexte Au sein d'une Data Factory nous recherchons à renforcer notre équipe avec un Data Engineer expérimenté, une expérience dans le secteur du e-commerce serait apprécié. La Data Factory de notre client joue un rôle central dans l'exploitation et l'optimisation des données pour soutenir les différentes initiatives stratégiques de l'entreprise. Elle se concentre sur la création d'une infrastructure de données robuste, la mise en place de pipelines de données fiables, et l'exploitation de données pour générer des insights à forte valeur ajoutée pour les équipes. Description • Participe à l'analyse du besoin avec la supervision du binôme PO/TechLead et à la conception du modèle de données permettant de répondre aux enjeux. • Utilise l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets • Conçois, développe et maintien les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. • Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale • Identifie et résout les goulots d'étranglement et les problèmes de performances dans les flux de données • Met en place des processus et des contrôles pour garantir la qualité des données • Conçoit et met en œuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. • Réalise la recette technique et participe à animer la recette fonctionnelle avec les utilisateurs et le PO • Rédaction des documents associés au projet (Spécifications Techniques, Cahier de recette Technique, Document d'exploitation) • Être force de proposition sur l'amélioration de la stack Data • Faire le reporting d'avancement des travaux • Support au déploiement • Assure la maintenance corrective ou évolutive • S'assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe Livrables Spécifications Techniques, Cahier de recette Technique, Document d'exploitation Reporting d'avancement des travaux Programme développés
Freelance
CDI

Offre d'emploi
Ingénieur de production / exploitation zos Linux/Unix/Aix OPC Shell

Publiée le
AIX (Advanced Interactive eXecutive)
FTP (File Transfert Protocol)
JCL (Job Control Language)

6 mois
Île-de-France, France
Télétravail partiel
Recherchons Ingénieur de production / exploitation zos Linux/Unix/Aix OPC Shell Objectif global :Piloter et sécuriser les évènements de production - Analyser des incidents pour en comprendre la cause afin de déterminer la solution à appliquer - Avoir une bonne capacité d'analyse afin de pouvoir comprendre des sujets métiers divers et variés - Comprendre l'implémentation technique et les implémenter si nécessaire Compétences techniques impératives : Linux/Unix/Aix - Expert - Impératif Z/OS - Expert - Impératif OPC - Confirmé - Impératif Shell - Confirmé - Impératif Connaissances linguistiques Français Courant (Impératif) Description détaillée Nous cherchons le profil d’un OPS/Intégrateur afin de prendre en charge les actions d’exploitation des applications BI existantes sur des plateformes On-Premise sous un socle technique de Linux/Unix/Aix, Oracle et MainFrame. Compétences requises : OS : - Expert Admin Linux/Unix/Aix - Z/OS : Avoir des bonnes connaissances du Mainframe ( Créer/Analyser/modifier des JCL et Modifier/charger des fichiers MVS) Ordonnanceur : - Connaitre l'ordonnanceur OPC (Open Platform Communications d'IBM) - Création/modification/Troubleshooting des jobs - Shell : Pouvoir Analyser/Modifier des scripts Shell réalisant des opérations complexes - Chargement des fichiers dump oracle/plat/MVS en BDD - Export de données de la BDD vers des dump et/ou fichiers plats - Récupération des fichiers depuis FTP/SFTP - Envoi des fichiers vers FTP/SFTP Une expérience en COBOL (analyser/builder/déployer des programmes) EST EN PLUS - Transverse Avoir une bonne capacité d'analyse afin de pouvoir comprendre des sujets divers et variés et pouvoir en comprendre l'implémentation technique. La personne travaillera sous la responsabilité d'un ou plusieurs Responsables d'Application (RA) et/ou des Data Engineer (DE). Elle travaillera en mode RUN : - Analyse des incidents pour en comprendre la cause et afin de déterminer la solution à appliquer - Des évolutions des scripts SQL/Shell existants si demande métier Astreintes possibles 3 jours sur site / 2 jours de TT
Freelance

Mission freelance
OPS / Intégrateur Production BI

Publiée le
Linux
Shell
z/OS

100 jours
500-660 €
Châtillon, Île-de-France
Télétravail partiel
OPS / Intégrateur Production BI Objectif global : Piloter et sécuriser les évènements de production dans un environnement BI complexe. Contexte de la mission : Au sein du Pôle Applications du Datalab , le consultant interviendra en tant qu’ OPS / Intégrateur chargé des actions d’exploitation des applications BI existantes, sur des plateformes on-premise reposant sur un socle technique Linux/Unix/AIX, Oracle et Mainframe (Z/OS) . Le rôle est orienté RUN , avec une forte composante d’analyse, d’investigation et de maintenance corrective/évolutive. Le périmètre fonctionnel couvre l’ensemble des domaines du commerce (logistique, référentiel, ventes, achats, promotions, facturation, impayés, etc.), pour des enseignes alimentaires et non alimentaires. Missions principales : Analyser les incidents pour en comprendre la cause et déterminer la solution à appliquer. Faire évoluer les scripts SQL/Shell existants selon les besoins métiers. Comprendre et mettre en œuvre les implémentations techniques nécessaires. Travailler sous la responsabilité d’un ou plusieurs Responsables d’Application et/ou Data Engineers . Assurer la maintenance et le bon fonctionnement des traitements batch et des flux de données. Compétences techniques requises : Systèmes : Linux / Unix / AIX – Expert (impératif) Z/OS – Expert (impératif) Analyse / modification de JCL Manipulation de fichiers MVS Ordonnanceur : OPC (IBM Open Platform Communications) – Confirmé (impératif) Création, modification et troubleshooting de jobs Scripting & automatisation : Shell – Confirmé (impératif) Analyse et modification de scripts complexes Chargement / export de données (Oracle, dumps, fichiers plats, MVS) Échanges de fichiers via FTP/SFTP Bonus apprécié : Connaissances COBOL (analyse, build, déploiement de programmes) Compétences transverses : Forte capacité d’analyse et de compréhension de sujets métiers variés. Capacité à collaborer étroitement avec les équipes applicatives et data. Esprit de synthèse, rigueur et autonomie. Connaissances linguistiques : Français courant – Impératif Définition de rôle associée : Analyse des besoins et veille technologique : Étude des besoins, conseil technique, rédaction de cahiers des charges et appels d’offres, veille technologique. Mise en place et intégration : Conception, paramétrage, configuration, tests, validation technique, sécurité et fiabilité des systèmes. Exploitation : Diagnostic et traitement d’incidents, maintenance corrective, amélioration continue, documentation et transfert de compétences. Sécurité : Application des politiques de sauvegarde, archivage et plans de secours.
Freelance
CDI

Offre d'emploi
Ingénieur de production / exploitation zos Linux/Unix/Aix OPC Shell

Publiée le
AIX (Advanced Interactive eXecutive)
FTP (File Transfert Protocol)
JCL (Job Control Language)

6 mois
Île-de-France, France
Télétravail partiel
Recherchons Ingénieur de production / exploitation zos Linux/Unix/Aix OPC Shell Objectif global :Piloter et sécuriser les évènements de production - Analyser des incidents pour en comprendre la cause afin de déterminer la solution à appliquer - Avoir une bonne capacité d'analyse afin de pouvoir comprendre des sujets métiers divers et variés - Comprendre l'implémentation technique et les implémenter si nécessaire Compétences techniques impératives : Linux/Unix/Aix - Expert - Impératif Z/OS - Expert - Impératif OPC - Confirmé - Impératif Shell - Confirmé - Impératif Connaissances linguistiques Français Courant (Impératif) Description détaillée Nous cherchons le profil d’un OPS/Intégrateur afin de prendre en charge les actions d’exploitation des applications BI existantes sur des plateformes On-Premise sous un socle technique de Linux/Unix/Aix, Oracle et MainFrame. Compétences requises : OS : - Expert Admin Linux/Unix/Aix - Z/OS : Avoir des bonnes connaissances du Mainframe ( Créer/Analyser/modifier des JCL et Modifier/charger des fichiers MVS) Ordonnanceur : - Connaitre l'ordonnanceur OPC (Open Platform Communications d'IBM) - Création/modification/Troubleshooting des jobs - Shell : Pouvoir Analyser/Modifier des scripts Shell réalisant des opérations complexes - Chargement des fichiers dump oracle/plat/MVS en BDD - Export de données de la BDD vers des dump et/ou fichiers plats - Récupération des fichiers depuis FTP/SFTP - Envoi des fichiers vers FTP/SFTP Une expérience en COBOL (analyser/builder/déployer des programmes) EST EN PLUS - Transverse Avoir une bonne capacité d'analyse afin de pouvoir comprendre des sujets divers et variés et pouvoir en comprendre l'implémentation technique. La personne travaillera sous la responsabilité d'un ou plusieurs Responsables d'Application (RA) et/ou des Data Engineer (DE). Elle travaillera en mode RUN : - Analyse des incidents pour en comprendre la cause et afin de déterminer la solution à appliquer - Des évolutions des scripts SQL/Shell existants si demande métier Astreintes possibles 3 jours sur site / 2 jours de TT
Freelance

Mission freelance
Data ingénieur Confirmé

Publiée le
Apache Spark
Git
Hadoop

6 mois
100-350 €
Orléans, Centre-Val de Loire
Pour le besoin de mon client, je suis à la recherche d'un profil Data Engineer confirmé Piloter les projets DevOps complexes : planification, suivi des délais, budget et livrables. Coordonner les équipes (techniques, métiers, sécurité) et animer les comités de suivi... ... ... ... .... ... .... ... ... ... .... ..... .. .... .. .. .. .. . .. ... .. .. .. .. . .. . . . .. . . .. . .. . .. . .. . . .. . . .. . . .. . . . . .. . . . . . . .. . . .. . . .. .. . . . . . . .. . . . . . . . . . . . . . .. . .
CDI

Offre d'emploi
Manager Data / Lead Data

Publiée le
Azure
Azure Data Factory
Python

60k-80k €
Paris, France
Descriptif du poste Une filiale d'un grand groupe recherche une personne pour prendre en charge la responsabilité des activités Data & Intégration au sein de son département IT. Objectif de la mission La mission a pour objectif de couvrir les activités data existantes, en assurant la continuité des activités tout en identifiant les axes d'amélioration potentiels. Missions de Responsabilité des Activités Data Le candidat présenté par le prestataire sera chargé de : Accompagnement Technique "Tech Lead" : Fournir un support technique à l'équipe Data et Intégration, composée d'une dizaine de collaborateurs data engineers et product owners data. Le profil devra encadrer, orienter et développer les compétences techniques de l'équipe. Choix Technologiques et Architecture Transverse : Conseiller sur les choix technologiques et architecturaux pertinents (stockage, exposition de la data, …), et participer activement à la mise en place d'une plateforme data robuste et scalable permettant l'industrialisation des projets d'IA. Participation aux échanges techniques : Participation active aux échanges et choix techniques et organisationnels sur l'industrialisation des produits data, conjointement avec les équipes Data & Analytics. Positionnement Vis-à-Vis des Partenaires : Collaborer étroitement avec les partenaires et se positionner sur les orientations techniques et architecturales pertinentes. Arbitrer sur les synergies éventuelles à envisager. Choix des Fournisseurs : Contribuer au processus de sélection des fournisseurs en veillant à ce que les choix soient alignés avec les objectifs stratégiques et opérationnels. Pilotage et Conception des Produits Structurants : Participer au pilotage et à la conception de produits structurants et la construction d'un middleware. Cela inclut la priorisation et le dimensionnement des activités.
Freelance
CDI

Offre d'emploi
Product Owner Plateforme Big Data (AWS / Databricks)

Publiée le
Agile Scrum
AWS Cloud
Databricks

12 mois
Île-de-France, France
Télétravail partiel
Dans le cadre de sa croissance sur les projets Data Platform & Cloud , Hextaem recherche un(e) Product Owner Plateforme Big Data pour piloter la conception, la mise en œuvre et l’évolution d’une plateforme data moderne basée sur AWS et Databricks . Le/la PO jouera un rôle clé à l’interface entre les équipes métiers, techniques et data, afin de valoriser les données de l’entreprise à travers une plateforme scalable, sécurisée et orientée usage . Missions principales 1. Vision produit & stratégie Data Platform Définir la vision produit et la roadmap de la plateforme Big Data . Identifier les besoins des équipes métiers, data scientists et data engineers. Prioriser les fonctionnalités selon la valeur business et la faisabilité technique. Maintenir et piloter le backlog produit (JIRA, Azure DevOps ou équivalent). 2. Pilotage et delivery Animer les cérémonies Agile (daily, sprint review, planning, rétrospective). Collaborer étroitement avec les équipes Data Engineering, Cloud et Sécurité. Suivre l’avancement des développements et s’assurer de la qualité des livrables. Garantir la mise à disposition de datasets et services data fiables, documentés et performants. 3. Gouvernance et qualité de la donnée Contribuer à la mise en place des bonnes pratiques de data gouvernance (catalogue, qualité, sécurité). Superviser les flux de données dans Databricks (ingestion, transformation, exploitation). Assurer la cohérence des environnements (dev / recette / prod). 4. Évolution et innovation Identifier de nouveaux cas d’usage (IA, temps réel, RAG, data sharing). Proposer des améliorations continues en matière d’architecture et d’outils. Assurer une veille technologique active sur AWS, Databricks et les solutions Data/IA émergentes. Compétences techniques : Cloud & Big Data: AWS (S3, Glue, Lambda, Redshift, IAM, CloudFormation/Terraform) Data Platform: Databricks (Delta Lake, PySpark, MLflow, Unity Catalog) Data Engineering & Modélisation: Connaissance de la modélisation data, data pipeline, orchestration (Airflow, ADF, etc.) Langages: Bonne compréhension de SQL et Python (lecture et validation de code) CI/CD & DevOps: Git, Terraform, Jenkins/GitHub Actions (notions) Outils de pilotage: JIRA, Confluence, Miro, Power BI/Tableau (lecture fonctionnelle)
Freelance

Mission freelance
Ingénieur Production Data

Publiée le
Agile Scrum
AWS Cloud
Data analysis

12 mois
400-550 €
Paris, France
Le Data Office a pour mission de consolider, manager et valoriser le patrimoine de données, qui est un capital stratégique pour mon client, via le développement de produits et services data transverses à l’entreprise et au service du business. Au sein du Data Office, la mission de l’équipe Core Data est de développer et maintenir une plateforme centralisée, sécurisée, fiable et performante au service des usages data de l’ensemble des directions métier de mon client. Elle est notamment responsable d’un datalake opérationnel sur le cloud AWS et d’un patrimoine applicatif de jobs de transformation et production de données (Scala Spark). Elle assure également la maintenance de la plateforme Dataiku. Dans le cadre de son activité, mon client recherche un(e) Ingénieur de Production Data, qui sera amené(e) à intervenir à l’intersection des enjeux Infra DevOps sur AWS et Big Data, et collaborera en étroite synergie avec l’architecte cloud, le tech lead et les data engineers.
Freelance

Mission freelance
DataOps - MS FABRIC/ Azure

Publiée le
.NET
.NET Framework
AWS Cloud

12 mois
500-550 €
Paris, France
Télétravail partiel
Nous recherchons un Data Engineer AWS - Expertise sur MS Fabric Engineer pour rejoindre une squad Data Platform dynamique. Vous travaillerez avec des Data Engineers et DevOps pour concevoir, maintenir et optimiser une plateforme de données cloud , incluant la gestion de Data Lake, le développement de microservices et l’automatisation des déploiements. Missions Développer et gérer des solutions de Data Lake (ADLS Gen2, AWS S3). Concevoir et maintenir des processus de déploiement automatisé avec Terraform. Développer des microservices en Python (C# un plus). Assurer le monitoring et l’exploitation de la plateforme. Participer aux flux ETL et à l’amélioration continue de la plateforme. Collaborer avec les parties prenantes pour proposer des solutions robustes et évolutives. Maintenir la documentation technique et les artefacts de production. Être force de proposition sur les bonnes pratiques SRE, sécurité, qualité et FinOps . Profil recherché Expérience significative en Data Platform et Data Lake (AWS S3, ADLS Gen2). Maîtrise du développement Python (C# un plus) et des environnements cloud (AWS requis, Azure un plus). Compétences en Terraform et automatisation de déploiements. Connaissance des pipelines ETL , du monitoring et des bonnes pratiques SRE . Méthodologie Agile , orientation user-centric et forte capacité de collaboration. Autonomie, rigueur et esprit proactif . Pourquoi nous rejoindre ? Travailler sur des projets innovants autour de la data et du cloud . Collaborer avec des experts techniques dans un environnement Agile. Contribuer à l’ optimisation et l’évolution d’une plateforme moderne et scalable.
Freelance

Mission freelance
INGENIEUR DATA BI - GENIO

Publiée le
BI

24 mois
250-500 €
Paris, France
Télétravail partiel
INGENIEUR DATA BI GENIO / SQL / BIG QUERY / TERADATA / GCP nous recherchons un Data Engineer entre 3 et 7 ans d'expérience qui aura la capacité de gérer à la fois les aspects MCO/TMA mais également la partie projets pour les différentes directions du groupe en collaboration avec le reste de l'équipe. À la suite d'une passation avec notre centre de service, il devra également être en mesure d'innover et d'améliorer les processus existants pour perfectionner l'efficience de l'équipe au quotidien dans ses différentes tâches. DESCRIPTION DE LA MISSION • Participe à l'analyse du besoin avec la supervision du PPO ou Manager et à la conception du modèle de données permettant de répondre aux enjeux. • Utilise l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets • Conçois, développe et maintien les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. • Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale • Identifie et résout les goulots d'étranglement et les problèmes de performances dans les flux de données • Met en place des processus et des contrôles pour garantir la qualité des données • Conçoit et met en œuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. • Réalise la recette technique et anime la recette fonctionnelle avec les utilisateurs • Rédaction des documents associés au projet (Spécification Fonctionnelles, Spécifications Techniques, Cahier de recette Technique, Document d'exploitation) • Être force de proposition sur l'amélioration de notre stack Data • Faire le reporting d'avancement des travaux • Support au déploiement • Assure la maintenance corrective ou évolutive • S'assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe ENVIRONNEMENT TECHNIQUE L'environnement Data dans le cadre de cette mission est actuellement constitué principalement d'une base de données Teradata (Cloud) ainsi qu'un environnement BigQuery. • Langages/Framework : SQL, BigQuery, Python, Java, Shell • Outils : OpenText GENIO, Talend • Base de données : Teradata, BigQuery, SQL Server, IBM DB2 PLANIFICATION ET LOCALISATION Démarrage ASAP / PARIS
Freelance

Mission freelance
DBA Snowflake

Publiée le
Python

6 mois
500-600 €
Paris, France
Télétravail partiel
Bonjour, Pour l'un de mes grands comptes parisiens, je suis à la recherche urgente d'un DBA Snowflake. L’équipe Architecture & Data Engineering de la Direction DATECH est chargée de la maintenance et de l’évolution de la Data Platform à disposition des équipes Collectes, Analytics, Data, Science & IA, CRM, Pub etc .. La mission : Au quotidien, vous menez les travaux de définition et de revue d’architecture de la Data Warehouse/Data Platform, dont les produits Snowflake sur Azure sont les fondations premières. Vos principales missions sont : - Développement et maintenance de la stratégie RBAC - Revues de performances - Suivi de coûts par application - Modernisation des paradigmes d’ingestion, de transformation et d’exposition de données - Apporter du support au quotidien sur la plateforme - Revues de code SQL - Mise en place de solutions de monitoring et d’alerting - Formalisation et planification de la roadmap produit afin de tirer profit des dernières fonctionnalités de Snowflake à 3, 6 et 12 mois Vous intervenez sur la conception de l’ensemble des travaux relatifs aux données du Groupe. Vous accompagnez également nos équipes (Architecture & Data engineering, Data science & Analytics, ML & IA) pour informer de la faisabilité des demandes en prenant en considération les contraintes de coûts, de délais et de qualité. Vous garantissez la pérennité des développements déployés en production. Vous êtes le référent technique Snowflake des Data Engineer et des Data Analysts pour leurs développements. Vous travaillez avec une équipe de 15 personnes travaillant en méthode Agile de type Scrum et faites progresser au quotidien notre démarche DevSecOps. De manière générale, vous jouez un rôle de facilitateur & d’expert Snowflake entre les équipes Data (AdTech, Product Owners, Data Analysts et opérationnels) du Groupe.
Freelance

Mission freelance
Concepteur Développeur

Publiée le
Apache Airflow
BigQuery
Data Lake

3 mois
100-360 €
Lille, Hauts-de-France
Vous serez intégré dans une équipe pluridisciplinaire de 6 personnes (Data Engineer, DevSecFinOps) En vous appuyant sur la data ARF exposée, vous travaillerez sur un use case dédié en collaboration avec les équipes Data (tech lead, gouvernance et architectes). Vous devrez avoir une approche FINOPS (Maîtrise et diminution des coûts) BUILD - Interlocuteur lors de la contribution à des projets dans le domaine de la Supply - Conception de solutions en respectant les normes et framework data - Développement, Modélisation sous la gouvernance de l'architecture data - Contribution au développement d'appli - Tests - Reporting RUN : - Maintien en condition opérationnelle de notre périmètre de responsabilité (4 référentiels de données opérationnels (RDO) multi sourceurs, 15 applications) - gestion des incidents - mise en production (via Git) - suivi de flux EXPERTISE : - Montée en compétence sur notre SI et notre domaine de responsabilité
Freelance

Mission freelance
Business Analyst DATA Modélisation HF

Publiée le
Google Cloud Platform (GCP)

6 mois
400-490 €
Île-de-France, France
Télétravail partiel
Missions principales » Analyse & recueil des besoins Recueillir les besoins métiers auprès des équipes métier. Traduire ces besoins en spécifications fonctionnelles centrées sur la donnée. Formaliser les cas d’usage de consommation et d’exposition des données. Modélisation & structuration des données Participer à la modélisation logique et physique des données du Shopping Data Hub sur BigQuery. Construire des dictionnaires de données, des mappings et des modèles documentés et évolutifs. Travailler en lien étroit avec les data engineers GCP et les data architects. Contribution GCP & data engineering Collaborer avec les équipes techniques sur les pipelines de données (Dataflow, Cloud Composer, Pub/Sub...). Veiller à la performance, la scalabilité et l’optimisation des modèles sur GCP. Aider à la définition des bonnes pratiques GCP (naming, stockage, partitionnement, sécurisation...). Gouvernance & documentation Contribuer à la mise en place de la gouvernance des données (qualité, traçabilité, respect du RGPD). Rédiger et maintenir à jour la documentation métier et technique du modèle de données. Participer à l’amélioration continue du hub (monitoring, automatisation, audits...).
268 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous