Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Mission freelance
DATA INGENIEUR GCP EXPERT
Au cours de sa mission, le consultant : - Participera aux rituels agiles de l'équipe, - Analysera les besoins des utilisateurs et proposera des solutions innovantes et en phase avec les drivers de l'entreprises, - Développera les solutions data (Alimentation, stockage, modélisation, restitution), - Validera la qualité des développements de son équipe, - Améliorera et optimisera le patrimoine actuel de son équipe, - Maintiendra les solutions existantes (Run), - Contribuera à la construction du nouveau socle et des services sur la plateforme Google Cloud, - Accompagnera et acculturera les métiers sur les bonnes pratiques de l'exploitation de la Data

Mission freelance
Data Engineer (H/F)
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data Engineer (H/F) à Lille, France. Contexte : Les missions attendues par le Data Engineer (H/F) : - Participation au cadrage du besoin avec les équipes concernées - Participation à la conception et aux développements des pipelines de données - Refactoring de pipelines de données (Cleaning, technos cibles, ...) - Finops et optimisation - Développements de scripts et algos - Accompagnement des équipes métiers sur le développement d'analyse ponctuelle et éventuellement de la data visualisation (modèle & reports/dashboards)

Mission freelance
FREELANCE – Data Engineer Spark/Scala (H/F)
Nous constituons un vivier de freelances spécialisés en data engineering pour anticiper les besoins de nos clients sur des projets Big Data et Cloud. Nous recherchons des Data Engineers expérimentés sur Spark et Scala, capables d’intervenir rapidement sur des missions à Nantes et Rennes, dans des contextes variés (banque/assurance, industrie, retail, services). En tant que Data Engineer Spark / Scala, vos missions pourront inclure : Conception et développement de pipelines de données : ingestion, transformation, nettoyage et enrichissement de données massives. Développement d’applications distribuées avec Apache Spark (Batch et Streaming) en Scala. Industrialisation des traitements Big Data : optimisation des performances, gestion des volumes importants, parallélisation. Mise en place d’architectures data : Data Lake, Data Warehouse, solutions temps réel. Intégration Cloud : déploiement et utilisation des services Big Data sur AWS, Azure ou GCP (EMR, Databricks, Synapse, BigQuery, etc.). Tests, qualité et fiabilité : mise en place de bonnes pratiques de développement (CI/CD, tests unitaires et fonctionnels). Sécurité et conformité : respect des normes RGPD et bonnes pratiques de gouvernance des données. Documentation et partage : rédaction des spécifications techniques, bonnes pratiques et transmission de compétences aux équipes internes. Collaboration transverse : travail étroit avec les Data Scientists, Data Analysts, Product Owners et Architectes pour répondre aux besoins métiers.

Offre d'emploi
Développeur DevOps Sénior GCP
🎯 Objectifs de la mission : Intégré(e) à l’équipe IT Compute en charge de la plateforme stratégique de calcul de risque interne, vous contribuerez à la transformation cloud (GCP/AWS) d’un système critique, dans un environnement agile et DevOps à dimension internationale (Paris, Londres, Hong Kong, New York). 🔧 Responsabilités principales : Maintenance et développement ponctuel de microservices pour la plateforme de calcul de risque. Participation active à l’architecture cloud GCP (et ponctuellement AWS). Gestion des tests automatisés, de la documentation et de la mise en production. Surveillance de la performance, résilience, scalabilité et sécurité des composants. Participation au support applicatif et aux astreintes. Interaction avec les équipes produit, architecture et production dans un cadre agile (Scrum/DevOps).

Mission freelance
Systeme Architect Mise en conformité Data Client GCP
Client : Luxe Site : Paris, 3 jours par semaine sur site. Prix achat max : 670 HT € Date de démarrage : ASAP Date de fin : 31/05/2026 Profil : System Architect - Spécialiste des Données Clients et de la Mise en Conformité Réglementaire dans un environnement Data Platform (GCP) Mission : En tant que System Architect, vous serez principalement responsable de la conception et de la supervision des évolutions architecturales de notre plateforme de données sur GCP, en vous concentrant sur les aspects liés aux informations clients. Cela inclue l'anonymisation des données pour la conformité RGPD, la séparation des données issues de profils client suite à PIPL, la régénération des identifiants techniques des clients et l'inventaire des données client dans l'ensemble de la plateforme. Ces tâches s'inscrivent dans le cadre d'un programme complet visant à assurer la conformité et l'optimisation de notre gestion des données clients. Nombre d’années d’expérience : au moins 8-10 ans d'expérience en tant que System Architect Data ou Data Architect , avec une spécialisation dans la gestion des données clients et la conformité réglementaire dans un contexte de plateforme de données. Habitude des environnements complexes : Expérience professionnelle avérée dans des environnements complexes incluant une data platform, un MDM client, Salesforce Core Platform et Salesforce Marketing Cloud. Attendu : Évolutions architecturales de la plateforme de données : Concevoir, spécifier et superviser les évolutions architecturales de notre plateforme de données client sur GCP (Google Cloud Platform), en mettant l'accent sur les aspects liés à la conformité et la protection des données. Gestion du cycle de vie des données client : Définir et mettre en oeuvre les procédures de gestion du cycle de vie des données clients, de la collecte à l'archivage, en passant par l'anonymisation et la résilience de la plateforme à la régénération des identifiants techniques suite à anonymisation. Conformité réglementaire (RGPD, PIPL, voire PIPA) : Assurer la conformité de notre plateforme aux réglementations RGPD, PIPL voire PIPA, en mettant en oeuvre les mécanismes d'anonymisation, de séparation des données et de gestion du consentement nécessaires, s'inscrivant dans un processus global à tout le SI. Inventaire et cartographie des données client : Réaliser un inventaire complet des données clients présentes dans l'ensemble de la plateforme et cartographier leur flux et leur utilisation, incluant un MDM client, Salesforce Core Platform, Salesforce Marketing Cloud. Collaboration et communication : Collaborer étroitement avec les équipes de gestion de projet, sécurité, conformité et technique pour comprendre les besoins et traduire les exigences réglementaires en solutions techniques concrètes, en prenant aussi en n'oubliant pas les exigences non fonctionnelles. Communiquer efficacement les enjeux liés à la gestion des données clients et à la conformité réglementaire. Intégration et automatisation : Superviser l'intégration ainsi que le traitement des données client provenant de différentes sources et automatiser les processus de gestion des données pour garantir leur qualité, leur disponibilité et leur conformité.

Offre d'emploi
BI / Big Data – Data Manager Senior
Contexte : Nous recherchons un Data Engineer / Data Manager senior pour un projet stratégique autour de l’automatisation des processus de production liés à l’actuariat et au Risk Management. L’objectif est de simplifier et industrialiser les traitements de pré et post-processing d’un outil de projection, actuellement très manuel et dispersé sur plusieurs outils. Missions principales : Concevoir et développer une solution intégrée dans Databricks pour automatiser la préparation et le traitement des données. Créer une interface utilisateur (via Streamlit, Gradio ou Dash) permettant de : Consulter, modifier et versionner les hypothèses avec workflow de validation. Orchestrer et automatiser les jobs de pré/post-processing. Sécuriser et tracer les échanges d’inputs/outputs (qualité, audit). Gérer le stockage des données dans des tables Delta avec schémas typés et versioning. Assurer la gestion des accès et le suivi de la qualité des données.

Mission freelance
Concepteur Développeur
Vous serez intégré dans une équipe pluridisciplinaire de 6 personnes (Data Engineer, DevSecFinOps) En vous appuyant sur la data ARF exposée, vous travaillerez sur un use case dédié en collaboration avec les équipes Data (tech lead, gouvernance et architectes). Vous devrez avoir une approche FINOPS (Maîtrise et diminution des coûts) BUILD - Interlocuteur lors de la contribution à des projets dans le domaine de la Supply - Conception de solutions en respectant les normes et framework data - Développement, Modélisation sous la gouvernance de l'architecture data - Contribution au développement d'appli - Tests - Reporting RUN : - Maintien en condition opérationnelle de notre périmètre de responsabilité (4 référentiels de données opérationnels (RDO) multi sourceurs, 15 applications) - gestion des incidents - mise en production (via Git) - suivi de flux EXPERTISE : - Montée en compétence sur notre SI et notre domaine de responsabilité

Mission freelance
Data Engineer (H/F)
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data Engineer (H/F) à Lille, France. Contexte : L'objectif principal est de standardiser et maintenir l'ensemble des KPI, revoir et mettre au propre les modèles de données avec la création d'un dictionnaire de données issue de notre Data Catalog , accompagner le PO dans les échanges autour de la DATA avec les BU et traiter la dette technique et sujets demandés par les équipes transverses et Product Manager. Les missions attendues par le Data Engineer (H/F) : Collecte et préparation des données : Identifier, collecter et agréger les données pertinentes issues de diverses sources (logs applicatifs, bases de données transactionnelles, données partenaires). Modélisation et développement : Concevoir et construire des flux de données (ETL/ELT) optimisés pour le traitement de gros volumes de données. Industrialisation : Mettre en production des scripts et modèles d'analyse de données, en assurer la maintenance et garantir leur bon fonctionnement. Data Analyse et Visualisation : Traduire les besoins métier en indicateurs de performance (KPIs). Collaboration : Travailler en étroite collaboration avec les Data Scientists pour l'intégration de modèles prédictifs, et avec les équipes métier (analystes fraude, experts assurance) pour bien comprendre les enjeux et affiner les solutions.

Mission freelance
Data Scientist GCP adtech
En quelques mots Cherry Pick est à la recherche d'un "Data Scientist" pour un client dans le secteur des medias Description 🎯 Contexte du projet L’équipe BI, Analytics & Data Science (10 personnes : Data Analysts, Data Scientists, ML Engineers) travaille en transverse pour l’ensemble des marques et métiers du groupe (abonnement, vente au numéro, régie publicitaire…). L’activité couvre un spectre large : analyses ad hoc, dashboards, projets data science et IA. La stack technologique est entièrement sur Google Cloud Platform (BigQuery, Airflow, Vertex AI). Face à la montée en charge et à des besoins spécifiques en AdTech (audience, publicité digitale, personnalisation), l’équipe recherche un Data Scientist confirmé pour renforcer ses capacités sur la fin d’année. 🛠️ Missions principales Intervenir sur des projets AdTech : audience, ciblage publicitaire, recommandations de contenu, personnalisation, pricing. Gérer des projets end-to-end : Collecte et préparation des données, Feature engineering et modélisation, Déploiement et mise en production des modèles (Vertex AI, Airflow). Développer et industrialiser des modèles de machine learning prédictif (pas de focus sur l’IA générative). Collaborer avec les équipes Data, BI, régie publicitaire et métiers internes. Produire des analyses et recommandations pour soutenir la stratégie publicitaire et marketing.
Offre d'emploi
Ingénieur.e DevOps GCP (H/F)
🌟 Quel sera ton poste ? 🌟 📍Lieu : Nantes 🏠 Télétravail : 2 jours 👉 Contexte client : Tu rejoins la DSI d’un acteur national de la grande distribution, avec un SI conséquent : plusieurs milliers de serveurs, des applications critiques et une stratégie multi-cloud. C'est dans ce contexte que tu intègres l’équipe qui pilote la plateforme GCP centrale, celle qui définit les standards techniques et façonne le futur du SI. La Landing Zone sur laquelle tu interviens est pensée pour scaler, absorber la croissance et évoluer en continu. Tu auras pour missions de : Construire et faire évoluer une Landing Zone GCP pensée pour tenir à grande échelle. Collaborer en direct avec le PO et les architectes Cloud pour faire les bons choix technique. Industrialiser et fiabiliser les déploiements (Terraform, CI/CD). Assurer le Build comme le Run dans une logique d’amélioration continu. Conseiller les équipes utilisatrices et savoir challenger leurs choix. Faire circuler les bonnes pratiques Cloud & Sécurité. Stack technique : GCP, TerraformGit, Jenkins, Python,Cloud Armor, Security Command Center, Hashicorp Vault, Datadome, Cloudflare 🌟 Pourquoi ce projet ? 🌟 Parce que tu vas travailler sur des sujets réellement innovants, là où les choix techniques engagent le long terme. Tu ne viens pas juste opérer une plateforme : tu participes à la construction d’un socle cloud de référence, en posant des standards qui seront repris par toute l’organisation.

Offre d'emploi
Consultant Cloud & Infrastructure -Charenton (H/F)
🎯Objectif global Intégrer une équipe de Production Applicative dédiée aux Paiements, afin de renforcer les activités liées à la gestion, la sécurisation et la performance des plateformes Cloud publiques. ⚙️ Contexte de la mission Vous interviendrez au sein d’un pôle stratégique où les services de paiements sont infogérés et hautement critiques. L’objectif est de garantir la continuité de service, l’intégration technique et la conformité des solutions Cloud, tout en participant activement aux projets de migration et d’industrialisation des environnements. 🧩 Vos principales missions -Prendre en charge l’intégration technique des solutions existantes et nouvelles. -Assurer le maintien en conditions opérationnelles des plateformes Cloud. -Mettre en œuvre les réponses aux audits externes et aux contrôles internes. -Participer à la mise en conformité et à la sécurité des systèmes d’information. -Gérer les projets de migration Cloud et accompagner les équipes de développement dans l’industrialisation des solutions. -Produire la documentation technique pour les équipes de production et assurer un support de niveau 3. Participer à la gestion des incidents critiques et coordonner les experts techniques. 🧠 Compétences techniques impératives Maîtrise Azure CLI et Azure PowerShell Maîtrise de Terraform Connaissance de GCP (Composer, Dataproc, BigQuery) Expérience sur les principes DevOps (Bitbucket, Jenkins, XLD, XLR) Solides compétences sur les environnements Linux / Windows / scripting Shell Bonne compréhension des architectures réseau (TCP/IP, Firewall, Proxy, etc.) Connaissance des bases de données Oracle / SQL 🧩 Compétences complémentaires appréciées Ordonnanceur Control-M, middleware MQ / CFT Connaissances en sécurité Cloud et audits SI Expérience dans des environnements paiements ou bancaires

Offre d'emploi
DATA ENGINEER SPARK / SCALA / SSAS / AZURE / DATABRICKS
Bonjour, Pour le compte de notre client, nous recherchons un data engineer SPARK / SCALA / SBT / CUBE TABULAIRE / AZURE / DATABRICKS Au sein de l'équipe data / BI, vous interviendrez sur des projets stratégiques liés à la gestion, la transformation et la valorisation de la donnée. L’objectif de la mission est d’accompagner la Direction Financière à sortir d’Excel et aller vers Power BI. Pour cela, le data eng travaillera en binôme avec un PO pour comprendre l’existant et réaliser cette bascule. Vous aurez un rôle clé dans le développement, l'optimisation et la modélisation de traitements data complexes, avec un focus particulier sur la mise en place et la maintenance de cube tabulaires. Développement et intégration Optimisation Modélisation des données Recueil et analyse des besoins Documentation et support.
Offre d'emploi
Data Engineer Snowflake DBT
Contexte L’entité Data, Technologie et Innovation est une structure opérationnelle et transverse. Elle met la technologie au service de la stratégie globale, en proposant des services aux différentes entités et en répondant aux besoins métiers. Profil recherché : Data Engineer Snowflake DBT Description de la mission Rattaché(e) au Data Office & Services nouvellement créé ainsi qu’au Centre d’Excellence (COE), le partenaire externe aura pour missions de : Concevoir et déployer des plateformes de données (Snowflake, BigQuery, Databricks). Assurer le monitoring et la gouvernance des plateformes Snowflake et DBT. Superviser et accompagner les équipes de développement. Maîtriser et optimiser les coûts (FinOps par projet fonctionnel). Automatiser l’infrastructure et les processus (Git/GitLab CI/CD). Développer des méthodes d’ingestion de données (maîtrise d’un ou plusieurs ETL et/ou scripting Python). Définir et mettre en place les bonnes pratiques ainsi que les normes de développement. Former les équipes aux outils et méthodes. Modéliser l’entrepôt de données (Kimball, Data Vault, etc.) pour intervenir sur les différents sujets de la Data Factory. Rédiger la documentation technique et fonctionnelle ainsi que les bonnes pratiques de développement. Développer et déployer des frameworks (QA, ELT, GitLab, etc.). Établir des normes et bonnes pratiques de sécurité et d’optimisation. Optimiser les coûts et mettre en œuvre des approches DataOps.

Offre d'emploi
Data Engineer GCP
Nous recherchons un Data Engineer expérimenté pour rejoindre l'équipe Enterprise Management et Finance de notre client dans le secteur du luxe, composée de d’1 PO, 3 Power BI, 1 QA et 1 Data Engineer. Cette équipe est le cœur d'une plateforme de données, responsable de l'ingestion et de la normalisation des données. Le rôle du data engineer sera de travailler sur la création, la maintenance et l'amélioration de l'infrastructure, ainsi que sur les processus CI/CD et la documentation, dans un contexte Agile SAFE. Responsabilités : • Participer à l’harmonisation des données dans notre Data Platform (DP) pour les reportings du TOP management • Assurer la qualité et la conformité des données • Travailler dans un contexte Agile SAFE pour assurer des livraisons efficaces et continues

Mission freelance
DATA ENGINEER Cloud GCP
CONTEXTE : En pleine expansion, nous souhaitons renforcer l’équipe Data par de nouvelles expertises en data engineering et aider ainsi à la mise en place de solutions Big Data dans un environnement Cloud GCP. Cette équipe est composée d’un product owner et de data engineers. Notre stack technique est principalement constituée de Python, Spark, SQL pour les traitements de données en batch, Apache Beam pour les traitements en streaming et Airflow pour l’orchestration. La stack inclut aussi les services BigQuery, Dataproc et PubSub de la Google Cloud Platform et Terraform pour la gestion de l’infrastructure. MISSIONS : Au sein de l’équipe Data et au cœur de la plateforme data, la prestation se déroulera en collaboration avec les experts métier de la donnée, les product owners, les data scientists ou encore les data managers. Cette plateforme repose sur une architecture Lakehouse construite sur la Google Cloud Plateform. En travaillant avec les autres Data Engineers de l’équipe, la prestation consistera à participer à : • La collecte et l’ingestion de différentes sources de données non homogènes • La mise en place de pipelines de traitement de données • Le développement des modèles de données • L’extraction et l’exposition des données du Lakehouse vers d’autres services • L’industrialisation des projets sur la GCP • La mise en place et la maintenance des infrastructures scalables capable de répondre aux besoins et à l’accroissement rapide du volume de données • La participation aux initiatives de gouvernance des données en assurant la qualité, la fiabilité et l’intégrité des données • La participation active aux différentes phases de grooming, cadrage et planification des tâches avec l’équipe

Offre d'emploi
Data Engineer GCP DBT LOOKER (H/F)
En tant que Data Engineer, vous intégrerez une feature team pour participer aux différents projets de développement. Pour cela vous aurez en charge : · Compréhension des besoins métiers · Conception des solutions nécessitant l’utilisation de technologies cloud & data pour répondre aux besoins métier · Déploiement, optimisation et industrialisation au quotidien des pipelines de données dans le Cloud · Travaille avec différents profils data du groupe (Data Scientist, data engineer, data architect, data analyst) · Assurer le monitoring des modèles en production · Contribuer au développement et à l’amélioration continue des outils data interne
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.