Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.

Offre d'emploi
Consultant Cloud & Infrastructure -Charenton (H/F)
🎯Objectif global Intégrer une équipe de Production Applicative dédiée aux Paiements, afin de renforcer les activités liées à la gestion, la sécurisation et la performance des plateformes Cloud publiques. ⚙️ Contexte de la mission Vous interviendrez au sein d’un pôle stratégique où les services de paiements sont infogérés et hautement critiques. L’objectif est de garantir la continuité de service, l’intégration technique et la conformité des solutions Cloud, tout en participant activement aux projets de migration et d’industrialisation des environnements. 🧩 Vos principales missions -Prendre en charge l’intégration technique des solutions existantes et nouvelles. -Assurer le maintien en conditions opérationnelles des plateformes Cloud. -Mettre en œuvre les réponses aux audits externes et aux contrôles internes. -Participer à la mise en conformité et à la sécurité des systèmes d’information. -Gérer les projets de migration Cloud et accompagner les équipes de développement dans l’industrialisation des solutions. -Produire la documentation technique pour les équipes de production et assurer un support de niveau 3. Participer à la gestion des incidents critiques et coordonner les experts techniques. 🧠 Compétences techniques impératives Maîtrise Azure CLI et Azure PowerShell Maîtrise de Terraform Connaissance de GCP (Composer, Dataproc, BigQuery) Expérience sur les principes DevOps (Bitbucket, Jenkins, XLD, XLR) Solides compétences sur les environnements Linux / Windows / scripting Shell Bonne compréhension des architectures réseau (TCP/IP, Firewall, Proxy, etc.) Connaissance des bases de données Oracle / SQL 🧩 Compétences complémentaires appréciées Ordonnanceur Control-M, middleware MQ / CFT Connaissances en sécurité Cloud et audits SI Expérience dans des environnements paiements ou bancaires

Offre d'emploi
DATA ENGINEER SPARK / SCALA / SSAS / AZURE / DATABRICKS
Bonjour, Pour le compte de notre client, nous recherchons un data engineer SPARK / SCALA / SBT / CUBE TABULAIRE / AZURE / DATABRICKS Au sein de l'équipe data / BI, vous interviendrez sur des projets stratégiques liés à la gestion, la transformation et la valorisation de la donnée. L’objectif de la mission est d’accompagner la Direction Financière à sortir d’Excel et aller vers Power BI. Pour cela, le data eng travaillera en binôme avec un PO pour comprendre l’existant et réaliser cette bascule. Vous aurez un rôle clé dans le développement, l'optimisation et la modélisation de traitements data complexes, avec un focus particulier sur la mise en place et la maintenance de cube tabulaires. Développement et intégration Optimisation Modélisation des données Recueil et analyse des besoins Documentation et support.
Offre d'emploi
Data Engineer Snowflake DBT
Contexte L’entité Data, Technologie et Innovation est une structure opérationnelle et transverse. Elle met la technologie au service de la stratégie globale, en proposant des services aux différentes entités et en répondant aux besoins métiers. Profil recherché : Data Engineer Snowflake DBT Description de la mission Rattaché(e) au Data Office & Services nouvellement créé ainsi qu’au Centre d’Excellence (COE), le partenaire externe aura pour missions de : Concevoir et déployer des plateformes de données (Snowflake, BigQuery, Databricks). Assurer le monitoring et la gouvernance des plateformes Snowflake et DBT. Superviser et accompagner les équipes de développement. Maîtriser et optimiser les coûts (FinOps par projet fonctionnel). Automatiser l’infrastructure et les processus (Git/GitLab CI/CD). Développer des méthodes d’ingestion de données (maîtrise d’un ou plusieurs ETL et/ou scripting Python). Définir et mettre en place les bonnes pratiques ainsi que les normes de développement. Former les équipes aux outils et méthodes. Modéliser l’entrepôt de données (Kimball, Data Vault, etc.) pour intervenir sur les différents sujets de la Data Factory. Rédiger la documentation technique et fonctionnelle ainsi que les bonnes pratiques de développement. Développer et déployer des frameworks (QA, ELT, GitLab, etc.). Établir des normes et bonnes pratiques de sécurité et d’optimisation. Optimiser les coûts et mettre en œuvre des approches DataOps.

Offre d'emploi
Data Engineer GCP
Nous recherchons un Data Engineer expérimenté pour rejoindre l'équipe Enterprise Management et Finance de notre client dans le secteur du luxe, composée de d’1 PO, 3 Power BI, 1 QA et 1 Data Engineer. Cette équipe est le cœur d'une plateforme de données, responsable de l'ingestion et de la normalisation des données. Le rôle du data engineer sera de travailler sur la création, la maintenance et l'amélioration de l'infrastructure, ainsi que sur les processus CI/CD et la documentation, dans un contexte Agile SAFE. Responsabilités : • Participer à l’harmonisation des données dans notre Data Platform (DP) pour les reportings du TOP management • Assurer la qualité et la conformité des données • Travailler dans un contexte Agile SAFE pour assurer des livraisons efficaces et continues

Offre d'emploi
Data Engineer GCP DBT LOOKER (H/F)
En tant que Data Engineer, vous intégrerez une feature team pour participer aux différents projets de développement. Pour cela vous aurez en charge : · Compréhension des besoins métiers · Conception des solutions nécessitant l’utilisation de technologies cloud & data pour répondre aux besoins métier · Déploiement, optimisation et industrialisation au quotidien des pipelines de données dans le Cloud · Travaille avec différents profils data du groupe (Data Scientist, data engineer, data architect, data analyst) · Assurer le monitoring des modèles en production · Contribuer au développement et à l’amélioration continue des outils data interne

Mission freelance
DATA ENGINEER Cloud GCP
CONTEXTE : En pleine expansion, nous souhaitons renforcer l’équipe Data par de nouvelles expertises en data engineering et aider ainsi à la mise en place de solutions Big Data dans un environnement Cloud GCP. Cette équipe est composée d’un product owner et de data engineers. Notre stack technique est principalement constituée de Python, Spark, SQL pour les traitements de données en batch, Apache Beam pour les traitements en streaming et Airflow pour l’orchestration. La stack inclut aussi les services BigQuery, Dataproc et PubSub de la Google Cloud Platform et Terraform pour la gestion de l’infrastructure. MISSIONS : Au sein de l’équipe Data et au cœur de la plateforme data, la prestation se déroulera en collaboration avec les experts métier de la donnée, les product owners, les data scientists ou encore les data managers. Cette plateforme repose sur une architecture Lakehouse construite sur la Google Cloud Plateform. En travaillant avec les autres Data Engineers de l’équipe, la prestation consistera à participer à : • La collecte et l’ingestion de différentes sources de données non homogènes • La mise en place de pipelines de traitement de données • Le développement des modèles de données • L’extraction et l’exposition des données du Lakehouse vers d’autres services • L’industrialisation des projets sur la GCP • La mise en place et la maintenance des infrastructures scalables capable de répondre aux besoins et à l’accroissement rapide du volume de données • La participation aux initiatives de gouvernance des données en assurant la qualité, la fiabilité et l’intégrité des données • La participation active aux différentes phases de grooming, cadrage et planification des tâches avec l’équipe

Offre d'emploi
Data Engineer Azure
Vous interviendrez en tant que Data Engineer Azure pour participer au développement, à la maintenance et à l’optimisation des flux de données et de l’architecture ELT dans un environnement international. Votre rôle Développement & Maintenance des données Participer à la conception et maintenance des objets de base de données Créer, analyser et modifier les scripts d’alimentation ou de restitution avec Python/DBT Garantir la cohérence et la fiabilité des développements ELT Maintenir et faire évoluer l’environnement DBT Optimisation & Qualité de l’architecture Veiller à minimiser la dette technique et à optimiser l’architecture existante Mettre en place de tests automatisés en collaboration avec l’équipe de test (Pologne) Mettre à jour la documentation technique Collaboration & Analyse des besoins Analyser les besoins métiers des différents projets Travailler en étroite collaboration avec les équipes data (France et Hongrie), l’équipe de test (Pologne) et l’équipe de support (Lettonie)

Mission freelance
Data Analyst GCP (H/F)
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data Analyst GCP (H/F) à Hauts-de-France, France. Les missions attendues par le Data Analyst GCP (H/F) : - Participera aux rituels agiles de l'équipe, - Analysera les besoins des utilisateurs et proposera des solutions innovantes et en phase avec les drivers de l'entreprises, - Développera les solutions data (Alimentation, stockage, modélisation, restitution), - Validera la qualité des développements de son équipe, - Améliorera et optimisera le patrimoine actuel de son équipe, - Maintiendra les solutions existantes (Run), - Contribuera à la construction du nouveau socle et des services sur la plateforme Google Cloud, - Accompagnera et acculturera les métiers sur les bonnes pratiques de l'exploitation de la Data - Réaliser les modèles sémantiques Power BI répondant aux besoins métiers

Mission freelance
DATA ENGINEER Scala/Spark
CONTEXTE L'entité a donc également un but humain en assurant la réussite des développeurs en reconversion. La mission consiste à renforcer une équipe de Data Engineers pour réaliser des projets Scala/Spark pour le compte de l’un de nos clients. MISSIONS Vous assurerez le pilotage de plusieurs projets basés majoritairement sur les technologies Python sur le périmètre de la filiale Energie. Le pilotage concerne l’ensemble des projets de cette filiale confiés à D2D. Les engagements de l’entité D2D envers la filiale sont assurés grâce à un plateau projet composé de 2 à 4 développeurs, un ops et un architecte. Description détaillée des tâches qui constituent la mission Dans le cadre de cette prestation, il est notamment demandé de réaliser les livrables décrits ci-dessous. S'agissant d'un projet mené en agilité, le découpage des livrables est réalisé par sprints. Le contenu de chaque sprint est identique, seul le détail des US (User Stories) change. A noter que ces livrables sont réalisés par l'équipe projet, il n'y a pas de responsabilité de production individuelle. Les sprints projet s'échelonnent généralement sur 2 semaines. Sur la base des 3 mois de prestation, il y aurait donc 6 sprints. Livrables n°X : Sprint n°X Lot 1 : développement des US et tests associés ; Lot 2 : Documentation projet, mapping des données, modélisation des pipelines, documents d'exploitation ; Lot 3 : Mise en place du CI/CD sur notre usine logicielle ; Lot 4 : Mise en place du monitoring ; Profil(s) le(s) plus à même de remplir la prestation (compétences requises et souhaitées) : Le profil recherché pour la mission est celui d’un chef de projet SI/Data. Une expérience significative est requise pour ce poste. Il bénéficiera d’un accompagnement du responsable de domaine / directeur de mission sur le périmètre et du responsable de l’équipe Chefs de Projets Data pour les aspects outillage et méthodologie. Ce soutien sera plus important au début de la mission, notamment pour la prise en main des outils indispensables mais peu répandus comme TimePerformance. Qualités requises - Excellent relationnel - Capacité rédactionnelle - Capacité d’adaptation et de travail en équipe - Rigueur et esprit de synthèse - Esprit d’initiative - Autonomie

Offre d'emploi
Consultant(e) Data Science Cloud GCP
Pour le compte de l’un de nos clients grands comptes, nous recherchons un(e) Consultant(e) Data Science spécialisé(e) Cloud GCP pour une mission stratégique à haute valeur ajoutée. Vous interviendrez au sein d’équipes Data sur des projets de transformation digitale, de valorisation de la donnée et d’industrialisation de modèles. Compétences techniques : Google Cloud Platform (GCP) – Maîtrise des services data (BigQuery, Dataflow, etc.) SQL – Bon niveau requis Python (atout apprécié pour les traitements de données et les modèles ML) Data Engineering / Data Science – Connaissances en modélisation et pipelines data Compétences linguistiques : Anglais courant obligatoire (oral et écrit – environnement international) Soft skills : Excellentes compétences en communication Capacité à vulgariser des problématiques techniques auprès des équipes métiers Esprit d'équipe et sens du service
Offre d'emploi
Tech Lead Data Engineer
Le Tech Lead Data Engineer aura pour missions: Assurer un leadership technique auprès des équipes de développement. Conseiller les parties prenantes et traduire les exigences stratégiques en architectures Azure et Databricks sécurisées, scalables et fiables. Participer activement aux phases de conception, développement et tests. Porter la vision technique au sein des équipes Agile. Garantir la qualité des livrables et veiller à la réduction de la dette technique. Réaliser la modélisation des données. Assurer une veille technologique et participer aux POCs. Enrichir la communauté des Data Engineers par le partage de connaissances et la promotion des bonnes pratiques.

Mission freelance
Data Engineer F/H - LILLE
Notre client, acteur majeur du secteur du Retail, renforce son équipe Data afin de soutenir sa stratégie de digitalisation et d’optimisation de l’expérience client. Dans ce cadre, nous recherchons un(e) Data Engineer passionné(e) par la donnée et désireux(se) d’évoluer dans un environnement stimulant et innovant. Missions principales : Concevoir, développer et maintenir les pipelines de données (ETL/ELT) pour collecter, transformer et valoriser les données issues de différentes sources (e-commerce, magasins, CRM, supply chain, etc.). Assurer la qualité, la fiabilité et la disponibilité des données pour les équipes métiers, Data Science et BI. Participer à la mise en place d’architectures Big Data et Cloud modernes (Data Lake, Data Warehouse). Contribuer à l’optimisation des performances des traitements de données. Collaborer avec les équipes Data Analysts, Data Scientists et métiers afin de répondre aux besoins business (optimisation de l’expérience client, prévisions de ventes, gestion des stocks…). Mettre en place des bonnes pratiques de développement, de documentation et de monitoring. Environnement technique • Cloud & Data : GCP (BigQuery, Dataform) • Orchestration : Cloud Composer • Transformation : Dataform • Observabilité : Dynatrace • Référentiel & CI/CD : GitLab, Terraform, Cloud Build • Gouvernance & Qualité : DataGalaxy • Documentation & Pilotage : Confluence, JIRA (Scrum)

Mission freelance
ARCHITECTE GENERALISTE MOVE TO CLOUD AZURE ET GCP
Au sein d'une équipe Architecture d'une Direction des Infrastructures et de la Production de l'un de nos clients, nous recherchons un(e) architecte technique généraliste qui contribuera aux activités suivantes : - Etudes techniques & Design - Cadrage budgétaire - Définition des best practices d'architecture - Documentation (DAT) - Accompagnement de la stratégie Move2Cloud - Accompagnement des équipes d'exploitation et de développement Environnement général : - Plateformes E-commerce - Plateformes BackOffice & Logistique - Cloud Public Azure & GCP - Cloud Privé (Infrastructure VMWARE Infogérée) - CDN Akamai, LoadBalancing BigIP F5, Firewalling (Checkpoint & Fortinet) - Bases de données MS SQL Server, PostgreSQL, MySQL, IBM DB2, Oracle - Big Data Hadoop, Terradata, MapR, BigQuery, DataBricks - Conteneurisation Docker & Orchestration AKS - Progiciels SAP, Siebel, HRAccess

Mission freelance
Data Engineer / Développeur Data (Azure / Spark / Observabilité) H/F
Contexte de la mission Vous intégrerez une équipe data transverse au sein d’un grand groupe international du secteur du luxe et de la cosmétique, actuellement en pleine modernisation de sa plateforme data. L’objectif : industrialiser et fiabiliser la chaîne de traitement des données dans un environnement cloud Azure, tout en renforçant les volets observabilité, performance et qualité. L’équipe (8 à 10 personnes) est composée de data engineers, data analysts, product owners et DevOps. Le cadre de travail est international, agile et collaboratif, avec une forte culture de la qualité, de la rigueur technique et du partage de connaissances. Missions principales Concevoir, développer et maintenir des pipelines data robustes et scalables sous Azure Databricks et PySpark. Participer à la refonte du Data Lake / Lakehouse (Delta Lake – architecture medaillon : bronze, silver, gold). Mettre en place des mécanismes d’observabilité pour suivre la performance, la fiabilité et la qualité des données : logs, métriques, alertes, dashboards. Automatiser et industrialiser les déploiements via CI/CD (GitHub Actions ou Azure DevOps). Collaborer avec les équipes produit et data science pour assurer la cohérence fonctionnelle et technique des flux. Améliorer la data quality et la traçabilité (lineage, monitoring, règles de validation). Participer aux revues de code, à la documentation technique et à la diffusion des bonnes pratiques. Environnement technique Cloud : Azure (Data Lake, Data Factory, Databricks, Synapse, Functions, Event Hub, DevOps) Langages : Python, PySpark, SQL (et idéalement Scala) Orchestration / ETL : Airflow, ADF, Spark Structured Streaming Observabilité : Grafana, ELK Stack (Elasticsearch / Logstash / Kibana), Azure Log Analytics Data Lakehouse : Delta Lake, Unity Catalog, Medallion Architecture CI/CD & DevOps : GitHub Actions / Azure DevOps, Terraform, Docker, Kubernetes

Mission freelance
ARCHITECTE TECHNIQUE ON PREMISE & CLOUD AZURE ET GCP
Nous recherchons plusieurs Architectes Technique OnPrem & Cloud pour une mission longue chez l'un de nos clients. Niveau expérimenté à senior requis. CONTEXTE DE LA MISSION Au sein de l'équipe Architecture de la Direction des Infrastructures et de la Production du groupe, le consultant contribuera aux activités : - Etudes techniques & Design - Cadrage budgétaire - Définition des best practices d'architecture - Documentation - Accompagnement de la stratégie Move2Cloud - Co-construction des solutions - Accompagnement des équipes d'exploitation et de développement Environnement général - Plateformes E-commerce - Plateformes BackOffice & Logistique - Cloud Public Azure & GCP - Cloud Privé (Infrastructure VMWARE Infogérée) - CDN Akamai, LoadBalancing BigIP F5, Firewalling (Checkpoint & Fortinet) - Bases de données MS SQL Server, PostgreSQL, MySQL, IBM DB2, Oracle - Big Data Hadoop, Terradata, MapR, BigQuery, DataBricks - Conteneurisation Docker & Orchestration AKS - Progiciels SAP, Siebel, HRAccess DESCRIPTION DE LA MISSION - Etude des besoins issus des équipes de développement - Etude de l'évolution des composants de plateformes techniques ou de l'intégration de nouveaux services - Rédaction des documents d'architecture et d'intégration générale et détaillée - Rédaction des supports d'aide à l'exploitation et accompagnement des équipes d'exploitation durant la transition - Contribution à l'évaluation budgétaire des solutions mises en œuvre - Support N3 des équipes d'exploitation Démarrage souhaité : au plus tôt Durée de la mission : Longue Paris
Mission freelance
Expert sécurité opérationnelle cloud GCP/ IAM GCP/ SECURITE, RESEAUX/ TERRAFORM/ PYTHON (H/F)
Nous recherchons pour le compte de notre client dans le domaine bancaire un expert sécurité GCP afin de les accompagner dans l'évaluation, la mise en œuvre et l'optimisation de leurs pratiques de sécurité Description détaillée : Évaluer l'architecture de sécurité actuelle sur GCP et particulièrement sur les architectures projet de type data Qualifier et étudier les évolutions de services GCP de type Private Service Connect et être en mesure de proposer des solutions si des problèmes sécurité sont remontées Identifier les vulnérabilités et les risques à l’utilisation des services GCP (Vertex AI, Worflow, Dataflow, Apigee, GKE, Composer, …) et proposer des recommandations sécurité Mettre en place des contrôles de sécurité dans les outils de type CSMP Accompagner l'équipe interne projets et transverses dans la mise en œuvre des recommandations. Définition du profil : Mise en application de la Politique de Sécurité. Contrôle de la Politique de Sécurité, notamment par des Contrôles Périodiques de Niveau 1 Valide et instruit les dérogations contrevenant à la Politique de Sécurité. Maintien en Conditions Opérationnelles des Infrastructures de Sécurité (supervision, prise en charge et résolution des incidents/problèmes, installation et configuration) Participation aux audits (internes / externes) Mise en applications des recommandations d'audit et des demandes de remise en conformité Rédaction de guides et standards de sécurité Donne son avis pour l'implémentation des solutions de sécurité Proposition de solutions innovantes pour améliorer la sécurité, la qualité, les performances et les coûts d'exploitation Assure la veille technologique
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.