L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 478 résultats.
Offre d'emploi
Data Engineer (3+ ans d'exp)
WINSIDE Technology
Publiée le
API
DBT
Google Cloud Platform (GCP)
1 an
43k-57k €
360-500 €
Lille, Hauts-de-France
Bonjour et merci d'avoir cliqué sur cette offre 😊 Nous recherchons un.e Data Engineer pour une grande entreprise française sur Lille ! 🚀 Ce poste est fait pour toi si : tu as 3 ans d'expérience professionnelle à minima en tant que Data Engineer. tu as 2 ans d'expérience professionnelle à minima en dbt, Snowflake ET Semarchy. Missions : Concevoir et développer des pipelines pour l’ingestion et la transformation des données. Assurer la qualité, la cohérence et la sécurité des données dans les systèmes. Optimiser les performances des bases de données et des flux de données. Collaborer avec les Data Scientists, Analystes et équipes métiers pour comprendre les besoins et fournir des solutions adaptées. Mettre en place des outils de monitoring et de gouvernance des données. Garantir la conformité aux normes RGPD et aux politiques internes de sécurité. Les petits plus du candidat idéale : Connaissances IPAAS Familiarité avec les outils de workflow (Airflow, PubSub). Connaissance développement IA (Python, RAG...) Connaissance GCP (Cloud Provider, nous n'avons pas de Big Query) Démarrage : rapide. TT : 1 jour par semaine. Durée : longue. Localisation : métropole lilloise. 👉 Tu as envie d’un nouveau défi, entouré(e), valorisé(e), écouté(e) ? Postule et parlons-en. Même si ce n’est pas pour cette mission, on trouvera peut-être celle qui te correspond parfaitement. Les étapes à venir après avoir postulé : nous étudierons ta candidature avec attention. si elle nous intéresse, tu recevras un appel pour un premier échange de préqualification. On t’enverra un mail si on n’arrivera pas à te joindre. Si elle ne nous intéressera pas (ça sera certainement pour une autre mission 😉), on t’enverra un mail. Merci de ton attention et à très vite pour une aventure épanouissante chez Winside 🙂 ---------- Winside, en bref ? Winside Technology est un pure player Tech, basé à Paris, Lyon, Lille, Bordeaux, Nantes et au Maroc. Crée en 2020, l’entreprise compte plus de 250 consultants, accompagne plus de 50 clients grands comptes et a réalisé 30M€ de chiffre d’affaires en 2024. Notre ADN repose sur l’expertise, la qualité, la proximité et l’esprit d’équipe. Au-delà des missions, nous cultivons une vraie communauté : événements techniques, moments conviviaux, partage de connaissances et ambition collective. Ce que tu trouveras chez Winside en CDI… Une communauté d’experts diversifiés ( Craft, Core, Risk & Security etc) Une entreprise en pleine croissance, qui valorise l’initiative et la créativité. Un parcours de formation personnalisé et de vraies perspectives d’évolution. Une vie d’entreprise rythmée par des événements techniques et conviviaux. Des avantages concrets : primes vacances, mutuelle prise en charge à 100 %, frais mobilité, système de cooptation qui impacte ta rémunération sur le long terme. Tu te reconnais ? Alors, tu es fait.e pour nous rejoindre ! Viens échanger avec nous 😉
Mission freelance
IoT Cybersecurity Engineer
Groupe Aptenia
Publiée le
Cybersécurité
IoT
6 mois
400-580 €
Suisse
Sécuriser et durcir des systèmes Embedded Linux utilisés dans des produits industriels/énergétiques. Mettre en œuvre et piloter les standards de sécurité : ISO 27001 IEC 62443 ou référentiels industriels équivalents. Réaliser des analyses de vulnérabilités et la gestion des risques IoT. Conduire des tests de sécurité sur les équipements et plateformes IoT. Intégrer la sécurité dans le cycle de développement avec les équipes DevSecOps . Collaborer avec les architectes IoT pour intégrer les exigences sécurité dès la conception produit. Définir et promouvoir des pratiques secure-by-default : rédaction de standards, animation d’ateliers, accompagnement des équipes IT & Engineering.
Mission freelance
Azure Platform Engineer – Data & Analytics
Codezys
Publiée le
Ansible
Azure
Azure Data Factory
6 mois
370-460 €
Paris, France
Contexte de la mission Cette équipe est responsable de la conception, du déploiement et de la maintenance d'une plateforme data cloud utilisée à l’échelle du groupe. Cette plateforme doit répondre à des enjeux majeurs tels que : la scalabilité la gouvernance la sécurité la performance Actuellement, l’environnement est principalement orienté vers Azure, avec une interopérabilité multi-cloud envisageable. Objectifs et livrables Infrastructure & Cloud (Azure) Développement et maintenance d’infrastructures en utilisant Terraform, Bicep et ARM Déploiement et gestion des ressources Azure : Azure Data Lake Storage (ADLS Gen2) Azure Storage (Blob) Azure Virtual Network, NSG, Private Endpoints Gestion des environnements cloud (DEV, TEST, PROD) Data Platform Administration et exploitation d’un Data Lake Azure Gestion des accès, de la gouvernance et de la sécurité des données : Azure AD / RBAC Politiques / Purview pour la gouvernance data Optimisation des performances et des coûts CI/CD & Automatisation Conception et maintenance de pipelines CI/CD avec Azure DevOps et GitHub Actions Automatisation des déploiements (infrastructure, données et services) Développement & APIs Création de microservices en Python Développement de REST APIs et architectures événementielles Intégration avec les services Azure tels que Functions et Event Hub Containers & Orchestration Déploiement de services containerisés via : Azure Kubernetes Service (AKS) Azure Container Apps / Azure Container Instances Monitoring & Fiabilité Mise en place de solutions de supervision telles que Azure Monitor, Log Analytics et Application Insights Suivi de la performance et de la disponibilité des services Collaboration Rédaction de documentation technique Interaction avec les équipes data, développement et métier Participation aux cérémonies Agile
Offre d'emploi
Network Security Engineer
LEVUP
Publiée le
Cisco
12 mois
Bruxelles, Bruxelles-Capitale, Belgique
La mission s'effectuera à Bruxelles avec un présence obligatoire sur site de 50%. Nous recherchons un Network Security Engineer Senior capable d’assurer un rôle clé au sein de l’équipe sécurité réseau. Le poste s’inscrit dans un environnement opérationnel exigeant, avec une forte composante run, expertise technique avancée et accompagnement d’une équipe composée majoritairement de profils juniors. Le candidat devra jouer un rôle de référent technique et de mentor, tout en contribuant activement aux activités opérationnelles et aux projets de transformation réseau et sécurité. Missions principales Sécurité réseau opérationnelle (RUN) Assurer l’exploitation et le maintien en conditions opérationnelles des infrastructures de sécurité réseau Gérer les incidents de sécurité réseau (analyse, diagnostic, remédiation) Administrer et optimiser les politiques de sécurité Participer au traitement des demandes de changements (firewall rules, flux applicatifs, ouvertures réseau) Garantir la disponibilité, la performance et la sécurité des infrastructures Expertise réseau & sécurité Administration avancée des environnements : Switching & Routing (L2/L3) Segmentation réseau Firewalling (principalement Cisco) VPN, NAT, filtrage, ACL Analyse de flux réseau et troubleshooting complexe Contribution aux architectures sécurisées Rôle Senior / Encadrement technique Encadrer techniquement une équipe d’ingénieurs juniors Apporter du coaching technique et partager les bonnes pratiques Participer à la montée en compétences de l’équipe Servir de point d’escalade technique (niveau expert) Structurer et améliorer les procédures opérationnelles Projets & Transformation Participer aux projets de transformation réseau et sécurité Contribuer aux évolutions d’architecture Standardiser et industrialiser les pratiques Participer aux choix techniques et recommandations Environnement technique (indicatif) Constructeur principal : Cisco Switching / Routing Cisco Firewalls Cisco (ASA / Firepower ou équivalent) Protocoles : BGP, OSPF, VLAN, VPN IPsec/SSL Environnements datacenter et/ou hybrides Outils de supervision et monitoring réseau Profil recherchéExpérience 7 à 10 ans d’expérience minimum en réseau & sécurité Expérience significative en sécurité réseau opérationnelle Expérience en rôle senior ou référent technique indispensable Expérience d’accompagnement ou mentoring d’ingénieurs juniors Compétences techniques Excellente maîtrise : Switching & Routing Firewalling enterprise Troubleshooting avancé réseau Solide compréhension des architectures sécurisées Forte expertise Cisco appréciée Soft skills Leadership technique naturel Capacité à vulgariser et transmettre Esprit d’équipe et posture de mentor Autonomie et prise d’initiative Capacité à gérer les priorités opérationnelles Objectifs du poste Assurer la continuité du rôle senior au sein de l’équipe Élever le niveau technique global de l’équipe Sécuriser et stabiliser les opérations réseau Accompagner la transformation des infrastructures réseau et sécurité
Mission freelance
AWS Platform Engineer remote (H/F)
STHREE SAS
Publiée le
36 mois
Suresnes, Île-de-France
Contexte Dans le cadre d'une stratégie de résilience de plateforme, nous recherchons un(e) Platform Engineer chargé(e) de concevoir et piloter la mise en place d'une capacité de Disaster Recovery en mode Warm Pilot . Ce rôle s'exerce au sein d'un environnement cloud critique, soumis à de fortes exigences en matière de disponibilité, de fiabilité, de sécurité, d'automatisation et d'excellence opérationnelle. Le poste combine implémentation technique et vision architecturale solide. Le rôle peut se faire en full remote. Mission Le/La Platform Engineer sera responsable de définir, concevoir et implémenter les composants techniques nécessaires à une stratégie de Disaster Recovery Warm Pilot sur AWS. La solution devra être automatisée, testable, sécurisée, exploitable et alignée avec les standards et pratiques d'ingénierie existants. Responsabilités principales Revoir et challenger l'architecture cible de Disaster Recovery Warm Pilot pour les charges de travail cloud critiques. Revoir et challenger les patterns techniques liés au failover, failback, réplication, synchronisation et orchestration de reprise. Traduire les exigences de résilience et de reprise en solutions techniques robustes, pragmatiques et évolutives. Implémenter l'infrastructure et les composants DR via l'Infrastructure as Code et les principes GitOps. Collaborer avec les équipes plateforme, infrastructure, sécurité et applications pour garantir la cohérence de bout en bout. Définir et documenter les procédures de failover, failback, validation de reprise et tests de DR. Identifier les risques techniques, dépendances, points de défaillance uniques et lacunes opérationnelles. Technologies / Environnement AWS Cloud ArgoCD GitLab Terragrunt Profil recherché Platform Engineer disposant de compétences en architecture et design acquises par l'expérience. Solide expérience dans l'exploitation de plateformes de production basées sur AWS. Maîtrise de l'Infrastructure as Code, de l'automatisation et de la standardisation des déploiements. Très bonne compréhension de la résilience, haute disponibilité, disaster recovery et opérations de production. Capacité à concevoir des solutions robustes, simples, maintenables et testables. Aisance pour collaborer avec plusieurs équipes et domaines techniques. Sens du détail et qualité élevée des livrables, y compris de la documentation.
Mission freelance
101684/Data Engineer Data de Google (Google Tag Management, Looker Studio et BigQuery) NANTES
WorldWide People
Publiée le
Google Tag Manager
9 mois
400-440 €
Nantes, Pays de la Loire
Data Engineer Data de Google (Google Tag Management, Looker Studio et BigQuery) NANTES Mission dans le secteur de l'assurance qui consiste à intervenir sur la suite Data de Google (Google Tag Management, Looker Studio et BigQuery) pour optimiser l'exploitation des données dans un environnement agile (SAFe). La mission a lieu à Niort et ne peut pas être réalisée en distancielle mais permet 3 jours de télétravail. Activités confiées : - Collaborer avec l'équipe sur la définition des objectifs et KPI’s pour la mesure des fonctionnalités. - Accompagner la définition des besoins en tracking. - Recetter les données en phase de test des fonctionnalités. - Recetter les données après la mise en production des fonctionnalités. - Préparer et ingérer des données dans BigQuery (en Node JS). - Mettre à disposition des données fiabilisées dans Looker Studio. - Participer à l'analyse des données produites et en tirer des enseignements. - Optimisation et amélioration continue : - Veiller au bon fonctionnement de l'ingestion quotidienne des données et appliquer des correctifs si nécessaire. - Ingérer de nouvelles sources de données nécessaires au monitoring global des KPI’s du train. - Gérer et optimiser les processus existants. - Analyse et communication : - Participer à l'analyse des données issues des monitoring pour en tirer des enseignements. - Participer à l'amélioration continue des tracking, des processus ou du fonctionnement de l'équipe. - Communiquer avec les autres corps de métier (PO, UX, testeurs, architectes, développeurs) dans la construction des features. La mission nécessite que le data Engineer soit autonome sur les technologies suivantes : - Script shell. - Python. - BigQuery. - JavaScript. - Piano Analytics (à créer à la place d'Adobe Analytics). - Looker Studio. - Google Tag Manager.
Mission freelance
Data Engineer - Lille
ICSIS
Publiée le
Apache Kafka
CI/CD
DBT
2 ans
400-500 €
Lille, Hauts-de-France
La mission consiste à : - Exposer les données utiles à l’entreprise pour les analyser et les utiliser afin d’améliorer l’expérience utilisateur et la productivité - Transformer des données issues du DataLake afin de les normaliser - Modéliser la sphère de données - Développer les flux - Exposer des données brutes et/ou agrégées au bon niveau de granularité aux différents métiers de l’entreprise - Travailler en lien avec des Data Scientists sur les données qu’il aura exposées - Mettre en place des rapports de Dataviz - Mission basée en métropole lilloise avec présence sur site 3j/semaine obligatoire Compétences demandées : - Formation supérieure en école d’ingénieur, école d’informatique ou Master spécialisé dans la Data Science - Première expérience en Data Engineering indispensable - Snowflake, GCP, BigQuery, DBT, SQL, Semarchy, Airflow, Python ... - Excellents savoir-être : rigueur, esprit analytique et de synthèse, communication... - Méthode Agile - Anglais
Offre d'emploi
Data Engineer Big Data
KLETA
Publiée le
Apache Kafka
Apache Spark
ELK
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Data Engineer Big Data pour concevoir et industrialiser des plateformes de traitement de données à grande échelle. Vous analyserez des architectures existantes, proposerez des trajectoires d’évolution (modernisation des pipelines, optimisation des traitements distribués, passage vers des architectures plus scalables et temps réel) et guiderez leur mise en œuvre avec Spark, Kafka et les écosystèmes Big Data. Vous serez responsable de la refactorisation et de l’optimisation des pipelines de données, de l’amélioration des performances et de l’intégration de mécanismes de fiabilité et d’observabilité des flux. Vous travaillerez main dans la main avec les équipes Cloud et DevOps pour adapter les traitements aux pipelines CI/CD et aux contraintes d’exploitation. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes client sur les meilleures pratiques de data engineering et d’industrialisation. Votre mission combinera expertise technique, rigueur méthodologique et capacité à structurer des solutions pérennes.
Mission freelance
Mission freelance - Data / AI Engineer Snowflake - Toulouse
KUBE Partners S.L. / Pixie Services
Publiée le
Apache Airflow
Apache Spark
Python
1 an
300-480 €
Toulouse, Occitanie
Vos missions : Collaborer avec le métier pour concevoir des transformations data / AI pertinentes pour le business, Industrialiser et gérer des pipelines de traitement de données en production, Contribuer à l’implémentation d’évolutions des plateformes data de nos clients, Accompagnement du métier dans le cadrage et le delivery de leurs cas d’usage data Être force de proposition auprès du client dans l’évolution de sa plateforme data Participation éventuelle à des avant-ventes afin d’aider à la conception de solutions techniques pour nos futurs clients Qualifications ? Vos atouts pour nous rejoindre : Cloud Data / IA Platform : Snowflake Orchestrateur : Airflow Framework de calcul distribué : Spark Langage : Python, PySpark, Scala, Java Infrastructure As Code : Terraform CI/CD : GitlabCI, Jenkins Containers : Docker, Kubernetes Versioning : Git
Mission freelance
INGÉNIEUR CLOUD PLATFORM GCP : TERRAFORM, GCP
SKILL EXPERT
Publiée le
CI/CD
DAT
Docker
48 mois
650-700 €
Paris, France
Descriptif de la mission : Mission : Ingénieur Cloud Platform GCP Quel est le contexte ? L'entreprise fait évoluer continuellement son infrastructure Cloud pour supporter des volumes de transactions croissants et répondre aux exigences de sécurité bancaire. Le département Infrastructure gère des programmes stratégiques de migration et de modernisation (Containerisation, Serverless, IaC). L'entreprise recherche un Ingénieur Cloud GCP expert, capable de concevoir, déployer et maintenir des environnements hautement sécurisés tout en assurant un reporting technique précis auprès de la direction. COMPÉTENCES EXIGÉES TERRAFORM Confirmé GCP Confirmé KUBERNETES Confirmé GOOGLE CLOUD PLATFORM Confirmé
Offre d'emploi
Data Engineer - Semarchy xDI (H/F)
Degetel
Publiée le
ETL (Extract-transform-load)
PowerBI
Sap BO
Strasbourg, Grand Est
💼 À propos de l’entreprise Créée en 2008, Technology & Strategy est une société de conseil franco-allemande qui accompagne ses clients sur des projets d’engineering, de digital et de consulting. Avec plus de 3 500 collaborateurs , répartis dans 27 agences et plus de 10 pays , nous évoluons dans un environnement international 🌍 Ce qui fait notre force : Une expertise technique reconnue Des valeurs fortes : Respect, Partage, Initiative, Excellence Une vraie diversité avec plus de 45 nationalités Des équipes engagées, communicantes et solidaires Un accompagnement clair pour faire évoluer votre parcours Un environnement de travail certifié #HappyAtWork Des projets innovants, concrets et à impact 💼 À propos du poste – Data Engineer (H/F) – Strasbourg Dans le cadre de nouveaux projets data, nous recherchons un Data Engineer pour rejoindre notre équipe strasbourgeoise et intervenir sur des projets dans le domaine bancaire . Vous évoluerez dans un contexte orienté data décisionnelle / BI , avec des enjeux forts autour de l’intégration, de la structuration et de la valorisation des données. 🛠️ Vos missions Concevoir, développer et maintenir des flux d’intégration de données ( ETL / ELT ) Intervenir sur des outils d’intégration, idéalement Semarchy xDI (ex-Stambia) Participer à la modélisation des systèmes décisionnels Travailler sur les bases de données et rédiger des requêtes SQL performantes Contribuer à l’alimentation et à l’exploitation des outils de Business Intelligence Collaborer étroitement avec les équipes data, BI et métiers Garantir la qualité, la fiabilité et la performance des données 🚀
Mission freelance
ALSL - Expert Data Engineer GCP — Tilt Airflow / Composer
Pickmeup
Publiée le
Apache Airflow
BigQuery
Composer
3 mois
550-700 €
Paris, France
Un client migre sa dataplateforme legacy vers un socle full GCP. L'architecture et le plan sont validés. On recherche un experts polyvalents, moteurs de la migration, pas des exécutants. Vous portez plus spécifiquement l'orchestration du projet. Contexte : Vous rejoignez le pôle plateforme data (5 pôles au total) en binôme avec un autre Data Engineer GCP expert. Vous êtes tous les deux capables de tout couvrir, vous tirez l'équipe, vous posez les standards. Missions - Piloter la migration de l'orchestration vers Cloud Composer 2. - Nettoyer, rationaliser, porter les DAG existants, industrialiser les standards (CI/CD, tests, observabilité). - Orchestrer le cut-over legacy → cible sans double run. - Contribuer à la migration des pipelines BigQuery et à l'IaC Terraform du socle. - Transmettre à l'équipe interne au fil de l'eau. Stack (maîtrise attendue sur l'ensemble) Airflow 2.x, Cloud Composer 2, Python, BigQuery, Terraform, GCS, IAM GCP, Git, CI/CD. Exposure Dataplex, Mulesoft, Fivetran, dbt.
Offre d'emploi
Plateform Engineer Kubernetes F/H
Les Filles et les Garçons de la Tech
Publiée le
DevOps
DevSecOps
Helm
55k-68k €
Île-de-France, France
Envie de donner de l’impact à votre expertise technique au sein d’une entreprise engagée ? Les Filles & les Garçons de la Tech recrutent un(e) Plateform engineer Kubernetes pour rejoindre leur équipe. Au quotidien, vous accompagnerez nos clients sur les missions suivantes : Concevoir et mettre en œuvre des architectures Kubernetes adaptées aux enjeux des projets Accompagner la migration d’applications vers Kubernetes et l’adoption des pratiques cloud-native Assurer l’ exploitation et l’optimisation des clusters (scalabilité, scheduling, gestion des ressources, politiques réseau) Contribuer à la sécurité des environnements Kubernetes (RBAC, gestion des secrets, politiques de sécurité) Industrialiser les déploiements via Helm, Kustomize et des approches GitOps (ArgoCD, FluxCD) Participer aux choix d’outils et à la veille technologique autour de l’écosystème Kubernetes Jouer un rôle de référent technique , en accompagnant et en challengeant les équipes DevOps et SRE
Mission freelance
Platform Engineer Kubernetes expert
Codezys
Publiée le
API REST
ELK
Grafana
12 mois
Le Mans, Pays de la Loire
Dans le cadre de l'appel d'offres, le prestataire sera chargé de diverses missions essentielles pour assurer la performance, la stabilité et l'évolution de la plateforme XXX. Ces missions se structurent autour des axes suivants : Développement et tests Le prestataire devra réaliser des analyses d'impacts approfondies ainsi que des maintenances correctives et évolutives. Ces activités concerneront principalement : Les pipelines de déploiement, afin de garantir leur robustesse et leur adaptabilité aux nouvelles exigences. L'outillage interne, pour assurer une intégration fluide et efficace des processus de développement. L'outillage de templating Kubernetes, indispensable à la gestion automatisée et à la standardisation des déploiements. La fabrication d'images, en veillant à leur conformité, leur performance et leur sécurité. Support aux utilisateurs de la plateforme Le prestataire devra accompagner et soutenir les utilisateurs de la plateforme XXX, notamment : Les développeurs, responsables d'environnement et autres acteurs techniques. Les équipes de support middleware, en fournissant une assistance technique adaptée et en facilitant la résolution des problématiques rencontrées. Support à la production Il s'agira d'assurer un support de haut niveau, comprenant : Une analyse approfondie et un support de niveau 3 lors d'incidents critiques, avec la possibilité de participer à des cellules de crise pour une résolution rapide et efficace. La gestion d'astreintes ponctuelles en dehors des horaires de bureau afin d'assurer la disponibilité continue de la plateforme en cas d'incidents ou de besoins urgents. Étude de sujet Le prestataire devra être capable de prendre en charge un sujet donné, en réaliser l'étude approfondie, expérimenter, proposer des solutions, mesurer leur efficacité et enfin capitaliser sur les résultats en présentant ses conclusions aux équipes concernées. Intégration produit En complément, le prestataire participera aux travaux d’intégration technique de solutions déjà existantes, telles que : Les progiciels, solutions techniques du marché ou autres composants logiciels pré-équipés. Ces intégrations devront respecter les compatibilités avec l’écosystème de la plateforme XXX, tout en garantissant leur performance et leur stabilité.
Offre d'emploi
Data Visualisation Engineer (PowerBI, Tableau, QlikSense, Huwise)
ONSPARK
Publiée le
Microsoft Power BI
Qlik Sense
4 ans
Paris, France
Contexte OnSpark est un cabinet spécialisé dans la GMAO/EAM et l'intégration SI, en forte croissance (40 collaborateurs, CA 3,3 M€). Dans le cadre de la diversification de son offre vers la Data et l'Intelligence Artificielle, nous recherchons un Data Visualisation Engineer pour accompagner nos clients grands comptes. Vous contribuerez à valoriser des données à fort enjeu en les rendant lisibles et accessibles à des publics variés, des équipes internes aux partenaires institutionnels. Responsabilités Concevoir et développer des tableaux de bord et rapports interactifs Recueillir et formaliser les besoins des utilisateurs métier Assurer la fiabilité et la performance des restitutions Former et accompagner les utilisateurs sur les outils de dataviz Participer à la gouvernance des rapports et des indicateurs
Mission freelance
ALSL - Expert Data Engineer GCP — Tilt Migration data
Pickmeup
Publiée le
Apache Airflow
Google Cloud Platform (GCP)
IAM
3 mois
550-700 €
Paris, France
Expert Data Engineer GCP — Tilt Migration data Migration d'une dataplateforme legacy vers un socle full GCP pour un client. Vous portez spécifiquement la migration des pipelines, modèles et traitements data. Contexte plateforme data en binôme avec un autre expert GCP. Même niveau d'exigence, même capacité à tout couvrir, un partage des référents. Missions - Porter pipelines et modèles data legacy sur BigQuery / Dataplex, avec tests de parité et non-régression. - Arbitrer les politiques de partitioning, clustering, coûts BigQuery. - Écrire et compléter les modules Terraform du socle. - Contribuer aux DAG Composer et au cut-over sans double run. - Poser et transmettre les standards qualité data (fraîcheur, volumes, tests). Stack (maîtrise attendue sur l'ensemble) BigQuery, SQL avancé, Python, Terraform, GCS, IAM GCP, Airflow / Composer, Git, CI/CD. Exposure Dataplex, Mulesoft, Fivetran, dbt.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Renégo TJM : de 600€ à 800€ après 3 mois réaliste ?
- Mission à 600 km de chez moi - Frais de double résidence
- Réforme de l’assiette sociale
- Nouveau volet social dans la déclaration d'impôts sur le revenu
- Recherche par mot clef KO ...
- 🚀 À la recherche d’une opportunité en IT – Disponible immédiatement
478 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois