Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 2 431 résultats.
CDI
Freelance

Offre d'emploi
Expert Cloud AWS GCP S3NS

Ela Technology
Publiée le
AWS Cloud
Google Cloud Platform (GCP)
S3NS

1 an
40k-45k €
500-550 €
Lyon, Auvergne-Rhône-Alpes
Dans le cadre de projets stratégiques de transformation cloud, nous recherchons un Expert Cloud confirmé maîtrisant AWS, GCP et S3NS , capable d’intervenir sur des environnements complexes et à forts enjeux. Vos missions1. Architecture & Stratégie de Migration Cloud Accompagner la migration , l’extension ou la création de nouvelles applications sur le cloud public. Réaliser des études comparatives de scénarios : Cloud Public, SaaS ou Retain (non‑migration). Sélectionner les services cloud les plus pertinents en analysant les gains et impacts. Analyser les impacts sur le RUN et le BUILD : performance, observabilité et exploitation. Animer des workshops de cadrage et de recueil des besoins. Concevoir des architectures cloud multi‑niveaux : Intégration au SI Architecture réseau HLD / LLD Piloter des migrations de région cloud. 2. Acculturation Cloud & Amélioration Continue Apporter une expertise cloud transverse auprès des équipes internes et des partenaires du projet. Diffuser les bonnes pratiques cloud via des actions de sensibilisation et d’animation. Participer activement à la communauté cloud du périmètre.
Freelance
CDI

Offre d'emploi
Consultant Data Governance & Data Migration (H/F)

Deodis
Publiée le
Data governance
Data Lake

1 an
38k-50k €
430-600 €
Île-de-France, France
En tant que Consultant Data spécialisé en gouvernance et migration, vous intervenez au cœur d’un programme stratégique de transformation visant à structurer, fiabiliser et harmoniser les flux de données dans un environnement complexe. Intégré(e) au Data Office, vous jouez un rôle clé dans la définition des besoins métiers, la conception des flux de données et le pilotage des livraisons, tout en garantissant la qualité, la traçabilité et la conformité des données. À ce titre, vous animez des ateliers avec les équipes métiers et IT afin de recueillir et formaliser les besoins data, réalisez des analyses d’écart entre les systèmes existants et les solutions cibles, et concevez les data lineage de bout en bout. Vous participez activement aux ateliers de conception fonctionnelle et technique, en apportant votre expertise sur les enjeux de gouvernance, de qualité et d’architecture des données. Vous êtes également en charge du pilotage de la roadmap data, en assurant le suivi des livraisons, l’identification des dépendances critiques et la gestion des risques. Vous maintenez un backlog structuré, suivez les indicateurs de performance et contribuez à la mise en place des standards de gouvernance et de qualité définis par le Data Office. Enfin, vous agissez comme référent sur votre périmètre, en accompagnant les équipes dans l’adoption des bonnes pratiques, en produisant une documentation de qualité (data dictionaries, processus, cartographies de flux) et en contribuant aux actions de change management dans un contexte de transformation à grande échelle.
Freelance

Mission freelance
Ingénieur Cloud AWS – Migration & Exploitation (H/F)

Amontech
Publiée le
AWS Cloud
Oracle
SQL

6 mois
Île-de-France, France
Contexte : Dans le cadre du renforcement de ses équipes IT, une structure reconnue dans le secteur de l'aéronautique recherche 2 Ingénieurs Cloud AWS pour intervenir sur des projets à forte valeur ajoutée autour de la migration et de l’exploitation des environnements. Le poste s’inscrit dans une logique de collaboration long terme avec perspective d’intégration client . Missions : Participation à des projets de migration vers des environnements Cloud AWS Contribution aux activités de RUN / MCO / exploitation Suivi et optimisation des performances des environnements Support technique et résolution d’incidents Collaboration avec les équipes projet et infrastructure Environnement technique : AWS Bases de données (Oracle ou SQL Server) Environnements de production et d’exploitation
CDI
Freelance

Offre d'emploi
Data Engineer/Architecte

OBJECTWARE
Publiée le
Apache Spark
AWS Cloud
DBT

3 ans
41k-91k €
400-710 €
Île-de-France, France
Missions principales Conception et optimisation de pipelines de données à grande échelle (batch, streaming, API) Structuration des données selon le modèle Médaillon (Bronze / Silver / Gold) Développement et industrialisation via DBT, Spark et Iceberg Orchestration des workflows ETL/ELT via Airflow Déploiement cloud sur AWS et infrastructure as code avec Terraform Conteneurisation des traitements ( Docker, Kubernetes ) Supervision, observabilité, gestion des incidents et qualité des données Documentation et conformité RGPD Accompagnement de profils juniors
Freelance

Mission freelance
Développeur Python/AWS - Lyon (69)

LeHibou
Publiée le
AWS Cloud
Python

6 mois
550-600 €
Lyon, Auvergne-Rhône-Alpes
Notre client dans le secteur Énergie et ressources naturelles recherche un Lead développeur Python / AWS H/F Descriptif de la mission: Contexte et objectif de la mission Le projet se compose de deux modules : - une plateforme d’entreprise étendue visant à échanger des objets métiers dans le cadre de la maintenance d’installations industrielles entre l’entreprise et ses prestataires externes, afin d’assurer une continuité numérique entre les systèmes d’information ; - un portail web destiné aux partenaires ne disposant pas de système d’information. Le prototype a été réalisé de mars à mai 2023 en co-développement avec une équipe de prototypage cloud, en mode serverless. La V1 de la plateforme est en production depuis décembre 2023 et la V1 du portail depuis décembre 2024. Depuis février 2026, les échanges de bout en bout en entreprise étendue sont effectifs sur un premier objet métier. La feuille de route 2026 porte sur : - la poursuite de l’ajout de fonctionnalités pour faciliter le déploiement ; - l’amélioration de la maintenabilité du code ; - l’amélioration des performances ; - la revue d’architecture et des services cloud utilisés ; - l’intégration des contraintes de cybersécurité ; - la précision de l’exploitabilité de l’application en production. Environnement technique et organisation La plateforme propose des échanges de données métier via API et s’interface avec des applications métier internes et celles des partenaires. Le portail est accessible via le web. Éléments techniques et d’exploitation mentionnés : - données en transit et au repos chiffrées et stockées via DynamoDB ; - authentification forte utilisateur pour l’accès au portail ; - gestion des identités techniques via Cognito ; - sécurisation en frontal via WAF V2 et CloudFront pour les échanges avec API Gateway et S3 ; - stratégie de sauvegarde quotidienne, hebdomadaire, mensuelle et annuelle sur les services hébergeant les données ; - centralisation des logs applicatifs et d’authentification dans un environnement d’exploration ; - cible d’exploitation 24/7 à terme, avec plage actuelle prévue 9h-17h, 5j/7. L’équipe est organisée en agilité à l’échelle (SAFe) et comprend notamment : - 1 lead développeur backend ; - 1 lead développeur frontend ; - 3 développeurs Python ; - 2 développeurs Angular ; - 1 Scrum Master ; - 1 Proxy PO ; - 1 Product Owner ; - 1 architecte référent ; - 1 chef de projet. Des échanges sont également prévus avec des partenaires industriels externes. Responsabilités principales La prestation consiste à prendre un rôle de lead sur les développements Python du produit. Les activités attendues sont : - prendre le rôle de lead sur les développements Python du produit ; - encadrer l’équipe de développement backend Python ; - réaliser les développements, évolutions et corrections ; - analyser et corriger les incidents de production ; - réaliser les revues de code ; - réaliser la refactorisation et l’optimisation du code ; - participer à la conception des solutions ; - chiffrer le besoin métier ; - concevoir les spécifications détaillées de la solution ; - concevoir les plans de tests techniques. Profil recherché Séniorité attendue : expert (12 ans et plus). Compétences techniques requises : - Boto3 : senior ; - Cloud AWS : senior ; - Python : senior ; - API REST : senior ; - DevOps (Git, Jenkins) : senior ; - Clean Architecture : expérimenté. Compétences humaines requises : - leadership ; - bonne communication ; - pédagogie. Livrables attendus - Spécifications techniques détaillées - Plan de tests techniques - Documentation applicative technique - Guide de bonnes pratiques de développement - Guide de paramétrage applicatif - Rapport d’audit de sécurité - Gestion de configuration (mise à jour) - Code source des développements réalisés Compétences / Qualités indispensables: Python,AWS Cloud,API REST,Boto3,Clean Architecture Compétences / Qualités qui seraient un +: Familiarité avec l’environnement d’un grand groupe industriel
Freelance

Mission freelance
Generative AI Engineer (H/F) 92

Mindquest
Publiée le
Amazon S3
AWS Cloud
Python

3 mois
La Défense, Île-de-France
Développement IA / Computer Vision: - Concevoir et développer de nouveaux cas d’usage en vision par ordinateur : - Détection de corrosion - Segmentation 2D/3D - Classification d’anomalies - Améliorer les performances et la robustesse des modèles existants MLOps & Industrialisation: - Concevoir et déployer une infrastructure MLOps complète sur AWS - Structurer et automatiser les pipelines de Machine Learning : - Entraînement - Validation - Versioning - Déploiement - Mettre en place le suivi des expérimentations et la gestion des modèles - Définir et appliquer les bonnes pratiques d’industrialisation : - CI/CD - Monitoring des modèles - Gestion des versions Gestion des données: - Gérer et structurer les datasets d’images 2D/3D issus des drones - Contribuer à l’amélioration continue de la qualité des données Collaboration transverse: - Travailler en étroite collaboration avec les équipes techniques et métiers - Assurer la cohérence technique et fonctionnelle des solutions développées
Freelance

Mission freelance
Architecte Logiciel Full Stack – AWS Serverless / Lead Technique

Syneam
Publiée le
Gateway
React

6 mois
Hauts-de-Seine, France
Dans le cadre d'une mission au sein d'un acteur majeur de la banque en ligne, nous recherchons un(e) Architecte Logiciel Full Stack pour piloter techniquement une taskforce de développement. Le périmètre couvre la conception, l'implémentation et la livraison de solutions cloud-native robustes, scalables et sécurisées, en lien direct avec les objectifs produit et métier. Descriptif de la mission Concevoir et implémenter des architectures serverless sur AWS (Lambda, API Gateway) Développer et piloter les composantes backend et frontend (React) Appliquer et faire appliquer les design patterns et bonnes pratiques de développement Participer activement au code, aux revues techniques et au maintien de la qualité Traduire les besoins produit en solutions techniques simples, performantes et sécurisées Animer les rituels d'équipe, fixer des objectifs intermédiaires mesurables Assurer une visibilité claire sur la roadmap, les jalons, risques et dépendances Prioriser, arbitrer et aligner les décisions techniques avec les enjeux métier Embarquer et aligner les parties prenantes pour accélérer la livraison
Freelance

Mission freelance
Consultant dbt/Snowflake

CS Group Solutions
Publiée le
Data Mesh
DBT
Snowflake

6 mois
430-450 €
Île-de-France, France
Nous recherchons un Consultant dbt/Snowflake 5 à 10 ans d’expérience Anglais obligatoire Responsabilités clés Concevoir, développer et maintenir des pipelines de données ELT haute performance en utilisant Snowflake et dbt Modéliser les données aux niveaux conceptuel et technique en fonction des besoins métier Optimiser les requêtes SQL et les modèles dbt afin de garantir des performances optimales Mettre en œuvre et maintenir une infrastructure DataOps pour l’automatisation des déploiements Configurer et gérer la sécurité des données (RBAC, Row-Level Security, Dynamic Data Masking) Assurer une ingestion efficace des données depuis AWS S3 vers Snowflake Orchestrer les flux de données via dbt et créer des DAGs avec une gestion appropriée des tags Implémenter des tests de qualité des données via les tests dbt Gérer les aspects administratifs des bases Snowflake Compétences techniques requises Snowflake Maîtrise avancée des fonctionnalités Snowflake (Time Travel, Zero-Copy Cloning) Configuration et optimisation des warehouses Snowflake Gestion des external stages et de Snowpipe pour l’ingestion depuis AWS S3 Configuration et mise en œuvre des mécanismes de sécurité RBAC, RLS et Dynamic Data Masking Administration des bases Snowflake (création et gestion des objets, supervision, optimisation) dbt (data build tool) Développement avancé de modèles SQL avec dbt Création et optimisation de modèles de données (dimensions, faits, etc.) Utilisation des macros Jinja pour produire du code SQL dynamique et réutilisable Configuration des tests dbt pour la validation des données Mise en œuvre des snapshots dbt pour le suivi des évolutions des données Création de DAGs optimisés avec une gestion rigoureuse des dépendances et des tags Documentation des modèles de données DataOps & Automatisation Utilisation de schemachange pour l’automatisation des migrations de schéma Mise en place de pipelines CI/CD pour les plateformes data Maîtrise de Git et des workflows de développement collaboratif AWS & Intégration Connaissance de AWS S3 et de son intégration avec Snowflake Configuration des external stages et des processus d’ingestion Qualifications souhaitées Expérience avec les Snowflake Tasks et les Dynamic Tables Connaissance des principes de data mesh et de gouvernance des données Familiarité avec les frameworks de tests de données Expérience dans le secteur pharmaceutique ou des sciences de la vie Certifications (souhaitées) SnowPro Core Certification – fortement appréciée Certification dbt Analytics Engineering – un plus Certifications AWS (Solutions Architect, Data Engineer ou équivalent) – un plus
CDI

Offre d'emploi
Développeur Python / Appétence DevOps - Télécom - Paris (H/F)

EASY PARTNER
Publiée le
AWS Cloud
DevOps
Python

45k-53k €
Paris, France
Missions principales Développer et maintenir des applications backend en Python pour la gestion et le traitement de données. Concevoir des architectures robustes et scalables adaptées aux besoins internes et aux usages clients. Développer et intégrer des API performantes et sécurisées (REST / GraphQL). Optimiser la fiabilité, la performance et la maintenabilité des applications existantes. Contribuer aux pratiques DevOps dans la construction et l’amélioration des chaînes CI/CD. Stack à maîtriser Langage : Python Frameworks : Django, FastAPI, Flask, DRF Bases de données : PostgreSQL, SQL Server API : REST, GraphQL Environnement technique Cloud : AWS Conteneurisation : Docker (notions attendues) ; Kubernetes apprécié CI/CD : participation ou mise en place de pipelines d’intégration continue Versioning : Git
CDI

Offre d'emploi
Architecte AWS (H/F) – Secteur Monétique

CELAD
Publiée le

60k-65k €
Nanterre, Île-de-France
Contexte Dans le cadre d’une mission pour l’un de nos clients, acteur reconnu dans le secteur de la monétique, nous recherchons un Architecte AWS afin d’accompagner la transformation et l’évolution de ses plateformes technologiques. Vous interviendrez sur des environnements critiques liés aux systèmes de paiement, nécessitant un haut niveau d’exigence en matière de sécurité, de performance et de disponibilité. Vos missions Définir et concevoir les architectures cloud basées sur AWS Accompagner la migration vers le cloud et la modernisation des applications Garantir la scalabilité, la résilience et la sécurité des infrastructures Collaborer étroitement avec les équipes de développement, DevOps et sécurité Participer aux choix technologiques et aux bonnes pratiques d’architecture Mettre en place des standards et des référentiels d’architecture Assurer une veille technologique continue sur les services AWS Intervenir en support des équipes techniques sur les problématiques complexes
Freelance

Mission freelance
Platform Engineer — Disaster Recovery AWS (remote)

CONCRETIO SERVICES
Publiée le
AWS Cloud
IAC
IAM

6 mois
Paris, France
MISSIONS PRINCIPALES Review & Challenge de l'Architecture DR Analyser et challenger l'architecture Warm Pilot existante : robustesse, faisabilité, angles morts, SPOFs non-évidents Identifier les dépendances cachées entre services AWS non visibles dans les schémas Évaluer les choix de services AWS DR (Route 53 failover, Aurora Global Database, RDS cross-region, S3 Cross-Region Replication, EKS multi-cluster) et proposer des alternatives argumentées Défendre les recommandations en arbitrant entre coût, délai et complexité opérationnelle Implémentation IaC & GitOps Implémenter en Terragrunt : configurations multi-comptes, multi-régions, modules DRY, orchestration des dépendances entre stacks Configurer ArgoCD pour les environnements DR : ApplicationSets multi-cluster, stratégies de sync, gestion des secrets Mettre en place les pipelines GitLab CI/CD pour la validation IaC et les tests automatisés Garantir la cohérence GitOps end-to-end : aucun changement d'infrastructure hors du pipeline Résilience, Réplication & Failover Implémenter les mécanismes de réplication selon les services (synchrone/asynchrone) : données, configurations, secrets Concevoir et implémenter les procédures de failover et de failback orchestrées Définir et implémenter les critères de déclenchement du basculement (health checks, alerting, seuils) Assurer la cohérence des RPO/RTO par application avec les équipes applicatives Sécurité Cross-Region & Conformité IAM cross-account, KMS cross-region, VPC peering / Transit Gateway dans le contexte DR Garantir la conformité des données répliquées : souveraineté, chiffrement, audit trail Collaborer avec les équipes sécurité sur les contraintes spécifiques au contexte DR Testabilité & Documentation Automatiser les tests de DR : scénarios de failover répétables et non-destructifs, validation des RTO/RPO atteints Chaos engineering basique pour valider la résilience en conditions contrôlées Runbooks de failover/failback exploitables par des équipes ops à 3h du matin en conditions de stress Architecture Decision Records (ADR) documentant les choix techniques et leurs justifications
Freelance
CDI

Offre d'emploi
Consultant.e Data Gouvernance / Anglais requis

Octopus Group
Publiée le
Data governance
Data quality

6 mois
40k-45k €
400-600 €
Île-de-France, France
Octopus Group , ESN de 100 collaborateurs est à la recherche d'un.e consultant.e Data gouvernance Dans le cadre d’un partenariat stratégique, nous accompagnons un acteur majeur du secteur du Luxe dans la structuration et la valorisation de ses actifs data à l’échelle groupe. Dans un environnement exigeant, international et orienté excellence, nous recherchons un(e) Consultant.e Data Gouvernance pour contribuer à la mise en place et à l’industrialisation des pratiques de gouvernance des données. avec un minimim de 3 ans d'expérience
CDI

Offre d'emploi
Ingénieur Devops AWS/GCP (H/F)

DCS EASYWARE
Publiée le

Paris, France
Vous interviendrez au sein d’une équipe en charge du supportapplicatif sur un périmètre lié aux métiers RH et Communication. Vos missions Assurer le support des applications métiers (gestion des incidents, MCO) Piloter des projets applicatifs et techniques : Mise en place de nouvelles applications Migrations / refresh techniques Participer à l’intégration de briques DevOps (XLDeploy, XLRelease…) Collaborer étroitement avec les équipes de développement et d’infrastructure Contribuer à l’amélioration continue du périmètre applicatif Environnement technique Serveurs d’applications : PHP, Tomcat, IIS Scripting & ordonnancement : Control-M Environnements : Windows & Linux Cloud : AWS, GCP DevOps : outils de déploiement et d’automatisation Contexte Environnement international avec des échanges réguliers en anglais (équipes basées à Porto) Participation à des astreintes Interventions possibles en heures non ouvrées (HPO)
CDI
Freelance

Offre d'emploi
Techlead Data Engineer | AWS | Databricks | Big Data

Hexateam
Publiée le
AWS Cloud
Databricks
Python

36 mois
Île-de-France, France
Contexte Dans le cadre de la mise en place et de l’évolution d’une plateforme DATA centralisée, nous renforcons son équipe avec un Data Ingénieur confirmé. Cette plateforme permet l’intégration, la mise en qualité et la mise à disposition de données brutes ou retravaillées issues de différents producteurs, afin de répondre à des besoins métiers opérationnels et analytiques à grande échelle. Rôle et responsabilités Développement et ingestion de données Concevoir, développer et optimiser des jobs d’ingestion et de transformation de données en Python et Spark sur Databricks , avec gestion de gros volumes. Mettre en place et maintenir des flux de données entre sources externes (ex. bases Oracle) et Delta Lake sur AWS S3 . Orchestration et supervision Créer et orchestrer des workflows avec AWS Airflow et automatiser les traitements. Mettre en place des mécanismes de contrôle qualité et de validation des données pour garantir cohérence et fiabilité. Développer des jobs de monitoring pour détecter et corriger automatiquement les anomalies. Maintien en condition opérationnelle Assurer la disponibilité et la performance des jobs en production. Analyser et corriger les incidents et anomalies détectées. Contribution stratégique Participer aux ateliers de conception technique et fonctionnelle. Promouvoir les bonnes pratiques de développement et d’optimisation Big Data. Documenter les processus, architectures et scripts. Compétences techniques requises MUST : Python Spark Databricks SQL SHOULD : AWS (S3, Glue, Airflow, CloudWatch, Lambda, IAM) COULD : Big Data (gestion et traitement de très gros volumes de données) WOULD : Git Méthodologies et outils : CI/CD avec GitLab JIRA / Confluence Méthodologie agile Scrum
CDD
CDI
Freelance

Offre d'emploi
Ingénieur DevSecOps Cloud AWS- KBS

KEONI CONSULTING
Publiée le
AWS Cloud
Cloud
Grafana

18 mois
20k-60k €
100-500 €
Bordeaux, Nouvelle-Aquitaine
CONTEXTE Dans le cadre de sa stratégie de modernisation et de sécurisation de ses infrastructures numériques, le client souhaite s’entourer d’un Ingénieur DevSecOps Cloud AWS spécialisé dans l’intégration, l’exploitation et l’évolution de solutions Cloud sur AWS. Le profil devra être en mesure d’assister les équipes du client tant sur la conception et le déploiement de nouvelles architectures que sur la maintenance opérationnelle des services existants, dans une démarche DevSecOps, axée sur la performance, la sécurité, la fiabilité et l’optimisation des coûts L’Ingénieur DevSecOps est Responsable de l'industrialisation des pipelines de livraison et de l'intégration des pratiques de sécurité tout au long du cycle de développement et de déploiement sur infrastructure AWS. MISSIONS Participer à : Intégration et MCO Cloud A. Intégration et Déploiement • Conception d’architectures AWS sécurisées • Déploiement d’environnements • Paramétrage de services AWS • Mise en œuvre et optimisation notamment d’EKS : nodes, autoscaling, gestion des pods, namespaces, ingress, network policies, etc. • Industrialisation via IaC (Terraform) B. MCO / Run • Supervision et maintenance corrective, préventive et évolutive • Mise à jour des composants : Kubernetes, drivers, nodes, AMIs, OpenSearch, drivers DB, ALB/ingress, etc. • Gestion des incidents avec SLA détaillés proposés (détail exigé) • Monitoring / Observabilité / Alerting (technique + métier) • Gouvernance et registry d’images Docker (sécurité, scan, policy) • Gestion des coûts et optimisation (FinOps) C. Sécurité et Conformité • Zero Trust / IAM Roles / RBAC Kubernetes / Key rotation • Scan de vulnérabilités images, dependencies, clusters • Encryption au repos/en transit (KMS) • Conformité RGPD / CNIL / Cloud Act • Proposition d’architecture Security-by-Design D. Documentation et Transfert de compétences • Documentation détaillée des architectures, outils, procédures, PRA, sauvegardes, patterns, runbooks d’exploitation • Formations techniques ciblées (EKS, observabilité, pipeline CI/CD, sécurité) • Engagement sur transfert de compétences avec plan structuré livrables techniques : participer à la livraison entre autres de • Document d'architecture AWS avec schémas • Scripts Terraform documentés • Configuration complète EKS (clusters, nodes, namespaces) • Procédures de déploiement • Dashboards de monitoring Grafana/CloudWatch • Guide d'exploitation détaillé • Plan de transfert de compétences • Documentation des procédures • Étude de portabilité multicloud • Plan de réversibilité • Scripts de migration • Documentation technique de sortie • Indicateurs coûts et optimisation EXPERTISE & Compétences clés attendues : · Maîtrise des outils CI/CD (GitLab CI, GitHub Actions, ArgoCD) · Infrastructure as Code avec Terraform et gestion des modules réutilisables · Orchestration de conteneurs Kubernetes (EKS) : nodes, autoscaling, namespaces, ingress · Sécurité applicative intégrée : scan de vulnérabilités (Trivy, Snyk), SAST/DAST · Gestion et gouvernance des images Docker (registry, policy, scan) · Implémentation des principes Zero Trust, IAM Roles et RBAC Kubernetes · Gestion des secrets et rotation de clés (AWS Secrets Manager, KMS) · Monitoring et observabilité (CloudWatch, Prometheus, Grafana, OpenTelemetry) · Conformité réglementaire : RGPD, CNIL, Cloud Act · Rédaction de runbooks d'exploitation et documentation des procédures CI/CD
CDI

Offre d'emploi
Data Engineer Databricks

KOMEET TECHNOLOGIES
Publiée le
Apache Spark
Databricks

45k-60k €
Paris, France
En tant que Data Engineer, vous intervenez sur la conception, le développement et l’optimisation de pipelines de données robustes et scalables. Vous travaillez au cœur des plateformes Data afin de garantir la qualité, la disponibilité et la performance des données utilisées par les équipes métiers, BI et Data Science. Expérience attendue : 3 à 8+ ans en ingénierie Data. Vous correspondez au/à la Data Engineer que nous recherchons si : Vous évoluez efficacement au sein d’équipes agiles et pluridisciplinaires , en collaboration étroite avec les équipes Data, IT et métiers Vous faites preuve d’un fort esprit analytique et d’une grande rigueur Vous êtes autonome , proactif et doté d’un solide sens des responsabilités Vous êtes capable de communiquer clairement avec des interlocuteurs techniques comme non techniques Vous savez prioriser vos tâches , gérer les contraintes et respecter vos engagements Vous disposez d’un bon esprit de synthèse et êtes orienté résultats et valeur métier Vous avez une bonne connaissance des environnements Business Intelligence , Big Data et des architectures Lakehouse Vous avez déjà travaillé sur des plateformes Data modernes (Cloud) Vous maîtrisez SQL comme langage d’interrogation des données et avez des notions de modélisation de données (architecture médaillon, modèle en étoile …) Vous disposez d’un bagage en software engineering , vous permettant d’écrire un code robuste, lisible, maintenable et testable, notamment en Python Vous appliquez les bonnes pratiques de développement : structuration du code, modularité, gestion des dépendances, conventions de nommage Vous êtes sensibilisé aux principes de qualité logicielle (tests unitaires, tests d’intégration, revue de code) Vous êtes à l’aise avec les outils de versioning ( Git ) et les workflows collaboratifs associés Vous savez concevoir des pipelines Data comme de véritables produits logiciels, en tenant compte de la maintenabilité, de l’évolutivité et de l’observabilité

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

2431 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous