L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 9 résultats.
Offre d'emploi
Data Engineer AWS
Publiée le
Amazon S3
AWS Cloud
AWS Glue
40k-45k €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
Expérience requise : 5 à 10 ans Anglais obligatoire Compétences recherchées : Data Engineer AWS (S3, Glue, Athena, Python) Tâches à traiter : Compréhension des données scientifiques dans le domaine pharma CMC Clarification des besoins avec les parties prenantes, estimation de l’effort pour la planification PI Bonne connaissance des pratiques Lean & Agile Ingénierie de données AWS : S3, Glue (Jobs/Workflows), Athena Développement ETL/ELT : Python, Glue ETL, évolution de schémas, partitionnement Modélisation de données : modèles de domaine harmonisés, schémas en étoile/flocon, gestion des métadonnées Optimisation SQL : amélioration des performances sous Athena, conception de requêtes optimisées en coût, stratégies de partitionnement/pruning Tests et qualité : tests unitaires/intégration pour les pipelines, frameworks de qualité des données Documentation et transfert de connaissances : runbooks, diagrammes d’architecture, planification et exécution du KT Expérience en migration : stratégie de fonctionnement parallèle, planification du cutover, backfill, rapprochement des données
Mission freelance
Data Engineer AWS / Snowflake (Urgent)
Publiée le
Amazon S3
AWS Cloud
Gitlab
6 mois
400-550 €
Paris, France
Télétravail partiel
Nous recherchons un Data Engineer AWS / Snowflake confirmé pour intervenir au sein d’une équipe Data sur un environnement cloud moderne, fortement orienté industrialisation, performance et qualité des données. 🎯 Contexte de la mission : Vous serez en charge de maintenir, optimiser et faire évoluer les pipelines et architectures Data existants, dans un écosystème AWS & Snowflake à forte volumétrie. La mission inclut également la prise en main de sujets de développement et d’industrialisation en cours. ⚙️ Vos missions principales : Ingestion & Transformation Développer et maintenir des pipelines Python / PySpark (batch, transformations, industrialisation). Implémenter des processus d’ingestion Snowflake ( Snowpipe, procédures stockées, tables dynamiques, datamarts ). Gérer le datalake, les flux d’ingestion et les orchestrations associées. Architecture & AWS Intervenir sur les services AWS : S3, Lambda, Step Functions, EMR, DynamoDB, RDS, EventBridge, IAM, API Gateway… Optimiser et sécuriser les flux Data sur AWS. Assurer la résilience, les performances et la montée en charge des environnements Data. CI/CD & Infrastructure Maintenir et faire évoluer les pipelines GitLab CI , Travailler avec Docker & Pulumni pour l’industrialisation et l’infrastructure as code. Monitoring & Qualité Mettre en place ou améliorer les mécanismes de monitoring , d’observabilité et de data quality . Documenter, partager les bonnes pratiques et contribuer à l’amélioration continue.
Offre d'emploi
Data Engineer AWS / Spark / Scala /Python
Publiée le
Apache Spark
PySpark
Scala
1 an
40k-56k €
400-600 €
Paris, France
Télétravail partiel
Bonjour ☺️ Nous recherchons un DATA ENGINEER orienté sur les technologies SPARK / SCALA / PYTHON/ AWS pour le compte de notre client ! Mission : Maintenir la plateforme en conditions opérationnelles : Garantir la disponibilité des données et des services de la plateforme, Assurer la communication avec les utilisateurs de la plateforme, Répondre aux demandes de données (données ad hoc, analyses d’anomalies), Développer les correctifs et évolutions nécessaires, Contribuer à la qualité des données et à l’industrialisation de leur exploitation. Concevoir et développer des services et pipelines de données fiables et performants : Mettre en place des flux de données (acquisition, transformation, export), Concevoir et modéliser les données, Développer et optimiser les pipelines de transformation, Réaliser les tests unitaires et d’intégration, Garantir la qualité des développements via les revues de code, Ordonnancer et gérer les dépendances entre traitements, Déployer sur l’ensemble des environnements, Enrichir et maintenir la documentation de la plateforme. Profil recherché : Minimum 5 ans d'expériences dans un contexte de grande volumétrie de données, Capacité à collaborer avec une pluralité d'interlocuteurs en même temps, Excellent esprit d’équipe, Capacité d'adaptation, Maitrise impérative de : Spark Scala, Python et SQL, Expérience significative sur AWS. Apprécié : Connaissance de Dataiku, Méthodologie Scrum/Safe, Airflow N'hésitez pas à envoyer votre CV !
Mission freelance
Data Engineer AWS
Publiée le
AWS Cloud
PySpark
Python
12 mois
550-580 €
Paris, France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un "Data Engineer AWS" pour un client dans le secteur des transports Description 🎯 Contexte de la mission Au sein du domaine Data & IA , le client recherche un MLOps Engineer / Data Engineer confirmé pour intervenir sur l’ensemble du cycle de vie des solutions d’intelligence artificielle. L’objectif : industrialiser, fiabiliser et superviser la production des modèles IA dans un environnement cloud AWS à forte exigence technique et opérationnelle. Le poste s’inscrit dans une dynamique d’ industrialisation avancée et de collaboration étroite avec les Data Scientists , au sein d’une équipe d’experts en intelligence artificielle et data engineering. ⚙️ Rôle et responsabilités Le consultant interviendra sur les volets suivants : Industrialisation & CI/CD : Mise en place et maintenance de pipelines CI/CD avec GitLab, Docker, Terraform et Kubernetes . Infrastructure & automatisation : Gestion et optimisation des environnements AWS (S3, EMR, SageMaker, IAM, etc.) , mise en place de bonnes pratiques IaC. Data Engineering / Spark : Développement et optimisation de traitements Spark pour la préparation et la transformation de données à grande échelle. MLOps & Production : Déploiement, suivi et supervision des modèles IA via MLflow , et Datadog , gestion du monitoring et des performances. Collaboration transverse : Travail en binôme avec les Data Scientists pour fiabiliser le delivery, optimiser les modèles et fluidifier le passage en production. Amélioration continue & veille : Contribution à la montée en maturité technique, documentation, partage de bonnes pratiques et optimisation continue des pipelines.
Offre d'emploi
Senior Data engineer AWS
Publiée le
Terraform
18 mois
40k-45k €
100-550 €
Paris, France
Télétravail partiel
CONTEXTE : Experience : 7 ans et plus Métiers Fonctions : Data Management, Software engineer Spécialités technologiques : Data Compétences Technologies et Outils AWS Spark Airflow Snowflake Secteurs d'activités Services Informatiques Conseil en organisation, stratégie MISSIONS Rattaché(e) au périmètre du Responsable Data Platform, vos missions consisteront à : - Développer des pipelines et ETL sur AWS vers Snowflake - Mettre en place des stockage optimisé grâce aux technologies lakehouse et en particulier DeltaLake - Créer des jobs manipulant la donnée avec SQL et Python (pandas et ou Polars) - Réaliser les traitements de volume de données massives avec PySpark - Développer et maintenir des infrastructures avec de l’IaC et en particulier avec Terraform - Orchestrer les différents traitements via Airflow - Déployer et maintenir des applications via la CI/CD - Participer aux réflexions et au design d’architecture - Bonne capacité de vulgarisation et de communication - Participer aux rituels agiles de l’équipe - Contribuer à la documentation technique et fonctionnelle 5 à 10 ans en tant que Data Engineer, avec une expérience significative sur AWS. Un positionnement en tant que techlead serait un plus. De l’expérience dans un contexte BI serait un plus. Un positionnement ou une expérience en tant que DevOps serait un plus. Expertise souhaitée Python, PySpark, AWS (EMR, S3, Lambda), Airflow, SQL, Snowflake, Terraform, Databricks, Gitlab.
Mission freelance
Data Engineer AWS - S3, Glue, Athena, Python
Publiée le
AWS Glue
Python
6 mois
210-480 €
France
Télétravail partiel
Dans le cadre d’un programme data stratégique dans le secteur pharmaceutique (domaine CMC – Chemistry, Manufacturing & Controls), l’entreprise souhaite renforcer son équipe Data Engineering afin de soutenir la migration, l’industrialisation et l’optimisation de ses pipelines analytiques sur AWS. La mission implique une forte collaboration avec les équipes scientifiques, Data, IT et produit, afin de clarifier les besoins métiers, structurer les modèles de données, fiabiliser les flux existants et accompagner les phases de migration vers des architectures modernes. L’objectif est d’améliorer la qualité, la performance, le coût et la robustesse de la plateforme data, tout en garantissant une documentation claire et une montée en compétence durable des équipes internes.
Mission freelance
Data Engineer AWS - PySpark/Databricks
Publiée le
Amazon S3
Apache Spark
AWS Cloud
12 mois
550-600 €
Paris, France
Télétravail partiel
Contexte : Nous recherchons un Data Engineer pour participer à une mission sur un environnement cloud AWS. Le candidat évoluera au sein d’une équipe digitale internationale et contribuera à la conception, au développement et à la mise en production de solutions data à grande échelle. Profil recherché : Expérience confirmée en tant que Data Engineer ou rôle équivalent. Capacité à collecter les besoins métiers et utilisateurs et à les traduire en architecture de données. Expérience dans la conception et le développement de pipelines de données robustes et évolutifs. Autonomie et rigueur dans la mise en production et la maintenance d’architectures data. Bonnes capacités de communication et aptitude à travailler en équipe multidisciplinaire. Compétences techniques requises : Python – maîtrise avancée (4/4) PySpark – maîtrise avancée (4/4) Databricks – niveau confirmé (3/4) AWS – niveau confirmé (3/4) Anglais – professionnel (3/4) Conditions de travail : Télétravail : 2 jours par semaine Présence obligatoire sur site : 3 jours par semaine Lieu : Paris Début de mission : 08/12/2025 Processus de sélection : Codingame à compléter dans les 48h après réception. Proctoring appliqué pour le codingame. Soutenances techniques prévues après le codingame.
Mission freelance
DevOps Engineer AWS - Sénior
Publiée le
Python
18 mois
100-500 €
Paris, France
Télétravail partiel
CONTEXTE: Experience: 5 ans et plus Métiers Fonctions : Production, Exploitation, Infrastructure, Devops Engineer Spécialités technologiques : Infrastructure, Cloud MISSIONS Nous sommes actuellement à la recherche d'un profil DevOps expérimenté sur le Cloud AWS. Vous intégrerez une équipe agile rattachée à la direction Cloud Platform. Dans ce cadre, vous serez chargé de l'automatisation des déploiements, de la gestion de l'infrastructure AWS, de la sécurité et de la conformité, de la gestion des logs et des alertes. Vous serez également responsable de la mise en place de solutions conteneurisées et serverless, tout en contribuant activement à l'amélioration des pratiques DevOps et de sécurité au sein de l'organisation. Expertise souhaitée - Forte expérience en ingénierie et en architecture de solutions d'infrastructure AWS - Expérience pratique des concepts suivants : AWS Landing Zone, AWS et de sécurité et stratégie multi-compte AWS - Connaissance approfondie des principes et de la conception de Terraform Infrastructure as Code (IaC). conception. - Expérience pratique de Gitlab et Gitlab-CI - Expérience avérée dans l'écriture de code de haute qualité en Python - Connaissance approfondie de l'infrastructure et des services AWS, y compris, mais sans s'y limiter, Fargate, Lambda, etc. Fargate, Lambda, S3, WAF, KMS, Transit Gateway, IAM, AWS Config, etc.. - Expérience avec les architectures conteneurisées & Serverless. - Expérience sur une solution SIEM, idéalement Splunk. - Expérience pratique des concepts suivants : Approche Shift-left & DevSecOps SBOM, SAST, services de sécurité et de conformité AWS (AWS Config, Inspector, Network Filewall, etc.) - Expérience des meilleures pratiques en matière de journalisation, de surveillance et d'alerte basées sur AWS Cloud et des outils standard de l'industrie, notamment Splunk, CloudWatch logs, Prometheus, Grafana, Alert Manager et PagerDuty.
Offre d'emploi
Consultant SysOps
Publiée le
AWS Cloud
SecOps
Terraform
6 mois
40k-45k €
400-550 €
Corbeil-Essonnes, Île-de-France
Bonjour Au sein d'un client grand compte, nous recherchons un profil Expert SysOps Les prestations attendues incluent : • Supervision et maintien en conditions opérationnelles des infrastructures sur AWS Utilisation des solutions de monitoring (CloudWatch, Dynatrace, Centréon), définition des seuils d’alerte, gestion des logs et automatisation des réponses aux incidents. Gestion des incidents, analyse des causes racines, et application des plans d’action correctifs. Gestion de l’obsolescence des services AWS Gestion des sauvegardes, restauration et plans de reprise d’activité (PRA). Gestion des accès et sécurité via IAM, suivi des logs via CloudTrail, audit de conformité • Automatisation des opérations récurrentes Automatisation des tâches opérationnelles avec les outils natifs AWS (Systems Manager, Lambda) et scripts. Création de scripts et de templates (Terraform, Ansible) pour industrialiser les tâches d’exploitation : sauvegardes, déploiements, nettoyage, mises à jour. Constructions de pipelines pour les actions AWS (restart, up/down scaling) • Documentation des procédures opérationnelles et reporting régulier Rédaction des procédures d’exploitation, des guides d’administration et des plans de reprise d’activité. • Optimisation des performances et des coûts Analyse des usages, recommandations sur le dimensionnement, mise en œuvre de bonnes pratiques pour réduire les coûts tout en garantissant la qualité de service. Support aux migrations effectuées par les équipes de Migration SAE en préparation du Run (M2C & G2C) Pré-Requis : • Expert SysOps AWS (4 ans d’expérience minimum sur le Cloud AWS) : certification AWS Certified CloudOps Engineer ou AWS Certified DevOps Engineer. Maîtrise des opérations sur les environnements AWS (EC2, CloudWatch, S3, RDS, etc.), gestion des incidents, optimisation des performances, sécurité et conformité. Expérience en administration de systèmes Linux/Windows dans le cloud, gestion des environnements multi-comptes et automatisation des tâches récurrentes. • Compétences en monitoring & alerting : mise en place de solutions de supervision (CloudWatch, Dynatrace, Centréon), gestion des logs (CloudTrail, ELK), définition de seuils et alertes, gestion proactive des incidents. • Compétences en automatisation & IaC : utilisation de Terraform, ou Ansible pour le déploiement et la gestion des infrastructures. Capacité à industrialiser les processus d’exploitation. • Compétences transverses : anglais courant, capacité à collaborer avec les équipes Dev, SecOps et métiers. Rédaction de documentation technique et procédures d’exploitation. Poste à pourvoir sur Corbeil pour une mission longue durée. Anglais requis
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
9 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois