Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Mission freelance
Data Engineer AWS Confirmé
Nous recherchons un Data Engineer expérimenté pour renforcer nos équipes dans le cadre d’un projet stratégique autour de la donnée, dans un environnement AWS . Vos missions principales : Concevoir, développer et optimiser des pipelines de données robustes et scalables sur AWS . Intervenir aussi bien sur le BUILD (développement, architecture, intégration) que sur le RUN (exploitation, optimisation, monitoring). Collaborer étroitement avec les équipes métiers pour comprendre leurs besoins et les traduire en solutions techniques performantes. Garantir la qualité, la fiabilité et la performance des traitements de données.

Mission freelance
Data Engineer AWS Senior – (PySpark )
Contexte de la mission En renfort de l’entité Solutions Data , le Data Engineer Senior interviendra dans un environnement hybride Cloud / On-Premise (cible On-Premise) pour participer activement aux activités Run, Build, Expertise et Accompagnement . 🚀 Missions principales Participer à l’élaboration du design technique des produits logiciels. Contribuer à la recherche et mise en œuvre de solutions techniques adaptées. Prendre en charge une partie des développements . Accompagner et coacher les autres développeurs (optimisation de code, bonnes pratiques). Collaborer avec l’ architecte Data pour l’intégration des produits dans le SI. Garantir la qualité des produits logiciels livrés. Accompagner les directions métiers dans la réalisation de leurs cas d’usage Data. 🔧 Compétences obligatoires Spark / Java (maîtrise avancée) Python (maîtrise avancée) SQL (maîtrise avancée) Cloud AWS : S3, Glue, Redshift, Step Functions, Lambda CI/CD : Git, Jenkins ETL : XDI et/ou ODI 🌟 Compétences souhaitées (atouts) Docker Terraform Power BI / Business Objects 📍 Localisation Mission basée à Châtillon (92) .

Mission freelance
Data Engineer AWS
En quelques mots Cherry Pick est à la recherche d'un "Data Engineer" pour un client dans le secteur de l'Energie Description 🎯 Contexte & Objectifs Intégré(e) à la squad Data Platform, vous interviendrez sur les activités de build, run et automatisation d’une plateforme de données Cloud (AWS / Azure). Votre rôle sera clé pour : Participer à la réalisation du workplan et aux user stories du backlog. Contribuer aux activités de support N2/N3 (RUN) et de Build. Livrer et suivre les artefacts de mise en production. Proposer et mettre en œuvre des optimisations FinOps, sécurité et observabilité. Développer des microservices et automatiser les pipelines & déploiements. 🛠️ Missions principales Participer au développement et maintien de la Data Platform Cloud. Créer et maintenir des processus de déploiement automatisés avec Terraform. Développer des microservices en Python et maîtriser l’intégration (CI/CD). Assurer le monitoring et l’exploitation via Grafana, App Insights. Contribuer aux flux ETL/ELT et à l’alimentation du Data Lake (AWS S3, ADLS Gen2). Gérer les activités RUN/SRE : supervision, support, automatisation. Définir et appliquer les bonnes pratiques de sécurité, qualité, résilience et FinOps. Collaborer en mode Agile/Scrum avec les parties prenantes (Data Officers, Data Architects, Engineers). Maintenir la documentation et promouvoir une approche User-Centric (recueil feedbacks, amélioration UX).
Mission freelance
Data Engineer AWS / Databricks
Nous recherchons un(e) Data Engineer expérimenté(e) pour intervenir sur une mission de conseil et d’optimisation d’une Data Platform AWS Databricks . ✅ Vos missions principales Auditer l’existant de la Data Platform AWS Databricks Proposer des préconisations techniques & méthodologiques pour renforcer la performance et la fiabilité Conseiller les équipes sur les bonnes pratiques Data & Cloud Contribuer à l’évolution et à la roadmap de la plateforme Accompagner les équipes internes dans la mise en œuvre

Mission freelance
Data Engineer AWS - La Défense
Un grand groupe international lance plusieurs projets stratégiques autour de la valorisation de la donnée (dashboards internes/clients, vision 360, data products). 🚀 Mission En tant que Data Engineer AWS , vous interviendrez sur : Conception & développement de data pipelines (Python, Glue, Spark) Modélisation et stockage (S3, Iceberg, Redshift) Mise en place de composants réutilisables Accompagnement des équipes locales (co-construction, support technique) Qualité, sécurité (IAM, Lake Formation) et mise en production

Mission freelance
Data Engineer AWS
Kajenthi@RED Global – Recherche Data Engineer AWS – IDF – Freelance – 3 mois + Dans le cadre du déploiement d’un environnement de Data Augmentée (AWS, Dataiku, Starburst, Datasync), alimenté depuis un Data Lake on-premise , RED Global recherche un Ingénieur Data pour accompagner la mise en production d’un nouveau produit sur AWS . Missions : Résolution des problèmes techniques résiduels sur les environnements. Mise en œuvre de services Data et IA (Bedrock, RAG, etc.). Contribution à un front de génération de comptes-rendus en mode speech-to-speech . Compétences requises : Minimum 3 ans d’expérience sur AWS en environnement Data. Bonne maîtrise des services Data AWS . Connaissance de Starburst et Dataiku appréciée. Environnement technique : AWS, Dataiku, Starburst, Datasync, Bedrock, RAG, Data Lake on-premise. Si vous souhaitez recevoir de plus amples informations sur la mission ou si vous pouvez recommander un collègue ou un ami, n’hésitez pas à me contacter via mail avec votre CV à jour :
Mission freelance
Data Engineer AWS
Nous recherchons un(e) Data Engineer AWS pour le déploiement d’un nouvel environnement de Data Augmentée et de GenAI sur AWS. 📍 Localisation : Paris / Remote partiel possible 📅 Démarrage : 01/09/2025 ✅ Déploiement d’un environnement Data & IA complet (AWS, Dataiku, Starburst, Datasync) alimenté depuis un datalake on-premise ✅ Résolution des problèmes résiduels sur les environnements existants ✅ Mise en œuvre des services AWS Data & IA (dont Bedrock) ✅ Implémentation de use cases RAG et Speech-to-Speech

Mission freelance
Data Engineer AWS Sénior
Notre client recherche un Data Engineer senior pour concevoir et maintenir des pipelines de réplication et de traitement de données dans un environnement cloud AWS à grande échelle. Ce poste s’inscrit dans un programme de transformation data visant à développer des applications qui enrichissent l’expérience client et rendent les équipes métiers autonomes dans l’exploitation des données. L’environnement technique intègre : Outils et plateformes : AWS (S3, Kinesis, DMS, Lambda…), Airflow, Terraform, GitLab CI/CD, Python, Snowflake, Dataiku, Braze, Power BI, IA/ML Bases de données : Exadata, Oracle, SQL Server, Snowflake Architectures : Data Lake, Event-driven, Streaming (+100 To/jour) Cas d’usage : moteur de recommandation, chatbot IA, feature store, socle vidéo, plateforme de contenu, partage de données partenaires, data self-service Missions Concevoir, développer et maintenir des pipelines ETL/ELT pour la réplication et le traitement de données issues de sources hétérogènes. Connecter et intégrer les données depuis différentes bases (Exadata, Oracle, etc.) vers AWS. Mettre en œuvre des traitements de nettoyage, mapping, déduplication et enrichissement des données. Collaborer avec les architectes pour appliquer les modèles cibles et les bonnes pratiques de gouvernance data. Automatiser les pipelines via GitLab CI/CD. Concevoir et déployer l’infrastructure avec Terraform, Ansible et Python (IaC). Assurer le monitoring, la qualité et la performance des flux de données. Contribuer aux initiatives FinOps pour optimiser les coûts cloud. Documenter les processus et alimenter les référentiels techniques.

Mission freelance
Data Engineer AWS expérimenté/sal
Data Engineer AWS expérimenté. Il faut 3 ans minimum d'expérience Data sur AWS et une connaissance de Starburst et Dataiku est un plus Date de début souhaitée : début septembre Durée : jusqu'à fin d'année minimum Localisation : Boulogne Billancourt + Télé travail Télétravail possible à hauteur de 50% L'objectif est de déployer jusqu’à l’environnement de production ce qu’on appelle l’environnement de Data Augmentée (AWS, Dataiku, Starburst, Datasync) alimenté depuis un datalake on premise. Dans le cadre d’un nouveau produit déployé sur AWS, il faudra mettre en œuvre des services data et un front (cible génération de CR mode speech to speech) : · Résoudre les éventuels problèmes résiduels sur les environnements · Utiliser les services Data AWS, ainsi que bedrock, et les solutions de RAG etc... pour implémenter les Use Case Data et IA Il faut 3 ans minimum d'expérience Data sur AWS et une connaissance de Starburst et Dataiku est un plus Environnement technique : AWS solutions Data et IA
Mission freelance
[FBO] Senior Cloud & DevOps Engineer (AWS/GCP) - 836
Constat actuel • Équipe plateforme jugée trop junior. • Besoin équipe de sortir du lead technique. • Pas de possibilité de scaler à la demande sur la plateforme actuelle. • Maintien de l’infrastructure GCP sous responsabilité de l’équipe plateforme. Besoins identifiés • Renfort avec un profil confirmé • Capacité à traduire les besoins business en exigences techniques. • Aller au-delà de l’infrastructure GCP actuelle. • Industrialisation des features Gen AI (GenR - DMZ). Profil Dev avec vernis architecture applicative • Anglais obligatoire (collaboration internationale). Cibles techniques • Plateforme multi-cloud : AWS & GCP. • AWS : IaaS, infra traditionnelle, PCP Landing Zone. • GCP : microservices, usage avancé du cloud. • Environnements automatisés : Terraform, Terragrunt. • Pratiques DevOps : Jenkins, GitHub, Cloud Build, SSM (Enterprise DevOps). • API Framework Python. • Certification GCP souhaitée. • Pas de Kubernetes actuellement. • Démarrage : ASAP → courant septembre. Type de projet (support / maintenance / implementation /…) : Implementation Type de prestation (Client / Hybrid / Remote) : Hybrid Nombre de jours/semaine ou par mois chez le client : 3J/semaine Les astreintes (HNO, etc.) : Non La possibilité de renouvellement (oui/non) : Oui

Offre d'emploi
Data Engineer AWS - Data / IA
Contexte de la mission : Dans le cadre du lancement d’une nouvelle plateforme Data & IA dans le cloud, nous recherchons un consultant expérimenté afin d’accompagner le déploiement complet de l’environnement, depuis l’intégration des données jusqu’à la mise en production. Vous interviendrez sur la mise en place et l’optimisation des environnements Data et IA, ainsi que sur le développement de cas d’usage innovants en lien avec la génération et le traitement intelligent de données. Vos missions principales : Finaliser et stabiliser les environnements Data existants (cloud et on-premise interfacés). Mettre en œuvre les services managés Data/IA du cloud (incluant notamment des solutions de génération et de recherche augmentée). Contribuer au développement d’un front applicatif orienté Data/IA (use cases speech-to-speech). Déployer et industrialiser les cas d’usage Data et IA en production. Collaborer avec les équipes projet pour résoudre les problématiques techniques résiduelles.

Offre d'emploi
Data Engineer AWS/Databricks
Missions principales : Conception d’outils Big Data : Contribution active à la conception, au développement et à l’amélioration d’outils de traitement de données massives, couvrant l’ensemble du cycle de vie des données : ingestion, traitement, analyse et restitution. Définition des besoins techniques : Collaboration étroite avec les utilisateurs de la plateforme Data pour comprendre les besoins métier et garantir un alignement optimal entre les solutions développées et les attentes fonctionnelles. Développement sur Databricks et AWS : Réalisation de développements avancés sur les plateformes Databricks et AWS, en utilisant notamment les technologies suivantes : Python, SQL, Spark et Airflow. Intégration des pratiques FinOps : Mise en œuvre de bonnes pratiques FinOps dans le développement afin d’optimiser les coûts, les performances et l’utilisation des ressources sur AWS. Utilisation d’outils tels que dbt , GitLab CI/CD , et autres solutions DevOps. Audit et accompagnement transverse : Réalisation d’audits techniques et de revues de code au sein des équipes, avec pour objectif de renforcer la maîtrise des enjeux techniques et de favoriser l’adoption de stratégies FinOps efficaces. Technologies et outils utilisés : Cloud & Big Data : AWS (S3, EC2, Lambda, Glue), Databricks, Spark Langages & Frameworks : Python, SQL, PySpark Orchestration & Automatisation : Airflow, GitLab CI/CD, dbt Suivi des coûts et performance : Outils FinOps intégrés à AWS Méthodologies de travail : Agile / Scrum, DevOps, FinOps
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.