Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 12 résultats.
Freelance

Mission freelance
Data Engineer AWS Confirmé

CHOURAK CONSULTING
Publiée le
Apache Spark
AWS Cloud
PySpark

3 mois
400-600 €
Île-de-France, France

Nous recherchons un Data Engineer expérimenté pour renforcer nos équipes dans le cadre d’un projet stratégique autour de la donnée, dans un environnement AWS . Vos missions principales : Concevoir, développer et optimiser des pipelines de données robustes et scalables sur AWS . Intervenir aussi bien sur le BUILD (développement, architecture, intégration) que sur le RUN (exploitation, optimisation, monitoring). Collaborer étroitement avec les équipes métiers pour comprendre leurs besoins et les traduire en solutions techniques performantes. Garantir la qualité, la fiabilité et la performance des traitements de données.

Freelance

Mission freelance
Data Engineer AWS Senior – (PySpark )

Cherry Pick
Publiée le
Amazon S3
Apache Spark
AWS Cloud

6 mois
520-590 €
Île-de-France, France

Contexte de la mission En renfort de l’entité Solutions Data , le Data Engineer Senior interviendra dans un environnement hybride Cloud / On-Premise (cible On-Premise) pour participer activement aux activités Run, Build, Expertise et Accompagnement . 🚀 Missions principales Participer à l’élaboration du design technique des produits logiciels. Contribuer à la recherche et mise en œuvre de solutions techniques adaptées. Prendre en charge une partie des développements . Accompagner et coacher les autres développeurs (optimisation de code, bonnes pratiques). Collaborer avec l’ architecte Data pour l’intégration des produits dans le SI. Garantir la qualité des produits logiciels livrés. Accompagner les directions métiers dans la réalisation de leurs cas d’usage Data. 🔧 Compétences obligatoires Spark / Java (maîtrise avancée) Python (maîtrise avancée) SQL (maîtrise avancée) Cloud AWS : S3, Glue, Redshift, Step Functions, Lambda CI/CD : Git, Jenkins ETL : XDI et/ou ODI 🌟 Compétences souhaitées (atouts) Docker Terraform Power BI / Business Objects 📍 Localisation Mission basée à Châtillon (92) .

Freelance

Mission freelance
Data Engineer AWS

Cherry Pick
Publiée le
AWS Cloud
C#
Python

12 mois
500 €
Paris, France

En quelques mots Cherry Pick est à la recherche d'un "Data Engineer" pour un client dans le secteur de l'Energie Description 🎯 Contexte & Objectifs Intégré(e) à la squad Data Platform, vous interviendrez sur les activités de build, run et automatisation d’une plateforme de données Cloud (AWS / Azure). Votre rôle sera clé pour : Participer à la réalisation du workplan et aux user stories du backlog. Contribuer aux activités de support N2/N3 (RUN) et de Build. Livrer et suivre les artefacts de mise en production. Proposer et mettre en œuvre des optimisations FinOps, sécurité et observabilité. Développer des microservices et automatiser les pipelines & déploiements. 🛠️ Missions principales Participer au développement et maintien de la Data Platform Cloud. Créer et maintenir des processus de déploiement automatisés avec Terraform. Développer des microservices en Python et maîtriser l’intégration (CI/CD). Assurer le monitoring et l’exploitation via Grafana, App Insights. Contribuer aux flux ETL/ELT et à l’alimentation du Data Lake (AWS S3, ADLS Gen2). Gérer les activités RUN/SRE : supervision, support, automatisation. Définir et appliquer les bonnes pratiques de sécurité, qualité, résilience et FinOps. Collaborer en mode Agile/Scrum avec les parties prenantes (Data Officers, Data Architects, Engineers). Maintenir la documentation et promouvoir une approche User-Centric (recueil feedbacks, amélioration UX).

Freelance

Mission freelance
Data Engineer AWS / Databricks

Groupe Aptenia
Publiée le
AWS Cloud
Databricks
Python

3 ans
450-500 €
Paris, France

Nous recherchons un(e) Data Engineer expérimenté(e) pour intervenir sur une mission de conseil et d’optimisation d’une Data Platform AWS Databricks . ✅ Vos missions principales Auditer l’existant de la Data Platform AWS Databricks Proposer des préconisations techniques & méthodologiques pour renforcer la performance et la fiabilité Conseiller les équipes sur les bonnes pratiques Data & Cloud Contribuer à l’évolution et à la roadmap de la plateforme Accompagner les équipes internes dans la mise en œuvre

Freelance

Mission freelance
Data Engineer AWS - La Défense

AIS
Publiée le
AWS Cloud

12 mois
Courbevoie, Île-de-France

Un grand groupe international lance plusieurs projets stratégiques autour de la valorisation de la donnée (dashboards internes/clients, vision 360, data products). 🚀 Mission En tant que Data Engineer AWS , vous interviendrez sur : Conception & développement de data pipelines (Python, Glue, Spark) Modélisation et stockage (S3, Iceberg, Redshift) Mise en place de composants réutilisables Accompagnement des équipes locales (co-construction, support technique) Qualité, sécurité (IAM, Lake Formation) et mise en production

Freelance

Mission freelance
Data Engineer AWS

RED Commerce - The Global SAP Solutions Provider
Publiée le
AWS Cloud
Data Lake
Dataiku

3 mois
Paris, France

Kajenthi@RED Global – Recherche Data Engineer AWS – IDF – Freelance – 3 mois + Dans le cadre du déploiement d’un environnement de Data Augmentée (AWS, Dataiku, Starburst, Datasync), alimenté depuis un Data Lake on-premise , RED Global recherche un Ingénieur Data pour accompagner la mise en production d’un nouveau produit sur AWS . Missions : Résolution des problèmes techniques résiduels sur les environnements. Mise en œuvre de services Data et IA (Bedrock, RAG, etc.). Contribution à un front de génération de comptes-rendus en mode speech-to-speech . Compétences requises : Minimum 3 ans d’expérience sur AWS en environnement Data. Bonne maîtrise des services Data AWS . Connaissance de Starburst et Dataiku appréciée. Environnement technique : AWS, Dataiku, Starburst, Datasync, Bedrock, RAG, Data Lake on-premise. Si vous souhaitez recevoir de plus amples informations sur la mission ou si vous pouvez recommander un collègue ou un ami, n’hésitez pas à me contacter via mail avec votre CV à jour :

Freelance

Mission freelance
Data Engineer AWS

Groupe Aptenia
Publiée le
AWS Cloud
Dataiku
RAG

4 mois
410-540 €
Île-de-France, France

Nous recherchons un(e) Data Engineer AWS pour le déploiement d’un nouvel environnement de Data Augmentée et de GenAI sur AWS. 📍 Localisation : Paris / Remote partiel possible 📅 Démarrage : 01/09/2025 ✅ Déploiement d’un environnement Data & IA complet (AWS, Dataiku, Starburst, Datasync) alimenté depuis un datalake on-premise ✅ Résolution des problèmes résiduels sur les environnements existants ✅ Mise en œuvre des services AWS Data & IA (dont Bedrock) ✅ Implémentation de use cases RAG et Speech-to-Speech

Freelance

Mission freelance
Data Engineer AWS Sénior

Cherry Pick
Publiée le
Amazon S3
AWS Cloud
CRM

24 mois
550-600 €
Paris, France

Notre client recherche un Data Engineer senior pour concevoir et maintenir des pipelines de réplication et de traitement de données dans un environnement cloud AWS à grande échelle. Ce poste s’inscrit dans un programme de transformation data visant à développer des applications qui enrichissent l’expérience client et rendent les équipes métiers autonomes dans l’exploitation des données. L’environnement technique intègre : Outils et plateformes : AWS (S3, Kinesis, DMS, Lambda…), Airflow, Terraform, GitLab CI/CD, Python, Snowflake, Dataiku, Braze, Power BI, IA/ML Bases de données : Exadata, Oracle, SQL Server, Snowflake Architectures : Data Lake, Event-driven, Streaming (+100 To/jour) Cas d’usage : moteur de recommandation, chatbot IA, feature store, socle vidéo, plateforme de contenu, partage de données partenaires, data self-service Missions Concevoir, développer et maintenir des pipelines ETL/ELT pour la réplication et le traitement de données issues de sources hétérogènes. Connecter et intégrer les données depuis différentes bases (Exadata, Oracle, etc.) vers AWS. Mettre en œuvre des traitements de nettoyage, mapping, déduplication et enrichissement des données. Collaborer avec les architectes pour appliquer les modèles cibles et les bonnes pratiques de gouvernance data. Automatiser les pipelines via GitLab CI/CD. Concevoir et déployer l’infrastructure avec Terraform, Ansible et Python (IaC). Assurer le monitoring, la qualité et la performance des flux de données. Contribuer aux initiatives FinOps pour optimiser les coûts cloud. Documenter les processus et alimenter les référentiels techniques.

Freelance

Mission freelance
Data Engineer AWS expérimenté/sal

WorldWide People
Publiée le
AWS Cloud

4 mois
400-450 €
Boulogne-Billancourt, Île-de-France

Data Engineer AWS expérimenté. Il faut 3 ans minimum d'expérience Data sur AWS et une connaissance de Starburst et Dataiku est un plus Date de début souhaitée : début septembre Durée : jusqu'à fin d'année minimum Localisation : Boulogne Billancourt + Télé travail Télétravail possible à hauteur de 50% L'objectif est de déployer jusqu’à l’environnement de production ce qu’on appelle l’environnement de Data Augmentée (AWS, Dataiku, Starburst, Datasync) alimenté depuis un datalake on premise. Dans le cadre d’un nouveau produit déployé sur AWS, il faudra mettre en œuvre des services data et un front (cible génération de CR mode speech to speech) : · Résoudre les éventuels problèmes résiduels sur les environnements · Utiliser les services Data AWS, ainsi que bedrock, et les solutions de RAG etc... pour implémenter les Use Case Data et IA Il faut 3 ans minimum d'expérience Data sur AWS et une connaissance de Starburst et Dataiku est un plus Environnement technique : AWS solutions Data et IA

Freelance

Mission freelance
[FBO] Senior Cloud & DevOps Engineer (AWS/GCP) - 836

ISUPPLIER
Publiée le

3 mois
1-420 €
Toulouse, Occitanie

Constat actuel • Équipe plateforme jugée trop junior. • Besoin équipe de sortir du lead technique. • Pas de possibilité de scaler à la demande sur la plateforme actuelle. • Maintien de l’infrastructure GCP sous responsabilité de l’équipe plateforme. Besoins identifiés • Renfort avec un profil confirmé • Capacité à traduire les besoins business en exigences techniques. • Aller au-delà de l’infrastructure GCP actuelle. • Industrialisation des features Gen AI (GenR - DMZ). Profil Dev avec vernis architecture applicative • Anglais obligatoire (collaboration internationale). Cibles techniques • Plateforme multi-cloud : AWS & GCP. • AWS : IaaS, infra traditionnelle, PCP Landing Zone. • GCP : microservices, usage avancé du cloud. • Environnements automatisés : Terraform, Terragrunt. • Pratiques DevOps : Jenkins, GitHub, Cloud Build, SSM (Enterprise DevOps). • API Framework Python. • Certification GCP souhaitée. • Pas de Kubernetes actuellement. • Démarrage : ASAP → courant septembre. Type de projet (support / maintenance / implementation /…) : Implementation Type de prestation (Client / Hybrid / Remote) : Hybrid Nombre de jours/semaine ou par mois chez le client : 3J/semaine Les astreintes (HNO, etc.) : Non La possibilité de renouvellement (oui/non) : Oui

Freelance
CDI

Offre d'emploi
Data Engineer AWS - Data / IA

SQUARE ONE
Publiée le
AWS Cloud
Big Data
Dataiku

12 mois
40k-55k €
500-520 €
Hauts-de-Seine, France

Contexte de la mission : Dans le cadre du lancement d’une nouvelle plateforme Data & IA dans le cloud, nous recherchons un consultant expérimenté afin d’accompagner le déploiement complet de l’environnement, depuis l’intégration des données jusqu’à la mise en production. Vous interviendrez sur la mise en place et l’optimisation des environnements Data et IA, ainsi que sur le développement de cas d’usage innovants en lien avec la génération et le traitement intelligent de données. Vos missions principales : Finaliser et stabiliser les environnements Data existants (cloud et on-premise interfacés). Mettre en œuvre les services managés Data/IA du cloud (incluant notamment des solutions de génération et de recherche augmentée). Contribuer au développement d’un front applicatif orienté Data/IA (use cases speech-to-speech). Déployer et industrialiser les cas d’usage Data et IA en production. Collaborer avec les équipes projet pour résoudre les problématiques techniques résiduelles.

Freelance
CDI

Offre d'emploi
Data Engineer AWS/Databricks

Hexateam
Publiée le
AWS Cloud
Databricks
Python

24 mois
Île-de-France, France

Missions principales : Conception d’outils Big Data : Contribution active à la conception, au développement et à l’amélioration d’outils de traitement de données massives, couvrant l’ensemble du cycle de vie des données : ingestion, traitement, analyse et restitution. Définition des besoins techniques : Collaboration étroite avec les utilisateurs de la plateforme Data pour comprendre les besoins métier et garantir un alignement optimal entre les solutions développées et les attentes fonctionnelles. Développement sur Databricks et AWS : Réalisation de développements avancés sur les plateformes Databricks et AWS, en utilisant notamment les technologies suivantes : Python, SQL, Spark et Airflow. Intégration des pratiques FinOps : Mise en œuvre de bonnes pratiques FinOps dans le développement afin d’optimiser les coûts, les performances et l’utilisation des ressources sur AWS. Utilisation d’outils tels que dbt , GitLab CI/CD , et autres solutions DevOps. Audit et accompagnement transverse : Réalisation d’audits techniques et de revues de code au sein des équipes, avec pour objectif de renforcer la maîtrise des enjeux techniques et de favoriser l’adoption de stratégies FinOps efficaces. Technologies et outils utilisés : Cloud & Big Data : AWS (S3, EC2, Lambda, Glue), Databricks, Spark Langages & Frameworks : Python, SQL, PySpark Orchestration & Automatisation : Airflow, GitLab CI/CD, dbt Suivi des coûts et performance : Outils FinOps intégrés à AWS Méthodologies de travail : Agile / Scrum, DevOps, FinOps

12 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

France

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous