Trouvez votre prochaine offre d’emploi ou de mission freelance Amazon S3

Votre recherche renvoie 81 résultats.
Freelance

Mission freelance
POT8733 - Un développeur Springboot/Angular sur Grenoble

Publiée le
AWS Cloud

6 mois
330-420 €
Grenoble, Auvergne-Rhône-Alpes
Télétravail partiel
Almatek recherche pour l'un de ses clients, un développeur Springboot/Angular sur Grenoble. Tâches & Missions : Réaliser pour l’un de nos clients différentes évolutions sur une application stratégique dans le domaine de la performance énergétique. Front : Angular Back : micro services SpringBoot Cloud : AWS, services managés AWS (Lambda, Bucket S3, SQS, RDS, etc.) DevOps : (ansible, …) Prérequis : 4 ans d’expériences attendus sur Angular & Spring Boot Une présence à Grenoble en Full time (5 jours/sem) Almatek recherche pour l'un de ses clients, un développeur Springboot/Angular sur Grenoble. Tâches & Missions : Réaliser pour l’un de nos clients différentes évolutions sur une application stratégique dans le domaine de la performance énergétique. Front : Angular Back : micro services SpringBoot Cloud : AWS, services managés AWS (Lambda, Bucket S3, SQS, RDS, etc.) DevOps : (ansible, …) Prérequis : 4 ans d’expériences attendus sur Angular & Spring Boot Une présence à Grenoble en Full time (5 jours/sem).
CDI
Freelance

Offre d'emploi
Tech Lead Python

Publiée le
Python

2 ans
40k-56k €
400-550 €
Bordeaux, Nouvelle-Aquitaine
Tech Lead / Lead Developer expérimenté pour piloter un périmètre technique orienté back-end Python au sein d’un environnement AWS serverless. La mission, inscrite dans la durée, s’appuie sur un contexte technologique structurant et une équipe déjà en place. Le rôle inclut une forte expertise Python ainsi qu’une maîtrise des services AWS (Lambda, S3, DynamoDB, API Gateway), complétées par des pratiques DevOps telles que GitLab CI/CD et Docker, tandis que Terraform constitue un atout apprécié. Le Tech Lead contribuera activement à la définition, au challenge et à l’évolution de l’architecture logicielle, participera au recueil des besoins et à la conception, et interviendra sur le développement back-end. Il aura également pour responsabilité d’encadrer techniquement l’équipe, de garantir la qualité des livrables, de sécuriser les choix techniques et d’accompagner la montée en compétence des développeurs.
Freelance

Mission freelance
Architecte Data IoT

Publiée le
Apache Kafka
Architecture
IoT

12 mois
730-750 €
Lille, Hauts-de-France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un "Architecte Data IoT" pour un client dans le secteur du retail. Description La Data est centrale dans notre écosystème IoT : elle alimente la BI, la maintenance prédictive, la détection d'accidents et la conception intelligente de nos futurs produits. 🎯 Votre Mission : Architecturer la Data de l'IoT du Groupe Au sein de l'équipe "Cloud IoT Platform - Data Solution", vous agissez en tant que Data Architect / Lead Engineer . Vous êtes le garant des choix techniques et de l'architecture permettant d'ingérer, stocker et exposer les données venant du Cloud, des "Devices" et du Mobile. Vos responsabilités clés : Architecture & Stratégie : Imaginer et concevoir l'architecture Data pour collecter les données IoT (directement des appareils ou via mobile). Définir la stratégie des stacks techniques et garantir les standards d'architecture. Assurer l'alignement entre la vision technique, les priorités business et les besoins utilisateurs. Engineering & Pipelines : Construire des pipelines de données (structurées et non structurées) robustes et scalables. Maintenir et redesigner les pipelines existants pour servir de nouveaux cas d'usage (Analytics, IA, etc.). Garantir l'industrialisation des processus de transformation et le CI/CD. Qualité & Gouvernance : Assurer la scalabilité, l'élasticité et la fiabilité des infrastructures. Garantir la qualité de la donnée, son accessibilité, ainsi que le respect des normes de Privacy et Data Governance (Lineage). Leadership Technique : Contribuer activement à la communauté des Data Engineers. Assurer une veille technologique constante pour orienter la sélection des nouveaux outils. 🛠 Environnement Technique Langages : Python, Scala, Java. Big Data & Streaming : Kafka, Spark. Cloud & Infrastructure : AWS (Lambda, Redshift, S3), Microservices. Concepts : Systèmes distribués, Data Modeling, Real-time data exchanges.
Freelance

Mission freelance
Tech Lead Senior Python

Publiée le
Agile Scrum
CI/CD
Python

12 mois
100-510 €
Île-de-France, France
Télétravail partiel
Le Tech Lead aura pour mission principale de diriger et de superviser l'équipe de développement, en veillant à la qualité technique des solutions mises en œuvre et au respect des meilleures pratiques de développement. Il ou elle sera responsable de l'architecture technique du projet, de la planification des tâches de développement. Le Tech Lead devra également encadrer et mentorer les développeurs et développeuses, en les accompagnant dans leur montée en compétences et en veillant à ce que les objectifs de développement soient atteints. Il ou elle sera également responsable de revues de code, de la supervision de l’automatisation des tests et de la gestion des environnements de développement, de test et de production. En collaboration avec les chefs de projet, le Tech Lead participera à la définition des roadmaps techniques et fonctionnelles, en proposant des solutions innovantes et en veillant à ce que les projets soient livrés dans les délais impartis. Il ou elle sera également responsable de la veille technologique, en identifiant les nouvelles technologies et les bonnes pratiques à adopter pour améliorer la qualité des solutions développées. Enfin, le Tech Lead devra également participer aux différentes cérémonies agiles (réunions de planification des sprints, aux rétrospectives, etc) en veillant à ce que l'équipe fonctionne de manière efficace et en constante amélioration. Description détaillée des tâches qui constituent la mission assurera, en accord avec les chef.fe.s de projets, des missions techniques telles que : • La conception et la révision du code source – python o ETLs, 2 app back, 1 schéma de BDD • La documentation du code source • La performance des services back • L’administration des infrastructures informatiques – Jenkins, AWS (S3, RDS), Ansible, Helm, Kubernetes • Les déploiements des apps back sur les différents environnements (dev, recette, intégration, production) • La revue de code des autres .s back-end En parallèle, il.elle se démarquera par sa capacité à s’imprégner des enjeux du projet. Cela passe par : • Un intérêt marqué pour comprendre les enjeux métier du projet • L’appropriation de l’outil et du code source. • Le partage de connaissance technique pour améliorer, en équipe, l’application. • La prise d’initiative sur les sujets techniques. • L’investissement dans les activités de l’équipe projet Tech Lead disposera d’une grande autonomie et sera force de proposition technique pour assurer le fonctionnement de l’application et garantir son adéquation avec le cahier des charges. Il.elle travaillera en équipe et entretiendra des relations pour permettre à celle-ci d’évoluer pour le mieux. Il.elle adaptera sa communication à ses interlocuteurs, aura de l’impact et de l’influence sur les autres. Résultats attendus et/ou livrables avec échéancier si besoin Les résultats de la prestation seront évalués selon les critères suivants : • Livraison des écrans refondus dans les temps. • Documentation technique associée • Comptes rendus d’activité mensuels • Respect des plannings et des jalons
CDI

Offre d'emploi
Architecte Cloud Stockage NetApp

Publiée le
AWS Cloud
Azure
High Level Design (HLD)

41k-87k €
Île-de-France, France
Télétravail partiel
Nous recherchons des Architectes Stockage NetApp avec une expertise en Cloud(Azure ou AWS). Les profils basés au Maroc et intéressés par un poste en France seront les bienvenus. Missions: Concevoir, industrialiser et piloter des architectures de stockage hybrides et multi-cloud basées sur les solutions NetApp (ON-PREM & Cloud), en assurant performance, résilience, sécurité et optimisation des coûts pour des charges de travail critiques. Responsabilités principales : • Architecture & Design o Définir les HLD/LLD pour Azure, AWS et Private Cloud VMware, intégrés aux solutions NetApp (Azure NetApp Files, FSx for NetApp ONTAP, Cloud Volumes ONTAP, ONTAP on-prem). o Modéliser les patterns : NAS (NFS/SMB), sauvegarde et archivage, multirégion/DR. o Dimensionner la capacité, la perf (IOPS/latence/throughput), et établir RPO/RTO, SLA/SLO. o Dimensionner la consolidation des données (SnapMirror/SVM-DR, XCP, BlueXP Copy & Sync). o Définir les HLD/LLD de l’observabilité (Active IQ Unified Manager, NetApp DII), capacity planning et QoS. • Sécurité & Conformité o Intégrer IAM/AAD/IAM AWS, chiffrement at-rest/in-flight, antivirus, durcissement, traçabilité. o Contribuer aux audits (ISO 27001, NIS2, DORA, etc.) et à la gestion des risques. • Optimisation & FinOps o Gouverner les coûts: tiering (FabricPool vers Blob/S3), classes de stockage, réservations/commitments. o Standards, catalogues de services, modèles Terraform réutilisables, guardrails
Freelance

Mission freelance
Développeur Fullstack Java / React (marché financier)

Publiée le
AWS Cloud
Docker
Java

1 an
490-550 €
Île-de-France, France
Développement d'une application de gestion. Cette application est conçue pour être opérée par des chargés de clientèle, ou de façon automatiquement comme back-end de front-end digitaux. Le consultant aura les responsabilités suivantes : • Développement de nouvelles fonctionnalités • Correction de bugs • Mise en place de tests pour garantir la stabilité de la plateforme • Production et mise à jour de documentations techniques • Être force de proposition pour toute amélioration technique de l'application Contexte technique du projet : • Back end: o JAVA 8/11 & Kotlin o AWS (SNS, SQS, S3, Kinesis) o Bitbucket/GIT o Jenkins o JUnit4 o Spring (Boot, Data) o Docker • Front End: o React JS Fonctionnelle: La maitrîse du marché financier est obligatoire
Freelance

Mission freelance
DevOps Cloud & Réseau AWS

Publiée le
Ansible
Argo CD
AWS Cloud

3 mois
100-600 €
Paris, France
Télétravail partiel
Intitulé du poste Ingénieur DevOps orienté Cloud & Réseau AWS Mission principale Assurer la mise en place et l’automatisation des infrastructures Cloud tout en garantissant la performance et la sécurité des réseaux AWS. Gérer les différents projets en cours et à venir en respectant les standards Ratpdev et les bonnes pratiques Cloud AWS. Mettre en place les chaines de déploiement CI/CD. Gérer le Run et les changements sur infrastructure AWS. Responsabilités clés · Automatisation & CI/CD : Concevoir et maintenir des pipelines CI/CD (GitLab CI/CD, Jenkins). Intégrer des tests automatisés et des contrôles qualité. · Infrastructure as Code (IaC) : Déployer et gérer des environnements via Terraform, Ansible. Implémenter des pratiques GitOps (ArgoCD). · Cloud & Conteneurisation : Administrer des environnements AWS (EC2, S3, RDS, Lambda). Gérer Kubernetes (EKS) et conteneurs Docker. · Réseau AWS : Configurer VPN, Direct Connect, et Transit Gateway pour la connectivité hybride. Superviser la sécurité réseau (pare-feu, segmentation, Zero Trust). Optimiser la latence et la résilience des architectures réseau. Mettre en places des stack network AWS Multi régions · Observabilité & Performance : Monitoring réseau et applicatif (Datadog,CloudWatch). Analyse des flux et optimisation des coûts (FinOps). · Sécurité & Conformité (DevSecOps) : Intégrer la sécurité dans les pipelines (scan vulnérabilités, secrets management). Respecter les standards de gouvernance et conformité Cloud.
Freelance

Mission freelance
DBA Cassandra Mysql Postgresql

Publiée le
Cassandra
MySQL

6 mois
550-650 €
Saint-Denis, Île-de-France
Télétravail partiel
En tant que DBA de Production spécialisé Cassandra / MySQL / PostgreSQL , vous évoluez dans un environnement moderne, distribué et critique hébergé entièrement sur AWS . Vous êtes responsable de l’exploitation, de la performance et de l’évolution de plusieurs clusters haute disponibilité, tout en participant activement aux projets de modernisation Cloud. Vos missions : Administration / exploitation de clusters Cassandra 4.x (environ 60 nœuds, 10 clusters de production). Administration des environnements MySQL 8.x (réplication avancée, InnoDB Cluster, ou Arbiters AWS). Gestion des clusters PostgreSQL 14/15 en réplication haute disponibilité (Streaming Replication, Patroni, etc.). Supervision avancée : mise en place / optimisation de Prometheus, Grafana, CloudWatch, Alertmanager. Gestion des incidents 24/7 (astreintes), diagnostiques et résolution Niveau 2 & 3. Gestion et automatisation des sauvegardes : pgBackRest, XtraBackup, snapshots AWS, tests de PRA. Rafraîchissement automatisé des environnements hors production (CI/CD, anonymisation, pipelines). Optimisation continue des performances (requêtes, indexation, tuning des clusters, optimisation IO). Documentation technique : normes, procédures, architecture data, runbooks. Projets structurants : Migration complète et modernisation sur AWS : Refonte des architectures Data sur AWS Automatisation via Terraform / Ansible Mise en conformité, durcissement et standardisation des clusters Migration / modernisation des clusters Cassandra 4.x vers des architectures AWS optimisées Contribution aux projets orientés conteneurisation (Docker / Kubernetes sur EKS — bonus). Environnement technique (100% AWS) : AWS Services : EC2, EBS, S3, EKS, IAM, CloudWatch, ALB/NLB, KMS, VPC, Secrets Manager, Backup. OS : Rocky Linux / RedHat 8.x Bases de données : Cassandra 4.x, MySQL 8.x, PostgreSQL 14/15 Écosystème : Elasticsearch 8.x, Kafka/MSK Outils : Terraform, Ansible, GitLab CI/CD, Prometheus, Grafana
Freelance

Mission freelance
DATA Engineer - AWS(H/F)

Publiée le
AWS Cloud
Azure DevOps
Data Lake

1 an
510-540 €
Île-de-France, France
Télétravail partiel
Nous cherchons : Un(e) Data Engineer motivé(e) pour rejoindre notre squad Data Platform et contribuer à la construction, l’exploitation et l’optimisation de notre plateforme Data dans un environnement Cloud (AWS / Azure). Missions principales : Concevoir, développer et maintenir des solutions de Data Lake (Gen 2, S3). Développer des microservices et applications en Python et C# . Mettre en place et maintenir des processus de déploiement automatisé avec Terraform . Participer au RUN et au Build de la Data Platform (support, supervision, optimisation). Automatiser et améliorer les activités d’exploitation (SRE, FinOps). Définir et appliquer les bonnes pratiques de sécurité, qualité, résilience et observabilité. Collaborer avec les Data Officers, Data Architects et Data Engineers dans un cadre Agile . Assurer la documentation et le suivi des livrables (artefacts, mises en production).4 Stack technique : Cloud : AWS (S3, VPC, services Data), Azure (ADLS Gen 2 – un plus). Langages : Python, C#. Infra as Code : Terraform. Data : ETL, Data Lake (Gen 2, S3). Monitoring & Observabilité : Grafana, Azure App Insights. Méthodologie : Agile / SRE / FinOps.
CDI

Offre d'emploi
Ingénieur DataOps IA

Publiée le
AWS Cloud
Google Cloud Platform (GCP)
IA Générative

France
Télétravail partiel
Au sein de l’équipe Data & IA, vous participerez activement à la mise en production et à la fiabilisation des plateformes de données et des modèles IA. Vous interviendrez sur les volets suivants : Développement et automatisation de pipelines Data/ML (ETL, CI/CD, orchestration). Industrialisation et monitoring des modèles de Machine Learning. Déploiement d’infrastructures Cloud sur GCP (Vertex AI, BigQuery, Dataflow, Cloud Run) et AWS (S3, Lambda, SageMaker). Implémentation d’une approche Infrastructure as Code (Terraform, CloudFormation). Optimisation de la performance, la sécurité et la résilience des environnements. Collaboration étroite avec les Data Scientists pour fiabiliser les déploiements de modèles IA.
CDI
Freelance

Offre d'emploi
Développeur senior PHP/Symfony

Publiée le
Apache Kafka
API REST
Docker

6 mois
Rennes, Bretagne
Télétravail partiel
Nous recherchons actuellement un(e) Développeur(se) senior pour renforcer notre pôle Développement, pour : Mettre en place une solution d’archivage basée sur MinIO (S3). Permettre le dépôt de fichiers via API ou SFTP, avec gestion des métadonnées. Mettre en place une solution de chiffrement des données archivées Implémenter un module d'écoute pour alimenter dynamiquement des repositories métiers. Construire des repositories (Base de données) Mettre en place un système de purge automatique selon des règles de rétention par type de document. Exposer les documents et leurs métadonnées via une API REST sécurisée. Il vous sera demandé de pouvoir réaliser des : Schéma d’architecture Modèle de données Spécifications techniques Code source Tests Unitaires et Rapports de Tests Documentation des développements réalisé Procédure de déploiement et plan de mise en production Manuel d'utilisation technique (création de repo, ajout de conf, nouveaux consommateurs etc..) Définition, mise en œuvre et réalisation de tests de montée de charge Vous êtes curieux, rigoureux et autonome tout en appréciant travailler en équipe. Vous êtes à l'affût de toutes les nouveautés et innovations du monde du développement logiciel.
Freelance
CDI

Offre d'emploi
Architecte Data (AWS / Databricks / GénIA)

Publiée le
Architecture
AWS Cloud
Databricks

12 mois
Île-de-France, France
Télétravail partiel
Dans le cadre du développement de ses activités autour de la Data Platform et de l’Intelligence Artificielle Générative , Hextaem recherche un(e) Architecte Data pour intervenir sur la conception, l’industrialisation et la modernisation d’une plateforme Big Data Cloud bâtie sur AWS , Databricks et des services IA avancés. L’objectif est de définir et de mettre en œuvre une architecture scalable, sécurisée et orientée IA , capable de supporter les cas d’usage analytiques, data science et génAI (RAG, copilotes, modèles internes). Missions principales 1. Conception et architecture de la plateforme Data Définir l’architecture cible sur AWS (S3, Glue, Athena, Lambda, Redshift, etc.). Concevoir les pipelines de données dans Databricks (ingestion, transformation, orchestration). Définir les standards de data quality, gouvernance et sécurité (IAM, encryption, lineage). Structurer les environnements (bronze / silver / gold) selon les meilleures pratiques Lakehouse. 2. Gouvernance et performance Mettre en place des patterns de développement et d’industrialisation (CI/CD Data). Superviser la performance des jobs et optimiser les coûts de la plateforme. Assurer la traçabilité et la conformité des données (RGPD, ISO, sécurité). 3. Génération d’intelligence et IA générative Participer à la conception d’architectures hybrides Data + IA Générative (RAG, embeddings, vector stores). Intégrer des modèles LLM (OpenAI, Anthropic, Hugging Face, Bedrock, etc.) aux pipelines existants. Collaborer avec les Data Scientists pour industrialiser les use cases IA. Évaluer la pertinence d’outils de nouvelle génération (LangChain, LlamaIndex, VectorDB, etc.). 4. Conseil, accompagnement et expertise Être le référent technique sur la plateforme Data pour les équipes internes et clients. Accompagner les Data Engineers et Data Scientists dans la mise en œuvre des bonnes pratiques. Participer aux phases d’avant-vente et d’architecture auprès des clients Hextaem. Assurer une veille technologique active sur les sujets Cloud, Big Data et GénIA. Compétences techniques : Cloud & Data Platform: AWS (S3, Glue, Athena, Redshift, Lambda, IAM, CloudFormation/Terraform) Data Engineering: Databricks (Spark, Delta Lake, MLflow), ETL/ELT, orchestration (Airflow, ADF) Gouvernance & Sécurité: Data lineage, catalog (Glue Data Catalog, Unity Catalog), RBAC, encryption Langages: Python, SQL, PySpark CI/CD & DevOps: Git, Docker, Terraform, GitHub Actions / Jenkins IA Générative (bonus) L:LMs (OpenAI, Bedrock, Hugging Face), LangChain, VectorDB, RAG patterns
Freelance
CDI

Offre d'emploi
Senior Data engineer AWS

Publiée le
Terraform

18 mois
40k-45k €
100-550 €
Paris, France
Télétravail partiel
CONTEXTE : Experience : 7 ans et plus Métiers Fonctions : Data Management, Software engineer Spécialités technologiques : Data Compétences Technologies et Outils AWS Spark Airflow Snowflake Secteurs d'activités Services Informatiques Conseil en organisation, stratégie MISSIONS Rattaché(e) au périmètre du Responsable Data Platform, vos missions consisteront à : - Développer des pipelines et ETL sur AWS vers Snowflake - Mettre en place des stockage optimisé grâce aux technologies lakehouse et en particulier DeltaLake - Créer des jobs manipulant la donnée avec SQL et Python (pandas et ou Polars) - Réaliser les traitements de volume de données massives avec PySpark - Développer et maintenir des infrastructures avec de l’IaC et en particulier avec Terraform - Orchestrer les différents traitements via Airflow - Déployer et maintenir des applications via la CI/CD - Participer aux réflexions et au design d’architecture - Bonne capacité de vulgarisation et de communication - Participer aux rituels agiles de l’équipe - Contribuer à la documentation technique et fonctionnelle 5 à 10 ans en tant que Data Engineer, avec une expérience significative sur AWS. Un positionnement en tant que techlead serait un plus. De l’expérience dans un contexte BI serait un plus. Un positionnement ou une expérience en tant que DevOps serait un plus. Expertise souhaitée Python, PySpark, AWS (EMR, S3, Lambda), Airflow, SQL, Snowflake, Terraform, Databricks, Gitlab.
Freelance
CDI

Offre d'emploi
Architecte Technique Data Expert Technique - Architecture Data & Cloud (H/F)

Publiée le
Gitlab

18 mois
40k-45k €
110-600 €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
CONTEXTE Experience : 5 ans et plus Métiers Fonctions : Architecture technique, Sécurité, Méthode, Expert technique Spécialités technologiques : Cloud, Infrastructure & Cloud, Devops, Gouvernance des données, IAM Compétences Technologies et Outils AWS CI/CD Spark Terraform Python Docker Kinesis Amazon Kubernetes Gitlab Description et livrables de la prestation Le poste d'Architecte Technique Data Expert Technique, également de niveau Expérimenté ou Sénior, a pour mission d'assurer la validité technique et l'alignement des architectures Data avec les standards définis dans le cadre du Programme Vision 2035. En tant que référent technique, vous interviendrez en amont au sein des équipes CAPVISION (méthodologies Capvision, Découverte, Zoom) pour définir les architectures cibles et garantir leur cohérence au sein de l'écosystème SI existant. Vos responsabilités englobent la définition des architectures Cloud (performance, résilience), la mise en œuvre de la gouvernance des données (Dataviz, Datamesh), et la sécurisation des données. Compétences et Technologies (Focus Technique) : Ce rôle requiert une expertise en architecture Data et Cloud (Niveau 4). La maîtrise des outils de gouvernance de la donnée tels que Dataviz et Datamesh est primordiale (Niveau 4). Une expertise est demandée sur la gestion de la sécurité du SI, notamment la gestion des accès (IAM) et les mécanismes de protection des données (Niveau 4). De solides connaissances en intégration et déploiement continus (CI/CD) sont requises (Niveau 4). Techniquement, vous utiliserez Python et Spark. Les services Cloud spécifiques comprennent AWS IAM, Amazon Kinesis, AWS Lake Formation, AWS S3, ainsi que les outils d'industrialisation AWS, Gitlab CI, Docker, Kubernetes et Terraform. Expertise souhaitée Architecte Technique Data Expert Technique
Freelance

Mission freelance
Data Scientist / GenAI /LLM

Publiée le
Machine Learning
Python
Pytorch

2 ans
650-750 €
France
Télétravail 100%
Vous intégrerez une équipe Data Science d’envergure (50+ personnes) au sein d’une entreprise tech internationale, leader dans son domaine. Votre mission : prototyper, itérer et mettre en production des modèles de Machine Learning à fort impact business, en étroite collaboration avec les équipes Produit, Data Engineering et Développement. Les projets menés visent à exploiter la richesse de larges volumes de données afin d’ optimiser les performances commerciales, la gestion opérationnelle et la sécurité des utilisateurs sur une plateforme utilisée par des centaines de grandes marques et des milliers de vendeurs dans le monde . Exemples de sujets traités Détection d’anomalies sur les prix ou les comportements vendeurs Analyse de sentiment sur les échanges client / vendeur Estimation des délais de livraison et anticipation des ruptures de stock Développement d’ agents IA pour assister la prise de décision Prédiction et modélisation de phénomènes liés à la supply chain Vos missions Analyser, nettoyer et préparer les données pour la modélisation Concevoir, tester et mettre en production des algorithmes ML / DL Collaborer avec les Data Engineers pour l’industrialisation des modèles Créer des dashboards de suivi et d’analyse de performance Présenter vos travaux en interne et contribuer à la veille scientifique de l’équipe Stack technique Langages & Frameworks : Python, TensorFlow, PyTorch, Keras Data & Cloud : Databricks, Spark, AWS (Redshift, S3), SQL, Airflow, Delta Lake Approches : Time Series, NLP, LLMs, Deep Learning, Heuristiques
Freelance

Mission freelance
Data Engineer AWS

Publiée le
AWS Cloud
PySpark
Python

12 mois
550-580 €
Paris, France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un "Data Engineer AWS" pour un client dans le secteur des transports Description 🎯 Contexte de la mission Au sein du domaine Data & IA , le client recherche un MLOps Engineer / Data Engineer confirmé pour intervenir sur l’ensemble du cycle de vie des solutions d’intelligence artificielle. L’objectif : industrialiser, fiabiliser et superviser la production des modèles IA dans un environnement cloud AWS à forte exigence technique et opérationnelle. Le poste s’inscrit dans une dynamique d’ industrialisation avancée et de collaboration étroite avec les Data Scientists , au sein d’une équipe d’experts en intelligence artificielle et data engineering. ⚙️ Rôle et responsabilités Le consultant interviendra sur les volets suivants : Industrialisation & CI/CD : Mise en place et maintenance de pipelines CI/CD avec GitLab, Docker, Terraform et Kubernetes . Infrastructure & automatisation : Gestion et optimisation des environnements AWS (S3, EMR, SageMaker, IAM, etc.) , mise en place de bonnes pratiques IaC. Data Engineering / Spark : Développement et optimisation de traitements Spark pour la préparation et la transformation de données à grande échelle. MLOps & Production : Déploiement, suivi et supervision des modèles IA via MLflow , et Datadog , gestion du monitoring et des performances. Collaboration transverse : Travail en binôme avec les Data Scientists pour fiabiliser le delivery, optimiser les modèles et fluidifier le passage en production. Amélioration continue & veille : Contribution à la montée en maturité technique, documentation, partage de bonnes pratiques et optimisation continue des pipelines.
81 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous