Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 21 résultats.
Freelance

Mission freelance
Cloud Engineer (AWS – Media & IoT)

Publiée le
AWS Cloud

1 mois
100-550 €
Paris, France
Télétravail 100%
Dans un contexte de scale et de renforcement de la roadmap , tu rejoins l’équipe Platform pour concevoir et faire évoluer une Media API stratégique. L’objectif : unifier l’accès aux caméras, flux vidéo/images et transformations média , dans un environnement IoT + serverless , sécurisé et scalable. Media API & Serverless Concevoir et développer une Media API pour interagir avec des caméras (IoT / Edge). Implémenter une architecture API Gateway on top of AWS Step Functions . Créer des endpoints manquants qui ne sont pas couverts par les APIs existantes. Unifier l’accès : caméras images flux vidéo transformations média (processing, déclenchements, workflows) Architecture & Platform Participer aux choix d’architecture cloud (patterns serverless, event-driven). Garantir scalabilité, sécurité et résilience des services. Travailler main dans la main avec les équipes Cloud, Data/ML, Produit et IoT . Sécurité & fiabilité Implémenter une approche Security by design : IAM / permissions secrets management politiques réseau Contribuer à la mise en place de : monitoring & observabilité runbooks gestion des incidents Automatisation Infrastructure as Code (Terraform ou CDK). CI/CD unifié et industrialisé. Participation à l’amélioration continue de la platform.
Alternance

Offre d'alternance
Alternant Cloud Engineer - AIgmented

Publiée le
Cloud
DevOps

12 mois
Mulhouse, Grand Est
🎯 Mission principale Concevoir, développer et maintenir une infrastructure cloud sécurisée, scalable et industrialisée (CI/CD), basée sur des conteneurs (Docker) et de l’orchestration (Kubernetes), en garantissant la bonne gestion des ressources informatiques et des accès utilisateurs. 🧩 Responsabilités 1. Architecture & développement Cloud Concevoir et mettre en œuvre des architectures cloud (on-premise, cloud public ou hybride). Conteneuriser les applications existantes et nouvelles (Docker). Déployer et maintenir des clusters Kubernetes (K8s) pour les environnements de dev, test et prod. Mettre en place des workflows CI/CD (GitLab CI, GitHub Actions, Jenkins, etc.). 2. Orchestration & gestion des ressources Dimensionner et optimiser l’usage des ressources (CPU, RAM, stockage, GPU si besoin). Gérer les namespaces, quotas, autoscaling (HPA/VPA), nodes pools, etc. Suivre les performances et coûts (monitoring, alerting, dashboards). 3. Cybersécurité & gestion des accès Définir et appliquer les politiques de sécurité (RBAC, gestion des rôles, secrets, certificats). Mettre en œuvre la sécurité des conteneurs (scans d’images, durcissement, politiques réseau). Gérer les identités et accès (IAM, SSO, OAuth2, Keycloak/AD, etc.). Participer aux revues de sécurité et à la gestion des incidents (logs, traces, audits). 4. Supervision, fiabilité & exploitation Mettre en place le monitoring (Prometheus, Grafana, ELK/EFK, OpenTelemetry…). Assurer la haute disponibilité et la résilience (backups, DRP, redondance). Documenter les procédures d’exploitation, de déploiement et de reprise. 5. Collaboration & support Travailler en étroite collaboration avec les équipes de dev, data/IA et produit. Accompagner les développeurs pour adapter leurs applis au modèle cloud natif. Participer à l’amélioration continue des pratiques DevSecOps.
Freelance

Mission freelance
Cloud Engineer Data (GCP) – Secteur Assurance

Publiée le
Architecture
BigQuery
Cloud

1 an
Paris, France
Télétravail partiel
Contexte de la mission Dans le cadre du renforcement de sa plateforme data cloud, un acteur majeur du secteur de l’assurance recherche un Cloud Engineer orienté data . La mission consiste à accompagner la structuration, la fiabilisation et l’exploitation des environnements data sur GCP , en support des équipes IT Data. Missions principales Concevoir et maintenir les environnements cloud data sur GCP Accompagner les équipes Data Engineer dans l’exploitation des plateformes data Participer à la conception des architectures cloud data Garantir la disponibilité, la performance et la sécurité des environnements Assurer le lien entre les équipes infrastructure, cloud et data Contribuer à l’industrialisation des plateformes data Stack technique obligatoire Google Cloud Platform (GCP) Environnements cloud data Services data GCP (dont BigQuery) Connaissance des environnements Hadoop appréciée Profil recherché Cloud Engineer confirmé orienté data Bonne compréhension des architectures data cloud Capacité à travailler avec des équipes data techniques Profil structurant, orienté conception et exploitation
Freelance
CDI

Offre d'emploi
Cloud OPS Engineer - H/F

Publiée le
AWS Cloud
DevOps
Google Cloud Platform (GCP)

3 ans
50k-55k €
500-550 €
Lille, Hauts-de-France
Télétravail partiel
Qui sommes-nous ? Chez AMD Blue , l'innovation est notre passion, et nous sommes fiers de présenter Blue Data . Avec une présence établie sur l'ensemble du territoire français et une récente expansion aux États-Unis, nous sommes résolument tournés vers l'avenir. Dans le cadre d’un besoin client, nous avons l'opportunité d'accueillir un nouveau membre au sein de notre Tribu. Contexte de la mission : Vous rejoindrez une équipe "Workspace" d'envergure internationale, dédiée à la transformation digitale de l'expérience utilisateur pour plus de 2000 sites physiques à travers le monde. L'objectif est d'accompagner l'évolution des solutions IT sur quatre périmètres majeurs : l'End User Computing, l'Authentification, la Green Tech et les outils de collaboration. Descriptif de la mission : Au sein de ce pôle technologique, vos missions principales seront : Gestion du Run N3 : Assurer le support de niveau 3 (environ une semaine par mois) pour traiter les incidents complexes et les demandes de services (SR). Support & Conseil Cloud : Accompagner et conseiller les utilisateurs dans leurs actions sur les environnements Cloud (AWS/GCP). Amélioration Continue : Être force de proposition sur l’automatisation et l’industrialisation des processus du support Cloud. Lien N3/N4 : Assurer l'interface technique entre le support opérationnel et les équipes d'ingénierie (N4) ainsi que les Product Owners. Projets & Build : Participer activement aux projets Cloud (outillages, développements, déploiements) et garantir leur bon déroulement technique. Documentation : Créer et maintenir la documentation technique liée au Run et au Build.
Freelance

Mission freelance
Senior GCP Cloud Engineer - Génie Civile - Full Remote (H/F)

Publiée le
Google Cloud Platform (GCP)
Python
Terraform

6 mois
500-550 €
Toulouse, Occitanie
Télétravail 100%
Grand groupe dans le secteur GENIE CIVIL, rejoignez une équipe tech ambitieuse en tant que Senior GCP Cloud Engineer le déploiement de deux nouveaux projets pour concevoir, automatiser et maintenir l’infrastructure cloud de notre plateforme sur GCP. Vous jouerez un rôle central dans l’implémentation de solutions scalables et robustes à travers Terraform, Terragrunt, Python, chaîne DevOps avec github et Jenkins. Mission longue durée à pourvoir début janvier 2026. Missions - Développer, déployer et optimiser des Landing Zones sur GCP pour de nouveaux projets stratégiques. - Collaborer étroitement avec les équipes de DevOps pour intégrer des solutions automatisées avec Terraform et Terragrunt. - Assurer le support et la formation des équipes internes ainsi que des clients sur les meilleures pratiques et innovations de GCP. - Gérer les permissions IAM et la configuration VPC-SC afin de garantir l'intégrité et la sécurité de l'environnement cloud. - Interagir régulièrement avec les stakeholders pour comprendre et répondre aux besoins commerciaux et techniques. - Documenter les processus et partager les bonnes pratiques au sein de l'entreprise. - Participer à des sessions de formation pour contribuer à l'évolution technique de l'équipe.
Freelance

Mission freelance
DevOps / Cloud Platform Engineer – AWS & Terraform

Publiée le
AWS Cloud
CI/CD
DevOps

12 mois
550-600 €
Paris, France
Télétravail partiel
Dans le cadre du renforcement de sa plateforme cloud , une grande organisation internationale recherche un DevOps / Cloud Platform Engineer pour intervenir sur la conception, l’industrialisation et l’exploitation d’une plateforme AWS sécurisée et scalable. Vous rejoindrez une équipe Platform Engineering transverse, au service de multiples équipes produits, avec un fort enjeu d’automatisation, de standardisation et de fiabilité. La mission s’inscrit dans la durée (minimum jusqu’à fin 2026, avec possibilité de prolongation). Missions En tant que DevOps / Cloud Platform Engineer , vous interviendrez sur l’ensemble du cycle de vie de la plateforme cloud : Infrastructure & Cloud AWS Concevoir et maintenir une plateforme AWS multi-comptes (Organizations, Control Tower, gouvernance, sécurité). Définir des architectures cloud robustes et alignées avec les bonnes pratiques AWS . Mettre en place et maintenir des blueprints / golden paths pour différents types de workloads : Conteneurs (EKS, ECS, Fargate) Serverless (Lambda) Workloads traditionnels (EC2, Auto Scaling) Infrastructure as Code & Terraform Concevoir et développer des modules Terraform réutilisables (réseau, sécurité, compute, data). Gérer Terraform à l’échelle : Remote state (S3, DynamoDB) Versioning et lifecycle des modules Multi-environnements Détection et correction du drift CI/CD & Automatisation Construire et maintenir des pipelines CI/CD (GitLab CI, Jenkins) pour : Infrastructure et applications Tests automatisés Policy-as-Code (OPA / Conftest) Scans de sécurité (tfsec, Checkov) Déploiements automatisés (Atlantis, Spacelift, Terraform Cloud) Automatiser les tâches récurrentes via scripts Bash/Python ou outils internes. Exploitation, Sécurité & Fiabilité Mettre en place la supervision et l’observabilité : CloudWatch, OpenTelemetry Prometheus / Grafana Datadog, OpenSearch Définir et suivre les SLI/SLO . Assurer la sécurité des environnements : IAM en moindre privilège KMS, gestion des secrets (Secrets Manager, SOPS) Patching, scans IaC et images Participer au support avancé (L2/L3), à la gestion des incidents et aux post-mortems. Migration & Accompagnement Accompagner les équipes dans la migration de workloads on-premise vers AWS : Audits et assessments Choix des patterns d’architecture Adoption des templates et outils Support et coaching des équipes
CDI

Offre d'emploi
Cloud Data Engineer

Publiée le
Big Data
Cloud

60k-70k €
Paris, France
Télétravail partiel
Responsabilités Unificateur de données : Concevoir, assembler, intégrer, nettoyer et harmoniser de grands jeux de données complexes afin de fournir des insights métier et d’alimenter des expériences de produits data. Agent de sécurité des données : Concevoir et construire des infrastructures de données fiables et scalables en utilisant les meilleures pratiques en matière de confidentialité et de sécurité pour protéger les données. Data Ops : Piloter l’ensemble de la chaîne data de bout en bout, incluant la collecte des événements, la gouvernance des données, les intégrations data et la modélisation. Responsable des données (Data Custodian) : Garantir la cohérence et la qualité de l’environnement technique et de la structure des données à travers des métriques, de la documentation, des processus, des tests de données et de la formation. Si vous possédez tout ou partie des compétences suivantes, n’hésitez pas à postuler Bonne connaissance des services de Cloud Data Warehouse. Une expérience sur Google BigQuery, Snowflake, AWS Redshift/Athena, Looker, Azure SQL DWH ou Azure Databricks est fortement appréciée. Bonne maîtrise des architectures relationnelles et Big Data, de l’entrepôt de données, de l’intégration des données, de la modélisation, de l’optimisation et des techniques d’analyse de données. Expérience dans la construction de pipelines de données de bout en bout sur des plateformes data on-premise ou cloud. Expérience concrète dans la livraison de solutions incluant des bases de données, du SQL avancé et du développement logiciel dans des langages tels que Python. Intérêt marqué et bonnes connaissances des technologies Big Data et de l’écosystème Apache (Beam, Spark, Kafka, Airflow), ainsi que des bases de données, de l’intégration, du master data management, de l’assurance qualité, du data wrangling et des technologies de gouvernance des données. Expérience des plateformes cloud publiques et des infrastructures cloud, indispensable pour le poste. Exposition aux outils ETL/ELT et de gouvernance des données. Intérêt pour les technologies et principes de l’IA et du Machine Learning. Capacité à migrer et transformer de grands jeux de données complexes issus de sources, structures et formats variés, modélisés pour supporter l’analyse et fournir des insights exploitables de qualité. Vous êtes un(e) analyste rigoureux(se) et un(e) excellent(e) résolveur(se) de problèmes, doté(e) d’un esprit de leadership intellectuel et d’une bonne compréhension des enjeux business. Vous êtes parfaitement bilingue français / anglais (poste basé à Paris). Avantages Nous nous engageons à faire vivre notre mission au quotidien, en commençant par offrir des avantages permettant à nos collaborateurs de s’épanouir : Vous bénéficierez d’un package compétitif, adapté à votre expérience, avec de réelles opportunités d’évolution. Nous avons à cœur de vous faire grandir et de vous aider à devenir la meilleure version de vous-même au sein d’une équipe de classe mondiale, composée de personnes brillantes et passionnées. Nous investirons fortement dans votre développement à travers des formations continues et un parcours de développement des compétences personnalisé. Nous valorisons l’initiative et soutenons volontiers les activités de team building ou tout type de formation enrichissante. Il n’existe pas de « sachant unique » : même si nos consultants débutent avec une dominante stratégique/business ou technique, ils sont encouragés à développer ou renforcer leur expertise et leur posture de conseil au fil des missions clients. Nos équipes RH et Staffing assurent un suivi individualisé afin d’aider chacun à devenir la meilleure version de lui-même. Inclusion & Diversité La diversité de nos équipes est au cœur de notre capacité à innover, à croître et à concrétiser notre ambition collective : aider chacun à construire son avenir. La curiosité naturelle, le respect des différences et un état d’esprit tourné vers l’apprentissage et la progression sont particulièrement valorisés.
Freelance
CDI
CDD

Offre d'emploi
Senior Azure IAM Engineer / Cloud Security Engineer

Publiée le
IAM

12 mois
Charleroi, Hainaut, Belgique
Télétravail : 3 jours / semaine Contexte: Le Senior Azure IAM Engineer / Cloud Security Engineer rejoindra la Factory IAM. L'objectif est de mettre en œuvre la stratégie de nettoyage des droits privilégiés dans Azure, en appliquant les bonnes pratiques de sécurité, en supprimant les héritages non maîtrisés, et en modélisant les rôles techniques dans un environnement cloud complexe. Tâches principales : • Collecter et analyser les permissions existantes dans Azure (Management Groups, Subscriptions, Resource Groups). • Supprimer les héritages de droits non souhaités depuis le Management Group Root. • Implémenter des modèles de rôles RBAC sécurisés et adaptés aux besoins métiers. • Automatiser les audits et les revues d’accès via PowerShell, Azure CLI. • Monitorer les usages des rôles à privilèges (Owner, Global Admin, etc.) et proposer des remédiations. • Collaborer avec les équipes IAM, I&O et sécurité pour intégrer les rôles dans les workflows existants. • Documenter les rôles, les règles d’héritage, et les processus d’attribution. • La surveillance et reporting des journaux d'activité (Audit Logs) pour la détection d'anomalies et violations de sécurité. Profil recherché : • Certification Microsoft SC-300 : Identity and Access Administrator Associate – Must have • Certification Microsoft SC-104 : Azure Administrator Associate - Nice to have • Expertise en Azure RBAC, Entra ID, PIM, et gestion des rôles personnalisés. • Maîtrise des outils d’automatisation : PowerShell, Azure CLI. • Connaissance des limites Azure (nombre d’assignations, héritage, etc.). • Expérience en sécurité cloud et gouvernance des accès. • Capacité à travailler en environnement multi-équipes et à gérer des projets techniques complexes. • Langues : Français C1, Anglais B2 • Autonomie
Freelance
CDI

Offre d'emploi
Senior Azure IAM Engineer / Cloud Security Engineer - 12 mois - Charleroi

Publiée le
Automatisation
Azure
IAM

6 mois
Charleroi, Hainaut, Belgique
Télétravail partiel
Senior Azure IAM Engineer - 6 mois renouvelable - Charleroi Un de nos importants clients recherche un Ingénieur Senior Azure IAM Engineer pour une mission de 6 mois renouvelable sur Charleroi. L'objectif est de mettre en œuvre la stratégie de nettoyage des droits privilégiés dans Azure, en appliquant les bonnes pratiques de sécurité, en supprimant les héritages non maîtrisés, et en modélisant les rôles techniques dans un environnement cloud complexe. Tâches principales : Collecter et analyser les permissions existantes dans Azure (Management Groups, Subscriptions, Resource Groups). Supprimer les héritages de droits non souhaités depuis le Management Group Root. Implémenter des modèles de rôles RBAC sécurisés et adaptés aux besoins métiers. Automatiser les audits et les revues d’accès via PowerShell, Azure CLI. Monitorer les usages des rôles à privilèges (Owner, Global Admin, etc.) et proposer des remédiations. Collaborer avec les équipes IAM, I&O et sécurité pour intégrer les rôles dans les workflows existants. Documenter les rôles, les règles d’héritage, et les processus d’attribution. La surveillance et reporting des journaux d'activité (Audit Logs) pour la détection d'anomalies et violations de sécurité. Profil recherché : Certification Microsoft SC-300 : Administrateur d'Identité et d'Accès Associé Expertise en Azure RBAC, Entra ID, PIM, et gestion des rôles personnalisés. Maîtrise des outils d’automatisation : PowerShell, Azure CLI. Connaissance des limites Azure (nombre d’assignations, héritage, etc.). Expérience en sécurité cloud et gouvernance des accès. Capacité à travailler en environnement multi-équipes et à gérer des projets techniques complexes. Langues : Français C1, Anglais B2 Autonomie Si cette offre vous intéresse merci de m'envoyer votre CV et je reviendrai vers vous dès que possible avec les détails.
Freelance

Mission freelance
Lead Data Engineer Azure Databricks

Publiée le
Apache NiFi
Databricks
PySpark

3 ans
600 €
Île-de-France, France
Télétravail partiel
🔍 Nous recherchons un(e) Lead Data Engineer Azure Databricks avec une forte posture de transmission, coaching et mise en place des standards, pour accompagner une équipe en montée de maturité sur Databricks. 📅 Démarrage ASAP 📍 Île-de-France 🎯 Missions clés : ✅ Optimisation & fiabilisation des jobs Databricks (PySpark / Spark) ✅ Mise en place des standards & bonnes pratiques Data Engineering ✅ Coaching, mentoring, animation de la communauté Tech Lead ✅ Contribution aux migrations & à la modernisation du DataLake ✅ Travail sur l’industrialisation (CI/CD – Azure DevOps)
Freelance

Mission freelance
Data Engineer Azure / Snowflake

Publiée le
Azure
Databricks
Snowflake

12 mois
Paris, France
Télétravail partiel
Contexte Un acteur majeur du secteur de l’énergie recherche un Data Engineer expérimenté afin de renforcer son équipe Data & Analytics dans le cadre d’un programme stratégique d’industrialisation de la donnée. Missions • Concevoir, développer et maintenir les pipelines de données sur Azure. • Garantir la qualité, la fiabilité et la performance des traitements. • Participer à la modélisation et à l’optimisation des entrepôts de données. • Intégrer et exploiter Snowflake pour la gestion et la transformation des datasets. • Collaborer avec les équipes Data Science, Architecture et Produit. • Contribuer à la mise en place de bonnes pratiques CI/CD, sécurité et monitoring. Compétences techniques attendues • Maîtrise d’Azure Data Platform (ADF, Databricks, Data Lake, Synapse). • Solide expérience en Databricks (PySpark impératif). • Très bonne compréhension de Snowflake : ingestion, transformations, optimisation. • Compétences avancées en Python. • Connaissance des architectures data orientées cloud. • Bonne pratique CI/CD (Azure DevOps). • Compréhension des enjeux de qualité, performance et gouvernance data. Profil recherché • 5 à 6 ans d’expérience en Data Engineering. • Expérience en environnement cloud Azure indispensable. • Expérience confirmée sur Snowflake appréciée et attendue. • Capacité à travailler dans des environnements complexes. • Aisance en communication et travail en équipe. Environnement de travail • Projet data stratégique à très forte visibilité. • Équipe internationale et pluridisciplinaire. • Environnement cloud moderne et structuré. • Mission long terme.
CDI

Offre d'emploi
Data Engineer AWS

Publiée le
Amazon S3
AWS Cloud
AWS Glue

40k-45k €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
Expérience requise : 5 à 10 ans Anglais obligatoire Compétences recherchées : Data Engineer AWS (S3, Glue, Athena, Python) Tâches à traiter : Compréhension des données scientifiques dans le domaine pharma CMC Clarification des besoins avec les parties prenantes, estimation de l’effort pour la planification PI Bonne connaissance des pratiques Lean & Agile Ingénierie de données AWS : S3, Glue (Jobs/Workflows), Athena Développement ETL/ELT : Python, Glue ETL, évolution de schémas, partitionnement Modélisation de données : modèles de domaine harmonisés, schémas en étoile/flocon, gestion des métadonnées Optimisation SQL : amélioration des performances sous Athena, conception de requêtes optimisées en coût, stratégies de partitionnement/pruning Tests et qualité : tests unitaires/intégration pour les pipelines, frameworks de qualité des données Documentation et transfert de connaissances : runbooks, diagrammes d’architecture, planification et exécution du KT Expérience en migration : stratégie de fonctionnement parallèle, planification du cutover, backfill, rapprochement des données
Freelance

Mission freelance
Data Engineer AWS / Snowflake (Urgent)

Publiée le
Amazon S3
AWS Cloud
Gitlab

6 mois
400-550 €
Paris, France
Télétravail partiel
Nous recherchons un Data Engineer AWS / Snowflake confirmé pour intervenir au sein d’une équipe Data sur un environnement cloud moderne, fortement orienté industrialisation, performance et qualité des données. 🎯 Contexte de la mission : Vous serez en charge de maintenir, optimiser et faire évoluer les pipelines et architectures Data existants, dans un écosystème AWS & Snowflake à forte volumétrie. La mission inclut également la prise en main de sujets de développement et d’industrialisation en cours. ⚙️ Vos missions principales : Ingestion & Transformation Développer et maintenir des pipelines Python / PySpark (batch, transformations, industrialisation). Implémenter des processus d’ingestion Snowflake ( Snowpipe, procédures stockées, tables dynamiques, datamarts ). Gérer le datalake, les flux d’ingestion et les orchestrations associées. Architecture & AWS Intervenir sur les services AWS : S3, Lambda, Step Functions, EMR, DynamoDB, RDS, EventBridge, IAM, API Gateway… Optimiser et sécuriser les flux Data sur AWS. Assurer la résilience, les performances et la montée en charge des environnements Data. CI/CD & Infrastructure Maintenir et faire évoluer les pipelines GitLab CI , Travailler avec Docker & Pulumni pour l’industrialisation et l’infrastructure as code. Monitoring & Qualité Mettre en place ou améliorer les mécanismes de monitoring , d’observabilité et de data quality . Documenter, partager les bonnes pratiques et contribuer à l’amélioration continue.
Freelance

Mission freelance
Cloud Security Engineer – Prisma Cloud Expert (H/F)

Publiée le
Cloud

1 an
400-670 €
Île-de-France, France
Télétravail 100%
Contexte de la mission Dans le cadre du renforcement des activités Cloud & Sécurité d’un grand groupe international, nous recherchons un Expert Cloud Security maîtrisant Prisma Cloud (CSPM, CWPP, Code Security). Vous interviendrez au sein d’une équipe d’experts Cloud pour garantir la conformité, la sécurisation et la performance des environnements multi-cloud. Vos principales missions Administrer la plateforme Prisma Cloud sur ses différents volets : CSPM : intégration de nouveaux cloud providers, suivi du bon fonctionnement. CWPP : intégration de nouveaux clusters Kubernetes, scans de registres. Code Security : supervision des intégrations CI/CD et remontées de vulnérabilités. Gérer les accès, rôles et utilisateurs (RBAC) sur Prisma Cloud. Contribuer à la promotion et à l’adoption de l’outil au sein des équipes internes. Collaborer avec le partenaire Palo Alto Networks et participer aux migrations vers Cortex Cloud . Maintenir et documenter les intégrations techniques (ServiceNow, pipelines Azure DevOps). Assurer la mise à jour de la documentation technique et le suivi de la conformité
Freelance
CDI

Offre d'emploi
Data Engineer AWS / Spark / Scala /Python

Publiée le
Apache Spark
PySpark
Scala

1 an
40k-56k €
400-600 €
Paris, France
Télétravail partiel
Bonjour ☺️ Nous recherchons un DATA ENGINEER orienté sur les technologies SPARK / SCALA / PYTHON/ AWS pour le compte de notre client ! Mission : Maintenir la plateforme en conditions opérationnelles : Garantir la disponibilité des données et des services de la plateforme, Assurer la communication avec les utilisateurs de la plateforme, Répondre aux demandes de données (données ad hoc, analyses d’anomalies), Développer les correctifs et évolutions nécessaires, Contribuer à la qualité des données et à l’industrialisation de leur exploitation. Concevoir et développer des services et pipelines de données fiables et performants : Mettre en place des flux de données (acquisition, transformation, export), Concevoir et modéliser les données, Développer et optimiser les pipelines de transformation, Réaliser les tests unitaires et d’intégration, Garantir la qualité des développements via les revues de code, Ordonnancer et gérer les dépendances entre traitements, Déployer sur l’ensemble des environnements, Enrichir et maintenir la documentation de la plateforme. Profil recherché : Minimum 5 ans d'expériences dans un contexte de grande volumétrie de données, Capacité à collaborer avec une pluralité d'interlocuteurs en même temps, Excellent esprit d’équipe, Capacité d'adaptation, Maitrise impérative de : Spark Scala, Python et SQL, Expérience significative sur AWS. Apprécié : Connaissance de Dataiku, Méthodologie Scrum/Safe, Airflow N'hésitez pas à envoyer votre CV !
Freelance

Mission freelance
Data Engineer AWS

Publiée le
AWS Cloud
PySpark
Python

12 mois
550-580 €
Paris, France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un "Data Engineer AWS" pour un client dans le secteur des transports Description 🎯 Contexte de la mission Au sein du domaine Data & IA , le client recherche un MLOps Engineer / Data Engineer confirmé pour intervenir sur l’ensemble du cycle de vie des solutions d’intelligence artificielle. L’objectif : industrialiser, fiabiliser et superviser la production des modèles IA dans un environnement cloud AWS à forte exigence technique et opérationnelle. Le poste s’inscrit dans une dynamique d’ industrialisation avancée et de collaboration étroite avec les Data Scientists , au sein d’une équipe d’experts en intelligence artificielle et data engineering. ⚙️ Rôle et responsabilités Le consultant interviendra sur les volets suivants : Industrialisation & CI/CD : Mise en place et maintenance de pipelines CI/CD avec GitLab, Docker, Terraform et Kubernetes . Infrastructure & automatisation : Gestion et optimisation des environnements AWS (S3, EMR, SageMaker, IAM, etc.) , mise en place de bonnes pratiques IaC. Data Engineering / Spark : Développement et optimisation de traitements Spark pour la préparation et la transformation de données à grande échelle. MLOps & Production : Déploiement, suivi et supervision des modèles IA via MLflow , et Datadog , gestion du monitoring et des performances. Collaboration transverse : Travail en binôme avec les Data Scientists pour fiabiliser le delivery, optimiser les modèles et fluidifier le passage en production. Amélioration continue & veille : Contribution à la montée en maturité technique, documentation, partage de bonnes pratiques et optimisation continue des pipelines.
21 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous