L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 481 résultats.
Mission freelance
Cloud Sec Ops Engineer
Cherry Pick
Publiée le
CI/CD
Google Cloud Platform (GCP)
Terraform
12 mois
570-620 €
Paris, France
Objectifs et livrables Vous excellerez et vous épanouirez dans cette mission si vous êtes prêt à... Etre garant/leader des sujets sécurité du cloud : design, architecture, implémentation, durcissement, bonnes pratiques et reporting. Intervenir au niveau du socle et des cloud architect, pour prendre en charge et piloter les sujets sécurité Accompagner les différentes équipes consommatrices du Cloud sur leurs besoins et problématiques sécurité Définir et améliorer les standards de sécurité Cloud, participer aux démarches de conformité Automatiser les contrôles de sécurité (audits de configuration, alerting, monitoring, remédiation, reporting) Industrialiser les contrôles via IaC, pipelines CI/CD et outils DevSecOps Concevoir des outils et scripts pour renforcer les opérations SecOps. Exploiter des solutions variées et innovantes pour une visibilité et un contrôle continu des risques Cloud Analyser les risques de sécurité, identifier les impacts associés et proposer des plans d'actions adaptés et collaborer à leur mise en œuvre Participer activement à la gestion des incidents de sécurité liés Cloud Assurer la veille sur les nouvelles technos autour de la sécurité et du cloud computing Contribuer à l’intégration sécurisée de l’IA dans le SI Profil recherché : Une expérience confirmée sur Google Cloud Platform (une expérience supplémentaire sur Azure est un plus) Une certification Google Cloud Architect ou Security Engineer (un atout) Une très bonne maîtrise de Terraform et des pratiques IaC. Une expérience des outils d’automatisation, de CI/CD et de gestion de code source (Git, GitHub, Bitbucket) Une bonne compréhension des concepts et technologies sécuritaires : VPC, firewall, IAM, cryptographie, WAF, secrets management, logging & monitoring Une expérience (ou forte appétence) sur les solutions CSPM (Wiz, Prisma Cloud, Defender for Cloud, etc.) pour la gestion des risques Cloud Une familiarité avec des outils SAST (SonarQube, Checkmarx, Snyk Code, etc.) constitue un atout dans un contexte DevSecOps. Des connaissances en technologies Web (HTTPS, REST, CDN, Load Balancing) Une bonne maîtrise des OS Linux/Unix et des langages Bash/PowerShell/Python Une bonne connaissance du Secret Management (Google Secrets Manager, Azure Key Vault) Une bonne maîtrise de la conteneurisation (Docker) et des plateformes orchestrées (Kubernetes, GKE, AKS)
Mission freelance
Expert SQL Sénior / Data Engineer DBT
Signe +
Publiée le
Google Cloud Platform (GCP)
5 mois
280-300 €
Lyon, Auvergne-Rhône-Alpes
🎯 MISSIONS Réaliser la data prep dans le cadre d'un projet d'automatisation des analyses récurrentes Contribuer à l'élaboration d'un cockpit de performance (data prep + data visualisation) Assurer le run quotidien : extraction, automatisation de livrables, création de reporting Renforcer le suivi de performance sur la partie non alimentaire Livrables attendus : Datasets sur BigQuery Classeurs Tableau Analyses + scripts pour le run quotidien 🛠️ ENVIRONNEMENT TECHNIQUE Cloud / Data : GCP, BigQuery Langages / Outils : SQL avancé (gros volumes), DBT Versioning : Git Méthode : Agile / Scrum 👤 PROFIL RECHERCHÉ Expert SQL Senior et/ou Data Engineer DBT confirmé Bac+5 informatique (école d'ingénieur ou université) ou équivalent 7 ans d'expérience minimum en Data Engineering DBT / SQL Expérience retail / grande distribution appréciée Bon communicant, autonome, esprit d'amélioration continue
Offre d'emploi
Data Engineer GCP
CAT-AMANIA
Publiée le
Apache Airflow
BigQuery
Data Engineering
1 an
40k-50k €
350-400 €
Lille, Hauts-de-France
Vous serez intégré dans une équipe pluridisciplinaire (Data Engineer, DevSecFinOps) Vous travaillerez sur un use case dédié en collaboration avec les équipes Data (tech lead, gouvernance et architectes). Vous devrez avoir une approche FINOPS (Maîtrise et diminution des coûts) BUILD - Interlocuteur lors de la contribution à des projets dans le domaine de la Supply - Conception de solutions en respectant les normes et framework data - Développement, Modélisation sous la gouvernance de l'architecture data - Contribution au développement d'appli - Tests - Reporting RUN : - Maintien en condition opérationnelle de notre périmètre de responsabilité (4 référentiels de données opérationnels (RDO) multi sourceurs, 6 applications) - gestion des incidents - mise en production (via Git) - suivi de flux EXPERTISE : - Montée en compétence sur notre SI et notre domaine de responsabilité
Offre d'emploi
Power Platform Engineer en Full Remote (Lyon)
R&S TELECOM
Publiée le
Microsoft Access
12 mois
40k-48k ¤
400-480 ¤
Île-de-France, France
Contexte de la mission : L’Ingénieur Low Code & Automatisation sera en charge de concevoir l’architecture et de superviser la migration de bout en bout de l’écosystème d’applications métier et d’automatisation, de Google Workspace vers Microsoft 365 (AppSheet et App Scripts vers Power Apps). Il devra développer et clarifier les cas d’usage de la Power Platform en contribuant à la conception de building blocks et en apportant un soutien fort à la fois à la migration factory et à la communauté des citizen developers. Tâches à réaliser : Accompagner la transition vers Power Platform (Power Automate, Power Apps) · Gérer le recueil des demandes, la gouvernance applicative et les politiques de gestion du cycle de vie · Soutenir le développement de Power Apps : soit en accompagnant / coachant les citizen developers soit en développant des applications low-code corporate · Préparer les opérations pérennes en déployant des outils pour mesurer : l’usage, les licences, les incidents / problèmes sur l’ensemble de la Power Platform · Stratégie d’intégration : concevoir les mécanismes de liaison entre les plateformes à l’aide de Power Automate et des services back-end (SAP, autres applications corporate) en construisant une bibliothèque de connecteurs · Encadrer les ressources du Global Competence Center et accompagner leur intégration dans l’organisation de planification de migration et de support
Offre d'emploi
AI ENGINEER - DATA SCIENTIST
SMILE
Publiée le
Data science
Pilotage
Python
6 mois
Paris, France
Au sein de la DSI Corporate d’un grand groupe bancaire, le département Développements Tactiques de la direction Fast Delivery Solutions recrute un Expert Leader Data & IA . Cette direction a pour but de mettre en place des solutions rapides au service de l'ensemble des directions métiers et des fonctions supports, en réponse à des besoins ponctuels ou pérennes. En lien avec les DSI métiers, elle en assure la maintenance et participe à leur éventuelle intégration dans le SI. Pour ce faire, elle met au service des filières métiers une équipe de proximité multi solutions afin de les aider dans leurs travaux ponctuels, la réalisation de POC (Proof Of Concept), de reportings ou bien encore l’automatisation de tâches récurrentes. La mission se situe au sein du département Développements Tactiques qui a pour mission de : Développer des outils en mode commando et en proximité directe avec le métier. Mettre en œuvre des solutions faisant appel à de l’IA générative pour répondre à des besoins métier. Accompagner l’industrialisation de ces solutions dans le parc applicatif des DSI filières. Étudier la possibilité de mise en œuvre de solutions innovantes, au travers d’une veille technologique et d’études d’opportunités. Participer à des évènements et animations de démo ou d’ateliers autour de l’IA ou de la data. L’équipe, actuellement constituée de 19 membres (Data Engineers, Data Scientists et Développeurs FullStack), fonctionne entièrement en mode agile et en proximité avec les métiers. Jeune, dynamique, motivée et très proactive, l’équipe valorise l’entraide et la bonne ambiance. Le candidat devra donc avoir la personnalité permettant de conserver cette dynamique intacte. Les soft skills sont donc autant essentielles que les compétences techniques : bon communiquant, motivé, force de proposition et sociable. Compétences techniques déjà présentes dans l’équipe : Développement autour de l’IA Générative. Développement Python / Pycharm. Développement Front Angular. Développement de cas d’usage IA générative à destination du business. Développement PySpark / Spark / Scala. Connaissance des plateformes Cloud. Mise en œuvre de workflows sous Alteryx. La mission : L’équipe se voit confier un nouveau programme visant à mettre en œuvre un ensemble de Use Cases faisant appel à de l’IA générative ou consistant à automatiser des traitements. Pour faire face à ce nouveau programme, nous souhaitons renforcer nos compétences avec un AI Engineer confirmé Data & IA . Principales missions : Innovation et réalisation de POCs : assurer la faisabilité technique des cas d’usage, développer des POCs autour de projets IA générative, proposer des solutions innovantes (LLM, prompts, RAG, traitement de données complexes). Industrialisation : en collaboration avec la production applicative et les contributeurs DSI, industrialiser les sujets dont les POCs s’avèrent concluants. Expertise Data & IA Générative : leader techniquement les projets, en s’appuyant sur les technologies internes (plateforme cloud, outils IA, modèles de langage type Gemini). Force de proposition : identifier des axes d’amélioration et proposer des solutions innovantes. Partage de connaissances : contribuer à la montée en compétences collective au sein de l’équipe. Suivi des sujets : assurer une communication claire et synthétique au responsable de l’équipe et aux Product Owners.
Mission freelance
Data Engineer/ Ingénieur Plateforme Datalab H/F
CELAD
Publiée le
1 an
400-450 €
Rennes, Bretagne
Envie d’un nouveau challenge... CELAD vous attend ! Nous poursuivons notre développement et recherchons actuellement un(e) Data Engineer/ Ingénieur Plateforme Datalab H/F pour intervenir chez un de nos clients. Contexte : Vous intervenez au sein d’une équipe Data en charge de la conception, de l’évolution et du maintien en conditions opérationnelles de plusieurs environnements Data (nouvelles plateformes et systèmes existants). Dans un contexte de transformation, vous contribuez à la mise en place de nouvelles architectures, à la stabilisation des environnements historiques et à la transition des activités du BUILD vers le RUN, avec des enjeux forts de performance, de disponibilité et de fiabilité. Votre mission : Au sein d'une équipe projet, vous serez en charge de : - Participer à la conception et à la mise en place de nouveaux environnements Data - Finaliser et optimiser des environnements existants (haute disponibilité, performance) - Assurer la montée de version des composants et produits Data - Analyser et résoudre les incidents et problèmes récurrents (RUN) - Contribuer à la rédaction des documents d’architecture (DAT) et documentations techniques - Accompagner la transition BUILD to RUN et assurer le suivi des environnements en production
Offre d'emploi
Data Engineer/ Ingénieur Plateforme Datalab H/F
CELAD
Publiée le
40k-48k €
Rennes, Bretagne
Envie d’un nouveau challenge... CELAD vous attend ! Nous poursuivons notre développement et recherchons actuellement un(e) Data Engineer/ Ingénieur Plateforme Datalab H/F pour intervenir chez un de nos clients. Contexte : Vous intervenez au sein d’une équipe Data en charge de la conception, de l’évolution et du maintien en conditions opérationnelles de plusieurs environnements Data (nouvelles plateformes et systèmes existants). Dans un contexte de transformation, vous contribuez à la mise en place de nouvelles architectures, à la stabilisation des environnements historiques et à la transition des activités du BUILD vers le RUN, avec des enjeux forts de performance, de disponibilité et de fiabilité. Votre mission : Au sein d'une équipe projet, vous serez en charge de : - Participer à la conception et à la mise en place de nouveaux environnements Data - Finaliser et optimiser des environnements existants (haute disponibilité, performance) - Assurer la montée de version des composants et produits Data - Analyser et résoudre les incidents et problèmes récurrents (RUN) - Contribuer à la rédaction des documents d’architecture (DAT) et documentations techniques - Accompagner la transition BUILD to RUN et assurer le suivi des environnements en production
Offre d'emploi
Data Engineer/ Ingénieur Plateforme Datalab H/F
CELAD
Publiée le
Rennes, Bretagne
Envie d’un nouveau challenge... CELAD vous attend ! Nous poursuivons notre développement et recherchons actuellement un(e) Data Engineer/ Ingénieur Plateforme Datalab H/F pour intervenir chez un de nos clients. Contexte : Vous intervenez au sein d’une équipe Data en charge de la conception, de l’évolution et du maintien en conditions opérationnelles de plusieurs environnements Data (nouvelles plateformes et systèmes existants). Dans un contexte de transformation, vous contribuez à la mise en place de nouvelles architectures, à la stabilisation des environnements historiques et à la transition des activités du BUILD vers le RUN, avec des enjeux forts de performance, de disponibilité et de fiabilité. Votre mission : Au sein d'une équipe projet, vous serez en charge de : - Participer à la conception et à la mise en place de nouveaux environnements Data - Finaliser et optimiser des environnements existants (haute disponibilité, performance) - Assurer la montée de version des composants et produits Data - Analyser et résoudre les incidents et problèmes récurrents (RUN) - Contribuer à la rédaction des documents d’architecture (DAT) et documentations techniques - Accompagner la transition BUILD to RUN et assurer le suivi des environnements en production
Mission freelance
Generative AI Engineer (H/F) 92
Mindquest
Publiée le
Amazon S3
AWS Cloud
Python
3 mois
La Défense, Île-de-France
Développement IA / Computer Vision: - Concevoir et développer de nouveaux cas d’usage en vision par ordinateur : - Détection de corrosion - Segmentation 2D/3D - Classification d’anomalies - Améliorer les performances et la robustesse des modèles existants MLOps & Industrialisation: - Concevoir et déployer une infrastructure MLOps complète sur AWS - Structurer et automatiser les pipelines de Machine Learning : - Entraînement - Validation - Versioning - Déploiement - Mettre en place le suivi des expérimentations et la gestion des modèles - Définir et appliquer les bonnes pratiques d’industrialisation : - CI/CD - Monitoring des modèles - Gestion des versions Gestion des données: - Gérer et structurer les datasets d’images 2D/3D issus des drones - Contribuer à l’amélioration continue de la qualité des données Collaboration transverse: - Travailler en étroite collaboration avec les équipes techniques et métiers - Assurer la cohérence technique et fonctionnelle des solutions développées
Mission freelance
Senior Data engineer IA (H/F)
CHARLI GROUP
Publiée le
Apache Airflow
AWS Cloud
CI/CD
2 ans
400-610 €
Île-de-France, France
Dans le cadre de son plan de transformation Data, le groupe poursuit un objectif central : développer des applications Data permettant aux directions métiers (pilotage, marketing, commerce, etc.) de gagner en autonomie dans l'analyse de leurs données et le suivi de leurs KPI mais aussi de mettre en place des applications customer-facing Pour répondre à cet enjeu, le groupe s'appuie sur un écosystème technologique étendu, comprenant notamment : AWS, GitLab, Terraform, DBT, Snowflake, GenAI, Braze, Scala, Spark, Python, Power BI, ainsi que des briques d'Intelligence Artificielle. La plateforme repose sur des architectures robustes et évolutives (Datalake, Lakehouse, des architectures multi-tenant, des architectures event-driven et streaming) conçues pour ingérer et gérer plus de 100 To de données par jour, dont une part majoritaire en temps réel. Description du poste : Notre environnement de travail combine rigueur, une ambiance décontractée au sein des équipes, et des méthodes Agiles (Scrum et Kanban). Votre mission principale, si vous l'acceptez, consistera à intervenir sur des architectures de Streaming Data et IA full AWS (notamment Lambda, Step Function, Kinesis Stream, S3, Batch, Firehose, EMR Serverless, DynamoDB, etc.), ainsi que sur des technologies comme Scala, Spark, SQL, Snowflake, GitLab CI/CD, DBT, Airflow, Terraform. Vous serez amené à : Concevoir et développer des pipelines de données performants Développer en utilisant des outils tels que Scala, DBT et Spark Implémenter des architectures de Streaming Data robustes Contribuer activement aux initiatives FinOps Développer et optimiser des traitements d'intégration de données en streaming Rejoignez une équipe dynamique où innovation et expertise se rencontrent !
Mission freelance
Data & Analytics Engineer (SQL / DBT)
Nicholson SAS
Publiée le
BigQuery
DBT
Google Cloud Platform (GCP)
6 mois
270 €
Lyon, Auvergne-Rhône-Alpes
Secteur : Grande Distribution Localisation : Lyon (Rythme : 3 jours de présence sur site par semaine) Durée : Mission longue visibilité (jusqu’au 16/10/2026) TJM Max : 270 € 🎯 Mission & Contexte Au sein d'une équipe dynamique dédiée au pilotage du secteur Non-Alimentaire , vous participerez à l'automatisation des analyses stratégiques. Votre mission consiste à transformer les données brutes en outils d'aide à la décision (cockpits de performance) pour les Category Managers. 🛠️ Vos responsabilités Data Preparation : Construire les pipelines de données nécessaires aux analyses récurrentes. Développement de Dashboards : Participer à la création et à l'évolution du cockpit de performance (Data Viz). Maintien Opérationnel (Run) : Assurer le bon fonctionnement quotidien des flux (extractions, scripts d'automatisation, vérification des rapports). Collaboration : Travailler en étroite collaboration avec les équipes métiers pour comprendre leurs besoins analytiques. 📦 Livrables Modèles de données structurés sur BigQuery . Tableaux de bord opérationnels sur Tableau . Documentation technique et scripts de maintenance. 💻 Stack Technique Environnement : Google Cloud Platform (GCP). Data : Maîtrise de SQL (requêtes complexes, optimisation). Transformation : Utilisation de DBT (ou forte volonté d'apprendre l'outil). Outils : Git (versioning), environnement Agile (Scrum).
Offre d'emploi
Data Engineer, Azure Databrick (H-F)
K-Lagan
Publiée le
Azure
Big Data
Databricks
1 an
40k-45k €
400-550 €
Niort, Nouvelle-Aquitaine
🚀 Et si votre prochain projet faisait grandir vos compétences autant que votre carrière ? Chez K-LAGAN , nous faisons vivre chaque projet grâce aux talents qui le portent, en alliant expertise technique , innovation et accompagnement personnalisé . Aujourd’hui, nous recherchons un·e Data Engineer / ML Engineer (F/H) pour rejoindre l’un de nos clients, dans un environnement data moderne et en pleine transformation, basé à Niort . 🔍 Contexte Vous interviendrez au sein d’une équipe data pour contribuer à la construction et à l’industrialisation de pipelines Data/ML , avec pour objectif de transformer des prototypes de data science en solutions robustes et scalables en production .
Offre d'emploi
Senior Backend Engineer / Tech Lead Backend .NET
Hexateam
Publiée le
.NET
Azure Kubernetes Service (AKS)
Datadog
3 ans
La Défense, Île-de-France
Contexte Dans le cadre d’un programme de modernisation applicative et de transformation vers des environnements cloud, nous recherchons un profil senior capable d’intervenir sur la refonte de services backend, l’optimisation des performances, l’amélioration de la fiabilité en production et l’accompagnement des équipes sur les bonnes pratiques d’ingénierie. Missions Refonte et excellence backend • Concevoir, développer et refondre des services backend pour assurer leur intégration dans un environnement cloud • Simplifier les architectures existantes et accompagner la migration d’Oracle vers PostgreSQL • Optimiser les modèles de données et les requêtes complexes • Réduire la dette technique et améliorer la maintenabilité des applications • Garantir la qualité du code à travers les tests et les revues de code Performance, stabilité et scalabilité • Diagnostiquer et résoudre des problèmes de performance critiques • Améliorer la gestion des charges et des pics d’activité • Intégrer les exigences non fonctionnelles dès la conception : performance, sécurité, résilience, exploitabilité • Optimiser les pipelines de données pour améliorer les performances globales • Collaborer avec les équipes afin d’apporter une meilleure visibilité sur les performances et les incidents Exploitabilité et environnement cloud-native • Concevoir et développer des services évolutifs et résilients, optimisés pour des déploiements cloud • Intégrer des pratiques d’observabilité dès les phases de conception et de développement • Configurer les ressources de déploiement dans Kubernetes • Participer à l’amélioration des Helm charts pour intégrer les spécificités des besoins applicatifs lors des déploiements de services Observabilité, incidents et fiabilité • Mettre en place et améliorer les dashboards et l’alerting sous Datadog • Corréler logs, métriques et traces afin de diagnostiquer les incidents complexes • Participer aux analyses de causes racines (RCA) et améliorer les standards de logs et de traçabilité • Contribuer à la réduction des incidents critiques backend Contribution à la stratégie produit et à l’excellence technique • Participer à la définition de la roadmap technique en alignant les objectifs techniques avec les besoins produit • Agir en tant que mentor afin de développer les compétences techniques de l’équipe • Développer une culture de l’exploitabilité au sein des équipes, avec un focus sur la surveillance, les SLO et les mécanismes d’observabilité dès la phase de développement • Contribuer à la structuration et à l’amélioration continue des pratiques d’ingénierie
Mission freelance
Data Engineer (Snowflake / Qlik) - RENNES, NANTES, BREST, CAEN
Signe +
Publiée le
Qlik Sense
Qlikview
Snowflake
6 mois
Bretagne, France
Ingénieur Data & BI (Snowflake / Qlik) Pour l'un de nos clients, nous recherchons un Ingénieur Data et BI. Périmètre Data : L'équipe Data intervient sur plusieurs domaines (Data Engineering, Data Viz, … ) Data Visualisation et BI (Qlik Cloud) : Préparer et transformer les données pour leur exploitation. Concevoir, développer et maintenir des applications et tableaux de bord interactifs. Proposer des designs pertinents de dashboards répondant aux besoins métiers. Gérer les accès utilisateurs et groupes. Assurer la maintenance et la qualité des applications existantes. L'équipe intervient également à la partie reporting et administration : Conception et automatisation de rapports (Excel, PDF, …). Supervision de la plateforme Qlik : gestion des catalogues et applications, suivi des licences, clés et APIs. Diagnostic et résolution des incidents (logs, API Qlik). Compétences requises : 3 ans d'expérience sur l’utilisation de Qlik (QlikSense, QlikCloud ...) et Snowflake (préparation et optimisation des données). Bonne compréhension des principes d’architecture BI et des bonnes pratiques de modélisation. Capacité à optimiser les applications et améliorer la performance des modèles de données. Points clés pour réussir Être autonome et curieux : (forums, documentation, veille technique)... Avoir une base technique solide sur les modules de Qlik (Analyse, Automation). Comprendre les enjeux d’administration, même si ce n’est pas le cœur du métier. Être capable de diagnostiquer les problèmes d’accès, de configuration ou de logique métier. Autonome, curieux, capacités relationnelles
Mission freelance
DevOps Engineer Senior
Aneo
Publiée le
AWS Cloud
Kubernetes
Python
7 mois
500-680 €
Paris, France
Le projet Le client (finance) utilise AWS depuis quelques années, d’abord sur une stack HPC (librairie permettant de distribuer sur AWS Batch l’exécution d’un DAG), puis avec une stack SageMaker (expérience interactive via l’utilisation de Studio JupyterLab / MLFlow). Ce projet, comme les précédents, prend la forme d’un MAP (Migration Acceleration Program), approche structurée par AWS (Assess - Mobilize - Migrate). La phase Assess a identifié une typologie d’usages (embarassingly parallel map, cross-partition shuffling / window-heavy computation, dataset-level summaries, ML/tensor-preparation, interactive exploration) et 3 technologies-clés : 1) Ray/Daft 2) Spark (via EMR) et 3) Iceberg, comme couche de stockage/accès aux données. La phase de Mobilize doit permettre : ● De valider la capacité de ces outils à adresser les enjeux de feature engineering avec les contraintes ci-dessus exprimées , et une expérience chercheur aussi aisée que possible. ● D’envisager leur exploitation dans un mode “plateforme” / industrialisé ; les aspect self-service, observabilité technique et finops, sont clés. Exprimée aujourd’hui comme un side-topic, l’exploitation unifiée des technologies ci-dessus sur un socle Kubernetes (sur EKS) pourrait devenir un sujet central de la phase Mobilize. Cette phase de mobilize doit durer 7 mois et sera réalisée par une équipe de 3 personnes: Un software engineer, un devOps (vous) et un data Engineer. Ce qu’il vous faudra démontrer: ● Mise en œuvre de stacks data : Expérience pratique de mise en œuvre d’EMR ainsi que de clusters hors service managé EMR (donc, sur EC2, Batch, ou EKS). Expérience sur Kubernetes ● Architectures lakehouse modernes : expérience pratique avec Iceberg : recul sur l’interopérabilité multi-moteurs (Spark/PyIceberg), gestion des permissions. ● Infrastructure AWS & IaC : Solide maîtrise du déploiement de plateformes de données de qualité production sur AWS en utilisant Terraform. ● Observabilité & FinOps : Expérience dans la mise en œuvre du tagging d'allocation des coûts, la construction de tableaux de bord CloudWatch pour 1) le suivi des jobs et des coûts, et la conception de mécanismes d'application de quotas/budgets pour les plateformes de recherche multi-tenants et 2) le suivi des performances des applications Data. Compétences techniques -> Bonne maitrise et expérience de EKS -> Maitrise du cloud AWS (services EMR, S3, Daft serait un plus) et notamment des aspects IAM (gestion multi-comptes) -> Avoir déjà touché a du Iceberg est un plus -> Maitrise de Terraform -> Anglais courant obligatoire Localisation Paris, présence sur site obligatoire à minima 3j/semaine
Mission freelance
Data Engineer industriel
MLMCONSEIL
Publiée le
Dataiku
IBM Maximo
Microsoft Excel
6 mois
100-500 €
Paris, France
Profil Data senior orienté environnement industriel, capable de reprendre, structurer et fiabiliser des données complexes. Maîtrise de SQL, Python et Excel/VBA pour l’analyse, l’automatisation et le reporting. Expérience requise sur Dataiku et IBM Maximo pour l’ingestion, la normalisation et la gestion des données de maintenance. Capacité à comprendre les enjeux métiers (maintenance, référentiels) et à les traduire en modèles de données exploitables. . . . . . . . .
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
481 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois