L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 5 807 résultats.
Offre d'emploi
Senior Data Engineer (5+ ans d'exp)
WINSIDE Technology
Publiée le
Azure
Databricks
3 ans
40k-60k €
100-500 €
Lille, Hauts-de-France
Bonjour et merci d'avoir cliqué sur cette offre 😊 Nous recherchons un.e Data Engineer Senior pour une grande entreprise internationale sur Lille ! 🚀 Ce poste est fait pour toi si : tu as 5 ou plus années d'expérience professionnelle en tant que Data Engineer. tu as travaillé au moins 3 ans sur le cloud Azure. tu maîtrises Databricks, Delta Lake, Unity Catalog, Workflows, Jobs et Notebooks. tu es expert.e dans la conception et optimisation d'architectures data tu maîtrises la modélisation de données (schéma analytique, SCD, faits et dimensions). tu as déjà travaillé sur des outils de développement assistés par l'IA. tu as déjà implémenté des Data Quality. Stack supplémentaire démandée : Python, SQL, Git. Objectif principal du poste : Mettre en oeuvre et maintenir la conception, l’industrialisation et l’évolution des solutions data et IA sur la plateforme Lakehouse. Garantir la robustesse, la performance, la sécurité et la qualité des données au service des usages métiers, analytiques et IA. Missions : Expertise avancée Databricks & Lakehouse. Concevoir et optimiser des architectures data sur Databricks. Maîtriser Delta Lake, Unity Catalog, Workflows, Jobs et Notebooks. Garantir performance, scalabilité et optimisation des coûts. Définir et appliquer les bonnes pratiques (partitionnement, optimisation, gouvernance, sécurité). Modélisation & conception de la donnée Concevoir des modèles analytiques et décisionnels robustes. Définir faits, dimensions, granularité et historisation (SCD). Assurer cohérence, unicité et maintenabilité des modèles. Traduire les besoins métiers en structures data pérennes. Industrialisation & Data Engineering Développer et fiabiliser des pipelines ELT/ETL. Superviser les tests, validations et mises en production. Contribuer à la démarche CI/CD. Développement augmenté par l’IA Exploiter les outils de développement assisté par l’intelligence artificielle pour accélérer la production tout en maintenant un haut niveau d’exigence (qualité, sécurité, maintenabilité). Qualité & gouvernance des données Implémenter et superviser les contrôles de Data Quality. Structurer la gestion des anomalies et rejets. Garantir la traçabilité et le data lineage. Leadership & contribution transverse Diffuser les standards et collaborer étroitement avec PO, Architectes et Data Stewards. Démarrage : mars 2026. TT: 2 jours par semaine. Durée : 3 ans. 👉 Tu as envie d’un nouveau défi, entouré(e), valorisé(e), écouté(e) ? Postule et parlons-en. Même si ce n’est pas pour cette mission, on trouvera peut-être celle qui te correspond parfaitement. Les étapes à venir après avoir postulé : nous étudierons ta candidature avec attention. si elle nous intéresse, tu recevras un appel pour un premier échange de préqualification. On t’enverra un mail si on n’arrivera pas à te joindre. Si elle ne nous intéressera pas (ça sera certainement pour une autre mission 😉), on t’enverra un mail. Merci de ton attention et à très vite pour une aventure épanouissante chez Winside 🙂
Mission freelance
Data Analytics et platform Azur ou AWS IA Anglais 480 e par jour
BI SOLUTIONS
Publiée le
API Platform
AWS Cloud
2 ans
400-480 €
Île-de-France, France
Data Analytics et platform Azur ou AWS IA Anglais 480 e par jour Rôles et responsabilités En tant que membre de notre squad Data and Analytics Platform, vous participerez aux activités suivantes : • Le développement / mise à jour / maintenant du code infrastructure Terraform nécessaire dans Azure et / ou AWS, en conformité avec les règles de sécurité et les pratiques internes. Enrichissement de la documentation a l’attention des utilisateurs • Conception et maintenance de chaînes de de ploiement automatise (CICD) PROFIL De formation Bac+5 en informatique ou équivalent, vous êtes sensibilise s aux concepts de gouvernance, de sécurité et de règlementation de la donne e ou de son exploitation. Compétences requises : • Expérience significative sur le cloud AWS • Bonne connaissance de la méthodologie Agile. • Expérience sur des outil de code augmenté à l’IA • A l’aise dans les interactions avec les parties prenantes. • Force de proposition et désireux(se) d’apprendre en continu. Compétences - Compétences nécessaires (2 ans d’expérience minimum) : Administration de datalake : • Exploitation d’un datalake cloud (AWS) • Gestion des stockages (S3), schémas, lifecycle rule policies • Sécurité, IAM, accès, gouvernance data • Gestion VPC, NSG, ACLs • Fiabilité, performance, coûts Développement de micro services • Python • APIs (REST, event driven) Administration plateforme • Terraform • CI/CD et Infra as Code • GitHub, GitHub Action • Déploiement containerisé (EKS/ECS) • Monitoring et supervision - Langues : Anglais et Français 480 e par jour
Mission freelance
FREELANCE – Lead Analytics (H/F)
Jane Hope
Publiée le
Azure Data Factory
Azure Synapse
DAX
6 mois
450-550 €
Lille, Hauts-de-France
Notre client, basé à Lille (59), est à la recherche d’un Lead Analytics (H/F) freelance pour être le référent technique et le manager de proximité de la verticale Analytics au sein du département IA & Data. MISSIONS Vous vous placez au cœur de la chaine de valeur analytique : vous produisez, structurez, accompagnez la montée en compétences des équipes et de la plateforme data. Objectifs court terme : · Prendre en main l'équipe et établir une relation de confiance avec les Data Analysts dans les 3 zones géographiques · Auditer l'état du portefeuille analytique existant (rapports, dashboards, modèles de données) et comprendre les priorités · Livrer des cas d'usage analytiques à fort impact pour démontrer la valeur de la verticale. Objectifs long terme : · Contribuer à la feuille de route analytique alignée sur les priorités business et la stratégie Data & AI · Faire monter en maturité l'équipe sur les pratiques avancées d'analyse et l'usage de Microsoft Fabric / Power BI · Développer un modèle de self-service analytics fiable, gouverné et scalable pour les métiers · Établir un cadre de mesure de la valeur créée par la verticale (adoption, qualité, impact business) Responsabilités techniques : · Concevoir, développer et maintenir des modèles sémantiques et dashboards Power BI complexes · Produire des analyses et des requêtes avancées pour répondre aux questions business stratégiques · Assurer la qualité et la cohérence des données analytiques exposées aux métiers · Documenter les logiques de calcul, les sources et les définitions de métriques · Réaliser des revues de code et du pair-programming avec les Data Analysts de l'équipe Responsabilité managériale : · Animer l'équipe d’environ 7 Data Analysts répartis en Europe, Amérique du Nord et Russie · Conduire les entretiens individuels, fixer les objectifs et accompagner le développement professionnel · Piloter le cycle d'évaluation annuelle de l'équipe (performance, développement, plan de progression) · Assurer la montée en compétence des équipes sur les outils et pratiques analytiques (Microsoft Fabric, Power BI, DAX) · Gérer le budget de la verticale Analytics et en assurer le suivi · Gérer la relation avec les fournisseurs et partenaires externes liés aux outils et services analytiques · Représenter la verticale Analytics dans les instances de gouvernance du département AI & Data · Coordonner avec les autres verticales (Data Platform, Data Delivery, Data Governance) pour fluidifier les livraisons ENVIRONNEMENT TECHNIQUE · Microsoft Fabric : PowerBI, Lakehouse, Onelake · DAX, Power Query · SQL · Azure Data : Azure Data Lake, Synapse
Mission freelance
DATA ENGINEER AZURE - SNOWFLAKE
CHOURAK CONSULTING
Publiée le
Apache Airflow
Azure
Azure Data Factory
3 mois
400-550 €
Île-de-France, France
Nous recherchons un Data Engineer Confirmé/Senior pour renforcer une équipe Data dans un environnement cloud moderne, avec un fort niveau d’exigence sur l’ architecture, l’industrialisation et les bonnes pratiques . 🎯 Contexte de la mission : Vous interviendrez sur une plateforme Data reposant sur Azure et Snowflake , avec une architecture Médaillon . Le rôle inclut une forte dimension lead technique : qualité du code, CI/CD, revues de PR et accompagnement des équipes. ⚙️ Missions principales : Concevoir et faire évoluer des pipelines de données sur Azure et Snowflake. Mettre en œuvre et maintenir une architecture Médaillon (Bronze / Silver / Gold). Développer et orchestrer les flux via Azure Data Factory . Automatiser les processus via Azure Automation . Participer activement à l’ industrialisation CI/CD et aux pipelines Azure DevOps . Réaliser des revues de Pull Requests et promouvoir les bonnes pratiques de développement. Garantir la qualité, la performance et la fiabilité des traitements de données.
Offre d'emploi
Product Owner / Data Steward
OCTOGONE
Publiée le
Data governance
Data modelling
IA
6 mois
Clermont-Ferrand, Auvergne-Rhône-Alpes
Product Owner / Data Steward capable de jouer un rôle central dans la transformation Data & IA de l’entreprise. Profil recherché : Expérience solide en change management , transformation et accompagnement d’équipes Aisance dans l’ animation , la facilitation et la fédération de publics variés (contexte international) Capacité à structurer une vision , construire une roadmap et piloter le changement Sensibilité aux enjeux Data / IA (pas besoin d’expertise technique) Curiosité pour comprendre les modèles de données, référentiels et la sémantique Mission : Donner du sens à la démarche “Data & IA driven” Animer ateliers, communautés et groupes de travail Contribuer à l’acculturation Data/IA (sensibilisation, formations) Suivre l’adoption, valoriser les succès et ajuster les pratiques Faire le lien entre les équipes data, IA, IT et gouvernance Compétences Connaissance des data platforms (stockage, transformation, visualisation) Compétences en Data Governance et Data Modeling Excellentes compétences relationnelles, organisationnelles et d’animation
Offre d'emploi
🚀 Data Engineer / Architecte Data Senior
ASAP TECHNOLOGIES
Publiée le
AWS Cloud
Data analysis
PySpark
3 ans
32k-70k €
150-650 €
Saint-Denis, Île-de-France
Dans le cadre d’une mission stratégique auprès d’un grand acteur du secteur des services digitaux, ASAP Technologies recherche un(e) Data Engineer / Architecte Data Senior . Vous interviendrez au sein d’un pôle Data Services pour accompagner la conception, l’industrialisation et l’évolution d’une plateforme Lakehouse à grande échelle, dans un environnement cloud moderne et exigeant. 🎯 Vos missions En tant qu’Architecte Data Senior, vous jouerez un rôle central dans la structuration et l’optimisation des solutions Data. 🏗 Architecture & Modélisation Concevoir et faire évoluer une architecture Lakehouse Structurer les transformations selon un modèle Médaillon (Bronze / Silver / Gold) Modéliser les données et optimiser la performance des pipelines ⚙️ Développement & Industrialisation Concevoir, développer et optimiser des pipelines de données à grande échelle Mettre en œuvre des flux batch , streaming et ingestion via API Développer et industrialiser les pipelines avec DBT Spark et Iceberg Orchestrer les workflows ETL/ELT via Airflow Déployer et maintenir les pipelines dans un environnement Cloud (AWS ou équivalent) Mettre en œuvre l’Infrastructure as Code via Terraform Exécuter les traitements dans des environnements conteneurisés ( Docker / Kubernetes ) 🔎 Qualité, Sécurité & Performance Garantir la disponibilité, la supervision et l’observabilité des traitements Définir et implémenter les règles de qualité des données (tests, contrôles automatisés) Documenter architectures, pipelines et règles métier Assurer la conformité réglementaire (RGPD) Participer à la gestion des incidents et à l’amélioration continue 🤝 Leadership & Expertise Accompagner des profils juniors Être force de proposition sur les choix techniques Faire le lien entre enjeux métiers et architecture data
Offre d'emploi
Data scientist IA générative
CAT-AMANIA
Publiée le
AWS Cloud
IA
Python
1 an
56k-58k €
460-510 €
Paris, France
Nous recherchons un Data Scientist pour renforcer l'équipe de notre client Data Science et Intelligence Artificielle. L'objectif est de poursuivre les travaux sur la "plateforme de services IA Générative" composée de plusieurs services IA destinés à des cas d'usages métiers portés par des projets. L'équipe est actuellement constituée de 3 Data Scientists et 2 DevOPS. Les services existants: - le service OCR Optical Character Recognition en mode synchrone - le service NLU Natural Language Understanding - le service KM Knowlekdge Management pour un chat bot Les sujets à venir: - déployer un service d'OCR asynchrone - utiliser les services OCR synchrones et/ou asynchrones pour les cas d'usages "carte d'identité", "factures", "passeport" - déployer un service lié à la lutte contre la fraude - déployer un service de catégorisation des documents
Mission freelance
Ingénieur Cloud plateforme AWS - Kubernetes
Cherry Pick
Publiée le
AWS Cloud
Github
Gitlab
12 mois
500-530 €
Paris, France
Au sein d'une équipe technique en pleine croissance, vous intervenez pour reprendre le flambeau suite à un départ interne. Notre client recherche un profil confirmé dynamique, motivé et rigoureux , capable de s'approprier rapidement un existant pour le faire évoluer. Vos missions sont équilibrées entre le Build (construction de nouvelles infrastructures) et le Run (maintien en condition opérationnelle et optimisation). Vos Missions Infrastructure as Code : Concevoir et déployer les infrastructures cloud via Terraform . Orchestration : Gérer et optimiser les clusters Kubernetes en environnement de production (déploiement, scaling, monitoring). Cloud Management : Build, Administrer et sécuriser les services sur l'environnement AWS . CI/CD : Améliorer les pipelines de déploiement pour fluidifier le travail des développeurs. (Github actions) Fiabilité (SRE) : Assurer la haute disponibilité des services et intervenir sur la résolution d'incidents (Run).
Offre d'emploi
Architecte Data (Snowflake - IA Gen) H/F
STORM GROUP
Publiée le
Apache Airflow
AWS Cloud
CI/CD
3 ans
55k-65k €
550-680 €
Lille, Hauts-de-France
Principales missions : - Contribuer aux cadrages des nouveaux besoins techniques des métiers liés à la plateforme SNOWFLAKE - Participer à l’évolution de la plateforme Data (gouvernance, contrôles, automatisation, etc) - Participer aux choix technologiques de l’offre à mettre en place - Analyser les documents d’architecture des assets à faire évoluer et définir les nouveaux PATTERN (architecture fonctionnelle, applicative, technique) - Analyser, définir et cadrer les adaptations nécessaires de l’offre proposée - Documenter les PATTERN retenus à un niveau plus détaillé, de sorte à la rendre exécutable pour les autres Business Units - Être l’interlocuteur privilégié des équipes portant les besoins d’agent/usages IA GEN au sein du pôle DATA - Accompagner au déploiement de la solution définie auprès de la BU et des autres Business Units - Accompagner à la prise en main de la plateforme Data
Offre d'emploi
Architecte Cloud Multi-Cloud - Stratégie Cloud
KLETA
Publiée le
AWS Cloud
Azure
GitLab CI
3 ans
Paris, France
Dans le cadre de programmes de transformation numérique, nous recherchons un Architecte Cloud Multi-Cloud pour accompagner nos clients dans la définition et la mise en œuvre de leur stratégie multi-cloud. Vous interviendrez sur des missions de cadrage, d’audit et de définition de trajectoires cibles adaptées aux contraintes techniques, organisationnelles et métiers. Vous analyserez les architectures existantes sur AWS, Azure et GCP, identifierez les risques et proposerez des solutions optimisées en matière de sécurité, de résilience et de coûts. Vous participerez à la conception de Landing Zones multi-cloud, à la structuration des environnements et à la mise en place de bonnes pratiques de gouvernance et de conformité. En collaboration avec les équipes DevOps et Sécurité, vous contribuerez à l’industrialisation des déploiements via Terraform et à l’adoption de principes cloud native harmonisés. Vous aurez également un rôle pédagogique en accompagnant les équipes client dans leur montée en compétence sur le multi-cloud.
Offre d'emploi
Expert Cyberdéfense & IA
VISIAN
Publiée le
Agent IA
AWS Cloud
CyberSoc
1 an
40k-70k €
400-700 €
Paris, France
Contexte & Objectif du Poste Dans le cadre de la modernisation du GSOC et de la mise en place d'une plateforme agentique IA, nous recherchons un expert cybersécurité / AWS / IA / développement Python capable de concevoir, développer et opérer les composants essentiels de notre future architecture d'IA de Défense. Vous jouerez un rôle stratégique en développant : • des agents IA opérationnels, • des sous-agents spécialisés, • des pipelines AI/ML robustes, • des intégrations avancées avec Splunk, XSOAR, AWS et nos systèmes internes.
Offre d'emploi
Data Scientist Generative IA (4jrs TT) sur 92
EterniTech
Publiée le
Data science
IA Générative
Pytorch
3 mois
Hauts-de-Seine, France
Je recherche pour un de mes clients un Data Scientist Generative IA avec 4 jours TT sur 92 VOTRE MISSION** * Concevoir et industrialiser des solutions d’IA Générative (LLMs, Agents, RAG) répondant aux besoins des AI Catalysts, priorisés par le PO. * Intégrer les composants GenAI à l’écosystème existant (GenAI Core, OneAPI, Azure AI Foundry), tout en respectant les normes de sécurité et de coûts. * Définir et implémenter les architectures techniques : choix de modèles, orchestration d’agents, conception RAG, gestion des sessions. * Développer et maintenir le code (principalement Python) et les briques réutilisables (librairies de prompts, agents). * Industrialiser le déploiement : conteneurisation (Docker), Kubernetes, CI/CD, Infrastructure as Code (Terraform), et monitoring. * Mettre en œuvre des pratiques MLOps : suivi des expériences, versioning de modèles, tests de régression, validations en pré-prod. * Assurer la qualité et l’observabilité : métriques de performance, tests adversariaux, suivi des dégradations en production. * Collaborer avec le PO, le Software Engineer, les AI Catalysts et la DSI pour garantir la sécurité et l’adoption des solutions. * Contribuer à la documentation, aux templates et à la formation des équipes internes. *VOTRE PROFIL * Bac +3 à Bac +5 en informatique, data science ou équivalent. * 3 à 5 ans d’expérience en développement d’applications utilisant l’IA, avec un accent sur l’IA Générative (Agents, RAG, LLMs). * Maîtrise de Python et des bibliothèques ML/IA (PyTorch, Transformers). * Connaissances des frameworks GenAI : LangChain, LangGraph, LangFuse, et des moteurs de recherche sémantique (Qdrant, Milvus). * Compétences en architecture cloud Azure (AI Foundry, AKS, WebApp) et en conteneurisation/orchestration (Docker, Kubernetes). * Familiarité avec CI/CD et Infrastructure as Code (Terraform). * Sensibilité aux enjeux de cybersécurité et de conformité. * Rigueur dans l’ingénierie logicielle : tests, documentation et automatisation des pipelines. * Capacité à travailler en équipe et à vulgariser les concepts techniques. * Anglais professionnel (lu/écrit) ; français courant indispensable. Définition du profil DATA SCIENTIST: - En charge du développement d'algorithmes (Machine Learning et Intelligence Artificielle) pour créer de la valeur métier à partir de données (structurées, non structurées, vidéos, images, etc.). - Doit comprendre les demandes de l'entreprise et les challenger pour fournir la meilleure réponse possible. - Apporte un support à la décision sur d'éventuelles innovations, l'amélioration des performances et décisions relatives au service client. - Industrialise les projets de Data Science avec les Data Engineers. - Maintient et documente les algorithmes industrialisés (selon les rôles et les responsabilités définis par le projet).
Offre d'emploi
Chef/Directeur de Projet Data (Sénior) - Lyon
KOMEET TECHNOLOGIES
Publiée le
AWS Cloud
Azure
Business Analyst
50k-65k €
Lyon, Auvergne-Rhône-Alpes
Rôle transversal positionné entre les équipes métier, les équipes Data Engineering, les Data Analysts/Modelers et les sponsors projets, vous intervenez sur : Des programmes Data d’envergure (Data Lakehouse, modernisation BI, Data Governance, MDM, Analytics avancés). Des environnements Cloud (Azure, GCP, AWS) et des architectures modernes (Data Mesh, Datavault). Des enjeux de pilotage projet, de cadrage fonctionnel et d’accompagnement à la transformation Data. En tant que Senior (+8 ans), nous attendons de vous : Une grande autonomie et capacité à sécuriser un projet ou un périmètre. Une forte expérience en gestion de projets Data complexes. Une capacité à accompagner les équipes, structurer les pratiques et diffuser la culture Data. Une maîtrise avancée des méthodologies de modélisation (3NF, Étoile/Flocon, Data Mesh…), des pipelines ETL/ELT, et des outils BI.
Offre d'emploi
Tech Lead Java / Azure DevOps
RIDCHA DATA
Publiée le
Azure
Azure DevOps
CI/CD
Sophia Antipolis, Provence-Alpes-Côte d'Azur
Contexte Dans le cadre d’un environnement technique complexe et hybride, le consultant interviendra au sein d’une équipe en charge de nombreux applicatifs déployés sur Microsoft Azure ainsi que sur des environnements Legacy . L’équipe gère plusieurs dizaines d’applications ainsi que des processus de centralisation de données. Le poste nécessite une forte coordination technique entre différentes équipes (développement, DevOps, TMA et architecture) afin d’assurer la qualité, la cohérence et la performance des solutions mises en production. Fiche_de_poste_Tech_Lead_Gaia Le consultant interviendra dans un contexte agile structuré autour du framework SAFe . Missions principalesLeadership technique Concevoir et documenter des solutions techniques pour des problématiques complexes. Participer aux comités d’architecture et aux décisions techniques. Garantir la cohérence des choix techniques et la qualité des développements. Assurer la coordination technique avec les équipes DevOps et les équipes Legacy. Résoudre les problématiques techniques liées aux environnements Azure / DevOps / Legacy . Réaliser ou piloter des Proof of Concept (POC) pour améliorer les solutions techniques. Présenter les revues techniques en fin de sprint. Accompagnement des équipes Encadrer techniquement les développeurs. Participer aux revues de code et assurer le respect des bonnes pratiques de développement. Aider à la résolution des anomalies complexes. Maintenir et améliorer la documentation technique. DevOps et industrialisation Contribuer à l’amélioration des chaînes CI/CD sur Azure DevOps . Participer à l’automatisation des tests et des déploiements. Améliorer la qualité et la fiabilité des livraisons. Livrables Documents d’architecture technique Release notes Documentation technique Recommandations d’architecture et d’amélioration Compétences techniquesImpératif Java / Spring (Expert) Microsoft Azure (Confirmé) SQL (Confirmé) Important React Environnement technique Java / Spring Microsoft Azure Azure DevOps / CI-CD React SQL Datadog Environnements Legacy Langues Français : Courant (impératif) Anglais : Professionnel (secondaire)
Offre d'emploi
Développeur .Net ET Azure Functions
Le Groupe SYD
Publiée le
6 mois
45k-55k €
440-540 €
Saint-Herblain, Pays de la Loire
🌟Quel sera ton poste ? 🌟 📍Lieu : FULL Télétravail Prérequis obligatoire : Capacité à échanger à l'oral ET à l'écrit en anglais (niveau C1 voir C2/Bilingue) Tu interviendras sur des projets à forte valeur ajoutée autour de l’écosystème Microsoft, avec un rôle clé dans les choix techniques et l’accompagnement des équipes. 👉 Tu auras pour missions de : Concevoir et développer des solutions .NET robustes et évolutives Mettre en place et maintenir des Azure Functions Participer aux choix d’architecture et garantir leur cohérence Être le référent technique auprès des équipes de développement Assurer la qualité du code (bonnes pratiques, revues de code, performance) Accompagner et faire monter en compétences les développeurs Contribuer à l’amélioration continue des pratiques techniques
Mission freelance
Ingénieur Cloud Data plateforme
Cherry Pick
Publiée le
Amazon S3
AWS Cloud
Data Lake
12 mois
500-550 €
Paris, France
Pour un client du domaine de l'énergie, vous intégrerez la squad Data & Analytics Platform . Dans un environnement technologique en mutation rapide, cette équipe est responsable de la conception, de la construction et du support de la plateforme de données utilisée à l'échelle mondiale par l'ensemble des entités du groupe. Le poste est basé à Paris (75002) avec un rythme de travail hybride (3 jours de présence sur site impératifs). Missions : En tant que membre clé de la squad, vos activités principales se concentrent sur l'automatisation, la sécurité et la fiabilité de l'écosystème Data : Infrastructure as Code (IaC) : Développement, mise à jour et maintenance du code Terraform (environnements AWS et Azure) en respectant les standards de sécurité et de conformité internes. Automatisation CI/CD : Conception et maintenance des chaînes de déploiement automatisées via GitHub Actions pour garantir des mises en production fluides et sécurisées. Administration de Data Lake : Exploitation et optimisation du stockage (Amazon S3), gestion des cycles de vie des données (Lifecycle policies) et pilotage de la performance/coûts (FinOps). Sécurité et Gouvernance : Mise en œuvre des politiques d'accès (IAM), gestion de la configuration réseau (VPC, NSG, ACLs) et respect des réglementations sur l'exploitation de la donnée. Développement de Services : Création et maintenance de micro-services et d'APIs (REST, Event-driven) en Python. Support et Documentation : Rédaction et enrichissement de la documentation technique à destination des utilisateurs finaux et monitoring de la plateforme (supervision).
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
5807 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois