Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 5 043 résultats.
Freelance
CDI

Offre d'emploi
Senior Data Engineer (5+ ans d'exp)

WINSIDE Technology
Publiée le
Azure
Databricks

3 ans
40k-60k €
100-500 €
Lille, Hauts-de-France
Bonjour et merci d'avoir cliqué sur cette offre 😊 Nous recherchons un.e Data Engineer Senior pour une grande entreprise internationale sur Lille ! 🚀 Ce poste est fait pour toi si : tu as 5 ou plus années d'expérience professionnelle en tant que Data Engineer. tu as travaillé au moins 3 ans sur le cloud Azure. tu maîtrises Databricks, Delta Lake, Unity Catalog, Workflows, Jobs et Notebooks. tu es expert.e dans la conception et optimisation d'architectures data tu maîtrises la modélisation de données (schéma analytique, SCD, faits et dimensions). tu as déjà travaillé sur des outils de développement assistés par l'IA. tu as déjà implémenté des Data Quality. Stack supplémentaire démandée : Python, SQL, Git. Objectif principal du poste : Mettre en oeuvre et maintenir la conception, l’industrialisation et l’évolution des solutions data et IA sur la plateforme Lakehouse. Garantir la robustesse, la performance, la sécurité et la qualité des données au service des usages métiers, analytiques et IA. Missions : Expertise avancée Databricks & Lakehouse. Concevoir et optimiser des architectures data sur Databricks. Maîtriser Delta Lake, Unity Catalog, Workflows, Jobs et Notebooks. Garantir performance, scalabilité et optimisation des coûts. Définir et appliquer les bonnes pratiques (partitionnement, optimisation, gouvernance, sécurité). Modélisation & conception de la donnée Concevoir des modèles analytiques et décisionnels robustes. Définir faits, dimensions, granularité et historisation (SCD). Assurer cohérence, unicité et maintenabilité des modèles. Traduire les besoins métiers en structures data pérennes. Industrialisation & Data Engineering Développer et fiabiliser des pipelines ELT/ETL. Superviser les tests, validations et mises en production. Contribuer à la démarche CI/CD. Développement augmenté par l’IA Exploiter les outils de développement assisté par l’intelligence artificielle pour accélérer la production tout en maintenant un haut niveau d’exigence (qualité, sécurité, maintenabilité). Qualité & gouvernance des données Implémenter et superviser les contrôles de Data Quality. Structurer la gestion des anomalies et rejets. Garantir la traçabilité et le data lineage. Leadership & contribution transverse Diffuser les standards et collaborer étroitement avec PO, Architectes et Data Stewards. Démarrage : mars 2026. TT: 2 jours par semaine. Durée : 3 ans. 👉 Tu as envie d’un nouveau défi, entouré(e), valorisé(e), écouté(e) ? Postule et parlons-en. Même si ce n’est pas pour cette mission, on trouvera peut-être celle qui te correspond parfaitement. Les étapes à venir après avoir postulé : nous étudierons ta candidature avec attention. si elle nous intéresse, tu recevras un appel pour un premier échange de préqualification. On t’enverra un mail si on n’arrivera pas à te joindre. Si elle ne nous intéressera pas (ça sera certainement pour une autre mission 😉), on t’enverra un mail. Merci de ton attention et à très vite pour une aventure épanouissante chez Winside 🙂
Freelance
CDI
CDD

Offre d'emploi
🚀 Data Engineer / Architecte Data Senior

ASAP TECHNOLOGIES
Publiée le
AWS Cloud
Data analysis
PySpark

3 ans
32k-70k €
150-650 €
Saint-Denis, Île-de-France
Dans le cadre d’une mission stratégique auprès d’un grand acteur du secteur des services digitaux, ASAP Technologies recherche un(e) Data Engineer / Architecte Data Senior . Vous interviendrez au sein d’un pôle Data Services pour accompagner la conception, l’industrialisation et l’évolution d’une plateforme Lakehouse à grande échelle, dans un environnement cloud moderne et exigeant. 🎯 Vos missions En tant qu’Architecte Data Senior, vous jouerez un rôle central dans la structuration et l’optimisation des solutions Data. 🏗 Architecture & Modélisation Concevoir et faire évoluer une architecture Lakehouse Structurer les transformations selon un modèle Médaillon (Bronze / Silver / Gold) Modéliser les données et optimiser la performance des pipelines ⚙️ Développement & Industrialisation Concevoir, développer et optimiser des pipelines de données à grande échelle Mettre en œuvre des flux batch , streaming et ingestion via API Développer et industrialiser les pipelines avec DBT Spark et Iceberg Orchestrer les workflows ETL/ELT via Airflow Déployer et maintenir les pipelines dans un environnement Cloud (AWS ou équivalent) Mettre en œuvre l’Infrastructure as Code via Terraform Exécuter les traitements dans des environnements conteneurisés ( Docker / Kubernetes ) 🔎 Qualité, Sécurité & Performance Garantir la disponibilité, la supervision et l’observabilité des traitements Définir et implémenter les règles de qualité des données (tests, contrôles automatisés) Documenter architectures, pipelines et règles métier Assurer la conformité réglementaire (RGPD) Participer à la gestion des incidents et à l’amélioration continue 🤝 Leadership & Expertise Accompagner des profils juniors Être force de proposition sur les choix techniques Faire le lien entre enjeux métiers et architecture data
CDI

Offre d'emploi
Chef/Directeur de Projet Data (Sénior) - Lyon

KOMEET TECHNOLOGIES
Publiée le
AWS Cloud
Azure
Business Analyst

50k-65k €
Lyon, Auvergne-Rhône-Alpes
Rôle transversal positionné entre les équipes métier, les équipes Data Engineering, les Data Analysts/Modelers et les sponsors projets, vous intervenez sur : Des programmes Data d’envergure (Data Lakehouse, modernisation BI, Data Governance, MDM, Analytics avancés). Des environnements Cloud (Azure, GCP, AWS) et des architectures modernes (Data Mesh, Datavault). Des enjeux de pilotage projet, de cadrage fonctionnel et d’accompagnement à la transformation Data. En tant que Senior (+8 ans), nous attendons de vous : Une grande autonomie et capacité à sécuriser un projet ou un périmètre. Une forte expérience en gestion de projets Data complexes. Une capacité à accompagner les équipes, structurer les pratiques et diffuser la culture Data. Une maîtrise avancée des méthodologies de modélisation (3NF, Étoile/Flocon, Data Mesh…), des pipelines ETL/ELT, et des outils BI.
Freelance

Mission freelance
Ingénieur Cloud Data plateforme

Cherry Pick
Publiée le
Amazon S3
AWS Cloud
Data Lake

12 mois
500-550 €
Paris, France
Pour un client du domaine de l'énergie, vous intégrerez la squad Data & Analytics Platform . Dans un environnement technologique en mutation rapide, cette équipe est responsable de la conception, de la construction et du support de la plateforme de données utilisée à l'échelle mondiale par l'ensemble des entités du groupe. Le poste est basé à Paris (75002) avec un rythme de travail hybride (3 jours de présence sur site impératifs). Missions : En tant que membre clé de la squad, vos activités principales se concentrent sur l'automatisation, la sécurité et la fiabilité de l'écosystème Data : Infrastructure as Code (IaC) : Développement, mise à jour et maintenance du code Terraform (environnements AWS et Azure) en respectant les standards de sécurité et de conformité internes. Automatisation CI/CD : Conception et maintenance des chaînes de déploiement automatisées via GitHub Actions pour garantir des mises en production fluides et sécurisées. Administration de Data Lake : Exploitation et optimisation du stockage (Amazon S3), gestion des cycles de vie des données (Lifecycle policies) et pilotage de la performance/coûts (FinOps). Sécurité et Gouvernance : Mise en œuvre des politiques d'accès (IAM), gestion de la configuration réseau (VPC, NSG, ACLs) et respect des réglementations sur l'exploitation de la donnée. Développement de Services : Création et maintenance de micro-services et d'APIs (REST, Event-driven) en Python. Support et Documentation : Rédaction et enrichissement de la documentation technique à destination des utilisateurs finaux et monitoring de la plateforme (supervision).
Freelance

Mission freelance
Ingénieur Data Senior +8 ans

Sapiens Group
Publiée le
Azure
Azure Data Factory
Databricks

3 mois
550-630 €
Boulogne-Billancourt, Île-de-France
Contexte Le projet Data-RH vise à centraliser et modéliser les données issues des systèmes d'une grande entreprise médias dans un modèle unifié, permettant des analyses transverses et une exploitation optimale des données métier. Environnement technique Azure Data Factory, Databricks, Python, PySpark, SQL, Azure DevOps et Power BI. Missions Concevoir et développer des pipelines d'ingestion de données via Azure Data Factory. Créer et optimiser des flux de transformation de données en PySpark/Python. Maintenir et développer de nouveaux indicateurs de qualité de données. Mettre en œuvre et industrialiser les pipelines CI/CD avec Azure DevOps. Participer au refactoring du code existant pour améliorer sa performance et sa maintenabilité. Garantir la qualité du code et veiller au respect des normes de développement au sein de l'équipe. Implémenter des tests unitaires et assurer la fiabilité des solutions. Mettre en place des solutions de monitoring et de supervision pour l'application Data-RH. Il est garant du bon fonctionnement et de la disponibilité des données dont il a la responsabilité. Il assure la prévention des dysfonctionnements des données et contribue à la bonne utilisation de celles-ci. TJM : 600-630 €
Freelance

Mission freelance
Architecte Azure Sophia Antipolis

WorldWide People
Publiée le
Azure

6 mois
400-450 €
Sophia Antipolis, Provence-Alpes-Côte d'Azur
Architecte Azure Sophia Antipolis Définir les architectures cibles (IaaS, PaaS, serverless) et les référentiels (landing zones, reference architectures). Concevoir et valider les solutions de stockage Azure : Blob Storage, ADLS Gen2, Files, Disks, tiers de stockage, réplications et stratégies lifecycle. Piloter les migrations cloud (assessment, stratégie migration, cutover, plan de rollback). Mettre en place et promouvoir l’Infrastructure as Code (ARM, Bicep, Terraform) et les pipelines CI/CD (Azure DevOps, GitHub Actions). Architecturer et opérer des environnements containerisés (AKS), registries (ACR) et orchestration de microservices. Garantir la sécurité, la conformité et la gouvernance : Azure AD, RBAC, Key Vault, chiffrement, Azure Policy, Blueprints, gestion des secrets. Implémenter l’observabilité : Azure Monitor, Log Analytics, Application Insights, alerting et runbooks. Optimiser les coûts cloud (finops) : sizing, autoscaling, réservations, storage tiers, reporting coûts. Accompagner et coacher les équipes DevOps, ingénierie et data sur bonnes pratiques Azure et transferts de compétences. Collaborer avec sécurité, réseau (ExpressRoute, VPN), DBA, data engineers et support pour les dépendances infra. Rédiger des architectures, décisions techniques (ADR), modèles de sécurité et guides d’exploitation.
Freelance
CDI

Offre d'emploi
SENIOR Data engineer MSBI Python Azure (7-8 ans minimum)

Digistrat consulting
Publiée le
Azure Data Factory
Azure DevOps
Microsoft SSIS

3 ans
50k-65k €
500-580 €
Paris, France
🏭 Secteurs stratégiques : Asset management 🗓 Démarrage : ASAP PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 💡 Contexte /Objectifs : Dans le cadre d'un projet au sein d'un client grand compte, nous sommes à la recherche d'un Data engineer avec une expertise sur la suite MSBI. Le profil recherché, Bac + 4/5 idéalement issu d’une école d’ingénieur, aura une expérience au minimum de 7/8 ans. Passionné par le développement, il aura la capacité de travailler en équipe et saura apporter une vraie valeur ajoutée par ses compétences techniques et humaines
Freelance

Mission freelance
ARCHITECTE DATA / POWER BI & AZURE

PROPULSE IT
Publiée le
Azure
BI

24 mois
275-550 €
Massy, Île-de-France
Nous recherchons un(e) DATA ARCHITECTE POWER BI / AZURE Dans le respect de la stratégie IT établie par le DSI, votre mission consiste à : Responsabilités : • Analyser les besoins fonctionnels. • Localiser les données de production. • Déterminer les spécifications techniques. • Définir l'architecture. • Modéliser les datawarehouse (entrepôts de données) et les datamarts (magasins de données) dédiés à une fonction particulière dans l'entreprise. • Accompagner le client dans la réalisation du projet. • Maintenir les sources de données à jour • Mettre à disposition les données aux métiers • Superviser les flux de données et en contrôler l'intégrité
Freelance

Mission freelance
Data Engineer Azure Databricks

CHOURAK CONSULTING
Publiée le
Azure
Azure DevOps
Azure Synapse

3 mois
400-550 €
Lyon, Auvergne-Rhône-Alpes
Nous recherchons un Data Engineer Azure/Databricks expérimenté pour renforcer une équipe Data internationale, dans un environnement technique moderne et structuré. 🎯 Contexte de la mission : La plateforme Data est actuellement basée sur Azure Synapse (Dedicated SQL Pool) , Databricks et dbt , avec des processus CI/CD gérés via Azure DevOps . La mission s’inscrit dans une logique d’industrialisation, de bonnes pratiques et de qualité documentaire. Le client est train d'abandonner Synapse pour migrer sur Databricks. ⚙️ Vos missions principales : Concevoir, développer et maintenir des pipelines de données performants sur Azure. Intervenir sur les traitements Data Engineering en SQL et Python . Contribuer à la modélisation et à l’exposition des données pour Power BI (DAX). Appliquer et promouvoir les bonnes pratiques Data Engineering (qualité, performance, sécurité). Documenter les architectures, flux et développements. Collaborer avec une équipe internationale (échanges majoritairement en anglais).
Freelance

Mission freelance
Adjoint CISO Europe Bilingue

ABSIS CONSEIL
Publiée le
AWS Cloud
Azure
DevSecOps

1 an
700-740 €
Île-de-France, France
Nous recherchons un Adjoint RSSI (Deputy CISO) Europe pour accompagner la stratégie de cybersécurité du Groupe et jouer un rôle clé dans l’évolution de notre posture de sécurité. Rattaché(e) au RSSI Groupe, vous contribuerez à la définition, l’implémentation et le pilotage opérationnel du cadre de sécurité, tout en collaborant étroitement avec les équipes techniques, IT et métiers à l’international. Cette opportunité s’adresse à un profil cybersécurité disposant de 5 à 7 ans d’expérience, souhaitant évoluer vers un rôle transverse, stratégique, et à responsabilités croissantes. Missions principales 1. Contribution à la stratégie et au cadre de sécurité (30%) Participer à la définition du cadre sécurité cible et des standards associés. Contribuer à l’amélioration continue de la posture de sécurité de l’entreprise. Participer à la formalisation des politiques, normes et procédures de sécurité. Appuyer le RSSI dans la conformité aux grands cadres sectoriels (ISO 27001, NIST, CIS). 2. Gouvernance, gestion des risques et conformité (30%) Contribuer à la cartographie des risques cyber, à son maintien et à son suivi. Préparer des éléments de reporting pour les instances de gouvernance. Participer à l’intégration des risques cyber dans les processus opérationnels. Accompagner les entités locales (Europe, US, UK, Tunisie, Inde, Portugal) sur les bonnes pratiques. 3. Programmes sécurité & architecture (25%) Participer à l’exécution des programmes clés : gestion des identités (IAM), gestion des vulnérabilités, sécurité Cloud (Azure/AWS), revue d’architecture sécurité. Fournir un appui opérationnel aux équipes IT (infra, dev, support) pour le déploiement des mesures sécurité. Contribuer à l'analyse de risques projets et à la validation sécurité des architectures applicatives. 4. Culture sécurité & gestion des incidents (15%) Participer à la mise en place de programmes de sensibilisation sécurité. Contribuer à l’amélioration du dispositif de gestion des incidents et du plan de reprise. Participer, en binôme avec le RSSI, à la coordination de la réponse aux incidents majeurs.
Freelance

Mission freelance
Tech Lead Data (AWS/BI)

STHREE SAS pour COMPUTER FUTURES
Publiée le
AWS Cloud

8 mois
Île-de-France, France
Description du contexte / projet Assurer la responsabilité technique, fonctionnelle et opérationnelle du Datalake AWS (CAP 2.0) et de l’écosystème BI du groupe. Piloter une équipe de développement internationale et garantir l’ingestion, la transformation, la qualité, la gouvernance et la mise à disposition fiable des données pour les équipes et systèmes consommateurs A. Pilotage technique du Datalake AWS CAP 2.0 ▪ Supervision complète de la plateforme data AWS ▪ Coordination et encadrement d’une équipe de 5 développeurs basée en Inde ▪ Conception et adaptation des architectures AWS selon les standards du groupe ▪ Implémentation et optimisation des services AWS : ➢ S3 ➢ Glue ➢ Kinesis ➢ Lambda ➢ EventBridge ➢ CloudWatch ▪ Suivi du fonctionnement, des performances et de la robustesse des pipelines ▪ Mise en place de mécanismes d’alerting, supervision et automatisation B. Ingestion et transformation des données ▪ Analyse des systèmes sources internes et externes ▪ Définition du flux d’ingestion de bout en bout ▪ Orchestration des pipelines d’ingestion et de transformation ▪ Consolidation et structuration des datasets ▪ Mise à disposition des données transformées dans PostgreSQL pour les systèmes consommateurs ▪ Validation de l’intégrité, cohérence, performance et fraîcheur des données C. Gouvernance, qualité et bonnes pratiques ▪ Définition et application des guidelines du datalake ▪ Mise en place des standards de gouvernance de données ▪ Suivi et amélioration de la qualité des données ▪ Gestion des accès, sécurité, conformité et règles de partage ▪ Animation des pratiques data selon les meilleures normes du marché ▪ Supervision de l’usage de Collibra pour la gouvernance documentaire D. Management de projets et méthodologies ▪ Gestion de projets data à fort enjeu stratégique ▪ Pilotage de la migration du SI BI vers un nouvel environnement : ➢ Définition du scope ➢ Planification des jalons ➢ Suivi des coûts et ressources ➢ Coordination des acteurs ➢ Organisation du passage en production ▪ Application avancée des méthodologies Agile ▪ Animation des cérémonies et des instances de pilotage ▪ Rôle hybride : Technical Lead assorti de compétences chef de projet & Business Analyst
Freelance
CDI

Offre d'emploi
Senior DevOps AWS

KLETA
Publiée le
AWS Cloud
GitLab CI
Terraform

3 ans
Paris, France
Dans le cadre de programmes de transformation digitale, nous recherchons un DevOps AWS pour accompagner nos clients dans l’adoption des meilleures pratiques DevOps et Cloud Native. Vous interviendrez sur des missions de diagnostic, d’audit et de mise en œuvre de solutions d’industrialisation des infrastructures AWS. Vous analyserez les environnements existants, identifierez les axes d’amélioration et proposerez des trajectoires d’évolution adaptées aux contraintes techniques et métiers. Vous participerez à la mise en place de pipelines CI/CD modernes, à l’automatisation des déploiements et à la sécurisation des architectures cloud. En parallèle, vous accompagnerez les équipes internes dans la montée en compétence sur AWS et les pratiques DevOps. Votre rôle sera à la fois technique et pédagogique, avec une forte dimension conseil.
CDI
Freelance

Offre d'emploi
Consultant/te Senior Support & Configuration Collibra

Craftman data
Publiée le
AWS Cloud
Collibra
Databricks

3 mois
Île-de-France, France
Localisation : Région Parisienne Présence : 2 à 3 jours par semaine sur site (candidat hors Paris : 1 jour/mois) Démarrage : ASAP Durée : Jusqu’au 30/06/2026 (mission de 3 mois renouvelable) Contexte de la mission Dans le cadre du renforcement de sa plateforme de Data Gouvernance , notre client recherche un Consultant Senior Collibra Support & Configuration afin d’assurer l’administration avancée, le support technique de niveau 3 et l’optimisation de la plateforme Collibra. Le consultant interviendra également sur l’intégration de Collibra avec les systèmes internes et accompagnera les entités métiers dans leur adoption de la solution. Missions principales Administration et support avancé Administrer la plateforme Collibra (utilisateurs, rôles, groupes, permissions, domaines) Maintenir et faire évoluer le métamodèle Collibra Surveiller les performances de la plateforme Diagnostiquer et résoudre les incidents complexes ( support niveau 3 ) Assurer le suivi technique avec l’éditeur si nécessaire Intégration et automatisation Intégrer Collibra avec les systèmes internes et outils de l’écosystème data Configurer et maintenir les connecteurs Collibra Exploiter les API REST Collibra pour automatiser les processus Développer des scripts Python pour automatiser l’ingestion et la mise à jour des métadonnées Configurer et optimiser les workflows Collibra Mettre en œuvre des mécanismes d’automatisation et d’optimisation continue Accompagnement des entités Assurer le support fonctionnel et technique N3 via JIRA Adapter les configurations et le modèle opérationnel aux besoins métiers Créer des tableaux de bord personnalisés (HTML) Animer des sessions d’intégration, de démonstration et de formation Accompagner les équipes dans leur onboarding sur Collibra Être le référent technique Collibra auprès des équipes Data Gouvernance Profil recherché Consultant senior spécialisé sur la plateforme Collibra , avec une forte expertise en administration, intégration et automatisation. Expérience : Minimum 5 ans d’expérience 3 à 5 ans minimum sur Collibra Maîtrise avancée de Collibra Gestion du métamodèle, workflows et ingestion de métadonnées Expérience avec Collibra Edge Intégration et développement API REST Collibra Scripting Python Compréhension des architectures d’intégration (connecteurs, API) Systèmes et outils data Bases de données : Oracle, SQL Server, PostgreSQL, Teradata Databricks SAP : SAP BW, SAP HANA, S/4HANA LeanIX Services cloud : AWS Outils BI : Power BI Outils JIRA Création de dashboards HTML Compétences fonctionnelles Bonne compréhension des concepts de gouvernance des données et de gestion des métadonnées Capacité à accompagner les métiers dans l’adoption des outils Bon relationnel et capacité à intervenir dans des environnements complexes
Freelance

Mission freelance
Ingénierie DevOps

VISIAN
Publiée le
Ansible
Apache Spark
AWS Cloud

3 ans
500-550 €
Marseille, Provence-Alpes-Côte d'Azur
Contexte Dans le cadre de l’exploitation et de l’évolution d’une plateforme Big Data à grande échelle, un acteur majeur recherche un expert technique orienté Data Engineering / DataOps. La mission s’inscrit au sein d’un centre d’expertise dédié aux plateformes data, dans un environnement hybride combinant infrastructures on-premise et cloud public. L’objectif principal est d’assurer la disponibilité, la fiabilité et l’automatisation des environnements Datalake, tout en accompagnant les équipes projets dans leurs usages data. Missions Assurer le maintien en conditions opérationnelles des plateformes Datalake Gérer les incidents, demandes d’exploitation et support aux utilisateurs Participer aux déploiements sur les différents environnements (intégration, pré-production, production) Contribuer à l’automatisation et à l’industrialisation des processus Mettre en œuvre des solutions d’orchestration et de déploiement Participer à l’amélioration continue des outils et pratiques d’exploitation Collaborer avec les équipes techniques et les parties prenantes métiers Assurer le reporting et la communication opérationnelle Livrables attendus Exploitation et supervision opérationnelle des plateformes Documentation technique et procédures d’exploitation Scripts et automatisations de déploiement Améliorations continues des processus DataOps Support technique aux équipes projets Environnement technique Cloud & Infrastructure AWS · Microsoft Azure · Environnements hybrides on-prem / cloud Big Data & Data Engineering Kafka · Kafka Connect · Spark · Starburst · Dataiku Orchestration & Automatisation Kubernetes · Helm · Terraform · Ansible · Airflow CI/CD & DevOps GitLab CI/CD · Jenkins · Pipelines d’intégration continue Systèmes & Langages Linux · Python Profil recherché Expérience confirmée en exploitation de plateformes Big Data / Datalake Solides compétences en environnements Linux et scripting Python Maîtrise des outils d’orchestration et d’automatisation Bonne connaissance des architectures cloud et conteneurisées Expérience en CI/CD et industrialisation des déploiements Capacité à gérer des environnements critiques en production Bon relationnel et esprit d’équipe Informations complémentaires Mission orientée RUN avec contribution aux évolutions Environnement technique complexe et à forte volumétrie de données Collaboration avec équipes Data, DevOps et métiers Contexte nécessitant rigueur, autonomie et réactivité
Offre premium
CDI
Freelance

Offre d'emploi
Ingénieur Réseau Datacenter & Cloud

VADEMI
Publiée le
Ansible
AWS Cloud
Azure

12 mois
42k-55k €
400-500 €
Essonne, France
Administrer Réseau LAN/WAN et Landing Zone Cloud Le livrable est : Schémas et principes des zones d'acostage Datacenter et Cloud Compétences techniques : Fabric VXLAN (Arista) - Expert - Impératif Protocole L2 (SPB, ...) et L3 (BGP, ...) - Expert - Impératif Cloud Landing Zone (AWS, GCP, Azure) - Expert - Impératif Firewall (Palo Alto, Fortinet, ...) et F5 LTM - Junior - Important Connaissances linguistiques : Anglais Professionnel (Secondaire) Description détaillée : Dans un contexte de migration du réseau de notre centre de données et des projets cloud, nous recherchons un ingénieur pour renforcer l'équipe en charge de la gestion du réseau du Datacenter et cloud : Mission : - Concevoir, planifier et mettre en œuvre des architectures réseau complexes répondant aux besoins opérationnels de l'entreprise. - Participer aux traitements des demandes ou projets des différents métiers et dans une approche de service - Contribuer à la mise à jour des outils, de la documentation interne et à l’automatisation des tâches récurrentes afin de réduire le RUN. - Suivre les tendances technologiques et proposer des améliorations continues pour optimiser ou réduire l'infrastructure réseau - Fournir un support technique et une expertise aux équipes internes en cas de problèmes complexes. Domaine de compétences : - Maîtrise des couches L2, L3 (MPLS, BGP, VxLAN,SDWAN), F5 LB, DNS - Expertise sur la partie sécurité : FW PaloAlto/Fortinet - Expertise sur la partie Cloud (AWS, GCP, Azure) - Connaissance avancée sur les outils d'automatisation (netbox, ansible, …) Vos atouts : Vous faites preuve d’organisation, de rigueur et appréciez le travail d’équipe et collaboratif Votre bon sens du relationnel sera un atout pour communiquer avec une grande diversité d’interlocuteurs Vous avez un sens de l’innovation et de la créativité.
Freelance
CDI

Offre d'emploi
Architecte Data AWS

KLETA
Publiée le
Amazon Redshift
AWS Cloud

3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Architecte Data AWS pour définir et piloter l’évolution des plateformes de données cloud natives sur Amazon Web Services. Vous analyserez les architectures existantes, identifierez les limites techniques et proposerez des trajectoires cibles adaptées aux enjeux métiers, techniques et opérationnels. Vous guiderez la conception de nouvelles architectures en intégrant des services et technologies AWS tels que S3, Glue, Redshift, Athena, EMR, Kinesis ou des approches lakehouse lorsque pertinent. Vous serez responsable des choix structurants en matière de stockage, de traitement, de gouvernance, de sécurité et de qualité des données, en veillant à la performance, à la scalabilité et à la résilience des plateformes. Vous travaillerez étroitement avec les équipes Data Engineering, Cloud et DevOps pour garantir une mise en œuvre industrialisée, alignée avec les standards d’entreprise et les contraintes d’exploitation. Vous aurez également un rôle clé dans l’animation d’ateliers techniques, la formalisation de patterns d’architecture et l’accompagnement des équipes dans l’adoption des meilleures pratiques data sur AWS.
5043 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous