Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 2 549 résultats.
Freelance
CDI

Offre d'emploi
Machine Learning Engineering

Publiée le
Agile Scrum
Big Data
CI/CD

12 mois
40k-48k €
500-570 €
Paris, France
Télétravail partiel
Afin d’améliorer la personnalisation de l’expérience utilisateurs, nous souhaitons créer une équipe dédiée, travaillant sur des sujets de recommandation et de machine learning en production. Cette équipe est composée d’un Product Owner, un Data Scientist, un lead ML ingénieur et un ML ingénieur. Notre stack technique est basé sur Google Cloud et constituée, entre autres, de Python, Vertex AI, BigQuery, Cloud Run et Airflow pour l’orchestration des traitements. La stack inclut aussi d’autres services de la Google Cloud Platform. La prestation de l'équipe : Créer les premiers cas d’usage en lien avec la personnalisation de l’expérience utilisateur basés sur de la recommandation utilisateur Déployer ce projet et AB tester en production Mettre en place un monitoring et un contrôle des performances Prestations attendues : En interaction avec les membres de l’équipe, la prestation consistera à : Concevoir, construire et maintenir des pipelines ML robustes et scalables de la collecte des données à l’exposition des modèles via des API Rest Organiser et structurer le stockage des données Assurer l’évolutivité, la sécurité, la stabilité des environnements Mettre en place et maintenir les infrastructures scalables capable de répondre aux besoins et au volume de données Industrialiser les modèles IA en lien avec les data scientists Construire et maintenir les workflows de la CI/CD Collaborer avec les data ingénieurs et les autres équipes techniques pour appliquer les bonnes pratiques en vigueur Contribuer et veiller à la mise à jour de la documentation Faire de la veille technologique active dans le domaine Participer activement aux différentes phases de cadrage, de planification et de réalisation des tâches avec l’équipe
Freelance
CDI

Offre d'emploi
Senior Data engineer AWS

Publiée le
Terraform

18 mois
40k-45k €
100-550 €
Paris, France
Télétravail partiel
CONTEXTE : Experience : 7 ans et plus Métiers Fonctions : Data Management, Software engineer Spécialités technologiques : Data Compétences Technologies et Outils AWS Spark Airflow Snowflake Secteurs d'activités Services Informatiques Conseil en organisation, stratégie MISSIONS Rattaché(e) au périmètre du Responsable Data Platform, vos missions consisteront à : - Développer des pipelines et ETL sur AWS vers Snowflake - Mettre en place des stockage optimisé grâce aux technologies lakehouse et en particulier DeltaLake - Créer des jobs manipulant la donnée avec SQL et Python (pandas et ou Polars) - Réaliser les traitements de volume de données massives avec PySpark - Développer et maintenir des infrastructures avec de l’IaC et en particulier avec Terraform - Orchestrer les différents traitements via Airflow - Déployer et maintenir des applications via la CI/CD - Participer aux réflexions et au design d’architecture - Bonne capacité de vulgarisation et de communication - Participer aux rituels agiles de l’équipe - Contribuer à la documentation technique et fonctionnelle 5 à 10 ans en tant que Data Engineer, avec une expérience significative sur AWS. Un positionnement en tant que techlead serait un plus. De l’expérience dans un contexte BI serait un plus. Un positionnement ou une expérience en tant que DevOps serait un plus. Expertise souhaitée Python, PySpark, AWS (EMR, S3, Lambda), Airflow, SQL, Snowflake, Terraform, Databricks, Gitlab.
Freelance

Mission freelance
Consultant Tech Lead Databricks Clermond Ferrand

Publiée le
Databricks

6 mois
Clermont-Ferrand, Auvergne-Rhône-Alpes
Télétravail partiel
Nous recherchons un Consultant / Tech Lead Data expérimenté pour rejoindre notre équipe basée à Clermont-Ferrand . Vous interviendrez en tant que référent technique sur nos projets Data, en particulier autour de l’écosystème Databricks et de la plateforme Microsoft Azure . Piloter techniquement les projets Data et accompagner les équipes dans la montée en compétences. Concevoir, développer et optimiser des pipelines de données sous Databricks . Mettre en œuvre des architectures Data sur Azure (Data Lake, Data Factory, Synapse…). Développer, transformer et industrialiser les traitements Spark .
Freelance

Mission freelance
[MISSION LONGUE] Administrateur Lakehouse / Cloudera – Expert Big Data (H/F)

Publiée le
Apache
Apache NiFi
Apache Spark

12 mois
400-650 €
Paris, France
Télétravail partiel
Client final : secteur paiement – mission longue – environnement Cloudera CDP Nous recherchons un Administrateur Lakehouse / Administrateur Cloudera confirmé ou senior pour accompagner l’un de nos clients grands comptes dans la gestion et l’exploitation de son écosystème Big Data. 🎯 Compétences OBLIGATOIRES (critères majeurs) 👉 Maîtrise parfaite des composants Lakehouse suivants : Apache Ranger (Data Security) Apache Atlas (Gouvernance & Lineage) Spark + Apache Zeppelin (Processing) NiFi (Ingestion) Apache Impala (Analytics) Hadoop (HDFS) + Apache Kudu (Data Lake) Hue (Serving / SQL UI) ➡️ Ces compétences sont indispensables : seuls les profils maîtrisant ces briques seront retenus. 🧩 Vos responsabilités Administrer et maintenir l’écosystème Cloudera / CDP (Cloudera Manager, HDFS, Yarn, Zookeeper…). Assurer le MCO/MCS : disponibilité, performances, sécurité, supervision. Documenter les procédures d’exploitation & rédiger des rapports synthétiques. Respecter les SLA et intervenir en cas d’incident. Travailler en environnement ITIL (gestion incidents, problèmes, changements). Automatiser les déploiements via Ansible (certificats, keystores, configurations). Utiliser les outils DevOps : GitHub , Jenkins . Exploiter les environnements Linux (analyse de logs, diagnostic). Participer aux réunions d’équipe, aux projets et aux comités. Être force de proposition sur l’amélioration continue et la supervision. 🌍 Environnement technique Cloudera CDP • Cloudera Manager • HDFS • Yarn • Zookeeper Apache Ranger • Apache Atlas • Spark • Zeppelin • NiFi • Impala Hadoop • Kudu • Hue Ansible • GitHub • Jenkins • Linux 📌 Profil recherché 5 à 7+ ans en administration Big Data / Hadoop / Cloudera impératif. Très forte expertise sur les briques Lakehouse listées ci-dessus. À l’aise en production, ITIL, sécurité, automatisation. Bon niveau d’anglais (échanges éditeurs Cloudera & fournisseurs). Consultant autonome, structuré, capable de rendre compte et d’améliorer l’existant. 🚀 Disponibilité immédiate ou rapide Si vous maîtrisez Cloudera + Ranger + Atlas + Spark + NiFi + Impala + Kudu , contactez-moi directement.
Freelance
CDI

Offre d'emploi
Développeur(se) Azure Data Fabric confirmé(e)

Publiée le
MySQL

18 mois
40k-45k €
100-500 €
Paris, France
Télétravail partiel
CONTEXTE : Experience : 5 ans et plus Métiers Fonctions : Etudes & Développement, Développeur Spécialités technologiques : Transformation digitale ; Gouvernance des données Dans un contexte de transformation digitale orientée data, nous recherchons un profil senior capable de concevoir, développer et maintenir des solutions de traitement et d’ingestion de données sur la plateforme Azure Data Fabric. Vous serez un acteur clé dans l’industrialisation des flux de données, l’optimisation des pipelines, et la mise en œuvre de solutions scalables et performantes. Le poste implique à la fois un rôle opérationnel, d’expertise technique et de leadership sur les bonnes pratiques de l’écosystème Azure. MISSIONS 1. Conception et développement ▪ Participer à l’analyse des besoins métiers et techniques en matière de traitement de données. ▪ Concevoir et développer des pipelines d’ingestion, de transformation et de distribution des données sur Azure Data Factory. ▪ Intégrer les services Azure liés à la Data Fabric qui seront nécessaire : ex : Azure Data Lake Storage Gen2 etc... ▪ Implémenter des modèles de données et des solutions de traitement ▪ Encadrer la modélisation des flux de données complexes (batch et streaming) et proposer des architectures “data-driven” adaptées aux enjeux métiers. 2. Conception et développement de pipelines avancés ▪ Concevoir, développer et maintenir des pipelines avec Azure Data Factory et/ou Azure Synapse Pipelines. ▪ Définir et mettre en œuvre des stratégies de surveillance (monitoring) et d’alerting des pipelines. ▪ Optimiser les performances et les coûts des traitements (partitionnement, parallélisation, contrôle qualité). 3. Support et amélioration continue ▪ Assurer le support dans l’utilisation de la plateforme. ▪ Être force de proposition sur l’optimisation des traitements, la réduction des coûts Azure, et les innovations technologiques. ▪ Suivre la performance et la fiabilité des solutions déployées via Azure Monitor, Log Analytics, Application Insights. Expertise souhaitée Compétences requises : Techniques : ▪ Azure Data Factory - Expert ▪ Azure Data Lake Storage Gen2 - Confirmé ▪ Azure Synapse Analytics (dedicated & serverless) - Confirmé à expert ▪ Azure Event Hub / Stream Analytics - Bonne connaissance ▪ Sécurité Azure & gouvernance - Bonne connaissance ▪ Python / SQL / PowerShell - Confirmé ▪ Architecture Data / Cloud - Expérience significative ▪ PowerBI Confirmé Compétences comportementales : • Bon relationnel et sens de l’écoute • Autonomie et esprit d’initiative • Esprit analytique et rigueur • Capacité à vulgariser les sujets techniques pour les métiers • Esprit d’équipe Profil recherché : ▪ Bac+3 à Bac+5 en informatique, ingénierie, data ou équivalent. ▪ Expérience significative en développement de solutions data sur Microsoft Azure. ▪ Minimum 5 ans d’expérience sur des projets data complexes en environnement cloud (Azure de préférence). ▪ Très bonne connaissance de l’écosystème Azure et de ses services data. ▪ Bonne compréhension des architectures data modernes (data lake, real-time,event-driven). ▪ Sensibilité forte à la performance, la sécurité et la gouvernance des données. ▪ Autonomie, rigueur, curiosité technologique, esprit d’équipe. ▪ Bon niveau de communication, capable d’interagir avec les équipes métiers et IT.
Freelance

Mission freelance
Expert Talend / Talend Data Integration Specialist

Publiée le
ETL (Extract-transform-load)
Talend

12 mois
Paris, France
Télétravail partiel
Contexte L’entreprise recherche un expert Talend capable de concevoir, industrialiser et optimiser des flux de données dans un environnement moderne orienté cloud. Le rôle consiste à renforcer l’équipe Data dans un contexte d’industrialisation, de migration ou de modernisation des pipelines existants. Missions Conception et développement Concevoir et développer des pipelines ETL/ELT sous Talend (Open Studio ou Talend Data Integration). Mettre en place des jobs complexes (gestion d’erreurs, reprise, optimisation des performances). Définir et structurer les modèles de données selon les bonnes pratiques. Industrialisation et optimisation Optimiser les performances des jobs existants. Mettre en place les bonnes pratiques de versioning, CI/CD, automatisation des déploiements. Assurer la qualité, la traçabilité et la robustesse des flux. Intégration Cloud / Écosystème Intégrer Talend à un environnement cloud (Azure, AWS ou GCP, selon le client). Exploiter les services de stockage et de traitement du cloud (exemples : Azure Data Lake, AWS S3, BigQuery). Implémenter des orchestrations via Airflow, Talend TAC, ou équivalent. Support et expertise Accompagner les équipes internes dans l'utilisation de Talend. Diagnostiquer et résoudre les incidents sur les chaînes de traitement. Documenter les processus et assurer la mise en production. Compétences techniques attendues Indispensables Talend Data Integration (niveau expert, minimum 5 ans). Maîtrise des jobs complexes : tMap, tFlowToIterate, tJava, tREST, tFileInput/Output, etc. ETL/ELT avancé : transformations, normalisation, gestion des erreurs, optimisation. SQL avancé (PostgreSQL, Oracle, SQL Server ou autre). Connaissances solides en architectures Data (Batch, temps réel, Data Lake, Data Warehouse). Versioning Git. Méthodologies CI/CD (Jenkins, GitLab CI ou équivalent). Souhaitables Connaissances cloud (Azure / AWS / GCP). Orchestration Airflow, Control-M ou équivalent. Talend Administration Center (TAC). Notions en API, microservices, REST. Connaissances en Data Quality / Data Governance (optionnel). Soft skills Capacité d’analyse précise et rigoureuse. Autonomie et fiabilité. Capacité à challenger les besoins métier de manière factuelle. Communication claire avec l’équipe Data. Profil recherché Minimum 5 à 7 ans d’expérience sur Talend. Expérience dans des environnements Data complexes. Capacité à intervenir comme référent ou expert technique.
Freelance

Mission freelance
Chef de projet géomarketing

Publiée le
CRM
Data analysis
Data governance

12 mois
520-600 €
Île-de-France, France
Télétravail partiel
Nous recherchons un(e) chef de projet Géomarketing pour piloter l’industrialisation de nos outils géomarketing et la mise en place d’un reporting KPI efficace, afin de renforcer la prise de décision et l’optimisation des opérations commerciales et logistiques. Missions principales : Industrialisation des outils géomarketing Analyse des besoins métiers et identification des outils existants. Standardisation et automatisation des processus géomarketing. Déploiement de solutions adaptées aux différentes entités du groupe. Formation et accompagnement des utilisateurs internes. Mise en place de reporting KPI Définition et structuration des indicateurs clés de performance (KPI) géomarketing. Création de tableaux de bord interactifs et automatisés pour le suivi des activités. Mise en place de processus de collecte, de consolidation et d’analyse des données. Pilotage de la performance et identification des leviers d’optimisation. Pilotage de projets transverses Coordination avec les équipes commerciales, marketing, logistique et IT. Suivi du planning, des coûts et des livrables. Garantir la qualité et la fiabilité des données utilisées dans les analyses. Profil recherché : Expérience confirmée en géomarketing et gestion de projets data / BI. Maîtrise des outils SIG (QGIS, ArcGIS…) et des solutions de data visualisation (Power BI, Tableau…). Bonne compréhension des enjeux commerciaux et logistiques dans un contexte multi-pays. Capacité à industrialiser des processus et à créer des reportings automatisés. Esprit analytique, rigueur et sens de la communication. Livrables attendus : Outils géomarketing industrialisés et documentés. Tableaux de bord KPI opérationnels et automatisés. Processus standardisés pour le suivi de la performance géomarketing.
Freelance
CDI

Offre d'emploi
Développeur Java H/F

Publiée le
Java
Spring
Spring Batch

1 an
45k-50k €
400-420 €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
Vos missions principales : · Recueillir et analyser les besoins · Proposer des solutions via des technologies performantes et durables · Garantir les bonnes pratiques de développement et la qualité logicielle · Participer à l'optimisation et à la gestion des l’obsolescence des technologies employées · Garantir la faisabilité technique des projets Mais également : · Analyser l’impact des nouvelles solutions dans le système d’information · Préconiser des choix techniques · Assurer viabilité, exploitabilité, évolutivité, faisabilité économique et adéquation des solutions aux besoins · Concevoir et valider l’architecture technique du système d’information · Participer à l’intégration du projet · Apporter un support technique aux projets
Freelance

Mission freelance
Scrum Master SAFe Data h/f

Publiée le
Agile Scrum
Safe

3 ans
400-620 €
Maisons-Alfort, Île-de-France
Télétravail partiel
Pour notre client dans le secteur privé, nous recherchons un Scrum master SAFe confirmé (à minima 8/10 ans d'expérience). Le Scrum Master a pour mission d’accompagner et de faciliter le travail de son (ses) Agile Team(s) dans la structuration et la réalisation de ses (leurs) activités. Cette prestation d’assistance technique sera supervisée par le RTE et le coach du train SAFe Une certification est obligatoire: Scrum Master SAFE Scaled Agile + éventuellement RTE Scaled Agile ou SPC Scaled Agile.
Freelance

Mission freelance
Ingénieur DATA – Coordination & Support Technique IA Industrielle

Publiée le
Data analysis
IA

1 an
500 €
Belgique
Télétravail partiel
Assurer la coordination et le support technique Data & IA pour l’industrialisation et l’optimisation des flux de données. L’objectif est de structurer, automatiser et rendre exploitables les données industrielles , tout en développant les premiers use cases IA opérationnels pour la ligne de production. 1. Coordination Data & IA Piloter et structurer l’automatisation de l’alimentation de la plateforme 3DEXpérience depuis Publisher , en exploitant des techniques d’IA (machine learning, NLP…). Documenter et suivre les scripts et workflows de migration automatisés . Proposer les premiers use cases DATA & IA pour la production. Appuyer l’équipe UNS sur la structuration des données industrielles pour usages IA futurs. Veille technologique et reporting sur les sujets Data & IA. 2. Support technique et développement Implémenter et tester les scripts et workflows de migration de données (DataPrep, ETL, IA) sur données simulées ou réelles. Concevoir et tester des use cases IA “production ready” : supervision process, maintenance prédictive, contrôle qualité automatique. Structurer les datasets pour l’entraînement IA : normalisation, règles qualité, automatisation des flux. Assurer documentation technique et transfert de compétences aux équipes.
CDI

Offre d'emploi
Analyste d'Exploitation - Supervision & Scripting (H/F)

Publiée le

34k-38k €
Le Mans, Pays de la Loire
Vous aimez résoudre des incidents, automatiser les tâches et garantir la performance d'un SI critique ? Rejoignez SEA TPI au Mans et contribuez à la fiabilité de systèmes qui tournent 24/7. Nous recherchons des Analystes d'Exploitation passionnés par la technique, souhaitant évoluer dans un environnement exigeant où la performance et la fiabilité du SI sont au cœur des priorités. Vos missions principales s'articuleront autour des axes suivants : • Gestion des incidents : Identifier, diagnostiquer et résoudre les incidents techniques dans le respect des SLA. • Exploitation courante : Traiter les demandes de travaux et assurer la continuité opérationnelle du SI. • Maintenance et optimisation : Réaliser les maintenances préventives et correctives afin d'optimiser les performances et la fiabilité des systèmes. • Amélioration continue : • Rédiger et mettre à jour la documentation technique d'exploitation et d'incident. • Proposer et mettre en œuvre des actions d'amélioration des processus. • Développer et maintenir des scripts d'automatisation et de remédiation automatique pour fiabiliser les opérations. • Collaboration inter-équipes : Travailler en synergie avec les équipes techniques pour garantir la disponibilité et la performance du SI. • Astreintes : interventions 1 semaine par mois en HNO ( 19h00-07h00) Les missions énumérées ne sont pas exhaustives, il s'agit des missions principales. Référence de l'offre : 2cumnsx2pp
CDI

Offre d'emploi
Analyste d'exploitation - Supervision & Scripting (H/F)

Publiée le

34k-38k €
Saran, Centre-Val de Loire
Vous aimez résoudre des incidents, automatiser les tâches et garantir la performance d'un SI critique ? Rejoignez SEA TPI à Saran (Nord d'Orléans) et contribuez à la fiabilité de systèmes qui tournent 24/7. Nous recherchons des Analystes d'Exploitation passionnés par la technique, souhaitant évoluer dans un environnement exigeant où la performance et la fiabilité du SI sont au cœur des priorités. Vos missions principales s'articuleront autour des axes suivants : • Gestion des incidents : Identifier, diagnostiquer et résoudre les incidents techniques dans le respect des SLA. • Exploitation courante : Traiter les demandes de travaux et assurer la continuité opérationnelle du SI. • Maintenance et optimisation : Réaliser les maintenances préventives et correctives afin d'optimiser les performances et la fiabilité des systèmes. • Amélioration continue : • Rédiger et mettre à jour la documentation technique d'exploitation et d'incident. • Proposer et mettre en œuvre des actions d'amélioration des processus. • Développer et maintenir des scripts d'automatisation et de remédiation automatique pour fiabiliser les opérations. • Collaboration inter-équipes : Travailler en synergie avec les équipes techniques pour garantir la disponibilité et la performance du SI. • Astreintes : interventions 1 semaine par mois en HNO ( 19h00-07h00) Les missions énumérées ne sont pas exhaustives, il s'agit des missions principales. Référence de l'offre : fl3vwldc08
CDI
Freelance

Offre d'emploi
Développeur Fullstack Data Java / Python / SQL

Publiée le
Automatisation
CI/CD
Cloudera

3 ans
40k-55k €
350-550 €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Description du poste Nous recherchons un Développeur Fullstack orienté Data pour intervenir dans un environnement bancaire sur des sujets de conception, développement et optimisation de solutions data. Votre rôle portera sur la mise en place et l’optimisation des bases de données, la conception et l’intégration de traitements via Python et Java, ainsi que la création d’outils permettant de suivre, fiabiliser et sécuriser les usages data. Vous aurez la responsabilité d’assurer la disponibilité, la cohérence, la qualité et la performance des systèmes, tout en veillant à leur bonne exploitation. Vous participerez également à la mise en œuvre d’outils de supervision, à la documentation technique, à l’industrialisation de scripts et aux activités de support auprès des utilisateurs. La mission s’effectue dans un contexte agile avec un fort niveau d’autonomie et de collaboration technique. Compétences techniques Python Java SQL PostgreSQL Azure Synapse / Synapse Analytics Cloudera CI/CD – Environnements DevOps Optimisation et structuration de bases de données Scripting et automatisation
CDI

Offre d'emploi
Business Analyst (F/H)

Publiée le
Business Analyst

35k-45k €
Montpellier, Occitanie
Télétravail partiel
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 📑CDI (négociable) – 🏠 2 jours de télétravail par semaine – 📍 Montpellier (34) – 🛠 Expérience de 5 ans min. Envie de rejoindre une équipe où la tech et les projets stimulants sont au rendez-vous ? Cette opportunité est faite pour vous ! 🚀 Pour renforcer nos équipes, nous recherchons un BA . 💻💼 🎯 Voici un aperçu détaillé de vos missions : Assurer l’interface entre les équipes métier (risques, crédits, sinistres, conformité, produits bancaires/assurance) et les équipes IT. Analyser les besoins, sécuriser la cohérence réglementaire et fonctionnelle, et accompagner la mise en œuvre des solutions SI. - Recueillir et analyser les besoins métiers : produits bancaires, gestion des comptes, moyens de paiement, assurance-vie, IARD, conformité (KYC/AML), - Modéliser les processus (UML, BPMN) et identifier les impacts SI, - Rédiger user stories, SFD/STF (règles de gestion, parcours clients, calculs métiers), - Accompagner les équipes de développement et clarifier les exigences fonctionnelles, - Préparer et exécuter les tests fonctionnels (flux bancaires, règles de souscription, tarification, sinistres), - Suivre incidents & évolutions (réglementation, sécurité, intégration systèmes cœur).
Freelance

Mission freelance
Data Engineer Spark/Scala

Publiée le
Apache Spark
Scala

3 mois
Paris, France
Télétravail partiel
Data Engineer Spark/Scala Au sein de la DSI Finance de la DSI, le poste recherché porte sur le besoin d’un Data Engineer Spark/Scala confirmé (5-6 ans d’expérience). Objectifs et livrables Objectifs Le prestataire intégrera le projet d’intégration en coordination avec le chantier assiette comptable de référence en tant que Data Engineer. Les développements sur ce chantier s’appuient sur la plateforme Datalake Finance, basée sur la distribution Hadoop HortonWorks qui collecte les données des différents systèmes de synthèse afin de répondre aux nouveaux besoins de reporting Finances & Risques (COREP, calcul RWA, IFRS9, etc.…) Les tâches seront les suivantes : • la mission consistera à prendre part aux développements, au sein du datalake pour acquérir les nouvelles sources de données, les assemblées et les distribuées aux consommateurs, tout en étant garant de la pérennité et la non-régression de l’outillage déjà en place • Vous participerez à la conception et à l’implémentation de ce projet et serez amené, à ce titre, à travailler en méthode Agile avec de nombreux acteurs métiers et les équipes de maintenance Compétences techniques o Expérience dans la mise en œuvre de technologies et frameworks Big Data et NoSQL (Hadoop, Kafka, Spark, Scala, Hive, SolR, HBase, Kerberos) o Spark / Scala : confirmé o A l'aise avec le programmation fonctionnelle (connaissance des librairies ZIO, MONIX, CATS appréciée) o Expérience de travail dans un environnement Agile ; avec outils et méthodologies associés (Confluence, Jira, Scrum, Kanban) Compétences demandées Compétences Niveau de compétence Apache Kafka Avancé Apache Hadoop Confirmé Apache Hive Avancé SCALA Confirmé Spark Confirmé
Freelance
CDI

Offre d'emploi
Platform Engineer Azure ou/et GCP

Publiée le
Azure
GitLab CI
Google Cloud Platform (GCP)

3 ans
Île-de-France, France
Responsabilités principales Contexte Multicloud et mise en place des LZ cloud de confiance (S3NS / BLEU). Concevoir et maintenir les modules Terraform (socle & projets). Maintenir un catalogue de communs (versioning, qualité, documentation). Concevoir et opérer les pipelines CI/CD standardisés. Mettre en œuvre les contrôles sécurité et conformité “shift-left”. Produire la documentation DevEx (guides, templates, bonnes pratiques). Stack principale : Terraform avancé (modules, tests, versioning), CI/CD (GitLab CI, Azure DevOps, Cloud Build), Azure (BLEU) & GCP (S3NS)
2549 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous