Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 775 résultats.
Freelance

Mission freelance
Database Engineer H/F

HAYS France
Publiée le
AWS Cloud
Azure
DevOps

10 mois
Lille, Hauts-de-France
Dans le cadre du renforcement des équipes Data & Infrastructure d’un groupe international du secteur retail, nous recherchons un Database Engineer pour garantir la performance, la disponibilité et la sécurité des bases de données en environnement hybride (On-Premise & Cloud). Vous interviendrez en collaboration avec les équipes IT et Data sur des enjeux de scalabilité, d’automatisation et d’optimisation des plateformes. Vos missions : Administrer, maintenir et optimiser des bases de données SQL et NoSQL (PostgreSQL, Oracle, Redis, Snowflake, OpenSearch) Assurer la haute disponibilité, les sauvegardes et les PCA/PRA Superviser les performances et réaliser le tuning (requêtes, indexation, partitionnement) Mettre en œuvre des pratiques DevOps et Database as Code Gérer la sécurité des données (accès, chiffrement, conformité RGPD) Participer aux migrations Cloud (AWS RDS, Azure SQL) Automatiser les déploiements et accompagner les équipes de développement sur les bonnes pratiques
Freelance

Mission freelance
Développeur Python devops AWS AZURE Anglais 480 e par jour

BI SOLUTIONS
Publiée le
AWS Cloud
Python

3 ans
400-480 €
Île-de-France, France
Développeur Python devops AWS AZURE Anglais 480 e par jour Data analyste ET ANALYTICS Platform AWS AZURE PYTHON Anglais 500 e par jour Évolution des infrastructures cloud via l’Infrastructure as Code Gestion d’un cluster kubernetes Développement de micro-services en Python Conception et maintenance de chaînes de déploiement automatisé Assurer le bon fonctionnement opérationnel de la Data & Analytics Platform Enrichissement de la documentation à l’attention des utilisateurs Expérience significative sur le cloud AWS et/ou Azure, notamment sur les services de données (Gen2 et ou S3). Développement d’application web. Connaissance des pratiques du software craftsmanship. Bonne connaissance de la méthodologie Agile. Familiarité avec les mécanismes de traitement et de valorisation des données. Python, Terraform GitHub, GitHub Action Azure : AKS, Data Lake Gen2, Data Factory AWS : EKS, S3, ECS, VPC, NSG, Lambda, … Databricks : Unity Catalog, Policy, Cluster, PySpark Pratiques : Scrum Notions : DevSecOps, Data Engineering, Data Management Langues : Anglais et Français 480 e par jour
Freelance

Mission freelance
Développeur ASP.NET / Azure Senior (H/F)

Link Consulting
Publiée le
ASP.NET
Azure

6 mois
400-500 €
Toulouse, Occitanie
Notre client, éditeur de logiciels reconnu sur son marché, recherche un Développeur ASP.NET / Azure Senior (H/F) à Toulouse pour renforcer son équipe technique dans le cadre d’une mission stratégique autour de l’évolution de ses solutions. Vous interviendrez sur un environnement cloud moderne et au cœur des enjeux de performance, de sécurité. Vos missions : \- Concevoir, développer et optimiser des applications ASP.NET / .NET Core. \- Participer aux choix techniques et à l’architecture applicative. \- Intervenir sur les services **Microsoft Azure** (Functions, App Services, DevOps, Storage…). \- Contribuer à l’évolution technique et fonctionnelle des solutions logicielles. \- Participer aux rituels agiles, revues de code et ateliers techniques. \- Assurer la qualité, la maintenabilité et la performance des projets livrés. Stack dominante : \- ASP.NET / C# / .NET Core \- Microsoft Azure (Functions, App Services, DevOps…) \- Environnements logiciels complexes et distribués
CDI

Offre d'emploi
Ingénieur DEVOPS

KUBE Partners S.L. / Pixie Services
Publiée le
Ansible
AWS Cloud
Azure

Lille, Hauts-de-France
Ce que nous offrons : - Un environnement de travail stimulant, où chaque projet est une opportunité de repousser les limites de l'innovation avec des outils comme Docker, Kubernetes, Ansible, Terraform, AWS/GCP, et bien plus. - Une culture d'entreprise qui valorise la formation continue, l'autonomie et la collaboration entre équipes multidisciplinaires. - Un poste basé dans la dynamique métropole lilloise, centre d'innovation et de technologie. Missions pour l'Ingénieur DevOps : - Automatisation des pipelines CI/CD pour accélérer le déploiement des applications tout en garantissant leur fiabilité et leur sécurité. - Orchestration des conteneurs avec Kubernetes, assurant la scalabilité et la gestion efficace des microservices. - Gestion de l'infrastructure as code (IaC) avec Terraform ou Ansible, permettant une gestion cohérente et reproductible des environnements de production, de test et de développement. - Surveillance et optimisation des performances des systèmes en place, en utilisant des outils de monitoring avancés pour prévenir les incidents avant qu'ils ne surviennent. - Collaboration étroite avec les équipes de développement et d'opérations pour instaurer une culture DevOps forte, favorisant l'intégration et la livraison continues (CI/CD). - Sécurisation des pipelines de déploiement et de l'infrastructure cloud via des pratiques de sécurité DevOps (DevSecOps), incluant la gestion des vulnérabilités et la conformité.
Freelance

Mission freelance
Développement .NET / Azure - Référentiels Data

STHREE SAS pour HUXLEY
Publiée le

12 mois
500 €
France
Ingénieur Développement .NET / Azure - Référentiels Data (Asset Management) 📍 Paris (hybride) | 🕒 12 mois renouvelables | 🎯 Senior | 💬 FR & EN | 🚀 Start : 26/01/2026 Le pitch Rejoignez l'équipe Référentiels d'un acteur majeur de la gestion d'actifs (client anonyme ) pour bâtir un référentiel unique et migrer une application On‑Prem vers Azure , tout en intégrant une nouvelle source de données (instruments, émetteurs, extra‑financier/ESG). Rôle clé au carrefour IT x Métier . Vos missions Développer de nouveaux composants .NET et garantir la cohérence technique (clean code, tests, modèles de données). Rédiger les spécifications techniques (API/archi/exploitation) en lien avec le BA. Planifier/estimer les travaux, gérer risques & blocages . Concevoir & suivre les environnements Azure , tester & déployer jusqu'en UAT/PROD avec un haut niveau de qualité. Votre profil Bac+5, 5+ ans en dev, exp confirmée sur Azure et API REST ; maîtrise ETL/Batch/Services et modèles de données . Sens de la qualité (Sonar ; tests auto = +), Agile/Scrum , DevOps . Français & anglais opérationnels ; idéalement finance/asset management & référentiels data. Stack Must‑have : .NET 8 , C# , Blazor (WASM/Server), Visual Studio , Git , Azure DevOps , REST API , SQL Server , EF Core . Nice‑to‑have : HTML5/CSS3 , Azure Data Factory , Postman , API Management , Syncfusion , SonarCloud .
CDD
CDI
Freelance

Offre d'emploi
Developer Back end Java 17/21 (Spring boot) & devops

KEONI CONSULTING
Publiée le
Cloud
Postman
Terraform

18 mois
20k-60k €
100-500 €
Lille, Hauts-de-France
Contexte Nous recherchons 1 Dev Back-end Java afin de renforcer l'équipe actuelle. Cette personne pourra intervenir sur les projets au sein du dispositif existant ou le renforcer sur les autres assets, selon la charge de cette période, afin de tenir l'engagement de mise en production MISSIONS Ø Mise en place du socle technique - Choix des librairies nécessaires au projet - Mise en place du socle technique sous Docker - Mise en place des déploiements automatisésEnvironnement technique à maîtriser : o Langages : Java 17/21 o Frameworks : Spring Boot, JUnit, Logback o Serveur d’application : Service manager AWS (Beanstalk) et infra Kub o Industrialisation : Docker, Maven, Gateling o Outils : Datadog, Git LabCi, Jira, Sonar, etc. ○ • Assurer une qualité de code optimale ○ Initie un bon socle ○ S'assure de la mise en place des guidelines ( Quality Gate, % code coverage, pyramide de tests..) ○ Suivi des métriques ○ Garant de la bonne application des pratiques de devs • Fournir une direction technique / architecturale ○ Unifier les pratiques ○ Aider à prendre les bonnes décisions ○ Fluidifier les longs débats, et tranche en cas d'indécision ○ Echange avec les bons partenaires pour coconstruire si besoin • Contrôler la dette technique ○ Sensibiliser alerter en cas d'obsolescence / mauvaise pratiques ○ Suivre, afficher et prioriser la dette technique • Assurer le bon déroulement des Code Review ○ Animer et cadrer les CR (suivre le Time to Review, la Pull Request Size.. ) • Promouvoir la collaboration et l'engagement ○ Accompagne et facilite le partage de connaissance (matrice de compétences, 1to1..) ○ Garant du process d'On-Boarding ○ Crée de la cohésion dans l'équipe ○ Être l'interlocuteur privilégié du PO / Stakeholders en cas de question technique • Déployer de la qualité, rapidement ○ Focus l'équipe sur des solutions rapides, et fiables (KISS, ) ○ Suivi de la fréquence de déploiement, taille de déploiement.. ○ Favorise la collaboration Dev/Ops • Participation au cadrage Technico/fonctionnelle ○ Participation aux études de faisabilité / estimations / planification ○ Réalisation de cadrages fonctionnels et techniques pour les évolutions ○ Réaliser des estimations de charge ou de complexité d’une évolution et des tâches à effectuer ○ Produire les livrables en suivant les pratiques agiles ○ Tests unitaires (TDD) et tests fonctionnels automatisés (BDD) ○ Application packagée (Docker) ○ Documentation technique ○ Analyser les rapports d'intégration continue et actions en conséquence ○ Remonter les alertes et le reste à faire sur ses tâches ○ Contribuer à l’activité d’étude d’architecture technique de l’équipe ○ Être le référent Technique de l'équipe Scrum en lien avec le DevOps et les équipes infra pour les choix techniques mais aussi sur leurs mises en place • Être le garant des process de dev ○ Mettre en place et être le garant des bonnes pratiques de dev ○ Mettre en place des process pour avoir une unicité de pratique au sein de l'équipe (listing de chose à faire lors d'une revue, …) ○ Mettre en place des métriques pour identifier des axes d'améliorations : § Couverture de code par les Test et des TU § Nombre d'aller-retour et Nb de retour sur les revues § Nombre d'anos § Temps passé sur les différentes étapes du Workflow (dev et Test (TU, TA,..) Revue, livraison …) § Réaliser des ateliers d'analyses et de prise d'action d'amélioration Suivi des métriques et des actions d'amélioration 3) Contribution à la vie de l’équipe Ø Vous participez activement à la vie de l’équipe Ø Vous êtes proactif pendant les cérémonies agiles (DSM, rétro, démo, ...) et force de proposition en termes d'amélioration Ø Vous contribuez à l'animation du backlog Produit et technique Ø Vous participez à l’estimation de charge ou de complexité des tâches de l’équipe Ø Vous remontez les alertes et le reste à faire sur ses tâches Ø Vous assurez un transfert de connaissances vers les autres équipes Livrables : Les compétences techniques minimales que nous recherchons sont : - Une maitrise parfaite du Java 17/21 mais aussi des Framework Spring et Spring boot - Frameworks : Spring Boot, JUnit, JAX-RS, Logback - Git LabCi ne sont pas des options ;) PROFIL& COMPETENCES Pour le poste, il convient d'avoir au minimum de 7/8 ans d'expérience sur des postes de développeur prioritairement sur Java 17/21 (Spring boot), avec idéalement plusieurs expériences de lead dev Expert Java dans un contexte Agile très fort mais également une organisation DevOps afin de pouvoir monter les environnements back mais également travailler sur la mise en place et l'Optimisation des pipelines de livraison en Hors Prod et en Prod. Nous travaillerons sur une infra AWS donc il sera obligatoire que le candidat maîtrise l'environnement AWS avec idéalement plusieurs certifications AWS (Architecte Associate, Développer associate, …). Vous aimez apprendre, partager vos connaissances et mettre en application les technologies actuelles et futures. De plus, les compétences suivantes en DevOps seront plus que souhaitables : - Vous connaissez AWS et avez déjà travaillé sur des pipelines de livraison sur AWS - Vous connaissez les logiciels de livraison continue comme Gitlab CI, Jenkins, Artifactory, … - Mais aussi les logiciels intégrer dans les pipelines de livraison pour assurer la qualité/ la sécurité comme Sonar, CheckMark, Vault, … - Vous maitrisez les concepts Cloud et les outils DevOps comme : Terraform, Ansible, Gitlab CI et Docker n'a plus de secret pour vous - Enfin vous maitriser également les outils de testing : PostMan, Selenium ou encore Cucumber
Freelance
CDI

Offre d'emploi
Salesforce Architect / Senior Developer – FSL & Service Cloud

EXOCETH
Publiée le
Agile Scrum
Apex
CI/CD

24 mois
Bruxelles, Bruxelles-Capitale, Belgique
Dans le cadre d'un projet de digitalisation au sein du département IT d'un grand groupe du secteur des utilities en Belgique, nous recherchons un(e) Salesforce Architect / Senior Developer expérimenté(e) pour renforcer une équipe technique pluridisciplinaire. Le consultant interviendra sur des applications Salesforce Service Cloud et Field Service Lightning (FSL) couvrant la gestion des travaux et raccordements clients. Il/Elle assurera la maintenance corrective et évolutive des solutions déployées, contribuera aux projets de digitalisation en cours, et collaborera étroitement avec les business analysts, functional leads et coordinateurs Salesforce. Les missions incluent : support applicatif, résolution d'incidents, développement de User Stories (APEX / LWC), revue de code, exécution de tests (SIT, UAT) et suivi post-déploiement en production. Environnement Agile/SCRUM, outils CI/CD et JIRA.
Freelance

Mission freelance
POT8868 - Un Ingénieur de Prod $U / DevOps Azure sur Blois

Almatek
Publiée le
Dollar Universe

6 mois
310-430 €
Blois, Centre-Val de Loire
Almatek recherche pour l'un de ses clients, un Ingénieur de Prod $U / DevOps Azure sur Blois. Les objectifs de la mission incluent : - La conception et le déploiement des plans batch $U sur des infrastructures Windows ou Linux. - La maintenance et l’évolution de l’outillage de déploiement et de lancement de batch. - Le support aux utilisateurs BATCH (MOE/MOA, équipe Tests et suivi exploitation). - La participation aux projets dans le cadre des recettes en tant qu'assistance technique. - L’accompagnement et le transfert de connaissances aux équipes internes. Les livrables attendus sont : - Un système applicatif opérable et documenté. Les compétences requises pour ce poste sont : - Une expérience de conception d'ordonnancement sur l'outil Dollars Universe (V6 et V7). - Une expérience d’intégration sur les plateformes Windows serveur (à partir de 2012). - Une expertise technique dans le déploiement des technologies : $U, C#, .Net, IIS (7.0 ou supérieur), et des scripts PowerShell (5.0 ou supérieur). - Une rigueur et méthodologie avérées. Les compétences clés incluent : - Obligatoire : Conception Dollar Universe, Scripting PowerShell. - Important : CI/CD (Azure DevOps), exploitation Ordonnanceur.
Freelance

Mission freelance
Analytics Engineer – Data & BI

SKILLWISE
Publiée le
Azure Data Factory
Azure DevOps
Databricks

3 mois
100-600 €
Paris, France
Nous recherchons un Analytics Engineer pour rejoindre une équipe dédiée à la centralisation et à la fiabilisation des données dans un environnement data-driven. Votre mission consistera à concevoir et maintenir des pipelines de données (Azure Data Factory, Databricks, Spark SQL) pour alimenter un datamart utilisé par les métiers via des outils self-BI (Power BI, BusinessObjects). Vos missions principales : Concevoir et développer des pipelines d’ingestion via Azure Data Factory , en assurant leur robustesse et leur évolutivité. Transformer et optimiser les données en utilisant Spark SQL (Databricks) pour répondre aux besoins métiers. Maintenir et améliorer les indicateurs de qualité des données , en garantissant leur cohérence et leur fiabilité. Implémenter des tests unitaires pour sécuriser les pipelines et assurer la stabilité des solutions. Collaborer avec les équipes techniques et métiers pour affiner les besoins et proposer des améliorations continues. Participer à la maintenance des outils de monitoring pour suivre les performances et la santé des applications. Ce poste est idéal pour un professionnel souhaitant impacter directement la stratégie data d’une organisation en pleine transformation digitale.
Freelance
CDI

Offre d'emploi
Architecte Cloud GCP - Transformation & Migration

KLETA
Publiée le
GitLab CI
Google Cloud Platform (GCP)
Terraform

3 ans
Paris, France
Dans le cadre de programmes de transformation numérique, nous recherchons un Architecte Cloud GCP pour accompagner nos clients dans leurs projets de migration et de modernisation vers Google Cloud. Vous interviendrez sur des missions de cadrage, d’audit et de définition de trajectoires cibles adaptées aux contraintes techniques, organisationnelles et métiers. Vous analyserez les architectures existantes, identifierez les risques et proposerez des solutions optimisées en matière de performance, de sécurité, de coût et de résilience. Vous participerez à la conception de Landing Zones GCP, à la structuration des environnements multi-projets et à la mise en place de bonnes pratiques de gouvernance et de conformité. En collaboration avec les équipes DevOps et Sécurité, vous contribuerez à l’industrialisation des déploiements via Terraform et à l’adoption des principes cloud native. Vous aurez également un rôle pédagogique en accompagnant les équipes client dans leur montée en compétence sur GCP, en partageant des bonnes pratiques d’architecture et en facilitant l’acculturation au cloud.
Freelance

Mission freelance
Data Engineer Senior H/F

Comet
Publiée le
Apache Spark
Azure Data Factory
Databricks

60 jours
510-620 €
Île-de-France, France
Vous rejoindrez un projet stratégique de plateforme unifiée d’intégration et de traitement des données , centralisant plus de 20 sources de données hétérogènes pour répondre aux besoins analytiques des équipes produit et décisionnel. La solution est développée selon les principes d’un lakehouse avec architecture en médaillon (Bronze, Silver, Gold). Environnement technique : Azure Data Factory Azure Databricks Spark Scala & SQL Azure DevOps (Git) Datadog (monitoring) Missions principales : Concevoir et développer des pipelines d’ingestion de données via Azure Data Factory Développer et optimiser des flux de transformation de données en Scala sur Databricks Maintenir et créer de nouveaux indicateurs de qualité de données Garantir la qualité du code et le respect des normes de développement Implémenter des tests unitaires et assurer la fiabilité des solutions Maintenir les dashboards de monitoring sur Datadog Participer au refactoring du code existant pour améliorer performance et maintenabilité (Spark Declarative Pipeline et DBT)
Freelance
CDI

Offre d'emploi
Développeur C# .NEt sur Bordeaux

EterniTech
Publiée le
.NET
ASP.NET
C#

3 mois
Bordeaux, Nouvelle-Aquitaine
Je recherche pour un de mes clients un Développeur C# .NEt sur Bordeaux Compétences techniques Maîtrise de C# / .NET (niveau avancé) Expérience solide en APIs RESTful (4 ans minimum) Bonne connaissance du cloud AWS ou Azure (4 ans minimum) Pratique des outils CI/CD (GitHub Actions, Jenkins, Terraform…) Maîtrise de SQL et NoSQL (SQL Server, Redis, MongoDB, Cosmos DB) Développement assisté par l’IA Expérience concrète avec des outils d’IA générative pour devs (Copilot, Cursor, etc.) Capacité à intégrer l’IA dans les pratiques quotidiennes de dev Vision claire de ce que l’IA peut automatiser (structures, patterns, documentation…) Esprit critique : utiliser l’IA comme levier de qualité et de gain de temps, sans compromis sur les standards Méthodologies & pratiques Approche “You build it, you run it” Maîtrise du Clean Code, des revues de code et des tests Pratique de l’agilité (Scrum, XP) DevOps mindset Soft skills Communication claire et structurée Anglais professionnel Autonomie, prise d’initiative, capacité à prendre du recul
Freelance

Mission freelance
LEAD MACHINE LEARNING MLOPS

Atlas Connect
Publiée le
Agent IA
API
API REST

6 mois
600-680 €
Paris, France
Mission Garantir l’excellence technologique du pôle IA en définissant les standards d’architecture et de développement, en sécurisant la mise en production de solutions d’intelligence artificielle complexes et en accompagnant la montée en compétence des équipes techniques. Le Tech Lead ML joue un rôle clé dans la conception, la robustesse et la scalabilité des produits IA tout en contribuant aux décisions stratégiques liées à la roadmap technologique. Responsabilités principalesArchitecture & Engineering IA Définir et maintenir les standards d’architecture ML/IA dans des environnements multi-cloud . Concevoir et valider les pipelines ML / IA end-to-end (data → training → évaluation → déploiement → monitoring). Mettre en place les bonnes pratiques de MLOps et industrialisation des modèles . Choix technologiques Superviser les choix d’outils et frameworks : frameworks ML solutions cloud (Google Cloud, Microsoft Azure) outils MLOps Garantir la cohérence technologique de l’écosystème IA. Qualité technique & gouvernance Auditer et challenger la qualité technique des produits IA : performance robustesse sécurité coûts (FinOps) maintenabilité Mettre en place des standards de gouvernance des modèles et des données . Leadership technique Jouer un rôle d’ expert et de mentor auprès des équipes Data Science et Data Engineering. Accompagner la montée en compétence technique des équipes. Définir et diffuser les bonnes pratiques de développement . Contribution stratégique Participer aux phases de cadrage et de conception des produits IA . Contribuer à la définition de la roadmap produit IA . Collaborer étroitement avec : le Product Owner IA les Data Scientists les Data Engineers les équipes software. Innovation & veille Assurer une veille technologique active sur les innovations IA : IA générative MLOps architectures data outils et frameworks émergents.
Freelance

Mission freelance
Data Engineer Azure Synapse / PySpark (Référentiel ESG)

STHREE SAS pour HUXLEY
Publiée le

12 mois
500 €
France
🔍 Contexte Un acteur européen majeur du secteur financier recherche un Data Engineer confirmé pour renforcer son département Data & Referential . La mission s'inscrit dans le cadre de la mise en place d'un référentiel de données unifié , avec un focus particulier sur les indicateurs ESG provenant de multiples sources. 🎯 Votre rôle Intégration de nouvelles sources de données via Azure Synapse & PySpark Mise en place d'un monitoring rigoureux des flux Adaptation des connexions au reporting interne pour intégrer les nouvelles données Coordination avec les Business Analysts Contrôles de cohérence et qualité des données (comparaison inter‑sources) 🧱 Compétences techniques clés Azure Synapse PySpark Azure Data Factory Azure DevOps SonarCloud API Management Micro‑services SQL Server Connaissance Informatica IDQ = un plus 👤 Profil recherché Bac+5 (ingénieur ou équivalent) Minimum 3 ans d'expérience sur Azure Synapse & PySpark Bonne culture Data & Monitoring Pratique des environnements Agile (SCRUM) & DevOps Maîtrise du français et de l'anglais Intérêt pour l' Asset Management et les sujets ESG 📅 Démarrage : 1er février 2026
Freelance

Mission freelance
Ingénieur DevOps Cloud Public H/F

HAYS France
Publiée le
Automatisation
AWS Cloud
Azure

12 mois
500-530 €
Aix-les-Bains, Auvergne-Rhône-Alpes
Nous recherchons pour le compte de notre client un Ingénieur DevOps Cloud public confirmé H/F pour une mission longue en freelance ou portage salarial de plusieurs années à pourvoir dès que possible à Aix-les-Bains. Notre client propose 2 jours de télétravail maximum par semaine. Les préavis de 1 à 3 mois sont acceptés. Contexte : Dans le respect des normes et méthodes de notre client, vous garantissez en toute autonomie la mise en œuvre, l'évolution et la gouvernance des environnements Cloud (AWS & Azure) et l'intégration avec les infrastructures On-Prem, en assurant la conformité, la sécurité et l'optimisation des coûts. Vous êtes un acteur clé dans la définition et l'application des standards de gouvernance. Vos missions principales sont les suivantes : Gouvernance Public Cloud : · Définir et maintenir les standards de gouvernance pour les Landing Zones AWS et Azure (RBAC, policies, tagging, compliance). · Mettre en place et administrer les mécanismes de contrôle (Azure Policy, AWS Config, SCP). · Garantir la cohérence des environnements avec les bonnes pratiques de sécurité et de conformité (ISO, RGPD, SOC2). Intégration On-Prem : · Comprendre et prendre en compte les contraintes des environnements On-Prem (réseau, sécurité, containers, virtualisation). · Assurer la cohérence des politiques Cloud avec les standards On-Prem (interopérabilité, hybridité). · Contribuer à des projets hybrides (Cloud + Datacenter) et à la gouvernance des workloads containers (Openshift, Kubernetes). · Connaissance des solutions hybrides et des patterns de migration. Automatisation & Infrastructure as Code : · Maintenir et faire évoluer les scripts Terraform pour la création et la configuration des Landing Zones. · Automatiser les contrôles de conformité et les déploiements liés à la gouvernance. FinOps & Optimisation : · Participer à la stratégie FinOps : suivi des coûts, optimisation des ressources, mise en place d'alertes et reporting. · Contribuer à la définition des budgets et à la rationalisation des services Cloud. Collaboration & Transversalité : · Travailler en étroite collaboration avec les équipes Sécurité, Réseau, et les projets applicatifs. · Être force de proposition pour améliorer la gouvernance et la maîtrise des coûts. Documentation & Qualité : · Produire et maintenir la documentation technique et les standards de gouvernance. · Assurer la pertinence documentaire pour une exploitation optimale.
Freelance
CDD

Offre d'emploi
Développeur mobile React Native / Data Engineer H/F

SMARTPOINT
Publiée le
Apache Spark
Azure
Databricks

12 mois
55k-60k €
400-450 €
Île-de-France, France
Nous recherchons un profil hybride, combinant une expertise en développement mobile React Native et une compétence solide en Data Engineering sur Databricks/Azure. Votre mission principale portera sur la maintenance évolutive et corrective d’une application mobile développée en React Native. Vous interviendrez sur les sujets suivants : Développement mobile Assurer la maintenance évolutive et corrective d’une application mobile en React Native Garantir une expérience utilisateur fluide, performante et conforme aux bonnes pratiques (optimisation, modularité, testabilité) Implémenter de nouvelles fonctionnalités ainsi que les tests associés, dans une démarche clean code (sécurité, maintenabilité) Data Engineering Concevoir, développer et implémenter des solutions Big Data Analytics Construire et industrialiser les pipelines de données (collecte, transformation, traitement) dans le Data Lake Développer des notebooks avancés sous Databricks (langage SQL, Framework SPARK) Rédiger la documentation technique (DAT, release notes, etc.) Réaliser des tests unitaires et assurer la qualité des livrables Contribuer à la maintenance évolutive et corrective des traitements Livrer dans un environnement DevOps (CI/CD) et maîtriser les outils associés
775 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous