Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 1 974 résultats.
Freelance
CDI

Offre d'emploi
Incident Manager – Contexte ITIL – Environnement Applicatif Interne

Publiée le
IA
ITIL
Safe

1 an
Île-de-France, France
🎯 Contexte Dans le cadre du maintien opérationnel d’un périmètre applicatif interne utilisé par plusieurs milliers de collaborateurs, nous recherchons un Service Delivery Manager / Incident & Change Manager capable de piloter les processus ITIL, d’assurer la coordination avec les équipes techniques, et de garantir la qualité du service rendu. La mission s’inscrit dans un environnement complexe, fortement ITILisé, avec des enjeux forts de suivi des incidents majeurs , gestion des changements , résolution des problèmes récurrents , et amélioration continue . 📦 Livrables attendus Mise à jour complète des outils ITSM (ServiceNow, outils internes de gestion de crise) Documentation opérationnelle à jour Traçabilité et historiques des modifications Reporting régulier : KPI, SLA, backlog, plans d’actions Participations aux cérémonies Agile & comptes-rendus associés 🛠️ Missions principalesGestion des incidents & crises Piloter le processus de gestion des incidents, incidents majeurs et crises Assurer une résolution rapide et efficace Coordonner les escalades techniques & garantir le respect des SLA Gestion des changements Analyser et valider les demandes de changement Organiser et animer les CAB Superviser les mises en production et la qualité des releases Gestion des problèmes Identifier, analyser et suivre les problèmes majeurs / récurrents Piloter les plans d'actions pour éliminer les causes racines Contribuer à la réduction du backlog Reporting & pilotage Produire les KPI, SLA, états de backlog, suivis des incidents Assurer un reporting clair, structuré, régulier Amélioration continue Collaborer avec l’équipe Process & Tools Contribuer à la standardisation et à l’évolution des processus ITSM Participer aux réunions Agile pour fluidifier la coopération transverse 🧰 Compétences requisesTechniques & ITIL Très bonne connaissance des processus ITIL (certification appréciée) Maîtrise des outils ITSM : ServiceNow, outils internes équivalents Compétences en diagnostic d’incidents complexes Expérience en gestion opérationnelle, exploitation, coordination IT Connaissances IA (requis dans le cahier des charges) Compréhension des concepts : Machine Learning, Générative AI, RAG, LLM, agents, prompts, hallucinations Capacité à formuler des requêtes efficaces pour outils IA Connaissance des enjeux RGPD et éthiques liés à l’IA Langues Français courant (impératif) Anglais courant en contexte professionnel (impératif) Certification Safe obligatoire
Freelance
CDI
CDD

Offre d'emploi
Ingénieur Cloud VMware Senior – Pré-embauche (vSphere / VCF / NSX-T / AVI)

Publiée le
Cloud privé
VMware

1 an
Ivry-sur-Seine, Île-de-France
🎯 Contexte Dans le cadre d’un programme stratégique de construction d’un cloud privé souverain , nous recherchons un Ingénieur Cloud VMware Senior pour concevoir, déployer et sécuriser une plateforme VMware de nouvelle génération. Le projet s’inscrit dans un environnement exigeant, avec des enjeux forts de sécurité , haute disponibilité , résilience , et conformité . 📦 Livrables attendus Conception & développement des plateformes VMware Documentation d’exploitation (Runbook, Architecture, Procédures) Hardening & fiches de conformité sécurité 🛠️ Missions principales Conception & Build Concevoir et optimiser des plateformes VMware (vSphere, NSX-T, AVI, VCF) Définir des services Cloud adaptés aux besoins internes Participer au développement du Cloud privé souverain Administration & Exploitation avancée Administrer les infrastructures VMware : NSX-T, AVI, VCF, BGP Garantir la disponibilité, la performance et la résilience réseau (Cisco/Juniper) Assurer le troubleshooting avancé sur les incidents critiques Sécurité & Conformité Mettre en place des contrôles de sécurité avancés Réaliser audits, hardening et mises en conformité Support & Collaboration Accompagner les équipes internes (Dev, Cloud, Infra) Former et apporter un soutien technique Produire une documentation complète et fiable 🧰 Compétences techniques impératives VCF – Expert NSX-T – Expert AVI (NSX Advanced Load Balancer) – Expert vSphere / VMware Cloud Réseaux & BGP Très bonne connaissance des architectures Datacenter Français courant (impératif) 🎓 Profil attendu Bac+5 en informatique ou équivalent Minimum 6 ans d’expérience sur VMware Cloud Forte expertise architecture VMware / virtualisation / SDN Excellente capacité d’analyse, troubleshooting et sécurisation Goût pour l’innovation, la rigueur et les environnements critiques
Freelance

Mission freelance
Data Manager Client

Publiée le
Data analysis
Data management

6 mois
500-700 €
Paris, France
Télétravail partiel
DATA MANAGER CLIENT Au sein de la direction Data/IA et dans le cadre d'un programme Move to Cloud , ntre client cherche à être accompagné par un un consultant Data analyste/Data manager. Mission principale: Accompagner et apporter une expertise aux responsables des chantiers du programme. Intervention sur des sujets de cartographie des données et cas d’usages sur les différentes plateformes BGPN (infocentres datalake), et de modélisation data Product dans le cadre de la mise en place d’une architecture data mesh. L’environnement technique / Legacy : Alimentation en batch : dév, pas d’ETL Alimentation en temps réel : Kafka Stockage et traitement : Datalake (Cloudera) Data Engineering + Data Science : Dataiku Data Visualisation : Tableau, Power BI Data Catalog : Collibra Environnement cible: DataBricks/Azure Savoir-faire : • Maîtrise de l’outil Dataiku • Analyse de données • Connaissance de Collibra (pour enrichissement du data catalogue en fonction des scénarios des analyses) • Développement de dashboard de restitution/visualisation (connaitre les outils Tableau et PowerBi est un plus)
CDI
CDD

Offre d'emploi
Ingénieur DevOps Confirmé Accompagnement Évolution Produit- Sophia Antipolis (H/F)

Publiée le
CI/CD
Kubernetes

1 an
Sophia Antipolis, Provence-Alpes-Côte d'Azur
🎯 Contexte Dans le cadre de l’évolution continue d’un produit stratégique, nous recherchons un Ingénieur DevOps Confirmé pour accompagner la construction, l’automatisation et l’optimisation des environnements techniques. La mission est orientée Kubernetes , CI/CD , Infrastructure as Code et observabilité . 📦 Livrables attendus Construction et maintien des environnements Automatisation complète des chaînes de delivery Documentation technique associée 🛠️ Missions principales Concevoir, déployer et administrer des clusters Kubernetes Intégrer et maintenir les outils de l’écosystème Kubernetes : Istio, Helm, ArgoCD, Prometheus, Grafana… Mettre en place et améliorer les pipelines CI/CD (GitLab CI, Jenkins, ArgoCD…) Surveiller les performances, la sécurité et la disponibilité des infrastructures Automatiser les tâches d’exploitation (Bash, Python, Terraform, Ansible…) Collaborer avec les équipes de développement pour optimiser les déploiements Assurer une veille technique et l’amélioration continue des pratiques DevOps 🧰 Compétences techniques requises (impératives) Kubernetes – Confirmé Jenkins – Confirmé Anglais professionnel – Impératif Compétences complémentaires recherchées Helm, Istio, ArgoCD, FluxCD Monitoring & observabilité : Prometheus, Grafana, Alertmanager, Loki CI/CD : GitLab CI, Jenkins, Argo Workflows IaC : Terraform, Ansible
Freelance
CDI

Offre d'emploi
Data Scientist LCB-FT

Publiée le
Data science

3 ans
40k-80k €
400-650 €
Île-de-France, France
Télétravail partiel
Contexte : La mission interviendra en appui d’une équipe projet pluridisciplinaire (métier conformité, gestion de projets, informatique, data science) en charge de mener à bien le développement interne d’une nouvelle solution informatique performante et innovante, intégrant notamment des fonctionnalités de machine Learning et d’intelligence artificielle en ligne avec les attentes du régulateur et les standards de place les plus performants. Prestations attendues : - Elaboration de nouveaux modèles de données adaptés à la Conformité, et notamment la révision de l’approche en matière de scoring, de segmentation de la clientèle, et des seuils de déclenchement des alertes sur opérations atypiques. - Réduction des alertes non pertinentes et l’optimisation des analyses et investigations - Sélection et la validation de variables pertinentes (features engineering) pour améliorer la performance des modèles de détection - Utilisation combinée de modèles de machine learning supervisés et non supervisés pour optimiser la détection des comportements suspects et réduire les faux positifs - Choix techniques et stratégiques adaptés aux enjeux et au contexte opérationnel du groupe BRED (typologie clients, offre produits et services, entités multiples…) - Accompagnement des différentes étapes des projets informatiques de la Conformité (études & cadrage, recette, suivi comités) dans le respect des échéances imposées - Contribution à la rédaction des livrables projets (expression de besoin métier, cahiers des charges, procédures) Expérience exigée dans la Lutte Contre le Blanchiment d'argent et le Financement du Terrorisme (LCB-FT)
Freelance

Mission freelance
Big data / Scala / Spark engineer

Publiée le
Apache Spark
Big Data
Scala

6 mois
400-640 €
Paris, France
Télétravail 100%
Hanson Regan is looking for a Big data / Scala / Spark engineer for a 6 month renewable contract in remote with some travel to Belgium Advanced Data & Application Lifecycle Data Engineering Principles (Datalake, Lakehouse, SCD Types 1 & 2, PIT, ...), Application design, development, testing & deployment, Requirement Analysis Advanced Data Processing & Programming Language Apache Spark, Scala, SQL Advanced Real-time Processing Streaming Technologies (Apache Spark) or Flink Advanced Data Storage Iceberg, Delta Table, Parquet, Avro, CSV,JSON Cloud Platforms AWS, Snowflake (preferred) or Zure Databricks Intermediate Development Tools GIT CI/CD, DBT, Containers Afin de répondre aux besoins de nos clients, nous n'acceptons que les candidatures de freelances travaillant au sein de leur propre entreprise (SAS, SASU, SARL, EURL, etc.). N'hésitez pas à me contacter si vous souhaitez discuter de ce poste plus en détail.
Offre premium
Freelance

Mission freelance
Tech Lead Data – Migration vers Microsoft Fabric

Publiée le
Apache Spark
Microsoft Fabric
PySpark

3 mois
Paris, France
Télétravail partiel
Contexte Dans le cadre de la modernisation de sa plateforme data, notre client remplace un ETL historique par un socle basé sur Microsoft Fabric et Spark. Les flux concernés alimentent un Data Hub finance/risque (contrats, positions, instruments de couverture, flux futurs, contreparties, notations, données de marché). Pour piloter cette transformation, nous recherchons un Tech Lead Data, référent technique auprès des équipes data, architecture et métiers. Descriptif de la mission Évaluer l’existant (flux batch, modèles pivots, dépendances applicatives) avec l’équipe data Concevoir le framework d’ingestion et de transformation (Spark / PySpark / Python / Notebooks) Définir les standards de développement et conventions de nommage Mettre en place la chaîne CI/CD (Azure DevOps, GitHub Actions ou équivalent) Mettre en œuvre les mécanismes de monitoring, alerting et logging des traitements Accompagner les équipes d’intégration et métiers sur les flux critiques Encadrer techniquement et mentorer une équipe d’environ 3 data engineers Optimiser les performances et garantir la qualité des livrables Contribuer à la documentation et au transfert de connaissances Profil recherché Maîtrise de Spark / PySpark et des optimisations de performance Très bonne connaissance de Microsoft Fabric (Lakehouse, Notebooks, Data Pipelines, OneLake) ou Databricks Excellente pratique de Python pour les traitements de données et frameworks internes Très bon niveau SQL, bonne culture ETL/ELT, Data Hub et ingestion temps réel Pratique de la CI/CD (Azure DevOps, GitHub Actions ou similaire) Connaissance appréciée des Webservices / APIs REST Bonne compréhension des produits financiers (prêt, emprunt, titres, swaps, FX) appréciée Aisance relationnelle avec les équipes Finance et Risques, posture de “référent bienveillant” Expérience en lead technique / pilotage de projets data, autonomie, capacité d’auto-formation Français courant, anglais professionnel
CDI

Offre d'emploi
Data Engineer H/F

Publiée le
Big Data
Data Lake
Spark Streaming

Île-de-France, France
Télétravail partiel
Le Data Engineer est un développeur au sein de l’équipe Engineering Open Big Data du Département Data, qui regroupe l’ensemble des expertises technologiques liées à l’ingénierie de la donnée, de l’automatisation et à l’exploitation des modèles de Machine Learning. Ce déparetement est dédié au service de notre client et de ses équipes (Data office, Tribus data, Business, Transformation Office etc.), afin de fournir, en collaboration avec le Data Office, les plateformes (RPA, BI, Data, …) et les données nécessaires aux équipes chargées de délivrer les cas d’usages, puis les déployer et les maintenir en conditions opérationnelles.
Freelance

Mission freelance
Data Scientist Sénior

Publiée le
Data science
Python
Rédaction technique

18 mois
150-450 €
Paris, France
Télétravail partiel
Contexte : Experience : 5 ans et plus Métiers Fonctions : Data Management, Data Scientist Spécialités technologiques : APIs, Simulation, Optimisation linéaire, Devops MISSIONS Dans le cadre du renforcement d’une équipe dédiée à la modélisation mathématique, le client recherche un Data Scientist Senior (>5 ans d’expérience) pour intervenir sur un ensemble de sujets variés : optimisation, simulation, analyse de performance, développement de modèles et d’outils applicatifs. La prestation s’inscrit dans un environnement comprenant plusieurs applications et modèles, et non un produit unique, nécessitant une forte capacité d’adaptation et une compréhension technique rapide. Le consultant interviendra en tant que référent senior, encadrant un Data Scientist junior et garantissant la qualité méthodologique et scientifique des travaux. Livrables attendus : - Validation des algorithmes d’optimisation. - Approbation des tableaux de bord et outils d’aide à la décision. - Revue critique des recommandations stratégiques. - Validation des rapports d’analyse et des indicateurs de performance. - Documentation des standards de qualité appliqués. Missions détaillées: 1. Encadrement & supervision méthodologique - Accompagnement d’un Data Scientist junior. - Définition des standards méthodologiques, bonnes pratiques et règles de modélisation. - Validation des approches algorithmiques et statistiques. - Orientation des travaux et identification des risques techniques. - Garantie de la cohérence globale des modèles par rapport aux objectifs du programme. 2. Développement & modélisation - Développement Python. - Création d’APIs. - Intégration de modèles. - Manipulation des équations et formalismes mathématiques. Utilisation de la librairie HiGHS (optimisation mathématique) pour : - Gestion des contraintes. - Calculs d’optimisations. - Résolution de modèles linéaires / mixtes. - Capacité à comprendre et implémenter les modèles algorithmiques, pas seulement à les consommer. 3. Contrôle qualité & validation scientifique - Revue de code, audit d’architecture et bonnes pratiques Python. - Vérification de la qualité et de la cohérence des données utilisées. - Validation de la robustesse des modèles prédictifs, d’optimisation ou de simulation. - Challenge technique des résultats, scénarios et hypothèses. - Approbation finale des livrables avant diffusion. 4. Expertise & conseil : - Intervention en tant qu’expert sur les sujets complexes de modélisation. - Recommandations méthodologiques et proposition d’améliorations. - Veille technologique et scientifique sur l’optimisation, les modèles mathématiques et les outils Python. - Capitalisation des bonnes pratiques pour l’équipe. 5. Communication & coordination : - Présentation des validations et recommandations aux parties prenantes. - Interface entre les équipes techniques et la direction projet. - Participation aux comités et instances de pilotage. - Documentation des critères de qualité et des processus de validation. - Contribution à la montée en compétences du Data Scientist junior. Compétences requises : - Expertise en Python : développement d’APIs, structuration de librairies, manipulation d’équations. - Maîtrise de HiGHS ou autre solveur d’optimisation linéaire/quadratique. - Solide bagage scientifique : mathématiques, physique, modélisation, statistiques. - Capacité à travailler sur plusieurs modèles simultanément. - Très bonne communication orale et écrite. - Autonomie forte et posture de référent. Compétences appréciées : - Expérience sur des modèles mathématiques à grande échelle. - Aisance en revue méthodologique et en cadrage scientifique. - Aucun besoin de connaissance fonctionnelle métier spécifique. Expertise souhaitée Data Scientist Senior (>5 ans d’expérience)
CDI

Offre d'emploi
Développeur Python – Automatisation

Publiée le
Apache Airflow
CI/CD
Docker

40k-45k €
Île-de-France, France
Télétravail partiel
En tant que Développeur Python spécialisé en automatisation, vous interviendrez sur la conception, le développement et l’optimisation de scripts et d’outils destinés à automatiser les processus internes. Vous contribuerez à réduire les tâches manuelles répétitives, améliorer la fiabilité opérationnelle et accélérer les workflows techniques et métiers. Vous travaillerez en collaboration directe avec les équipes techniques (Ops, Data, Infrastructure) pour identifier les besoins, proposer des solutions innovantes et garantir la performance des outils développés.
CDD
CDI

Offre d'emploi
Ingénieur DevOps Confirmé Projet CKISA - Sophia Antipolis(H/F)

Publiée le
CI/CD
GED (Gestion Électronique des Documents)
Jenkins

1 an
Sophia Antipolis, Provence-Alpes-Côte d'Azur
🎯 Contexte & Mission Dans le cadre du lancement d’un nouveau logiciel destiné à la gestion de crise dans le secteur médical, nous recherchons un Ingénieur DevOps Confirmé pour intégrer une équipe de 5 à 10 personnes . La solution inclura plusieurs modules : Communication en situation de crise Gestion des patients Services bureautiques Consultation & GED Services applicatifs innovants Le DevOps sera fortement sollicité au début du projet pour installer les outils, configurer les environnements et mettre en place les CI/CD. 🛠️ Missions principales Mettre en place les pipelines CI/CD (Jenkins) Automatiser les processus de build, test et déploiement Concevoir et gérer l’orchestration Docker / Kubernetes Gérer les environnements et l’infrastructure technique Contribuer aux spécifications et à la documentation Participer aux cérémonies Agile (Scrum) Surveiller et optimiser les performances Documenter, partager et améliorer les bonnes pratiques DevOps 📦 Livrables attendus Code, scripts & charts Documentation technique Spécifications techniques 🧰 Compétences techniques indispensables 🔥 Impératives Kubernetes – Confirmé Jenkins – Confirmé ⭐ Importantes Docker / Containers – Confirmé Nexus – Junior 🔧 Autres compétences appréciées Git / Maven Splunk – OpenSearch OpenID Connect – Keycloak Bases de données relationnelles Jira – Confluence Agile Scrum Normes qualité & sécurité Expérience dans le domaine médical → plus apprécié 🌍 Langues Français courant (impératif) Anglais lu/écrit 👤 Profil recherché Bac+2/3 à Bac+5 (école d’ingénieur, master) Minimum 4 ans d’expérience en DevOps Expérience déjà prouvée en : Automatisation et pipelines CI/CD Gestion de configuration Infrastructure Docker/Kubernetes Excellent communicant, autonome, collaboratif Esprit agile, adaptabilité, curiosité technique Capacité à monter en compétence rapidement
Freelance
CDI

Offre d'emploi
Expert Kubernetes

Publiée le
Azure
Azure Kubernetes Service (AKS)
Hyper-v

6 mois
40k-68k €
410-850 €
Le Havre, Normandie
Télétravail partiel
Contexte de la mission Dans le cadre du déploiement d’une nouvelle plateforme Kubernetes, nous recherchons un Expert Kubernetes pour accompagner la mise en place d’une infrastructure multi-cluster répartie sur 5 sites géographiques (France/Azure, Jamaïque/Azure, RDC/Hyper-V, Trinidad/VMware, Port d’Abidjan/Nutanix). La mission s’inscrit au sein de la Squad Plateforme / Infrastructure Kubernetes, en charge de la conception, du déploiement, de la sécurisation et de l’industrialisation des clusters. Missions principales Concevoir et déployer les clusters Kubernetes sur les différents environnements (Azure, VMware, Hyper-V, Nutanix). Mettre en œuvre Rancher pour la gestion unifiée multi-cluster (Fleet, RBAC, provisioning). Construire l’architecture Helm, les repositories et la structuration des Charts. Implémenter une approche GitOps (ArgoCD ou FluxCD). Configurer les composants essentiels : Pods, Services, Ingress, ConfigMaps, Secrets. Gérer le stockage (PersistentVolumes, StorageClasses, CSI drivers). Définir et appliquer les règles réseau : Network Policies, CNI (Calico/Cilium), load balancing. Assurer le transfert de compétence auprès du Champion interne Kubernetes et des ingénieurs infrastructure. Documenter les architectures, procédures et bonnes pratiques d’exploitation.
Freelance

Mission freelance
Data Steward Lyon H/F

Publiée le
Data quality
Database

6 mois
400-500 €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Nous recherchons un Data Steward pour une mission de 6/12 mois afin de garantir la qualité, la cohérence et la gouvernance des données d'une société en pleine migration de son SI. L'objectif est d'amorcer un gros chantier d'alimentation/ documentation de données métiers afin de sensibiliser les collaborateurs. Au sein d'une équipe de 6 personnes, vous aurez pour missions principales d'assurer: la qualité des données : mettre en place et suivre les règles de contrôle (DQM, définition de principes, règles, contrôle qualité). la gouvernance : appliquer les standards définis par la Data Governance (data catalogue, glossaire métier, référentiels, dashboard, alerting). la documentation : enrichir et maintenir le dictionnaire de données, les métadonnées et les règles de gestion. le support aux métiers : accompagner les équipes dans l’usage et la compréhension des données. la collaboration IT/Business : assurer le lien entre les équipes techniques et les métiers pour garantir la pertinence des données. En somme, vous formalisez le cycle de vie de la data et harmonisez/structurez les process de documentations.
Freelance

Mission freelance
Ingénieur Big Data / Infrastructure en Île-de-France

Publiée le
Big Data
Cloud
Infrastructure

6 mois
Île-de-France, France
Télétravail partiel
Au sein d’une DSI ou d’une équipe Data/Cloud en pleine transformation numérique, l’ingénieur Big Data / Infrastructure intervient pour concevoir, déployer et maintenir des plateformes de traitement de données à grande échelle. Il joue un rôle clé dans la fiabilité, la performance et la sécurité des environnements Big Data utilisés par les data engineers, data scientists et équipes métier. Responsabilités principales 1. Conception et mise en place de l’infrastructure Big Data Concevoir des architectures de données distribuées (Hadoop, Spark, Kafka, HDFS, NoSQL, S3…). Participer au dimensionnement des clusters, à la définition des SLA et des bonnes pratiques d’industrialisation. Déployer et configurer les services Big Data dans un contexte On-premise, Cloud (AWS/GCP/Azure) ou hybride. 2. Administration et exploitation des plateformes Assurer l’administration quotidienne des clusters : gestion des ressources, supervision, montée de version, tuning des performances. Implémenter des mécanismes de haute disponibilité, d’équilibrage de charge et d’optimisation du stockage. Réaliser des diagnostics avancés en cas de dysfonctionnement et mettre en place des correctifs durables. 3. Automatisation, CI/CD et industrialisation Développer et maintenir des pipelines d’automatisation (Terraform, Ansible, Jenkins, GitLab CI…). Standardiser les déploiements via Infrastructure as Code. Contribuer à l'amélioration continue de la plateforme, en proposant des optimisations de performance et des outils de monitoring. 4. Sécurité, conformité et gouvernance Intégrer les contraintes de sécurité : gestion des accès (Kerberos, IAM, Ranger), chiffrement, segmentation réseau. Participer à la mise en œuvre de la gouvernance Data (catalogue, lineage, qualité, traçabilité). Veiller au respect des politiques RGPD et des normes internes. 5. Support aux équipes Data et accompagnement technique Accompagner les data engineers, développeurs et data scientists dans l’utilisation des ressources Big Data. Optimiser les jobs Spark/Kafka/Hadoop pour réduire les coûts et améliorer la latence. Participer à la rédaction de documentation technique, guides d’usage et bonnes pratiques.
CDI

Offre d'emploi
Ingénieur·e Développement Fullstack Java (H/F)

Publiée le
Apache Maven
API REST
Batch

La Défense, Île-de-France
Télétravail partiel
Nous recherchons un·e développeur·se Fullstack Java pour rejoindre un projet stratégique autour de la gestion électronique des relevés d’information dans le secteur de l’assurance. Ce projet vise à faciliter la consultation et la génération de relevés d’information automobiles via une plateforme sécurisée et centralisée. 🎯 Vos missions : Au sein d’une équipe digitale dynamique, vous interviendrez sur : La TMA et la maintenance évolutive d’une application critique Le support client et la rédaction de documents techniques Le développement d’évolutions en environnement Java J2EE La réalisation et l’exécution de plans de tests Le suivi de l’exploitation en lien avec les équipes de production 🛠️ Environnement technique : Backend : Java 21, Spring Boot / Batch / Security, REST, JPA, Hibernate Frontend : ReactJS, JavaScript CI/CD & outils : GitLab CI/CD, Maven, Nexus Systèmes : Linux, Windows, scripts Shell Base de données : PostgreSQL Connaissances DevOps appréciées
Freelance

Mission freelance
développeur Rust

Publiée le
Azure Data Factory
Rust

3 mois
400-550 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Télétravail 100%
* Full remote possible, avec déplacements ponctuels à prévoir (région Aix-en-Provence). Nous recherchons pour notre client, un acteur majeur de l’e-commerce en forte croissance, un(e) développeur(se) Rust confirmé(e) à senior pour renforcer une équipe technique en pleine transformation. L’entreprise amorce une modernisation progressive de son système d’information (legacy C#.NET & PHP). L’objectif est de migrer les fonctionnalités critiques vers un nouveau socle moderne, scalable et robuste, basé sur Rust. Intégré(e) au sein d’une équipe à taille humaine (4 développeurs) fonctionnant en mode Agile (sprints de 2 semaines, daily meetings), vous contribuerez à la maintenance évolutive et à l’optimisation de nos solutions de gestion de flux. Ces solutions, développées en no code à l’aide d’Azure Data Factory et de Logicap, permettent la génération automatisée de fichiers CSV en vue du transfert de référentiels entre différents systèmes d’information. Vos missions : - Contribuer à la maintenance des flux existant - Réaliser des refontes des solutions existantes no code vers du Rust - Contribuer aux migrations fonctionnelles du legacy vers le nouveau socle Rust. - Revoir et challenger les bases de données et workflows existants. - Collaborer étroitement avec le lead développeur et les autres membres de l’équipe pour sécuriser la réussite des projets.
1974 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous