L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 369 résultats.
Offre d'emploi
DevOps
Publiée le
DevOps
Docker
ELK
1 an
40k-60k €
400-550 €
Paris, France
Télétravail partiel
Poste : DevOps Expérience : +5 ans Localisation : Paris Démarrage : asap Durée : +6 mois Nous recherchons un Ingénieur DevOps Cloud confirmé pour rejoindre notre équipe et contribuer au déploiement, à l’automatisation et à la sécurisation d’applications dans un environnement Cloud moderne. Vous interviendrez sur des projets stratégiques en lien avec des équipes pluridisciplinaires, dans une démarche agile et DevOps. Missions principales Déployer et administrer des applications Cloud (IaaS) dans un environnement distribué. Concevoir et maintenir l’infrastructure via des pratiques Infrastructure as Code (Terraform, Ansible). Mettre en place et améliorer les pipelines CI/CD (GitLab CI ou équivalent). Administrer des environnements Linux (Debian) et assurer leur durcissement (sécurité, gestion des identités et certificats, secrets management). Développer et maintenir des scripts d’automatisation (Bash, Python, ou autre). Superviser les systèmes avec des outils d’observabilité (Prometheus, Grafana, ELK/Opensearch, Loki). Gérer les architectures réseaux (routage, VLAN, pare-feu, DNS, load balancing). Déployer et orchestrer des conteneurs avec Docker et Kubernetes. Participer aux rituels agiles, contribuer à l’amélioration continue et assurer une communication fluide avec l’équipe et les parties prenantes. Compétences requises Méthodologies : DevOps & Agile. Systèmes d’information & architecture : serveurs web, files de messages, bases de données relationnelles. Infrastructure as Code : Terraform, Ansible. CI/CD : GitLab CI (ou équivalent). Linux : administration avancée (systemd, sudo, ACL, journald, gestion des processus, connexions distantes). Scripting : Bash et/ou Python. Réseaux : routage, VLAN, firewall, DNS, load balancing. Observabilité : Prometheus, Grafana, ELK/Opensearch, Loki. Sécurité : durcissement, certificats, gestion des secrets. Conteneurisation : Docker & Kubernetes. Profil recherché Expérience significative (5 ans minimum) sur un poste DevOps ou Cloud similaire. Aisance relationnelle, sens de la communication et esprit d’équipe. Capacité d’analyse, d’autonomie et force de proposition pour fiabiliser et améliorer les infrastructures.
Mission freelance
Architecte API
Publiée le
6 mois
690-710 €
Le Mans, Pays de la Loire
Télétravail partiel
La mission couvre les domaines suivants : Architecture & Design * Conception de l'architecture cible Apigee Hybrid (runtime, management plane, synchronisation, monitoring). * Intégration avec l'écosystème GCP (IAM, Cloud Armor, Cloud Logging, Cloud Monitoring, Artifact Registry…). * Définition des patterns d'exposition, de sécurité et de gouvernance API. * Mise en place des Shared Flows, Policies et standards transverses. Implémentation & Industrialisation * Déploiement d'Apigee Hybrid sur OpenShift (ou Kubernetes équivalent). * Automatisation des pipelines CI/CD avec Tekton et ArgoCD. * Provisioning et configuration via Terraform. * Automatisation des opérations via Ansible. * Intégration avec HashiCorp Vault pour la gestion des secrets. Sécurité & Gouvernance * Définition et mise en œuvre des politiques de sécurité (OAuth2, JWT, MTLS, quotas, rate limiting…). * Mise en place d'un cadre de gouvernance API (naming, versioning, lifecycle management). * Accompagnement sur la conformité et les bonnes pratiques DevSecOps. Support aux équipes & transfert de compétences * Coaching des équipes de développement et d'exploitation. * Rédaction de guides, standards, modèles de proxies et shared flows. * Participation aux comités d'architecture et d'urbanisation. 🛠️ Compétences techniques attendues Savoir maîtriser les technologies suivantes : API Management & Apigee * Expertise confirmée sur Google Apigee Hybrid (obligatoire). * Conception de proxies, policies, shared flows, API products. * Monitoring, troubleshooting, optimisation des performances. Cloud & Conteneurisation * Google Cloud Platform (IAM, networking, sécurité, logging). * OpenShift / Kubernetes (déploiement, scaling, observabilité). DevOps / GitOps * Pipelines CI/CD avec Tekton, ArgoCD. * Infrastructure as Code : Terraform, Ansible. * Gestion des secrets : Vault. Sécurité & Observabilité * Protocoles API (REST, gRPC), OAuth2, JWT, MTLS. * Logging, tracing, monitoring (Stackdriver, Prometheus, Grafana…). Durée & modalités * Charge : Temps plein. * Lieu : Le Mans * Démarrage souhaité : ASAP.
Offre d'emploi
INGÉNIEUR(E) DEVOPS -INFRASTRUCTURE AS CODE (IaC)
Publiée le
Azure Kubernetes Service (AKS)
F5
ITIL
3 mois
40k-45k €
400-550 €
Le Havre, Normandie
Télétravail partiel
INGÉNIEUR(E) DEVOPS -INFRASTRUCTURE AS CODE (IaC) ype de mission : Régie Durée : 3 mois (renouvelable) Démarrage souhaité : Immédiat Localisation : Présentiel 3 j/semaine minimum à prévoir sur site client au Havre Contexte : Éditeur de logiciels, environnement cloud hybride Azure/on premisesCONTEXTE DE LA MISSIONDans le cadre de la consolidation de son infrastructure cloud hybride Azure et de sa transformation vers une architecture microservices, notre client recherche un Ingénieur DevOps / IaC spécialisé en automatisation Terraform/Ansible sur environnements Azure pour reprendre, rationaliser et industrialiser l'existant.L'environnement technique repose sur une infrastructure hybride Azure/on premises à dominante Microsoft et Linux (Red Hat, Debian), avec une trajectoire d'évolution vers des architectures conteneurisées sur des distributions Kubernetes cible à statuer (RKE2, K3s, OpenShift). MISSIONS PRINCIPALES1. Reprise et rationalisation IaC (prioritaire) • Auditer les scripts Terraform et Ansible existants sur environnements Azure/on prem, identifier les dettes techniques et risques • Refactoriser en modules Terraform Azure réutilisables (VNet, NSG, VM, AKS, ACR, Key Vault, etc.) et rôles Ansible avec conventions de nommage/versioning • Identifier et automatiser les tâches récurrentes manuelles/semi-annuelles via Azure DevOps Pipelines ou GitHub Actions • Documenter l'ensemble (guides d'usage, runbooks d'exploitation)2. Automatisation cycle de vie des certificats SSL/TLS• Concevoir et mettre en œuvre des pipelines de discovery, renouvellement et déploiement automatisés intégrant Azure Key Vault • Intégrer avec le PKI existant ou ACME le cas échéantImplémenter mécanismes de validation et rollback• Coordination appréciée avec load balancers F5 (LTM/WAF) et pare feu Check Point3. Contribution à la transformation – architecture microservices• Définir et appliquer les bonnes pratiques IaC/DevOps/GitOps sur Azure (stratégies de branches, PR, promotions multi environnements via Azure DevOps ou GitHub)• Mettre en place et administrer un sandbox Kubernetes agnostique (RKE2/K3s/OpenShift) avec intégration Azure (Azure Arc si pertinent)• Outiller l'évaluation des stacks (ingress, CNI/CSI, Azure Monitor, sécurité)• Produire matrices de critères, recommandations et runbooks MCO (Maintien en Condition Opérationnelle) / MCS (Maintien en Condition de Sécurité)COMPÉTENCES TECHNIQUES REQUISESObligatoires• Microsoft Azure : maîtrise des services IaaS/PaaS (VNet, NSG, VM, Storage, Application Gateway/WAF) et expérience fournie en admin Azure• Azure DevOps ou GitHub Actions : pipelines CI/CD, intégration Terraform, gestion des secrets via Key Vault, policy as code• Systèmes Linux (Red Hat/Debian) et Windows Server, virtualisation (proxmox, hyper-v, nutanix) /bare metal• Maîtrise de développement scripts Terraform, Ansible, bash/sh Appréciées• Kubernetes: automatisation distributions agnostiques (RKE2/K3s/OpenShift), Helm/Kustomize, ingress, RBAC, ARGO/CD• Load balancers F5 (LTM/WAF) et pare feu Check Point• Connaissances développement Python• Certification ITIL et Kubernetes (CKA) PROFIL RECHERCHÉIngénieur(e) DevOps / IaC (5–10 ans d'expérience) orienté automatisation sur cloud-hybrid, capable d'auditer et de rationaliser des patrimoines IaC hétérogènes, alliant vision d'architecture cloud, rigueur documentaire et capacité à élever le niveau des équipes internes Windows/Linux. --
Mission freelance
Développeur Python (H/F)
Publiée le
Python
3 ans
Île-de-France, France
Context: Le client est un leader mondial de l’assurance engagé dans une transformation digitale majeure. Services: Fourniture de services informatiques standardisés à l’ensemble des entités du groupe, en favorisant l’alignement du portefeuille, l’excellence de service et l’efficacité des coûts ; Remplacement des plateformes de gestion de contenu historiques (Documentum, FileNet, NAS) par une plateforme CMX (Content Management eXperience) : une solution clé en main, en mode SaaS, proposant des API REST et une interface web, entièrement alignée avec les standards du groupe en matière d’architecture, de sécurité, de conformité et de résilience ; CMX est une propriété intellectuelle détenue à 100 % en interne, et l’enrichissement de ses capacités — ajout de fonctionnalités innovantes, nouveaux services basés sur l’IA et accélération des migrations vers le cloud — est critique pour son succès à long terme. Deliverables: Maintenance et évolution des outils cœur en Python, prototypage de nouveaux services à forte valeur ajoutée — en s’appuyant sur des technologies telles que l’IA générative, les technologies sémantiques et les patterns cloud-native — afin de générer un impact métier à l’échelle du groupe ; Collaboration étroite avec les parties prenantes métiers, les product managers et les ingénieurs pour transformer des besoins émergents en services robustes et à forte valeur ; Construction et évolution des outils cœur : audit, stabilisation et refactorisation de scripts Python existants ; Garantie d’un code propre, conforme aux normes PEP8, avec des tests complets et une documentation associée ; harmonisation et développement de nouveaux modules, tels que la traduction de règles métiers exprimées en langage naturel en workflows techniques automatisés, stratégies de compression et de regroupement de fichiers ; Innovate & Prototype: Pilotage de sprints d’innovation courts et dynamiques pour explorer de nouveaux services répondant à des cas d’usage ciblés (tagging automatique, recherche sémantique, contrôle qualité des contenus) ; Conception de proofs of concept (POC), définition et remise en question des cas d’usage et besoins spécifiques via du prototypage rapide à des fins de laboratoire ; Évaluation de la faisabilité et proposition de roadmaps de mise en production ; Revue de code, partage des bonnes pratiques et mentorat des pairs sur le développement piloté par les tests (TDD), le CI/CD et l’architecture propre ; Contribution aux pipelines DevOps — CI/CD, infrastructure as code (Terraform, CloudFormation), déploiements automatisés. Expertise: Expertise en développement Python, sur des applications orientées données ou contenu (environ 10 ans d’expérience) ; Core Languages & Tools: Python (avancé), Git, Bash, Java, JavaScript (React/Vue) ; Data & AI: Pandas, regex, parsing JSON/XML, prompt engineering, NoSQL (MongoDB, MarkLogic), RDF/SPARQL, graphes ; Cloud & DevOps: AWS (S3, Lambda), CI/CD (Jenkins/GitLab CI), Terraform, OpenShift, Kubernetes, Artifactory, OpenLDAP ; Testing & Quality: Pytest, frameworks BDD (Behave/Cucumber), revues de code, Selenium, outils d’analyse de sécurité et de qualité (SonarQube, Snyk).
Mission freelance
Devops Azure H/F
Publiée le
Azure DevOps
Entreprise Java Bean (EJB)
2 ans
450-550 €
Paris, France
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Devops Azure H/F à Paris, France. Les missions attendues par le Devops Azure H/F : Nous recherchons un Développeur DevOps Azure expérimenté pour rejoindre notre équipe de développement. Missions principales : Concevoir et mettre en œuvre des pipelines CI/CD sur Azure DevOps. Gérer et automatiser l'infrastructure avec des outils tels que Terraform et Azure Resource Manager. Mettre en place le déploiements sur les différents environnements. Surveiller et optimiser les performances des applications en production. Collaborer avec les équipes de développement pour améliorer les processus de livraison. Participer à l'amélioration continue des pratiques DevOps au sein de l'équipe. Partager les connaissances avec les autres membres de l'équipe.
Offre d'emploi
Senior Data engineer AWS
Publiée le
Terraform
18 mois
40k-45k €
100-550 €
Paris, France
Télétravail partiel
CONTEXTE : Experience : 7 ans et plus Métiers Fonctions : Data Management, Software engineer Spécialités technologiques : Data Compétences Technologies et Outils AWS Spark Airflow Snowflake Secteurs d'activités Services Informatiques Conseil en organisation, stratégie MISSIONS Rattaché(e) au périmètre du Responsable Data Platform, vos missions consisteront à : - Développer des pipelines et ETL sur AWS vers Snowflake - Mettre en place des stockage optimisé grâce aux technologies lakehouse et en particulier DeltaLake - Créer des jobs manipulant la donnée avec SQL et Python (pandas et ou Polars) - Réaliser les traitements de volume de données massives avec PySpark - Développer et maintenir des infrastructures avec de l’IaC et en particulier avec Terraform - Orchestrer les différents traitements via Airflow - Déployer et maintenir des applications via la CI/CD - Participer aux réflexions et au design d’architecture - Bonne capacité de vulgarisation et de communication - Participer aux rituels agiles de l’équipe - Contribuer à la documentation technique et fonctionnelle 5 à 10 ans en tant que Data Engineer, avec une expérience significative sur AWS. Un positionnement en tant que techlead serait un plus. De l’expérience dans un contexte BI serait un plus. Un positionnement ou une expérience en tant que DevOps serait un plus. Expertise souhaitée Python, PySpark, AWS (EMR, S3, Lambda), Airflow, SQL, Snowflake, Terraform, Databricks, Gitlab.
Mission freelance
Ingénieur DevOps / Cloud Azure - Data & Plateforme Offline
Publiée le
Azure DevOps
Git
Helm
1 mois
400-550 €
Paris, France
Bonjour à tous, Je recherche pour le compte d'un de mes clients plusieurs DevOps. Voici les missions : Contribution fonctionnelle & technique Intégrer de nouvelles fonctionnalités issues de composants open-source et assurer la maintenance des fonctionnalités existantes. Collaborer quotidiennement avec les Data Engineers (échanges sur les cas d’usage, tests, besoins utilisateurs finaux). Infrastructure & automatisation Automatiser le déploiement d’infrastructures Cloud à grande échelle sous Azure , en particulier la gestion de clusters Azure au niveau ressource. Travailler dans une infrastructure 100% Terraform (≈45%) : définition, maintenance et optimisation des modules et stacks IaC. Utiliser Terragrunt pour organiser et orchestrer les déploiements multi-environnements. Automatiser et industrialiser le déploiement d’images Docker et de composants applicatifs au sein de clusters Kubernetes. Concevoir, maintenir et optimiser des charts Helm (≈30%) pour les différents services déployés. Maintenir et développer des scripts et utilitaires en bash (≈20%) et ponctuellement en Python (≈5%). Plateforme Data & environnement offline Déployer et intégrer des composants transverses : Ingress, Keycloak, Nexus… Automatiser et opérer les briques techniques liées aux traitements de données : GitLab, Jupyter/JupyterHub (notamment en environnement offline), Spark, PostgreSQL… Travailler dans des environnements sans accès internet , incluant la gestion interne des identités, l’intégration réseau, et la gestion complète du cycle de vie applicatif. CI/CD & qualité Utiliser la suite Azure DevOps (repos, boards, pipelines). Exécuter et superviser des pipelines CI/CD de tests et de déploiements déjà implémentés. Participer activement aux pratiques DevOps : revue de code, bonnes pratiques Git, amélioration continue des workflows. Architecture & sécurité Contribuer à l’évolution de l’architecture de la plateforme en apportant votre expertise Cloud, Kubernetes ou systèmes distribués. Assurer une veille active sur les sujets technologiques et de sécurité. Appliquer et promouvoir les bonnes pratiques en matière de sécurité des données et de la plateforme. Actualiser et structurer la documentation technique.
Offre d'emploi
Data Scientist
Publiée le
Google Cloud Platform (GCP)
Machine Learning
1 an
40k-45k €
400-620 €
Île-de-France, France
Télétravail partiel
Contexte La Direction Technique du Numérique d'une grande entreprise de médias mène des projets transverses en étroite collaboration avec les autres directions, notamment la direction Data. La Direction Data, au sein de la Direction du Numérique, a été créée avec la volonté de faire de la Data un levier de croissance des offres numériques. Elle a 3 grandes missions : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l'expérience utilisateur, mettre à disposition auprès des équipes internes des outils de pilotage et d'aide à la décision. Afin d'améliorer la personnalisation de l'expérience utilisateurs, nous souhaitons créer une équipe dédiée, travaillant sur des sujets de recommandation et de machine learning en production. Cette équipe est composée d'un Product Owner, un Data Scientist, un lead ML ingénieur et un ML ingénieur. Notre stack technique est basé sur une plateforme cloud majeure et constituée, entre autres, de Python, Vertex AI, BigQuery, Cloud Run et Airflow pour l'orchestration des traitements. La stack inclut aussi d'autres services de la plateforme cloud. Missions de l'équipe Créer les premiers cas d'usage en lien avec la personnalisation de l'expérience utilisateur basés sur de la recommandation utilisateur Déployer ce projet et AB tester en production Mettre en place un monitoring et un contrôle des performances Prestations attendues En interaction avec les membres de l'équipe, la prestation consistera à : Concevoir, construire et maintenir des pipelines ML robustes et scalables de la collecte des données à l'exposition des modèles via des API Rest Organiser et structurer le stockage des données Assurer l'évolutivité, la sécurité, la stabilité des environnements Mettre en place et maintenir les infrastructures scalables capable de répondre aux besoins et au volume de données Industrialiser les modèles IA en lien avec les data scientists Construire et maintenir les workflows de la CI/CD Collaborer avec les data ingénieurs et les autres équipes techniques pour appliquer les bonnes pratiques en vigueur Contribuer et veiller à la mise à jour de la documentation Faire de la veille technologique active dans le domaine Participer activement aux différentes phases de cadrage, de planification et de réalisation des tâches avec l'équipe
Offre d'emploi
Data Engineer (21)
Publiée le
Google Cloud Platform (GCP)
Python
1 an
40k-45k €
400-660 €
Île-de-France, France
Télétravail partiel
Descriptif du poste La Direction Technique du Numérique d'une grande entreprise de médias mène des projets transverses en étroite collaboration avec les autres directions, notamment la direction Data. La Direction Data, au sein de la Direction du Numérique, a été créée avec la volonté de faire de la Data un levier de croissance des offres numériques. La Direction Data a 3 grandes activités : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l'expérience utilisateurs et mettre à disposition auprès des équipes internes des outils de pilotage et d'aide à la décision. Au sein de l'équipe Bronze, la prestation se déroulera en collaboration avec les autres équipes de la Data, au coeur de la plateforme Data. Cette équipe est composée d'un product owner, d'un data steward et de deux autres data ingénieurs. Notre stack technique est principalement constitué de Python, Spark, SQL pour les traitements de données, Airflow pour l'orchestration et Cloud Storage et Delta lake pour le stockage. La stack inclut aussi les services BigQuery, Dataproc, PubSub et Cloud Storage de la Google Cloud Platform et Terraform et Terragrunt pour la gestion de l'infrastructure. Prestations attendues Prestation de cette équipe Collecter et centraliser les différentes sources de données non homogènes Assurer la conformité et la sécurité des données Participer aux initiatives de gouvernance des données Prestation en data engineering En interaction avec les membres de l'équipe, la prestation consiste à : Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l'équipe Construire et maintenir de pipelines data robustes et scalables Accompagner les membres de l'équipe dans l'exploitation et le requêtage des données Organiser et structurer le stockage des données Mettre en place et maintenir des infrastructures scalables capable de répondre aux besoins et à l'accroissement rapide du volume de données Construire et maintenir les workflows de la CI/CD Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur Assurer l'évolutivité, la sécurité, la stabilité des environnements Participer aux différentes instances de data engineering Contribuer et veiller à la mise à jour de la documentation Faire de la veille technologique active dans le domaine
Mission freelance
Data Engineer Talend / GCP
Publiée le
Google Cloud Platform (GCP)
Microsoft SQL Server
Talend
3 ans
400-530 €
Île-de-France, France
Télétravail partiel
Dans le cadre du renforcement de la Data Factory de notre client grand compte, nous recherchons un Data Engineer Talend / GCP expérimenté. Vous interviendrez sur la conception, le développement et l’optimisation de solutions Data destinées à répondre aux besoins analytiques et opérationnels des métiers. Votre rôle sera clé dans la mise en place d’une infrastructure Data performante, fiable et scalable sur Google Cloud Platform . Missions principales Analyser les besoins métiers et leurs impacts sur la donnée Concevoir et développer des pipelines de données robustes et évolutifs avec Talend et les services GCP (BigQuery, DataForm, Dataflow, Pub/Sub, Cloud Composer) Optimiser la performance et la scalabilité des solutions existantes Collaborer avec les architectes, Product Owners et Data Analystes pour garantir la qualité et la cohérence des données Maintenir une documentation technique claire et complète Mettre en place le monitoring et les contrôles d’intégrité des pipelines Participer à la recette technique et fonctionnelle des livrables Assurer la maintenance corrective et évolutive des traitements en production Garantir la conformité des développements avec les bonnes pratiques Data et Cloud
Offre d'emploi
Développeur Magento 2
Publiée le
Adobe
API
CI/CD
6 mois
Paris, France
Télétravail partiel
Notre client recherche un Développeur Magento 2 afin de renforcer son équipe produit agile et effectuer la mission suivante : Vous avez pour mission de concevoir, développer, maintenir et optimiser le tunnel de commande d'une plateforme e-commerce de haut volume, construite en architecture Headless sur Magento 2 / Adobe Commerce Cloud. Votre expertise technique et votre rigueur seront cruciales pour garantir la stabilité, les performances et l'évolutivité de ce périmètre critique. Les principales missions sont les suivantes: 1. Développement & Architecture (70%) : Conception et développement de nouvelles fonctionnalités sur le périmètre tunnel de commande (panier, passage de commande, modes de livraison, méthodes de paiement) en mode headless. Développement et maintenance d'APIs GraphQL robustes, performantes et bien documentées pour servir le front-end headless. Intégration et gestion des services Adobe Commerce Cloud liés au tunnel de commande. Contribution à la définition et à l'évolution de l'architecture technique, en privilégiant la scalabilité et la maintenabilité. Mise en place et amélioration des tests automatisés (unitaires, d'intégration) sur votre périmètre. 2. Performance, SRE & Monitoring (20%) : Analyse et optimisation continue des performances du tunnel de commande (temps de réponse, optimisation des requêtes GraphQL, cache). Mise en place, configuration et analyse des outils de monitoring (ex: New Relic, Datadog, Kibana) pour assurer la supervision de l'application. Collaboration avec l'équipe SRE/DevOps sur les sujets liés à l'infrastructure Kubernetes (déploiements, configurations, debugging). Participation aux démarches de résilience (circuit breaker, retry) et de gestion d'incidents. 3. Travail d'équipe & Méthodologie (10%) : Participation active aux cérémonies agiles (daily, planning, retro). Revue de code pair et partage des connaissances avec les autres développeurs. Rédaction et mise à jour de la documentation technique. Collaboration étroite avec les équipes Front-end (consommatrices des APIs), Produit et QA.
Mission freelance
Developpeur Python Senior ( 10 ans ! )
Publiée le
Python
1 an
400-460 €
Paris, France
Le client est un leader mondial de l’assurance , engagé dans une transformation digitale majeure , avec des opérations dans plus de 80 pays . Services Fourniture de services IT standardisés à l’ensemble des entités opérationnelles, afin de favoriser l’alignement du portefeuille applicatif, l’excellence de service et l’efficacité des coûts ; Remplacement des plateformes de gestion de contenus legacy (Documentum, FileNet, NAS) par la plateforme Content Management eXperience (CMX) , développée par nous : une solution clé en main, en mode SaaS , offrant des API REST et une interface web , pleinement alignée avec les standards Groupe en matière d’architecture, de sécurité, de conformité et de résilience ; CMX est une propriété intellectuelle détenue à 100 % . L’enrichissement de ses capacités — ajout de fonctionnalités innovantes, de nouveaux services basés sur l’IA et accélération des migrations vers le cloud — est critique pour son succès et son évolution continue. Livrables Maintenance et évolution des outils cœur développés en Python , ainsi que le prototypage de nouveaux services à forte valeur ajoutée , en s’appuyant notamment sur l’ IA générative , les technologies sémantiques et les architectures cloud-native , afin de générer un impact métier à l’échelle du Groupe ; Collaboration étroite avec les parties prenantes métiers , les product managers et les équipes d’ingénierie pour transformer les besoins émergents en services robustes et à forte valeur ; Construction et évolution des outils cœur : Audit, stabilisation et refactoring de scripts Python existants ; Garantie d’un code propre, conforme aux standards PEP8 , avec une couverture complète de tests et une documentation appropriée ; Harmonisation de nouveaux modules, tels que la traduction de règles métiers exprimées en langage naturel vers des workflows techniques automatisés , ou encore la définition de stratégies d’archivage et de compression de fichiers ; Innovation et prototypage : Pilotage de sprints d’innovation courts et dynamiques pour explorer de nouveaux services orientés cas d’usage (tagging automatisé, recherche sémantique, contrôles de qualité de contenus) ; Conception de preuves de concept (POC) , cadrage et challenge des cas d’usage et besoins spécifiques via du développement rapide en environnement laboratoire ; Évaluation de la faisabilité et proposition de roadmaps de mise en production ; Réalisation de revues de code , partage des bonnes pratiques et mentorat des équipes sur le Test-Driven Development (TDD) , le CI/CD et les principes de clean architecture ; Contribution aux chaînes DevOps : CI/CD, infrastructure as code (Terraform, CloudFormation) et déploiements automatisés. Expertise Expertise avancée en développement Python , appliquée à des applications orientées données ou gestion de contenus ( 10 ans d’expérience ) ; Langages et outils principaux : Python (avancé), Git, Bash, Java, JavaScript (React / Vue) ; Données & IA : Pandas, expressions régulières, parsing JSON/XML, prompt engineering ; Technologies data avancées : NoSQL (MongoDB, MarkLogic), RDF/SPARQL, graphes ; Cloud & DevOps : AWS (S3, Lambda), CI/CD (Jenkins, GitLab CI), Terraform, OpenShift, Kubernetes, Artifactory, OpenLDAP ; Tests & Qualité : Pytest, frameworks BDD (Behave / Cucumber), revues de code, Selenium, outils d’analyse de sécurité et de qualité (SonarQube, Snyk).
Mission freelance
Data Engineer
Publiée le
Azure Data Factory
Azure DevOps
Databricks
1 an
500-550 €
Paris, France
Télétravail partiel
Intégré(e) aux équipes Data (Data Engineers, BI, Sécurité, Infrastructure), vous interviendrez sur la conception, le développement et l’industrialisation des pipelines data dans un environnement Azure. Vos principales responsabilités : Concevoir des pipelines d’ ingestion et de transformation (batch et near-real-time) Développer et maintenir des flux sous Azure Data Factory Implémenter des traitements Spark via Databricks Mettre en place la qualité des données , le monitoring et la reprise sur erreur Versionner, packager et livrer via des pipelines CI/CD Collaborer avec les équipes BI, sécurité et infra 🛠️ Industrialisation & DataOps Respect des standards de développement et de nommage Mise en œuvre de pipelines CI/CD Documentation et maintien des bonnes pratiques Data Contribution à la performance et à la robustesse des traitements
Offre d'emploi
Architecte d'entreprise H/F
Publiée le
65k-75k €
75001, Paris, Île-de-France
Télétravail partiel
Je suis Sheeranaze MEHENTAL, Consultante en recrutement au sein de FED IT, cabinet de recrutement spécialisé sur les métiers des systèmes d'information et de la transformation digitale : infrastructure, chefferie de projet, data, cybersécurité, développement et top management. Je recrute pour mon client ( banque privée) basé à Paris 1er un Architecte d'entreprise H/F dans le cadre d'un CDI. Rattaché au DSI, l'Architecte d'entreprise H/F doit définir, maintenir et gouverner la trajectoire d'architecture (métier, data, applicative, intégration, technique/cloud, sécurité) afin d'assurer un SI cohérent, résilient, auditable et conforme, notamment au regard des attentes ACPR/BCE/EBA et du règlement DORA, avec un focus sur l'inventaire, la cartographie, et les dépendances des actifs TIC supportant les fonctions critiques/importantes. Missions principales A. Stratégie d'architecture d'entreprise * Définir et maintenir la cible d'architecture (Target Architecture) et la trajectoire (roadmap) en alignement avec la stratégie de la banque. * Construire/maintenir la Business Architecture : modèle de capacités, cartographie processus/fonctions, analyses de maturité. * Réaliser les analyses d'impact pour cadrer les évolutions et arbitrages. B. Gouvernance, standards et revues d'architecture * Mettre en place et animer la gouvernance d'architecture : principes, standards, patterns (API, intégration, data, IAM, cloud, etc.). * Conduire les revues d'architecture des projets majeurs pour assurer la conformité aux standards et à la stratégie, ainsi que la gestion des risques (sécurité, résilience, conformité réglementaire). C. Référentiels, cartographies et exigences DORA * Maintenir un dispositif « audit-ready » d'inventaires et cartographies du SI (applications, données, flux, dépendances, actifs critiques). * Assurer l'alignement avec les exigences réglementaires, notamment DORA Art. 8, en matière de résilience et de continuité. D. Rationalisation et modernisation du portefeuille * Piloter l'évaluation et la rationalisation du portefeuille applicatif. * Promouvoir des trajectoires de modernisation alignées avec la stratégie de la DSI de la banque. E. Innovation et amélioration continue * Effectuer une veille technologique et proposer des pistes d'innovation adaptées aux services financiers de la banque. * Animer des ateliers avec les parties prenantes pour aligner besoins, risques, architecture et planning. 3. Livrables attendus * Cartographie du SI à jour (applications, données, flux, tiers). * Modèle de capacités (capability map métier et IT) et trajectoire pluriannuelle. * Dossiers d'architecture (HLD/LLD, standards et patterns). * Avis d'architecture + registre des dérogations et plans de remédiation. * Exigences d'exploitabilité (« Architecture Run Readiness »). * Référentiel DORA Art. 8 : inventaires, actifs critiques, interdépendances, configurations. 4. Indicateurs de performance (KPI/KRI) KPI : * Taux de couverture des cartographies (applications, flux, tiers) et délais de mise à jour post-changement. * % de projets majeurs validés en revue d'architecture avant Go-Live. * Réduction de la redondance applicative et de la complexité. KRI : * Zones non cartographiées du SI sur les périmètres critiques. * Nombre de dépendances critiques non maîtrisées. * Nombre de dérogations sans plan de remédiation ou exceptions permanentes. Compétences requises Compétences techniques : * Vision transverse : business, data, applicatif, intégration, infrastructure, cloud/hybride. * Expertise en urbanisation SI, architecture API/événementielle, data governance. * Maîtrise des concepts de résilience (PRA/PCA, observabilité, SRE). * Connaissance des exigences réglementaires (notamment DORA Art. 8). Compétences comportementales : * Excellente communication orale et écrite, capacité de synthèse et de vulgarisation. * Leadership d'influence, capacité à challenger de manière constructive. * Rigueur, sens du risque et exigence de traçabilité « audit-proof ». * Capacité à arbitrer valeur vs risque vs coût vs délai.
Mission freelance
Tech Lead Senior - H/F - 93
Publiée le
Agile Scrum
Amazon S3
Ansible
12 mois
Saint-Denis, Île-de-France
Dans le cadre du projet de refonte et d’évolution d’une application métier dans le domaine ferroviaire / industriel, nous recherchons un Tech Lead pour piloter l’équipe technique et garantir la qualité des solutions développées. Ce rôle clé allie expertise technique, leadership et collaboration transverse avec les chefs de projet et les équipes métiers. Le projet repose sur une stack technique moderne (Python, FastAPI, PostgreSQL/PostGIS, AWS, Kubernetes) et s’inscrit dans une démarche Agile/Scrum. Le Tech Lead sera responsable de l’architecture, de la performance des services back-end, et de l’amélioration continue des processus de développement. Leadership technique & Architecture Concevoir et valider l’architecture technique des solutions (back-end, BDD, ETLs). Superviser les revues de code (Python) et garantir le respect des bonnes pratiques. Optimiser les performances des services back-end (FastAPI, SQLAlchemy). Piloter les déploiements sur les environnements (dev, recette, prod) via Jenkins, AWS (S3/RDS), Ansible, Kubernetes. Automatiser les tests et les pipelines CI/CD. Encadrement & Collaboration Mentorer les développeurs et développeuses pour favoriser leur montée en compétences. Participer aux cérémonies Agile (sprints, rétrospectives) et contribuer à l’amélioration des processus. Travailler en étroite collaboration avec les chefs de projet pour aligner les roadmaps techniques et fonctionnelles. Assurer une veille technologique et proposer des innovations (outils, frameworks, bonnes pratiques). Gestion des infrastructures & Qualité Administrer les outils DevOps (Jenkins, AWS, Helm, Datadog). Documenter le code et les processus techniques. * Garantir la stabilité et la scalabilité des applications en production.
Mission freelance
Ingénieur réseau et télécom (H/F)
Publiée le
Centreon
Réseaux
SD-WAN
12 mois
400-490 €
Montpellier, Occitanie
Télétravail partiel
Notre client dans le secteur Assurance recherche un/une Ingénieur Réseau et Télécom (H/F) Description de la mission : Notre client, acteur majeur du secteur assurantiel, recherche son futur ingénieur réseau et télécom en freelance à Montpellier ! Au sein d’une équipe technique d’une dizaine de collaborateurs, vous occuperez un rôle de référent sur plusieurs domaines liés aux infrastructures réseau. En rejoignant le pôle chargé de l’exploitation réseau, vous interviendrez sur les missions suivantes : Garantir la disponibilité et la performance des équipements réseau et des solutions de téléphonie Prendre en charge les incidents et assurer un support technique de niveau 2 Développer et déployer des outils d’automatisation et d’orchestration basés sur des API Contribuer activement à la veille technologique et à la promotion des bonnes pratiques au sein de l’équipe Vous évoluerez dans un environnement dynamique, au cœur d’une équipe polyvalente dédiée au maintien en conditions opérationnelles d’un système d’information multi-sites. Périmètre d’intervention : Réseaux d’entreprise : SD-WAN, solutions de proxy cloud, interconnexions VPLS/MPLS, liaisons Internet et tunnels sécurisés Systèmes de téléphonie et communications unifiées Infrastructures IT associées Support & exploitation de niveau 2 Automatisation des processus Mise en place et suivi d’indicateurs de performance réseau
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Utiliser Qonto pour créer la microentreprise
- Freelance : peu de retours sur mes candidatures – vos stratégies ?
- Entretiens et tests techniques developpeurs Java Angular junior
- Gestion d’entreprise : astuces pour freelances IT
- Traitement fiscal des cotisations sociales payées en 2025 sur CA micro-BNC 2024
- L'EI à l'IS est-elle toujours plus intéressante qu'à l'IR ?
369 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois