L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 494 résultats.
Mission freelance
Data Engineer Azure Data Factory - CosmosDB
Atlas Connect
Publiée le
Azure
Azure Data Factory
Azure DevOps
12 mois
490-550 €
Île-de-France, France
Vos missions En tant que Data Engineer , vous serez amené(e) à : Concevoir, développer et maintenir des pipelines d’intégration de données sous Azure Data Factory Assurer la gestion complète des flux de données : ingestion, transformation, normalisation et mise à disposition pour les différents services du SI Réaliser des transformations et agrégations complexes en SQL , dans une logique de qualité, de performance et d’industrialisation Collaborer étroitement avec les équipes métiers afin de comprendre leurs besoins et proposer des solutions techniques adaptées intégrées au Datahub Contribuer à l’ amélioration continue des processus Data : automatisation, fiabilisation, optimisation et bonnes pratiques Participer à la fiabilité et à la qualité du code et des déploiements dans un environnement industrialisé ⚙️ Stack technique Cloud : Azure (hébergement, stockage, orchestration) Data : Azure Data Factory Bases de données : Azure SQL, Cosmos DB Langages : SQL (avancé), Python (Azure Functions) Infrastructure : Terraform (Infrastructure as Code) Qualité & sécurité : SonarCloud, Snyk CI/CD & DevOps : Azure DevOps
Mission freelance
RPA, Dataflow & Application Developer
Orcan Intelligence
Publiée le
Javascript
Node.js
RPA (Robotic Process Automation)
9 mois
Paris, France
Orcan Intelligence recherche pour l'un de ses clients un RPA, Dataflow & Application Developer. Responsable de la conception, du développement et de la maintenance de solutions d'automatisation robotisée des processus (RPA) utilisant Puppeteer pour l'extraction de données, la gestion des pipelines de données et la création d'applications exploitant les données traitées. Garantit la fiabilité, l'évolutivité et l'amélioration continue des solutions de données et d'automatisation afin de soutenir les opérations de l'entreprise et la prise de décision.
Offre d'emploi
Administrateur Système & devops
Le Groupe SYD
Publiée le
Administration système
microsoft
35k-45k €
Saint-Herblain, Pays de la Loire
🌟Quel sera ton poste ? 🌟 Rejoins une équipe d’environ 60 personnes basée à Saint-Herblain , qui travaille sur des projets d’intégration majoritairement en SaaS (≈90 %) , avec une part On-Prem (≈10 %) , dans des contextes métiers exigeants et variés. Ton rôle est clé : tu interviens comme référent infrastructure & DevOps , au croisement des équipes de développement, des chefs de projet et des clients. En tant qu’ Administrateur·rice Systèmes & DevOps , tu es un acteur pivot des projets . Tu accompagnes les équipes projet sur les sujets d’infrastructure, d’automatisation et d’architecture, tout en participant à l’amélioration continue de nos pratiques techniques. Tu évolues entre : des missions de routine projet (accompagnement, industrialisation, sécurisation), et des phases de découverte / R&D , pour concevoir les meilleures architectures d’intégration possibles chez nos clients. Tes missions : Architecture & conseil (rôle central) Accompagner les clients dans la définition des architectures d’intégration des solutions Microsoft dans leur SI Être force de proposition sur les choix techniques, Cloud et DevOps auprès de l’équipe SYD Participer aux réflexions d’urbanisation et d’intégration applicative Cette dimension “architecture & conseil” est au cœur du poste. Accompagnement des équipes projet Travailler en étroite collaboration avec les développeurs et chefs de projet Accompagner la livraison du code , l’industrialisation des déploiements et les bonnes pratiques DevOps Superviser et gérer les ressources Azure liées aux projets Contribuer à la supervision des environnements SaaS hébergés sur l’écosystème Microsoft (Azure / Power Platform) Environnements Cloud & On-Prem Intervenir sur des environnements Azure (sécurité, monitoring, optimisation) Participer ponctuellement à des projets On-Prem : installations migrations environnements existants (anciennes versions Dynamics AX / CRM Automatisation & DevOps Concevoir et faire évoluer des pipelines CI/CD (Azure DevOps) Développer des scripts et automatisations (PowerShell) Participer à la standardisation et à l’industrialisation des environnements Expertise & amélioration continue Assurer un support technique de haut niveau d’expertise , en lien avec nos clients et Microsoft Capitaliser via la rédaction de procédures et guides techniques Participer à une veille technologique continue (Azure, DevOps, Cloud Microsoft) Ton environnement technique Tu évolues dans un écosystème Microsoft riche et structuré , qui correspond à l’environnement actuellement utilisé sur nos projets . Il n’est pas attendu que tu maîtrises l’ensemble de ces technologies dès ton arrivée . L’important, c’est d’avoir de bonnes bases, de la curiosité et l’envie de monter en compétence, accompagné par l’équipe. Environnement actuel : Azure (services Cloud, sécurité, monitoring) Azure DevOps (Repos, Pipelines) PowerShell (automatisation, scripting) SQL Server (administration) Power Platform
Offre d'emploi
Architecte technique Réseau & Cloud
KEONI CONSULTING
Publiée le
Cloud
DevOps
SQL
18 mois
20k-60k €
200-700 €
Paris, France
Contexte Notre client souhaite bénéficier d’un accompagnement pour une mission d’Architecture Technique afin d’intervenir dans un périmètre global avec pour mission principale de : MISSIONS • Fournir des services de connectivité réseau et d’infrastructure cloud et Onprem. • Concevoir, documenter et améliorer les services IT et leur écosystème associé, en conformité avec les engagements du service IT, les certifications sécurité et les Framework d’architecture. • Mettre en œuvre de nouvelles architectures et systèmes de sécurité • Garantir le respect des règles de sécurité et d’architecture d’entreprise, • Optimiser les services IT depuis leur conception jusqu’à leur livraison • Mettre à jour la documentation Enjeux de la mission • Comprendre les besoins de l’entreprise pour définir les spécifications des systèmes. • Élaborer des feuilles de route (roadmaps) pour les solutions technologiques. • Évaluer et sélectionner les logiciels ou matériels appropriés et proposer des méthodes d’intégration adaptées. • Concevoir des solutions technologiques fonctionnelles répondant aux exigences de l’entreprise. • Définir la structure des solutions technologiques, en alignement avec les stratégies organisationnelles. • Superviser le développement et la mise en œuvre des programmes liés aux infrastructures cloud et réseau. • Apporter un leadership technique et un soutien aux équipes de développement logiciel et d’ingénierie. • Communiquer les exigences système aux équipes impliquées dans les projets. • Superviser les programmes assignés (par exemple, revue de code, revue d’architecture technique) et conseiller les membres de l’équipe. • Contribuer à la résolution des problèmes techniques lorsque ceux-ci surviennent • Veiller à la mise en œuvre des architectures et infrastructures convenues, en garantissant leur conformité aux normes définies. • Aborder les préoccupations techniques, idées et suggestions, et apporter des solutions innovantes. • Surveiller les systèmes pour s’assurer qu’ils répondent aux besoins des utilisateurs et aux objectifs de l’entreprise. • Produire toute la documentation liée à l’architecture, y compris les documents de conception de haut niveau (HLD), de bas niveau (LLD) et les orientations techniques. LIVRABLES 1. Conception de solution d’architecture technique • Formalisation des DAP Dossier Préliminaire d’Architecture • Formalisation des DAT – Dossier d’Architecture Technique 2. Sécurité & gouvernance • Mise en œuvre de bonnes pratiques de sécurité • Application des règles de conformité et des standards 3. Accompagnement & collaboration • Collaboration étroite avec les équipes de développement, devops, experts réseau et système et d’exploitation. • Documentation technique, partage de connaissances, participation à la montée en compétences des équipes. 4. Support & amélioration continue • Analyse des incidents, amélioration continue des pipelines, veille technologique • Contribution à l’évolution de la stratégie IT K Environnement technique • Cloud public : Azure & AWS • Infrastructure as Code : Terraform, Bicep, Ansible, Helm • Supervision & Observabilité : Azure Monitor, Dynatrace, Prometheus, Grafana, ELK • Automatisation & CI/CD : Git, Azure DevOps, Jenkins • Containerisation & Orchestration : Docker, Kubernetes • Sécurité Cloud & DevSecOps : IAM, RBAC, Vault, Trivy • Scripting & Outils CLI : Bash, Powershell, Python, Azure CLI, Kubectl • Bases de données : SQL (PostgreSQL, MySQL, SQL Server), NoSQL (Azure DocumentDB, MarkLogic) • Méthodologie & collaboration : Agile, Scrum, DevOps • Enjeux transverses : FinOps, gouvernance technique, urbanisation Compétence et qualités requises : - Connaissance des normes et certifications : ISO 9001, ISO 27001, ISO 14001, ISO 45001. • Expertise technique : - Cloud (Azure, AWS) : services fondamentaux, sécurité, gouvernance, intégration, FinOps, automatisation et orchestration. - - - - Réseaux : routage et commutation (BGP, OSPF, VRRP, etc.), SD-WAN, VXLAN, sécurité réseau (IPsec, 802.1X). Infrastructures IT : virtualisation, sauvegarde, équilibrage de charge, DNS, proxy. Sécurité : PKI, CLM, HSM, bastion, antivirus. Automatisation et DevOps : orchestration, monitoring des performances applicatives. • Conception et documentation : - Pratiques TOGAF, outils (Modelio, Archimate, UML, BPMN). - Élaboration de documents HLD/LLD et orientations techniques. • Expérience : - Conception et gestion de systèmes IT globaux complexes. - - Environnements multiculturels et intégration de services cloud. Gestion de projets et accompagnement des équipes IT. • Qualités personnelles : - Esprit critique et innovant - - Orientation client et sens du service Capacité à représenter et défendre une position auprès du top management. Découpage éventuel en tranches ou phases correspondant aux étapes du projet
Offre d'emploi
Data Ingénieur Spark
R&S TELECOM
Publiée le
Batch
Docker
Git
1 an
Rennes, Bretagne
En tant que Data Engineer Senior, vous interviendrez sur l’ensemble du cycle de vie de la donnée. Tâches à réaliser : Concevoir, développer et maintenir des pipelines d’ingestion batch et streaming Implémenter des traitements Data robustes, industrialisés et observables Participer à la construction d’une architecture Lakehouse moderne Garantir la qualité, la traçabilité et la fiabilité des données Contribuer à l’industrialisation (CI/CD, DataOps, automatisation) Collaborer étroitement avec les Data Architects, Platform Engineers, Product Owners et équipes métier Appliquer les bonnes pratiques de sécurité by design et de conformité Participer à la documentation et au transfert de connaissances
Mission freelance
Développeur Microsoft Dynamics 365 CRM On-Premise – Corbeil (91) + 2 jours télétravail
Freelance.com
Publiée le
.NET
Active Directory
API
1 an
520-700 €
Corbeil-Essonnes, Île-de-France
Nationalité : FR / UE obligatoire (contexte industriel, exigences sécurité) Dans le cadre d’un programme de déploiement Dynamics 365 CRM , le développeur accompagnera l’équipe projet sur les modules Customer Service, Request Management et Sales , ainsi que sur les chantiers d’intégration SI (archivage, signature électronique, échanges partenaires, interfaçages). Sous le pilotage du référent technique, il exécutera les travaux de développement et d’intégration pour enrichir et maintenir l’environnement CRM On-Premise. Rôle et responsabilités Développement & personnalisation Dynamics 365 : Développement de plugins C# / .NET Création de Custom Workflow Activities Développement de Web Resources (JavaScript / HTML / CSS) Utilisation de l’API Web Dynamics 365 Déploiement de solutions via XRM Toolbox Configuration & paramétrage : Gestion d’entités, champs, vues, formulaires et dashboards Business Rules / Workflows (Power Automate si connecté) Gestion des rôles et sécurité Intégration & données : Interfaces SI via API ou middleware (MuleSoft, Talend) Import/export de données (Data Import Wizard / Data Management) Scripts / flux SSIS / KingswaySoft si nécessaire Qualité, tests et documentation : Tests unitaires et fonctionnels Documentation technique Participation à la démarche DevOps (GitHub, CI/CD) Revues techniques et code avec le référent
Offre d'emploi
Lead Data Engineer
ANDEMA
Publiée le
Python
60k-80k €
Paris, France
Lead Technique Data Missions En tant que Lead Technique Data , vous collaborez étroitement avec des data engineers , data scientists et des équipes transverses (DevOps, IoT, logiciel). Votre mission principale consiste à concevoir, maintenir et optimiser une plateforme de données au cœur des projets d’IA. 1. Gestion et optimisation de la plateforme de données Normaliser et structurer les données : homogénéisation des formats, conception d’ontologies, mise en place de bonnes pratiques garantissant qualité et cohérence. Améliorer continuellement la plateforme : sécurité, scalabilité, optimisation des coûts, supervision et traçabilité. Mettre en œuvre la gestion de versions des données afin d’assurer une traçabilité complète, indispensable dans un contexte de dispositifs médicaux. 2. Développement de pipelines de transfert de données Concevoir et maintenir des pipelines ETL automatisés pour l’ingestion, le nettoyage et la transformation de données de santé. Garantir le respect des exigences RGPD : anonymisation, pseudonymisation et documentation complète des processus. Collaborer avec les équipes métiers pour intégrer de nouvelles sources de données et faire évoluer les pipelines. 3. Facilitation de l’accès aux données pour les data scientists Créer et gérer des datasets versionnés permettant des expérimentations reproductibles. Assurer des transferts de données volumineuses rapides, sécurisés et fiables. Adapter la plateforme aux besoins des data scientists : formats, structuration, enrichissement des métadonnées et support technique. 4. Automatisation et leadership technique Maintenir et améliorer les pipelines CI/CD pour des déploiements robustes et sécurisés. Déployer des outils de supervision (tableaux de bord, alertes) pour assurer la stabilité des pipelines. Industrialiser les déploiements des infrastructures data. Apporter un leadership technique : cohérence architecturale, accompagnement des profils plus juniors, revues de code et diffusion des bonnes pratiques. L’équipe Data intervient de manière end-to-end : recueil des besoins, architecture, développement, QA, sécurité, déploiement et opérations, avec une réelle liberté technologique. Compétences et expérienceCompétences techniques Programmation : Python (avancé), Git / GitLab CI. Cloud & Big Data : AWS (API Gateway, Cognito, Lambda, S3, SageMaker, Glue, Athena, ECS), Delta Lake, Databricks. Orchestration & Infra : Airflow, Terraform. Bases de données : MongoDB et solutions de stockage à grande échelle. Standards web : API REST, protocoles HTTP/HTTPS. Compétences relationnelles Rigueur scientifique et forte capacité d’analyse. Aptitude à faire le lien entre data science, ingénierie logicielle et opérations. Capacité à produire une documentation technique claire et conforme aux exigences réglementaires. Expérience Minimum 7 ans d’expérience en ingénierie data, dont 2 ans ou plus sur un rôle senior ou de responsabilité technique. Bonne compréhension des enjeux de cybersécurité et de conformité réglementaire , en particulier pour les données de santé. Maîtrise de l’ anglais technique dans un environnement international. Atouts appréciés (optionnel) MLOps : orchestration, déploiement et supervision de pipelines ML. Connaissance des processus de certification CE / FDA pour logiciels ou algorithmes. Expérience avec des données de santé : signaux électrophysiologiques (EEG, ECG, EMG) ou données cliniques. Infrastructure : Linux, conteneurisation (Docker, registres d’images). Lieu de la mission: Paris TT: 3 jours
Mission freelance
Data Platform Engineer
Cherry Pick
Publiée le
AWS Cloud
Python
12 mois
600-650 €
Paris, France
Objectifs Votre mission est de responsabiliser et de faire monter en compétence notre communauté de plus de 50 data engineers et data scientists. Agissant comme le lien essentiel entre les feature teams et les ingénieurs de la plateforme, vous serez le garant de l’adoption et de l’évolution de notre plateforme data en fournissant un support technique opérationnel, en partageant les bonnes pratiques et en animant des initiatives de partage de connaissances. Grâce à un engagement proactif, un support direct et une collecte continue de feedback, vous favoriserez un environnement collaboratif, innovant et à fort impact — garantissant que notre plateforme s’adapte en permanence et délivre une valeur maximale à ses utilisateurs. Missions principales 1. Support technique : Accompagner les data engineers et data scientists dans leurs problématiques techniques en fournissant des solutions opérationnelles, des conseils, des bonnes pratiques et un support via des interactions directes au sein de leurs équipes. S’assurer que la dette technique est identifiée, comprise et gérée via des plans d’actions, et participer aux tâches sous-jacentes. Fournir des outils pour aider à gérer cette dette (tests, automatisation, agents IA, …). Collaborer avec les équipes data platform et support afin de garantir que les problèmes au sein des pipelines data et de la plateforme data sont identifiés et résolus, améliorant ainsi l’expérience développeur globale. 2. Évangélisation : Promouvoir l’adoption de la plateforme data par une utilisation quotidienne, en démontrant sa valeur auprès des utilisateurs existants. Partager avec la communauté de pratique et les équipes internes les tendances du marché, outils et technologies liés aux plateformes data. 3. Montée en compétences des équipes : Évaluer le niveau actuel des équipes sur les outils et pratiques de la Data Platform et l’améliorer via des formations, des exercices et la résolution de problématiques réelles. Promouvoir et animer une communauté de pratique afin de construire des parcours de formation d’amélioration, des ateliers internes et des webinaires mettant en valeur les capacités de notre Data Platform. Créer du contenu technique tel que des articles de blog, tutoriels, projets exemples et documentation afin d’aider les développeurs à comprendre et utiliser efficacement notre plateforme. 4. Boucle de feedback : Collecter activement les retours de la communauté des développeurs afin de fournir des analyses et suggestions d’amélioration produit aux équipes d’ingénierie de la plateforme. Fournir des tests pertinents pour les actifs techniques produits par les ingénieurs de la Data Platform et s’assurer qu’ils correspondent aux usages actuels des feature teams. Représenter les data engineers et data scientists au sein de l’entreprise, en veillant à ce que leurs besoins et défis soient compris et pris en compte. Qualifications / Compétences requises Maîtrise du développement Python et de la conception d’applications scalables et de haute qualité. Expérience avec des frameworks de traitement de données tels que Pandas ou Spark. Expérience pratique dans le développement et la maintenance de pipelines data de bout en bout. Expertise approfondie sur AWS, complétée par des certifications ou une expérience équivalente. Expérience des frameworks d’Infrastructure as Code (idéalement AWS CDK en Python). Connaissance des pratiques DevOps et des pipelines CI/CD afin d’améliorer les processus de déploiement. Excellentes compétences en communication et en présentation, capables d’expliquer des concepts techniques complexes à des publics variés. Forte appétence pour l’animation de communautés de développeurs et la création d’un impact positif. Bon niveau d’anglais, la documentation étant rédigée en anglais et une partie des utilisateurs de la Data Platform ne parlant pas français. Atouts supplémentaires : Expérience en développement produit agile et en méthodologie Scrum. Expérience de migration de pipelines data vers le cloud. Compréhension des bonnes pratiques de sécurité et de conformité dans des environnements cloud. Environnement technologique : AWS : S3, EMR, Glue, Athena, Lake Formation, Cloud Formation, CDK, Lambda, Fargate, … Data engineering : Airflow, Parquet, Apache Iceberg DevOps : Jenkins, SonarQube, Conda Logiciels : Python, Ruff
Offre d'emploi
Data Engineer/ Backend Finances et Risques sur Maison Alfort
EterniTech
Publiée le
Apache Kafka
AWS Glue
Data analysis
3 mois
Maisons-Alfort, Île-de-France
Je recherche pour un de mes clients un Data Engineer / Backend Finances et Risques sur Maison Alfort Contexte Mission au sein de la DSI du client et plus précisément dans l'équipe data ESG. Mise en place d'un hub de données sur le thème de l'ESG pour répondre aux différents besoin de reporting, dataviz et partage d'informations. Exp: 5 à 8 ans Mission Concevoir et développer les datasets de données, les microservices et les API du produit en fonction de l'architecture proposée par le client Veiller aux bonnes pratiques et normes Assurer la qualité des développements, la qualité de la documentation des développements et la qualité des delivery Contribuer au suivi de production et assurer la maintenance corrective Certifications requises : au moins une • AWS Solution Architect ; • AWS Database ; • AWS Developer ; • AWS Data Analytics Méthodologie : • Agile • SAFe 5.0 Compétences métier : • Sens relationnel : adapter son comportement et son attitude en fonction de l'interlocuteur pour maximiser la qualité des échanges, • Travail en équipe : collaborer avec les membres de l'équipe de façon ouverte en communiquant ses retours et impressions sur les travaux, • Communication orale et écrite : exposer efficacement à l'écrit comme à l'oral un raisonnement de façon logique et argumentée, • Autonomie et proactivité : organiser son travail personnel en cohérence avec celui de l'équipe, anticiper les besoins et prendre des initiatives en informant le reste de l'équipe de son activité. Liste des technologies : Priorité : - Compétences Back : Java (17+) et springboot, API - Compétences Data : AWS ((Glue, athena, s3, ....), Python, Pyspark - Stream Kafka - Cloud AWS Kubernetes, Terraform* *Jenkins* *Event Kafka* *MongoDB* *Python* Facultative : EKS, DataDog Points critiques et différenciants Priorité : - Compétences Back : Java (17+) et spring - Compétences Data : Glue, Python, Pyspark - Stream Kafka - Cloud AWS Expert sur python, traitement des données Spark Important : Testing : faire des tests unitaires, participe aux tests fonctionnelles (automatisation). Il développe et fait ses tests unitaires (pytest, python 3, pispark) Spé AWS : job glue (quotidien), touché aux instances OC2, maitriser l'ensemble de la stack, secret manager, S3, athena (pas compliqué - surcouche SQL) Travail en binome avec le Tech Lead: connaissance des patterns design applicative. SOn job au quotidien : créer des jobs pour traiter des données + traitement de données. Objectif de la mission de modulariser et architecturer ses process : créer un job avec la spécialisation attendue du métier : avoir un code modulaire. Avoir un mindset agile. Etre ouvert au changement Avoir des gars autonomes et responsable, proactif, dynamique. Bon communicant avec les métiers, les PM
Offre d'emploi
INGÉNIEUR DEVOPS
EterniTech
Publiée le
Azure
GenAI
Méthode Agile
3 mois
Paris, France
Je cherche pour un de mes clients un DEVOPS AI Contrainte forte du projet: Agile, GenAI, RGPD, AI Act Les livrables sont: -Composants applicatifs et intégrations -Pipelines d'automatisation et de déploiement -Assurance qualité et documentation Compétences techniques: -Terraform - Confirmé - Impératif -GenAI - Junior - Important -Azure - Confirmé - Important - Agile - Junior - Souhaitable Connaissances linguistiques: -Français Courant (Impératif) -Anglais Professionnel (Impératif) Description détaillée **VOTRE MISSION** * Implémenter et maintenir les composants applicatifs nécessaires aux solutions GenAI : APIs, services backend, interfaces frontend et connecteurs vers les briques IA (agents, RAG, vector DB). * Travailler en binôme avec l’AI Engineer pour intégrer proprement les modèles et pipelines GenAI dans des architectures robustes et industrialisées. * Concevoir des APIs sécurisées et scalables (REST/GraphQL) et assurer l’intégration avec OneAPI, Azure services et les API internes. * Développer en Python et en JavaScript selon les besoins du projet ; produire du code propre, testé et documenté. * Participer à l’industrialisation : conteneurisation (Docker), orchestration sur AKS, déploiement via CI/CD (Azure DevOps / GitHub Actions), IaC (Terraform). * Mettre en place l’observabilité et l’alerte (logs, métriques, traces) pour assurer la fiabilité et suivre les coûts en production. * Assurer la qualité logicielle : tests unitaires/intégration, revue de code, performance et sécurité applicative (RBAC, chiffrement, bonnes pratiques secure-by-design). * Contribuer à la création de briques réutilisables, templates et patterns pour accélérer les futures squads (boilerplates, SDKs, connecteurs). * Collaborer avec le PO, l’AI Engineer, la DSI, la cybersécurité et les équipes opérationnelles pour garantir l’exploitabilité et l’adoption. **VOTRE PROFIL** * Bac +3 à Bac +5 en informatique, génie logiciel, ou équivalent. * Expérience professionnelle confirmée (minimum 3 ans) en développement logiciel, idéalement en environnements Cloud (Azure). * Solides compétences en programmation Python et JavaScript (Node.js, React) ; bonne pratique des design patterns backend/frontend. * Expérience avec les architectures cloud Azure : AKS, WebApp, storage, services PaaS et bonnes pratiques d’exploitation. * Maîtrise de la conteneurisation et de l’orchestration (Docker, Kubernetes) et des pipelines CI/CD (Azure DevOps, GitHub Actions). * Connaissance d’Infrastructure as Code (Terraform) et des pratiques DevOps. * Compréhension des concepts GenAI (LLMs, RAG, embeddings, vector DB) et capacité à intégrer des composants IA en collaboration avec un AI Engineer ; expérience pratique appréciée mais pas impérative. * Compétences en bases de données SQL/NoSQL et en conception de schémas adaptés aux besoins d’indexation/sémantique. * Rigueur sur la qualité du code : tests, revue, automatisation ; sensibilité aux enjeux de sécurité et de souveraineté des données. * Curiosité technique, capacité d’adaptation (outils et stacks variables selon les besoins), esprit d’équipe et bon relationnel. * Familiarité avec les outils low-code/no-code est un plus. * Anglais professionnel (lu/écrit) ; français courant indispensable. * Disponible pour être en régie sur 2026, et participer activement à la construction et à la standardisation des pratiques d’une AI Factory interne. Définition du profil : DEVOPS ENGINEER INGÉNIEUR DEVOPS Il /elle développe et exploite les produits / plateformes Cloud dans le respect du cadre technique/technologique instauré. Activités et tâches - Développe les nouveaux produits, réalise les tests unitaires et rédige la documentation technique - S'inscrit dans la chaine CI/CD - S'intègre dans les pratiques de développement instaurées (revue de code, tests de vulnérabilité, qualité de code) - Identifie les optimisations à réaliser sur les techniques d'automatisation et de déploiement - Sécurise la production readiness des produits (tests d'intégration, scripts d'exploitation, automatisation des actions de support, documentation technique) - Assure l'exploitation des produits / plateformes Cloud et répond aux incidents d'exploitation associés (selon les niveaux de services définis) - Contribue à l'amélioration continue des produits / plateformes Cloud - Apporte une expertise technique aux utilisateurs / clients / consommateurs sur son périmètre de produits/plateformes Cloud - Anime ou participe à la communauté Cloud DevOps Description du besoin : Mission :DEVOPS Localisation :92 Démarrage : Mars Jours obligatoires sur site : 1 jours/semaine Expérience : Confirmé
Offre d'emploi
SECURITE - Appsec/DevSecOps TOULOUSE
Sapiens Group
Publiée le
CI/CD
Microsoft Power BI
Python
6 mois
40k-55k €
400-570 €
Toulouse, Occitanie
Analyste Vulnérabilités Applicatives / Sécurité Applicative (H/F) 📍 Toulouse – Balma | 🗓 Démarrage 16/02/2026 | 📅 Fin 30/06/2026 | Mission Dans le cadre du renforcement de notre équipe de sécurité applicative , nous recherchons un(e) Analyste Vulnérabilités Applicatives pour accompagner l’identification, la priorisation et la remédiation des failles de sécurité au sein de nos applications. Vous interviendrez au cœur des enjeux de cybersécurité opérationnelle , en lien direct avec les équipes techniques, avec un rôle clé dans l’amélioration continue de nos processus de sécurité. 🎯 Vos missions Analyser les vulnérabilités applicatives détectées par nos outils de sécurité Évaluer les risques et prioriser les corrections selon leur criticité Coordonner avec les équipes de développement et d’exploitation pour le traitement des failles Fournir des recommandations claires et concrètes pour la remédiation Contribuer à l’ automatisation et à l’amélioration des processus de sécurité Produire des reportings et tableaux de bord pour le suivi des risques 🛠 Environnement & compétences techniques Solides bases en sécurité applicative (OWASP, bonnes pratiques secure coding…) Expérience avec des outils : SAST SCA DAST Développement / scripting Python Outils de visualisation et reporting (ex : Power BI ) Bonne compréhension des environnements Dev / CI-CD appréciée 👤 Profil recherché Expérience confirmée en analyse de vulnérabilités ou sécurité applicative Formation ou expérience significative en cybersécurité Esprit d’analyse et capacité à prioriser les risques Capacité à vulgariser des sujets techniques pour des interlocuteurs non experts Rigueur, autonomie et sens de la communication 📌 Informations pratiques 📍 Lieu : Toulouse – Balma 📅 Mission : du 16/02/2026 au 30/06/2026 🕒 Démarrage souhaité : mi-février 2026
Mission freelance
Ingénieur Base de Données SQL Server | PostgreSQL | Azure Database
Axande
Publiée le
Azure
Database
PostgreSQL
9 mois
450-640 €
Nanterre, Île-de-France
Lieu : Nanterre (92) | Démarrage : Mi Mars 2026 Nous étudions uniquement les candidatures qui nous parviennent avec tous les éléments indiqués dans la rubrique "Pour candidater" ci-dessous. Contexte Nous recherchons un Ingénieur Base de Données niveau intermédiaire pour travailler avec un Senior Database Engineer afin de gérer et améliorer les environnements SQL Server, PostgreSQL et Azure . Missions principales Assurer le support quotidien des bases SQL Server et PostgreSQL (maintenance et opérations courantes). Participer aux sauvegardes, contrôles de validation et vérifications après déploiement . Contribuer à la gestion des bases Azure SQL et Azure PostgreSQL . Collecter les informations nécessaires pour la conformité des licences SQL Server . Aider à la mise en place et au contrôle des politiques d’audit des bases de données . Effectuer les patchs et mises à jour des bases avec contrôles avant et après intervention. Réaliser des diagnostics techniques (logs, état de santé, performance) pour le support de niveau 3. Participer aux projets de modernisation et préparation de mises à niveau des environnements . Surveiller les performances des bases PostgreSQL . Collecter les logs, métriques et données techniques pour aider les DBA seniors dans leurs analyses. Maintenir à jour la documentation technique et les procédures opérationnelles . Contribuer au développement de scripts d’automatisation pour les tâches récurrentes. Compétences requises Bonne maîtrise de SQL Server et PostgreSQL (administration et requêtes) . Compréhension des index, plans d’exécution et optimisation des performances . Expérience avec : sauvegardes et restaurations patching monitoring des bases Connaissance de Azure SQL et Azure Database for PostgreSQL . Analyse des blocages, attentes et anomalies de performance . Participation à des migrations ou déploiements d’environnements bases de données . Bonne capacité à produire documentation et analyses techniques . Capacité à travailler avec des DBA seniors . Compétences appréciées (bonus) Azure DevOps pour l’automatisation des bases de données PowerShell ou scripting similaire Certifications Azure ( AZ-104, DP-300 ) Expérience en migration de bases de données on-premise vers le cloud
Offre d'emploi
Ingénieur Intégration Cloud - Expert Keycloak- IAM
KEONI CONSULTING
Publiée le
Azure DevOps
JIRA
Linux
18 mois
20k-60k €
100-600 €
Paris, France
CONTEXTE l’Ingénieur DevOps / Intégration Cloud IAM agit comme expert technique au sein de la DT. Il assure l’intégration, la configuration et le maintien en conditions opérationnelles de la solution Keycloak, tout en garantissant sa conformité aux exigences de sécurité et de performance. Ce rôle associe expertise IAM, maîtrise des environnements cloud et pratiques DevSecOps, avec un fort engagement dans l’accompagnement des équipes projets et l’amélioration continue. Il contribue à la sécurisation des applications, à la fiabilité des livraisons et à la cohérence technique des solutions déployées. MISSIONS Les objectifs de la prestation sont : • Maîtriser les systèmes Linux, Unix, RedHat • Expertise avérée dans au moins un langage de programmation majeur (Java, etc.) et bonne polyvalence sur d’autres environnements • Accompagner les maîtrises d’œuvre (ME) dans la livraison de leurs applications dans le cloud • Assurer le support des ME en cas d’anomalies lors des livraisons • Installer, configurer et adapter la solution Keycloak aux exigences du client • Intégrer et mettre en œuvre les solutions de la Direction Technique (Keycloak, Grafana, Prometheus) • Installer et intégrer les composants socle de la DT (PostgreSQL, HAProxy). • Assurer l’intégration et la configuration des solutions dans les environnements de test, en garantissant la stabilité et la compatibilité entre tous les composants techniques et applicatifs • Configurer les logiciels conformément aux exigences fonctionnelles et garantir leur compatibilité avec l’environnement technique • Préparer et suivre les mises en production en coordination avec les équipes projets et production. • Acquérir une maîtrise des offres d’infrastructure GTS pertinentes sur ce périmètre • Concevoir les scénarios de tests, sélectionner les outils de benchmarking et fournir un rapport détaillé des résultats et recommandations • Participer activement aux cérémonies Agile, aux comités de pilotage et aux ateliers techniques en apportant une expertise technique et des recommandations • Promouvoir et garantir l’application des bonnes pratiques IAM au sein des projets et des équipes techniques RÉSULTATS ATTENDUS • Implémenter les besoins IAM des clients internes et contribuer aux livraisons des projets • Communiquer les difficultés rencontrées et être force de proposition pour des solutions et des améliorations continues • Accompagner la résolution des anomalies liées aux livraisons et proposer des actions correctives • Concevoir et documenter des scénarios de tests manuels et automatisés • Analyser, recommander et mettre en œuvre la montée en charge de la solution IAM • Garantir le MCO de la solution IAM via des outils automatisés • Participer à l’amélioration continue en fournissant des feedbacks constructifs • Rédiger et maintenir la documentation technique • Participer activement aux cérémonies Agile et aux réunions projets • Suivre et exécuter les actions projets qui lui sont confiées PROFIL Compétences et expériences nécessaires • Systèmes Linux, RedHat & Réseaux • Loadbalacing (VIP, SLB, HaProxy) • Gestion de la Base de données (Postgrés et cluster) • Maitrise des architectures réseaux distribuées et résilientes • Expertise dans les architectures de conteneurisation et les outils d’automatisation et de déploiement continu (Terraform, Ansible, Kubernetes, Docker, CI/CD, GitHub Actions, Jenkins). • Keycloak : administration, installation, tunning, configuration • Solides connaissances des protocoles de sécurité (SAMLv2, OpenIdConnect, OAuth2, WebAuthn, FIDO2), des schémas de sécurité et des enjeux associés. • Maîtrise des outils d’observabilité Grafana et Prometheus pour la supervision et le monitoring des environnements. • Maitrise Java et des principes « Clean Code » • Capacité à appliquer les pratiques Agile (Scrum, Kanban, Design Thinking, Agile@Scale) et à utiliser efficacement les outils de gestion (Jira, Confluence), tout en respectant les standards ITIL pour la qualité et la continuité des services • Capacité de vulgariser la solution IAM et ses protocoles • Connaissance générale de l’architecture applicative Capacité à configurer des environnements de développement et de production, à utiliser des outils de gestion de version (comme Git) et à exécuter des tâches de maintenance préventive. Compétences avancées Maîtrise des outils d'intégration et de déploiement continu (CI/CD), capacité à gérer des conteneurs (Docker, Kubernetes), et à optimiser les processus de production tout en surveillant les performances. Compétences expertes Expertise dans la gestion d'infrastructures cloud capacité à concevoir des architectures résilientes, à implémenter des pratiques de sécurité, et à diriger des initiatives d'amélioration continue. Compétences de leader Reconnaissance en tant qu'expert dans les domaines DevOps et de production, capacité à diriger des projets de transformation, à innover dans les processus de développement et de production, et à former et encadrer d'autres ingénieurs. Compétences et niveaux minimum attendus sur chaque catégorie : Systèmes d'exploitation : UNIX,LINUX,WINDOWS Outils de supervision :PROMETHEUS & GRAPHANA 3 Langage de programmation : SQL ,JAVA HAProxy ,Loadbalacing ,LOKI Gestion des logs GITHUB Plateformes de gestion de code source DOCKER ,Outils de conteneurisation ,KUBERNETES Outils d'automatisation : ANSIBLE, TERRAFORM Outils d'intégration et déploiement continue (CI/CD) , JENKINS GITHUB ACTION ,JFROG 2 Bases de données POSTGRESQL ,APACHE, Serveurs d'application KEYCLOAK , Niveau Attendu Souhaitées : • Expériences bancaires et/ou moyens de paiements • Connaissance de l’écosystème • Anglais professionnel Compétences comportementales • Dynamisme, proactivité et autonomie dans la réalisation des missions • Excellentes compétences en écoute, dialogue, communication et collaboration avec les partenaires internes et externes • Curiosité et forte appétence pour l’amélioration continue et l’innovation • Esprit d’équipe, sens pédagogique et capacité à vulgariser les concepts techniques. • Aisance relationnelle et rédactionnelle pour faciliter les échanges et la documentation • Force de proposition, capacité à chalenger et sécuriser les choix techniques • Ouverture et capacité à intégrer rapidement de nouveaux concepts et technologies
Mission freelance
Site Reliability Engineer (SRE)
Okara
Publiée le
Datadog
DNS
Github
6 mois
450-650 €
Lille, Hauts-de-France
Le Contexte : Pour le compte de l'un de nos clients, une scale-up en pleine croissance dont la plateforme gère des flux critiques à haute disponibilité, nous recherchons un(e) Site Reliability Engineer (SRE) . Vous intégrerez l’équipe Opérations , véritable tour de contrôle garante de la fiabilité, de la sécurité et de la performance des services déployés à l'échelle internationale. Les Enjeux du Poste : Votre rôle est à la croisée du développement et de l'exploitation système. Votre mission principale : transformer les opérations manuelles en ingénierie automatisée. Fiabilité & Scalabilité : Piloter la montée en charge des systèmes et garantir un uptime maximal. Automatisation & IA : Assurer le suivi des incidents avec une volonté constante d'automatiser la résolution (via software ou IA). Gestion d'Incidents : Analyser les root causes , mener les post-mortems et implémenter les actions correctives durables. Production Readiness : Collaborer avec les équipes Dev et Sécurité pour valider la mise en production des nouvelles fonctionnalités. Observabilité : Optimiser la supervision (Datadog) pour passer d'un mode réactif à un mode proactif. Profil Recherché (Confirmé/Senior) : Nous recherchons un profil ayant idéalement 3 à 5 ans d'expérience sur des environnements de production critiques. Rigueur chirurgicale : Vous suivez vos sujets de bout en bout, sans laisser de zones d'ombre. Sang-froid : Vous savez prioriser et communiquer avec clarté, même en période de pic d'activité ou d'incident. Esprit "Engineering" : Vous avez une sainte horreur des tâches manuelles répétitives et cherchez toujours à coder une solution pérenne. Vulgarisation : Vous savez traduire des problématiques complexes pour des interlocuteurs non-techniques. Stack Technique : Cloud : GCP (Google Cloud Platform) Containerisation : Kubernetes (expert), Linux Code : Python (Software Engineering & Scripting) IaC : Terraform Observabilité : Datadog CI/CD : GitHub, GitHub Actions Réseaux & Sécurité : VPC, DNS, Loadbalancing, WAF, DDoS Data : SQL & NoSQL
Mission freelance
Network Security Engineer/ Ingénieur Réseau – F5 WAF
Phaidon London- Glocomms
Publiée le
Ansible
CI/CD
F5
6 mois
400-550 €
Paris, France
Accompagner la migration des solutions F5 WAF depuis les environnements legacy Contribuer à la transition des plateformes de sécurité applicative vers F5 WAF tout en assurant une faible perturbation des services Développer et maintenir la documentation relative à toutes les phases du projet de migration Assurer le partage de connaissances, la formation et la mise à jour de la documentation auprès des équipes techniques et parties prenantes Garantir une exploitation robuste, fiable et sécurisée de l’infrastructure F5 WAF Soutenir les projets de migration avec un impact minimal sur les services, en cohérence avec les objectifs de transformation digitale Permettre une réponse rapide aux incidents liés aux menaces, faux positifs et vulnérabilités applicatives Promouvoir les bonnes pratiques en gestion WAF : tuning des politiques, automatisation, normes de documentation Contribuer à la scalabilité, la résilience et l’amélioration des stratégies de mitigation des menaces
Offre d'emploi
Chef de Projet TMA / Expert Développement (Oracle Forms/Reports & Web) H/F
Inventiv IT
Publiée le
Java
Oracle
PL/SQL
54k-61k €
Île-de-France, France
Chef de Projet TMA / Expert Développement (Oracle Forms/Reports & Web)Contexte Dans le cadre du développement de notre Digital Factory , nous recherchons un(e) Chef de Projet TMA / Expert Développement avec une solide expertise Oracle Applications / Forms / Reports , et une forte appétence pour les technologies Web (J2EE) . Rattaché(e) directement au Responsable de la Digital Factory, vous rejoignez une équipe mutualisée en charge de la maintenance évolutive et des évolutions applicatives pour nos clients, sur des environnements techniques variés. Missions principales Accompagner les clients dans les évolutions et la maintenance de leurs applications Développer des évolutions et des correctifs Réaliser les analyses d’impact , concevoir les solutions et proposer des architectures cibles Produire et justifier des estimations de charges , chiffrages et devis Participer à la gestion de configuration logicielle (SVN, Git) Contribuer aux processus de livraison automatique des composants Rédiger et mettre à jour la documentation (CR, dossiers de tests, dossiers fonctionnels et techniques) Assurer une assistance MOE : compréhension des besoins, proposition de solutions adaptées Compétences techniques indispensables Langages : PL/SQL, SQL*Plus, Shell Linux, Java Technologies : Oracle Forms (11gASR2) Oracle Reports (11gASR2) Oracle Database (10g / 11g) PostgreSQL Compétences appréciées (non obligatoires) Talend Java (IntelliJ) JavaScript J2EE Framework Play (v2.8 et +) Expériences attendues Expérience significative en TMA (maintenance évolutive et corrective) Une expérience en tant que Chef de projet ou Product Owner est un vrai plus
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Etat du marché 2026: rebond ou stagnation ?
- SASU IR - Prelevement sociaux
- Freelances : comment vous gérez votre admin au quotidien ?
- Travail asynchrone ou compagnie qui ne regarde pas les heures: Ca existe ?
- Deuxieme versement ARCE sans CA
- AdminPilot - outil d'admin par chat pour freelances, vos avis ?
494 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois