Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 2 638 résultats.
Freelance

Mission freelance
Développeur Python

HAYS France
Publiée le
Apache Kafka
Azure DevOps
CI/CD

1 an
Dunkerque, Hauts-de-France
Dans le cadre d’un projet de modernisation technologique, nous recherchons un Data Analyst / Développeur Python capable d’intervenir sur la réécriture et l’optimisation d’un modèle existant. La mission consiste à redévelopper un modèle technique en Python , en assurant une isofonctionnalité , un niveau de performance équivalent à la solution actuelle, ainsi qu’une documentation complète du code . Vous interviendrez en environnement industriel , au sein d’une équipe spécialisée dans les simulations et modèles , avec un fort niveau d’exigence quant à la qualité du code et au respect des standards internes de développement (SiMo). Le consultant contribuera également à l'intégration du code dans les stacks technologiques internes , notamment via Azure DevOps, pipelines CI/CD, et solutions de messagerie (Kafka, RabbitMQ). La mission s’effectue en régie , à temps plein, en lien direct avec les équipes opérationnelles.
Offre premium
Freelance
CDI

Offre d'emploi
Ingénieur NetOps (H/F)

Sapiens Group
Publiée le
Ansible
Linux
Python

1 an
La Défense, Île-de-France
Séniorité 5 à 8 ans d’expérience (profil confirmé à senior) 💰 Rémunération TJM selon profil 🏢 Contexte de la mission Dans un environnement exigeant (secteur bancaire fortement apprécié), vous intégrerez une équipe réseau de 14 personnes sur un périmètre de 1500 à 2000 équipements. La mission s’inscrit dans une logique d’industrialisation, d’automatisation et d’optimisation des opérations réseau. Vous débuterez par une phase RUN (~2 mois) avant d’évoluer vers des activités BUILD / NetOps à forte valeur ajoutée. 🎯 Missions principales Automatisation et industrialisation des opérations réseau Développement d’outils internes pour améliorer l’exploitation Mise en place et amélioration du monitoring Fiabilisation et standardisation des configurations réseau Participation aux projets d’évolution des infrastructures ⚙️ Tâches NetOps détaillées 🔁 Automatisation & scripting Développement de scripts Python pour : déploiement de configurations réseau backup automatisé des équipements vérification de conformité (compliance check) Création d’outils d’automatisation (CLI / API) Intégration avec les équipements réseau (API, SSH, SNMP) 📊 Monitoring & observabilité Mise en place et optimisation de Prometheus Développement d’exporters / métriques custom Mise en place d’alerting pertinent et réduction du bruit Analyse des performances réseau 🗂️ Gestion des sources de vérité (NetBox) Maintien et mise à jour des données d’infrastructure dans NetBox Automatisation des mises à jour (synchronisation infra ↔ NetBox) Utilisation de NetBox comme source de vérité pour les déploiements 🌐 Exploitation & réseau Intégration des équipements dans les outils d’exploitation Utilisation de SNMP pour supervision et collecte de données Support avancé sur incidents réseau Participation à l’optimisation des architectures (MPLS / BGP apprécié) 🔧 Industrialisation Standardisation des configurations réseau Mise en place de templates (configuration as code) Amélioration continue des process RUN Documentation technique et bonnes pratiques 🛠️ Environnement technique 🧠 Langages : Python (indispensable), Golang (apprécié) 📊 Monitoring : Prometheus 🗂️ Outils : NetBox 🖥️ Systèmes : Linux 🌐 Réseau : SNMP, backbone, MPLS / BGP (apprécié) Ansible (très utilisé pour Cisco, Juniper, etc.) Python : Netmiko (connexion équipements) NAPALM (abstraction réseau) Centreon (très répandu en France) Nagios Zabbix PRTG Grafana SNMP (indispensable) Cisco (Nexus, Catalyst) Juniper Arista HP / Aruba Sécurité : Palo Alto Fortinet Checkpoint Linux Bash scripting SSH / CLI avancée ❌ Pas de cloud 👤 Profil recherché 🔧 Compétences techniques Expérience solide en NetOps / automatisation réseau Très bon niveau en Python Bonne maîtrise de Linux Expérience avec Prometheus et NetBox Bonne connaissance de SNMP Solides bases réseau MPLS et Backbone Obligatoire ( BGP = plus) Expérience en environnement critique (bancaire apprécié) 🤝 Soft skills & personnalité (critères essentiels) Excellente communication orale et écrite en français Très bon relationnel Autonomie forte Esprit d’analyse et résolution de problèmes Rigueur et organisation Proactivité et force de proposition Esprit d’équipe Curiosité technique (profil “builder”) 👉 La personnalité et les soft skills sont déterminants sur ce poste. 🔄 Organisation & contraintes Horaires non ouvrés (HNO) possibles Astreinte : 1 fois par mois Travail en équipe avec interaction multi-projets ➕ Points forts du poste Environnement fortement orienté automatisation et innovation Passage RUN → BUILD rapide Forte valeur technique (NetOps avancé) Télétravail flexible (2 à 3 jours/semaine)
Freelance

Mission freelance
Master Data Management Specialist

Codezys
Publiée le
CRM
Gouvernance
Migration

12 mois
Grand Londres, Royaume-Uni
Objet de l'appel d'offres : Ce projet vise à soutenir la consolidation, le nettoyage et la standardisation des données relatives aux comptes clients provenant de sources legacy multiples. L'objectif ultime est de créer un ensemble de données maître précis et uni, destiné à être migré vers une nouvelle plateforme CRM Salesforce. Cette initiative s'inscrit dans la stratégie du groupe Veolia, alignée sur la vision de devenir une organization largement prête pour l'intelligence artificielle d'ici 2027, dans le cadre du plan GreenUp. Objectifs et livrables Analyse et Profilage des Données : Examiner l'ensemble des données clients existantes, identifier les problématiques de qualité de données, duplications, incohérences et lacunes. Stratégie de Nettoyage des Données : Mettre en œuvre une méthodologie exhaustive de nettoyage, incluant la déduplication, la standardisation, et la validation selon des règles métier prédéfinies. Consolidation des Données : Assister à la fusion des enregistrements clients issus de diverses sources à l'aide d'algorithmes de correspondance et de règles métier pour générer des enregistrements "golden". Préparation à la Migration Salesforce : Structurer les données nettoyées conformément au modèle de données Salesforce et préparer des jeux de données prêts pour la migration. Assurance Qualité : Mettre en place des contrôles de validation, réaliser des audits de qualité de données, et garantir leur exactitude avant la migration. Documentation : Élaborer, suivre et ajuster une documentation détaillée incluant des dictionnaires de données, des règles de transformation, des systèmes de gestion de la qualité et des manuels de migration. Collaboration avec les Parties Prenantes : Collaborer étroitement avec les équipes internes pour résoudre les conflits de données, valider les règles métier, et assurer l'alignement avec les besoins opérationnels. Formation et Transfert de Connaissances : Accompagner les ressources internes concernant les bonnes pratiques de gouvernance de données et la maintenance continue des données. Profil des candidats Les soumissionnaires doivent présenter une expertise avérée dans la gestion de projets de consolidation et de migration de données, avec une expérience significative en environnement CRM, notamment Salesforce, ainsi qu'une forte compréhension des enjeux de gouvernance des données. La capacité à travailler en équipe, à documenter avec précision les processus, et à transférer ses connaissances est également essentielle.
Freelance

Mission freelance
Data Analyst (1 ETP)

Signe +
Publiée le
Business Analyst

8 mois
400-550 €
Marseille, Provence-Alpes-Côte d'Azur
Missions Gestion des données de référence (gouvernance & qualité) Compétences obligatoires Spécifications techniques de données Connaissance data management Qualité de données Profil Expérience Data Analyst Rigueur analytique ---- Missions Gestion des données de référence (gouvernance & qualité) Compétences obligatoires Spécifications techniques de données Connaissance data management Qualité de données Profil Expérience Data Analyst Rigueur analytique --- Missions Gestion des données de référence (gouvernance & qualité) Compétences obligatoires Spécifications techniques de données Connaissance data management Qualité de données Profil Expérience Data Analyst Rigueur analytique
Freelance

Mission freelance
Développeur Python - Accessibilité RGAA - Orleans/

WorldWide People
Publiée le
Python

6 mois
400 €
Orléans, Centre-Val de Loire
Développeur Python - Accessibilité RGAA Orleans profil spécialisé pour intégrer une équipe dédiée à l’accessibilité, dont la mission est d’accompagner des utilisateurs en situation de handicap (sourds, malvoyants, personnes présentant une déficience physique ou visuelle). Le candidat doit posséder une solide expertise en développement, tout en ayant une réelle sensibilité au support utilisateur, en particulier auprès de personnes en situation de handicap. Maîtrise du JavaScript natif Maîtrise de Python Maîtrise de HTML & CSS Maîtrise de React Sensibilité ou formation à l’accessibilité numérique et à l’éco‑conception ==> tres important Ci dessous le besoin : Les principales activités consistent à : Analyser les demandes d’évolution et/ou de correction Concevoir des solutions adaptées à WebAccess et NVDA, en conformité avec le cahier des charges et les exigences de qualité (performance, maintenabilité, exploitabilité, etc.) Concevoir en équipe la nouvelle solution « Aide en ligne » Développer et tester les solutions conçues Participer aux phases de recette avec des utilisateurs déficients visuels Assurer le support direct auprès des utilisateurs déficients visuels Pré-requis techniques Maîtrise du JavaScript natif Maîtrise de Python Maîtrise de HTML & CSS Maîtrise de React Sensibilité ou formation à l’accessibilité numérique et à l’éco‑conception ==> tres important Il faut que le candidat habite la région d'Orleans et des déplacements à Nantes sont à prévoir car les utilisateurs sont a Nantes.
Freelance
CDI

Offre d'emploi
Développeur Fullstack Python / IA (FastAPI – React – LLM – Docker)

Etixway
Publiée le
CI/CD
Django
Docker

12 mois
40k-55k €
450-500 €
Paris, France
Dans le cadre du renforcement d’une équipe technique, nous recherchons un développeur confirmé pour intervenir sur des projets applicatifs en forte évolution, intégrant des technologies modernes et des solutions d’intelligence artificielle. Vous participerez à l’ensemble du cycle de développement, de la conception à la mise en production, dans un environnement exigeant mêlant développement fullstack, intégration de services IA/LLM et pratiques DevOps. À ce titre, vos principales missions seront : Concevoir, développer et intégrer de nouvelles fonctionnalités (backend et frontend) Développer et maintenir des API en Python (FastAPI ou Django) Participer à l’intégration de solutions basées sur des modèles d’intelligence artificielle (LLM, APIs IA, LangChain, etc.) Assurer la maintenance évolutive et corrective des applications Optimiser les performances et la qualité du code Contribuer aux pipelines CI/CD et aux pratiques DevOps (Docker, Kubernetes) Rédiger et maintenir la documentation technique (architecture, API, procédures de déploiement) Vous évoluerez dans un environnement technique moderne, avec des enjeux forts autour de la qualité logicielle, de la sécurité et de la performance, notamment sur des problématiques de recherche documentaire (Elasticsearch) et de déploiement sur cloud souverain.
Freelance
CDI

Offre d'emploi
Quant Risk Analyst / Quant Dev (H/F) Marché / Contrepartie / P&L – Environnement Front-to-Risk

SOFTEAM
Publiée le
.NET
API
C#

3 mois
Paris, France
Contexte Mission au sein d’une équipe dédiée à l’innovation et à la transformation des dispositifs de gestion des risques de marché, de contrepartie et de liquidité, dans un environnement bancaire international exigeant. Positionnement transverse, au croisement des équipes Risk, Quant et IT, avec une forte exposition aux problématiques métiers et réglementaires. Responsabilités Modéliser et représenter des instruments financiers complexes (rates, crédit, dérivés) Implémenter et analyser les métriques de risques : VaR, stress tests, sensibilités Contribuer à la compréhension et à la décomposition du P&L des desks de trading Développer des solutions d’agrégation, de contrôle et de qualité des données de risque Participer à la cartographie des transactions et des instruments financiers Traduire les besoins métiers en solutions techniques robustes et industrialisables Intervenir sur des sujets réglementaires (remédiations, audits, exigences des régulateurs) Collaborer étroitement avec les équipes Risk, Quant et IT Environnement technique C# / .NET Python (pandas, data analysis) SQL, ETL, manipulation de données Hadoop / écosystème big data APIs / architectures distribuées Profil recherché Expérience significative en risque de marché Solide compréhension des produits financiers et des modèles de valorisation Capacité à intervenir à la fois sur des problématiques quantitatives et techniques Aisance dans la manipulation de données complexes et volumineuses Capacité à évoluer dans un environnement transverse et exigeant Langues Anglais courant indispensable Atouts de la mission Positionnement hybride quantitatif / technique rare sur le marché Forte exposition aux enjeux métiers et réglementaires Interaction directe avec des experts Risk et des équipes de trading Impact concret sur les systèmes de gestion des risques et des résultats
Offre premium
Freelance

Mission freelance
Chef de projet SI Finance

MEETSHAKE
Publiée le
Clarity
Cycle en V
Java

6 mois
Paris, France
Née d’un partenariat stratégique entre deux grands groupes bancaires français, une fintech autonome lancée en février 2025. Son ambition : devenir le premier processeur de paiements souverain en France, capable d’opérer à l’échelle européenne. Dans un secteur de paiements en pleine transformation, cette fintech se positionne comme un acteur de rupture, alliant sécurité, agilité technologique et compétitivité économique. L’objectif est clair : intégrer rapidement le TOP 3 des processeurs européens. Dotée d’une plateforme de nouvelle génération, elle couvre l’ensemble de la chaîne de valeur du processing carte, de l’édition logicielle à la gestion opérationnelle, en s’appuyant sur une infrastructure de pointe (cloud). Elle prend en charge tous les grands schemes de paiement (CB, Visa, Mastercard) ainsi que les nouveaux schemes européens, comme Wero. Le poste est rattaché au Responsable du SI Finance et travaille en lien étroit avec la Direction Financière. L’objectif principal : piloter les projets d’évolution et de transformation du Système d’Information Finance, dans un environnement technologique moderne et réglementé. Missions Piloter de bout en bout des projets d’évolution et de transformation du SI Finance (comptabilité, achats, contrôle de gestion, collecte et suivi des temps, gestion des contrats, data prep/viz, reporting & BI, etc.). Garantir la qualité, les délais et le budget, en assurant l’alignement fonctionnel, réglementaire et technique. Gestion de projet : Définir le périmètre, les objectifs et le planning des projets du SI Finance. Assurer le suivi budgétaire et le respect des délais. Animer les comités projets et rédiger les comptes rendus. Analyse et conception : Recueillir et analyser les besoins des équipes Finance et Comptabilité. Rédiger les spécifications fonctionnelles et techniques. Proposer des solutions adaptées (ERP, BI, automatisation, etc.). Coordination des acteurs : Travailler en étroite collaboration avec les équipes métiers, le développeur de l’équipe, et les fournisseurs. Garantir la qualité des livrables et la conformité réglementaire. Tests et déploiement : Établir les cahiers de tests. Organiser et superviser les phases de recette. Assurer la mise en production et le support post-déploiement. Maintenance et exploitation : Assurer le suivi des incidents et des évolutions. Amélioration continue : Identifier les axes d’optimisation et d’industrialisation des processus. Veiller à la sécurité et à la performance des systèmes. Assurer la documentation des processus et la mise à jour régulière de cette dernière.
CDI

Offre d'emploi
Architecte systèmes et réseaux Linux H/F - STRASBOURG

ITEA
Publiée le
Ansible
Bash
Linux

Schiltigheim, Grand Est
Plus qu'un métier, itéa a pour vocation de déceler et révéler les bons profils, avec une curiosité qui va souvent au-delà des compétences et parfois entre les lignes d'un CV. Aujourd'hui, nous recherchons pour l'un de nos clients un Architecte systèmes et réseaux Linux H/F et vous présentons les points clés du poste : Poste en CDI Basé à Schiltigheim Secteur des assurances Les conditions : Fourchette salariale : selon le profil et les expériences Mode de travail : hybride Titres restaurant Primes (intéressement, vacances, cooptation) CE Les missions : Concevoir et mettre en œuvre l'architecture Linux/Redhat et les solutions associées Assurer en équipe le MCO niveau 2/3 sur l'ensemble du périmètre de l'équipe Automatiser les déploiements et l'exploitation des systèmes Participer aux analyses d'impacts et aux choix technologiques Répondre aux remédiations formalisées par les équipes de sécurité Participer à la résolution des incidents complexes et aux améliorations continues des systèmes L'environnement technique : Automatisation : Ansible, Bash, Python Sécurité et firewalling : Palo Alto, Stormshield, autres solutions de sécurité Cloud : Azure, AWS, solutions privées
CDI

Offre d'emploi
Business Analyst - Niveau 2 (Confirmé)

Codezys
Publiée le
Confluence
Gestion des risques
JIRA

38 160-43 500 €
Lyon, Auvergne-Rhône-Alpes
Contexte de la mission L'Hypervision est l'entité responsable de la supervision et de la gestion des incidents concernant plusieurs chaînes communicantes, dans le but d'assurer la performance optimale en production. Le profil sélectionné rejoindra l’équipe de Pilotage de la Production, intégrée à l’Hypervision de la chaîne communicante « Marché de Masse ». Sa mission inclura le suivi des performances en production, la télédistribution des logiciels sur le parc de compteurs Linky et les concentrateurs, ainsi que la conception de tableaux de bord pour l’Hypervision et les opérations de supervision. Le candidat idéal est un data analyste doté d’une forte appétence pour la data, d’une sensibilité métier, d’un excellent relationnel, ainsi que d'une capacité à animer et à présenter. Une expérience préalable dans le traitement et l’analyse de données est indispensable. Le projet requiert une expérience comprise entre 2 et 4 années. Objectifs et livrables Activité principale Le profil retenu sera chargé de : Suivre et analyser un ou plusieurs indicateurs de performance à l’échelle nationale et en région (DR). Expliquer les variations et mettre en œuvre des actions correctives. Concevoir des tableaux de bord de pilotage ou opérationnels pour le suivi de la performance. Consolider les données et produire des rapports analytiques sur les variations de performance. Maîtriser le fonctionnement de la chaîne communicante « Marché de Masse ». Assurer le suivi de tous les événements liés à la production. Préparer, animer et représenter la production du Marché de Masse lors des différents comités. Analyser, préparer et animer des réunions autour des indicateurs de performance, en coordination avec les parties prenantes. Investiguer de manière autonome d’éventuelles anomalies ou signaux faibles dans les données, en proposant des pistes d’analyse non envisagées initialement. Remettre en question les processus existants et proposer des axes d’optimisation basés sur les analyses effectuées. Identifier et activer des leviers d’amélioration en collaboration avec les équipes métiers et techniques. Être référent sur l’indicateur en proposant une évolution de la méthode de calcul, du périmètre ou de sa pertinence. Participer à l’amélioration continue des pratiques d’analyse et de pilotage de la performance au sein de l’équipe. Activité secondaire Assurer le suivi de la performance dans le cadre de pilotes et d’expérimentations. Suivre la performance sur des périmètres spécifiques, en fonction des actualités de la production. Capitaliser et partager les connaissances via la rédaction de documents. Rédiger et diffuser un reporting quotidien transversal à l’ensemble des chaînes.
Offre premium
CDI

Offre d'emploi
Cloud Engineer / Administrateur SRE Kubernetes – Expérimenté F/H

Clostera
Publiée le
Google Cloud Platform (GCP)
Kubernetes

54k-65k €
Essonne, France
Qui sommes-nous ? Clostera est une société de conseil & intégration de solutions IT à taille humaine et localisée à Paris, résolument tournée vers l'humain et l’innovation : l’innovation génératrice de valeur ! CLOSTERA place le bien-être de ses CONSULTANTS au cœur de la stratégie de réussite des projets IT sur lesquels nous intervenons au travers d’une approche « employee centric » individualisée. Nos domaines d’expertise : Cloud et Infrastructures Systèmes, Réseaux & Cybersécurité ; Service Management & ITSM ; Project management ; Data & IA ; Services Applicatifs métiers & Digitaux. Rejoignez nous ! L’équipe Kubernetes administre, exploite et fait évoluer des clusters Kubernetes dédiés aux différentes équipes produit et métiers. Dans un environnement 100% Cloud (GCP & Azure), l’exploitation suit une approche GitOps avec un fort ancrage open source et CNCF. Le rôle consiste à contribuer à l’administration, à l’exploitation et à l’évolution des plateformes Kubernetes, dans un contexte de production exigeant nécessitant autonomie et maîtrise technique avancée. Mission : Gestion de pods , services , ingresses et namespaces “infra” , avec application des bonnes pratiques sur les manifests applicatifs Provisionnement AKS / GKE et ressources cloud via Terraform Industrialisation des déploiements avec GitLab CI/CD et ArgoCD Facilitation du time-to-market (certificats, DNS, observabilité, enablement fonctionnalités) Exploitation des clusters (upgrades K8s et composants, capacity management, PRA) Mise en place multi-tenant (namespaces, quotas, RBAC, network policies) Déploiement et maintenance de l’observabilité (Prometheus, Grafana, Loki, centralisation logs) Suivi consommation cloud (Azure Monitor, métriques GCP, dashboards) Optimisation des ressources (quotas, scaling, templates, extinction nocturne) Renforcement sécurité Kubernetes (policies, RBAC, audit logs) Gestion des secrets (Vault, Sealed Secrets, services cloud) Application des recommandations RSSI et sécurité Automatisation via scripting (Bash, Python, Go) Mise en place d’alerting avancé et proactif Promotion d’une culture SRE (fiabilité, autoscaling, bonnes pratiques CNCF/CAF)
Freelance

Mission freelance
Expert N3/ architecte kubernetes - mission conseil et audit

FUZYO FRANCE
Publiée le
Cloud
DevOps
Kubernetes

10 jours
Paris, France
Responsabilités principales Conduire un audit complet de l’environnement Kubernetes (on‑prem VMware &/ou AWS). Analyser : Le design des clusters Le dimensionnement et les patterns de déploiement Les composants critiques du control plane et du data plane Le réseau, les CNI et la haute disponibilité Réaliser un audit de sécurité Kubernetes : RBAC Network Policies Gestion des secrets Durcissement du cluster (CIS, benchmarks) Posture globale de sécurité Évaluer les pratiques CI/CD & GitOps (ArgoCD, FluxCD, Jenkins…). Analyser l’écosystème d’observabilité : Prometheus, Grafana, EFK/ELK, alerting, métriques. Examiner les pratiques de conteneurisation avancée : optimisation d’images, best practices Docker/OCI, gestion des registries. Produire les livrables : Rapport d’audit complet Analyse des risques Roadmap d’amélioration détaillée Recommandations stratégiques et techniques Compétences techniques requises Kubernetes (Expert N3) Maîtrise avancée du fonctionnement interne des clusters (API Server, Scheduler, ETCD…) Expertise multi-environnements : on‑prem VMware, cloud AWS (EKS). Sécurité Kubernetes RBAC avancé Zero trust Network Policies complexes Secrets management Standards CIS et CNCF CI/CD / GitOps ArgoCD, FluxCD, Jenkins, GitLab CI Pipelines Kubernetes natifs Helm / Kustomize (un plus) Observabilité Prometheus & Alertmanager Grafana ELK/EFK Traces, logs, monitoring applicatif & infra Conteneurisation Optimisation Docker/OCI Multi-stage builds Scanners / image policies Profil recherché 7 à 12 ans d’expérience en DevOps / Cloud / Kubernetes, dont au minimum 5 ans sur Kubernetes. Expérience confirmée en architecture, audit, design de clusters. Capacité à vulgariser les sujets complexes. Rédaction impeccable de rapports et recommandations. Autonomie totale, posture conseil / expertise.
Freelance

Mission freelance
DevOps GCP Senior (3 jours/semaine) – Data Platform & Industrialisation

HOXTON PARTNERS
Publiée le
DevOps
Google Cloud Platform (GCP)

6 mois
Paris, France
Description de la mission : Nous recherchons un consultant DevOps GCP senior pour intervenir au sein d’une Data Factory orientée Digital Marketing. La mission s’inscrit dans un environnement data à fort enjeu, avec pour objectif de sourcer des données issues de plateformes Social & Marketing, interfacer des solutions SaaS de Data Connector avec une plateforme Data sur GCP, et industrialiser la création ainsi que le cycle de vie des connecteurs. Le consultant interviendra sur la structuration et l’industrialisation de l’infrastructure et des environnements, avec une forte composante automatisation et fiabilisation des déploiements. Responsabilités : Mettre en place et maintenir l’infrastructure via Terraform (Infrastructure as Code) Structurer et optimiser les pipelines CI/CD (GitHub Actions) Superviser les environnements via Cloud Logging et Cloud Monitoring Gérer la sécurité des accès (IAM, Secret Manager) Déployer et maintenir des services sur GKE et Cloud Run Contribuer à l’industrialisation des flux data et des connecteurs Participer à la rédaction de la documentation technique et fonctionnelle
Freelance
CDI

Offre d'emploi
Développeur PL/SQL - Python ESG

VISIAN
Publiée le
Oracle
PL/SQL

1 an
Paris, France
Descriptif du poste La plateforme ESG Data Manager permet de monitorer des produits financiers suivantes des critères environnementaux, sociaux et de gouvernance. Les données sont intégrées dans une base de données Oracle Exadata. Responsabilités principales Intégration de données ESG de fournisseurs externes (fichiers, APIs) Calculs d'indicateurs dérivés de ces données Diffusion des données à d'autres systèmes internes Profil recherché Expertise de PL/SQL Expertise de Python Notions sur les produits financiers Expertise sur les produits ESG apprécié Environnement anglophone
Freelance

Mission freelance
Consultant Data Governance & Steward - Delivery Ops

Tenth Revolution Group
Publiée le
Collibra
CRM
ERP

1 an
550-750 €
Clermont-Ferrand, Auvergne-Rhône-Alpes
Vous intervenez en tant que Data Steward Transverse / Consultant Gouvernance pour transformer la stratégie data en réalités opérationnelles. Votre mission est de faire le pont entre les enjeux métiers et les contraintes SI. Vous ne vous contentez pas de définir des politiques : vous les déployez concrètement sur le terrain. Vos principales missions : Opérationnalisation du patrimoine Data : Recenser les acteurs clés, cadrer les besoins métiers et formaliser les exigences (dictionnaires de données, règles de gestion, qualité, sécurité). Gouvernance "Hands-on" : Produire et maintenir la documentation (glossaires, cartographies de flux, procédures) et veiller à l'implémentation des règles dans les solutions cibles. Coordination & Delivery : Animer les comités opérationnels, réaliser les études d'impacts lors des évolutions SI et piloter les stratégies de migration de données. Outillage : Participer activement au choix et au déploiement des outils (MDM, Data Catalog) : contribution aux RFP, cadrage fonctionnel et accompagnement au changement auprès des utilisateurs.
Freelance

Mission freelance
Data Ops Confirmé Azure Databricks, DevSecOps Nantes/st

WorldWide People
Publiée le
DevSecOps

12 mois
370-430 €
Nantes, Pays de la Loire
Data Ops Confirmé Azure Databricks, DevSecOps Nantes• Solides connaissances dans l’administration de l’infrastructure des platform data (Azure, Databricks, …) • Maîtrise des pratiques DevSecOps • Maitrise des outils d’observabilité, monitoring, sécurité. • Maîtrise des outils de composants applicatifs Data (fonctionnalités Databricks, …) • Maitrise FinOps sur l’écosystème 07/04/2026 Mission longue Ce poste est ouvert à la pre-embauche Azure Databricks, DevSecOps prestation de DataOps confirmé Le DataOps (pour Data Operations) a pour objectifs d’améliorer la qualité, l'efficacité et la vitesse du traitement et de l'analyse des données, en appliquant des principes d'ingénierie logicielle (DevOps) à la gestion des données. Tâches : Automatisation des flux de données : - met en place des pipelines de données automatisés pour ingérer, transformer, valider et charger les données. Amélioration de la qualité des données : - met en œuvre des pratiques pour contrôler et améliorer la qualité des données (tests automatiques, vérifications de la qualité en temps réel, détection d'anomalies, etc.) Mise en œuvre de pratiques CI/CD : - adapte les pratiques de CI/CD (Intégration Continue/Déploiement Continu), pour permettre aux équipes de données de déployer des mises à jour de pipelines et de traitements plus rapidement, en appliquant des tests et des déploiements automatisés. Surveillance et observabilité : - mise en place d'outils de surveillance pour suivre la performance des pipelines de données en temps réel et diagnostiquer les problèmes Gestion de la gouvernance et de la conformité des données : - s'assure que les données suivent les règles de gouvernance et de conformité, en surveillant les accès, les permissions et en appliquant les bonnes pratiques de sécurité des données. Optimisation des coûts et des ressources : - optimise l'utilisation des ressources (infrastructure, stockage, calculs) pour rendre les opérations de données plus économiques, notamment dans des environnements de cloud. Compétences : • Solides connaissances dans l’administration de l’infrastructure des platform data (Azure, Databricks, …) • Maîtrise des pratiques DevSecOps • Maitrise des outils d’observabilité, monitoring, sécurité. • Maîtrise des outils de composants applicatifs Data (fonctionnalités Databricks, …) • Maitrise FinOps sur l’écosystème

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

2638 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous