Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 2 741 résultats.
Freelance

Mission freelance
Business Analyst Data / PO Senior

STHREE SAS pour HUXLEY
Publiée le

12 mois
75001, France
📍 Paris * 🧑‍💻 3j TT / 1j présentiel * 🚀 Début : 01/04/2026 * 🔁 Durée : 12 mois (renouvelable jusqu'à 3 ans) 🗂 Assistance technique * FR courant * EN pro - secteur : BANQUE 📊 Domaines : paiements, clients, transactions, finance, Datalake 🎯 Contexte Une personne de l'équipe arrive au terme de ses 3 ans de mission. Départ prévu en septembre, avec passation complète. Environnement à taille humaine, organisation mature, sujets data stimulants et visibilité transverse. Vous intervenez sur un périmètre riche, au cœur de la chaîne de valeur data. 🧠 Votre rôle (Business Analyst Data Senior / PO) Vous interviendrez de bout en bout : Analyse & cadrage Recueil et analyse des besoins métiers Proposition de simplifications / cibles process Rédaction des spécifications (US, AC, règles de gestion) Build & delivery Préparation du backlog et suivi des squads Dev/Ops Validation des développements Contribution aux tests, UAT, déploiement et post-prod Run / BAU Support fonctionnel (incidents & petites évolutions) Suivi de la qualité des données & investigations SQL 🔶 Mission principale : BA Data transverse Focus domaines : paiements, clients, transactions, finance , avec un fort volet spécifications + accompagnement build/BAU et une expertise migration / validation des données . 📦 Livrables Specs fonctionnelles & règles de gestion US / AC, data dictionary, schémas de modélisation Plans de tests & support UAT Support BAU ➕ Livrables additionnels (migration & qualité de données) Stratégie de migration, mapping, règles de transformation Plans de validation (comptages, réconciliations, seuils) Rapports de qualité & readiness cutover ✅ Profil recherché BA Data Senior : autonome, transverse, orienté valeur métier Excellente maîtrise : modélisation , rédaction de specs , tests Très bonne compréhension des environnements Datalake SQL confirmé pour investigations & contrôles fonctionnels Contexte bancaire apprécié (paiements / clients / transactions / finance) Expérience concrète en migration de données : mapping, transformation, qualité, réconciliations, gestion des écarts
Freelance

Mission freelance
Chef de projet Innovation IA

Inventiv IT
Publiée le
Data science
Data visualisation
IA

6 mois
450-550 €
Île-de-France, France
Missions du Chef de projet Innovation IA : - Intervention sur l’ensemble du cycle de vie des projets : collecte et étude du besoin, cadrage, ateliers, bêta-tests, prototypage, etc. - Pilotage des projets : suivi de l’avancement des projets, des tâches à réaliser, coordination des équipes internes et externes. - Réalisation de tests IA : PoC et tests de solutions internes et externes d'IA pour répondre aux impératifs du développement de l’IA du quotidien et des supports - Animation des réunions projets : gestion et animation des réunions de suivi projets, favorisant la coordination et la communication entre les équipes et les décideurs. - Interface métier : être en mesure de coordonner l’intégralité des actions à mener pour assurer la réussite du projet, dans la mesure où elles concernent plusieurs directions ou département - Suivi des indicateurs de performance et amélioration continue : suivi et production de bilans récapitulatifs sur les statistiques et l'adoption des solutions, analyse des KPIs fonctionnels et techniques, fournitures d’éléments et d’information au responsable pour arbitrage des mesures à mettre en œuvre le cas échéant - Intégration des actions nécessaires de formation, d’acculturation et de communication dans le dispositif FAC de CorT-ex. Ex : production de tutos vidéo ou écrits pour la prise en main d’outils, de fonctionnalités ou de technologies, proposition de plan d’acculturation et de communication pour répondre aux enjeux des phases de tests et de pré-déploiement - Rencontres & partenariats startups : à la demande du responsable, prise en charge et organisation du dialogue qui pourrait s’avérait pertinent / productif avec des partenaires publics ou privés, internes comme externes : startups, éditeurs de solutions IA, Médias Francophones Public, Union Européenne de Radiotélédiffusion, grands groupes, laboratoires de recherche et monde de l’enseignement. Exemples de livrables Les livrables attendus dans le cadre du présent marché spécifique sont par exemple : · Indicateurs de suivi projet pour tous les sujets engagés · Supports de présentation des projets · Analyse du besoin / comptes-rendus de réunion · Supports de communication
Freelance
CDI

Offre d'emploi
Chef de Projet Data sénior décommissionnement et migration BO vers Power BI sur Saint Denis

EterniTech
Publiée le
Business Object
Microsoft Power BI
Microsoft SSIS

1 an
Saint-Denis, Île-de-France
Je cherche pour un de mes client un Chef de Projet Data sénior décommissionnement et migration BO vers Power BI sur Saint Denis Séniorité : 7 à 10 ans Démarrage : Asap Anglais correct (pro) Télétravail : 3j par semaine Localisation : Saint Denis Connaissance du monde Assurance/Assistance mandatory Résultats attendus de la mission À partir d’une liste prédéfinie d’environ 1 200 rapports Business Objects existants, l’objectif est de challenger les métiers propriétaires afin de : Décommissionner et arrêter un maximum de rapports BO non utilisés ou obsolètes. Orienter les métiers vers des rapports Power BI existants lorsque ceux-ci répondent déjà au besoin couvert par les rapports BO. En dernier recours, lorsque les deux points précédents ne sont pas applicables, migrer le nombre limité de rapports BO restants vers de nouveaux rapports Power BI. L’objectif principal est donc de réduire significativement le parc de rapports BO, de favoriser l’usage des rapports Power BI existants, et uniquement lorsque le besoin métier est avéré, de développer de nouveaux rapports Power BI en remplacement des rapports BO concernés. Formation requise De formation Bac + 5, École d'ingénieur ou cursus universitaire en informatique, statistique ou data/IA Compétence – Nice to have : Connaissance du monde de l’assurance/Assistance Qualités humaines : Être force de proposition et capacité de comprendre des problématiques techniques et construire des solutions S’intégrer dans une équipe existante Nouer une relation de confiance avec les équipes métiers Capacité à anticiper et intégrer les contraintes projet
Freelance

Mission freelance
Data scientist Senior

CAT-AMANIA
Publiée le
CI/CD
Jenkins
Python

6 mois
Île-de-France, France
Dans le cadre d'un programme de transformation de l'efficacité opérationnelle (Programme HERA) pour un acteur majeur du secteur de l'Assurance, nous recherchons un profil technique capable d'assurer la mise en production et l'évolution de solutions d'intelligence artificielle. Le projet porte spécifiquement sur l'amélioration des processus financiers via un algorithme existant dédié à l'identification automatique des bénéficiaires au sein de clauses contractuelles libres. Vos responsabilités : Assurer la mise en production (industrialisation) des évolutions algorithmiques. Garantir la fiabilité du code via la mise en place de tests unitaires rigoureux. Optimiser et maintenir les pipelines de déploiement continu (CI/CD). Collaborer à l'amélioration de l'efficacité opérationnelle des flux financiers. Environnement technique : Langage : Python (Expertise requise) DevOps : CI/CD, Jenkins Qualité : Tests unitaires IA : Deep Learning, idéalement connaissances en Conditional Random Fields (CRF)
Freelance

Mission freelance
Team Leader Data Engineering (H/F)

AGH CONSULTING
Publiée le
Apache Kafka
Confluence
Data management

6 mois
250-500 €
Bordeaux, Nouvelle-Aquitaine
Nous recherchons pour l'un de nos clients, un(e) Team Leader Data Engineering qui, sous la responsabilité du Head of Engineering Logistique, sera responsable de l'équipe Data Engineering dédiée à la plateforme C-Logistics. Véritable référent technique et manager opérationnel, vous agirez comme facilitateur, coach technique et moteur de la performance de l'équipe, en s'appuyant sur les principes du Lean management. Vous contribuerez à la mise en oeuvre d'une plateforme data performante, fiable et scalable, en étroite collaboration avec le Product Manager et les équipes métiers. À ce titre, vos principales responsabilités seront : -Piloter et accompagner l'équipe Data Engineering -Optimiser les processus de delivery et d'industrialisation des pipelines data -Identifier, analyser et résoudre les causes racines des incidents de production -Favoriser l'autonomie, la collaboration et la montée en compétence de l'équipe -Garantir la performance, la fiabilité et la scalabilité des solutions data -Assurer l'alignement des solutions techniques avec la vision produit -Contribuer à l'amélioration continue des pratiques techniques et organisationnelles Périmètre Le poste couvre : -La production et la gestion des données et KPI pour les collaborateurs de la filiale C-Logistics -Le partage de données avec les autres filiales du groupe -Le partage de données avec les clients B2B Environnement technique : Vous évoluerez dans un environnement data moderne comprenant : -Snowflake -SQL -Talend -DBT -Kafka -Python -Power BI Outils utilisés : -Jira -Confluence Équipe : Vous encadrerez une équipe composée de : 4 Data Engineers et 1 Lead Developer
Freelance

Mission freelance
Data Scientist Senior

NEOLYNK
Publiée le
Python
SQL

3 mois
400-500 €
Lille, Hauts-de-France
Responsabilités principales Concevoir et déployer des features IA Construire des pipelines de traitement de données Industrialiser et monitorer les applications / services (latence, coût, taux de réponse, satisfaction utilisateur). Industrialiser l’IA via MLOps/LLMOps : suivi d’expériences, déploiement, monitoring, observabilité. Garantir la qualité des données, la conformité (GDPR) et la sécurité des solutions. Compétences techniques attendues IA générative, LLM, RAG, Prompt optimisation, Agents & orchestration Machine learning / Deep learning Traitement de données non structurées: PDF/Images Ingénierie & industrialisation Langages : Python avancé, SQL. APIs : conception et intégration Data pipelines : orchestration, streaming, feature stores. MLOps/LLMOps : CI/CD, Docker/Kubernetes, suivi des modèles, monitoring/observabilité, tests offline/online. Sécurité & conformité : gouvernance des données, IAM/secrets, mitigation des risques LLM (hallucinations, prompt injection, data leakage). Bonnes pratiques de dev Structuration des projets, templates, documentation vivante. Stratégie de tests Standards de code, revue d’architecture et diffusion des bonnes pratiques.
Freelance

Mission freelance
INGENIEUR DE PRODUCTION VTOM sénior H/F

Cheops Technology
Publiée le
Apache
AWS Cloud
CFT (Cross File Transfer)

1 an
400-450 €
Saint-Denis, Île-de-France
Nous recherchons pour un de nos clients un ingénieur VTOM H/F: Intégrer et déployer en méthode AGILE les évolutions de la ligne de Service Ordonnancement (VTOM). Préparer la mise en exploitation des évolutions ou d’une évolution d’application dans un système d’information tout en s’attachant à vérifier que les applications insérées dans le système d’information fonctionnent conformément aux attentes techniques et métiers, et que les procédures d’exploitation sont conformes aux standards établis. Gérer la relation avec les Clients et Projets Applicatifs en vue de garantir et améliorer la qualité des services de production et d’améliorer globalement les services de la ligne de Service ordonnancement Assure la maintenance et l’évolution des plateformes VTOM. •Créer/maintenir les scripts nécessaires pour l’ordonnancement. •Créer et encapsuler des scripts fonctionnelles •Paramétrer les jobs VTOM •Préparer la télédistribution en production •Maintenir en condition opérationnelle des chaines d’ordonnancements et des plateformes. •Accompagner les solutions métiers pour la rédaction de leur plan d’ordonnancement. •Assister et conseiller les équipes projets sur les différentes solutions pour leur ordonnancement applicatif. •Participer à la définition des architectures techniques •Définir / supprimer / modifier les plans d’ordonnancement •Maintenir les documentations •Participer à la conception des feuilles de route techniques des plateformes Environnement fonctionnel et technique : Environnement : Hébergement Datacenter et cloud (Aws, Azure) SGBD Oracle, Micrososft Sql Server, Postgresql, Ingres 9.2 sur Solaris , NoSQL Couchbase, Redis, MONGODB, PAAS SGBD (AWS et Azure) Serveurs Unix Solaris / AIX, Linux Suse / Red Hat / Centos / Ubuntu, Windows Server Middlewares Apache, Tomcat, Weblogic, CFT, MQ Server, SFTP, JMS, VTOM, suite logicielle TIBCO, Networker, Oracle Tuxedo Plateformes/ logiciels / Outils Teraform, Jenkins, Ansible, squash TM, Postman, Docker, Kubernetes, Databricks, Script Shell, Python Supervision Nagios, Datadog, SpluNK
Freelance

Mission freelance
Développeur Python IA H/F

HAYS France
Publiée le
Azure
Python

10 mois
400-500 €
Strasbourg, Grand Est
Nous recherchons, pour l'un de nos clients spécialisé dans le secteur de l'industrie, un(e) développeur python orienté IA pour une mission en freelance ou portage salarial. Démarrage : ASAP Localisation : Proximité Strasbourg Durée : 10 mois Télétravail : 3j/ semaine Missions principales : Développement (Python) des assistants hébergés par la plateforme MAIA (use cases MAIA) Intégration des données avec Microsoft Fabric pour les données Création d’outils IA pour l’intégration des Data Agents : connexion aux sources de données d’entreprise via MS Fabric AI Data Hub pour un enrichissement contextuel en temps réel Serveurs MCP : orchestration sécurisée et évolutive pour les workflows multi-agents et les services IA conversationnels Recherche web et intégration d’API externes : enrichissement dynamique des connaissances en cas de données internes insuffisantes
Freelance
CDI

Offre d'emploi
Ingénieur devops - OPS Data & IA

OBJECTWARE
Publiée le
DevOps

3 ans
Île-de-France, France
Dans le cadre de ses activités, une grande organisation du secteur financier recherche un intervenant pour intégrer une entité dédiée à la Data et à l’Intelligence Artificielle . L’équipe est responsable : de la qualité des livrables data du déploiement sur un cloud privé interne de la disponibilité et de la fiabilité des assets Elle conçoit, développe et maintient des plateformes et frameworks de data science . 2. Objectifs de la mission Assurer l’ exploitation et la fiabilité des environnements de production Data / IA Participer à l’ industrialisation des modèles de machine learning Contribuer à la construction et à l’évolution des plateformes data Garantir la qualité, la performance et la disponibilité des services Accompagner les équipes sur les bonnes pratiques DevOps et Data 3. Missions 3.1 Production & Exploitation Administration, exploitation et automatisation des systèmes d’exploitation Gestion et maintien en conditions opérationnelles d’un parc de containers de production Supervision et optimisation des environnements de production Data / IA 3.2 DevOps & Conteneurisation Build, optimisation et maintenance d’images Docker Gestion du RUN d’un volume important de containers en production Participation à l’industrialisation des déploiements via les outils CI/CD et GitOps 3.3 Plateforme Data & IA Construire et porter la vision technique de la plateforme de data science Piloter les choix techniques en lien avec les enjeux Data et IA Contribuer à la conception et à l’évolution des frameworks data 3.4 Innovation & expertise Réaliser une veille technologique active sur les outils et pratiques en Data Science Former et accompagner les équipes sur les technologies les plus pertinentes Être force de proposition sur les évolutions techniques 3.5 Qualité & documentation Rédaction de documents techniques (architecture, gestion des incidents) Production de livrables de qualité Partage des connaissances et bonnes pratiques au sein de l’équipe 4. Stack technique Infrastructure & DevOps GitLab CI/CD GitOps Cloud privé interne Containers & orchestration Docker Kubernetes Observabilité & monitoring Prometheus Grafana Thanos Sécurité & gestion des accès Vault (gestion des secrets) Keycloak, JWT, OIDC Réseau Reverse Proxy (Traefik) Data & stockage PostgreSQL Redis ELK Outils complémentaires Artifactory Certmanager Langages & systèmes Python Golang Bash GNU/Linux 5. Profil recherché Expertise avancée sur Kubernetes (architecture et administration de clusters) Bonne maîtrise des pratiques DevOps / CI-CD / GitOps Solides compétences en production et exploitation Connaissances des environnements Data et IA Compétences en réseau, sécurité et gestion des accès Capacité à évoluer dans un environnement complexe et exigeant 6. Enjeux clés du poste Industrialisation des workflows de Data Science Fiabilisation des environnements de production IA Scalabilité des plateformes Diffusion des bonnes pratiques DevOps et Data
CDI

Offre d'emploi
Data Ingénieur - Expert Spark H/F

CONSORT GROUP
Publiée le

Tassin-la-Demi-Lune
Chaque moment compte. Surtout ceux que vous vivez à fond. Bienvenue chez Consort Group. Consort Group, accompagne depuis plus de 30 ans les entreprises dans la valorisation de leurs données et infrastructures. Elle s'appuie sur deux leaders, Consortis et Consortia, et place l’humain et la responsabilité sociétale au cœur de ses valeurs. Data Ingénieur - Expert Spark H/F Vous êtes passionné·e par les architectures de données à grande échelle et le traitement temps réel ? Ce poste est fait pour vous. En tant qu' Expert Spark Data Engineer , vous êtes responsable de l'analyse, de l'optimisation et de l'évolution de notre pipeline de données au cœur de notre écosystème BI et statistiques. Côté build Conception et préconisations d'architecture Réaliser l'analyse et l'état des lieux technique de la solution existante (Kafka Connect, Spark, Kubernetes, MongoDB sur OVH) Produire les préconisations d'amélioration du Spark streaming pour le traitement temps réel Définir le dimensionnement infrastructure adapté au streaming temps réel (350 bases, 5 000 req/s, 1 To/an) Proposer une stratégie de dimensionnement MongoDB et de structuration de la donnée (standardisation des patterns) Rédiger le document d'architecture cible et le dossier de préconisations Côté run Optimisation et maintien en condition opérationnelle Assurer la fiabilité et la performance du pipeline de données en production sur l'infrastructure OVH Superviser les flux Kafka Connect et garantir la continuité du traitement des données entrantes Monitorer les performances Spark et intervenir sur les axes d'optimisation identifiés Veiller à la cohérence et à la qualité de la donnée stockée dans MongoDB Participer aux revues techniques et accompagner les équipes internes ENOVACOM dans la montée en compétences C'est votre parcours Vous avez au moins 5 ans d'expérience dans des environnements Data Engineering exigeants, avec une forte exposition aux architectures de traitement temps réel et à la gestion de volumétries importantes. Vous aimez diagnostiquer, optimiser et concevoir sans jamais cesser d'innover. Vous cherchez un cadre où vos idées comptent et où la technique va de pair avec la collaboration. C'est votre expertise Apache Spark – maîtrise avancée du streaming et du batch, tuning et optimisation des performances MongoDB – modélisation, structuration de la donnée et bonnes pratiques de dimensionnement Kafka / Kafka Connect – conception et exploitation de pipelines de données en flux continu Déploiement Apache Spark sur Kubernetes – configuration, orchestration et gestion des ressources OVH Cloud – déploiement et exploitation d'infrastructures cloud dans un contexte de production C'est votre manière de faire équipe Capacité d'analyse et de synthèse : vous transformez des états des lieux complexes en préconisations actionnables Rigueur documentaire : vos livrables (architecture cible, dossiers techniques) sont clairs et exploitables Posture conseil : vous savez challenger l'existant et proposer des axes d'amélioration concrets Esprit de collaboration : vous travaillez en proximité avec les équipes internes et partagez vos expertises Autonomie et sens des priorités dans un environnement technique à fort enjeu de performance C’est notre engagement Chez Consort Group, vous êtes un·e expert·e qu’on accompagne pour que chaque mission devienne une étape qui compte. Un onboarding attentif et humain Une vraie proximité managériale Des formations accessibles en continu Des engagements concrets : inclusion, égalité, solidarité Un package RH complet : mutuelle, carte TR, CSE, prévoyance Une culture du feedback et des projets qui font sens C’est clair Le process de recrutement : Un premier échange téléphonique avec notre team recrutement Un entretien RH ainsi qu’un échange métier avec un.e ingénieur.e d’affaires Un test ou un échange technique avec un.e de nos expert.es Un dernier point avec votre futur.e manager ou responsable de mission Et si on se reconnaît : on démarre ensemble C’est bon à savoir Lieu : Marseille Contrat : CDI Télétravail : Hybride Salaire : De 40000 € à 45000 € (selon expérience) brut annuel Famille métier : Data Ce que vous ferez ici, vous ne le ferez nulle part ailleurs. Ce moment, c’est le vôtre.
Freelance

Mission freelance
Data Product Manager / Data & BI (Senior)

Inventiv IT
Publiée le
Data analysis
Data modelling
ERP

6 mois
600-750 €
Île-de-France, France
Piloter les études et cadrages des initiatives Data & BI . Recueillir et analyser les besoins métiers et comprendre les enjeux business. Organiser et animer des workshops avec les parties prenantes pour collecter les exigences fonctionnelles. Définir et documenter l’ architecture fonctionnelle des solutions data . Réaliser la modélisation des données et concevoir les couches métiers (Business Layer / Silver Layer). Assurer la cohérence du cycle de vie de la donnée : de la source jusqu’à la visualisation. Coordonner les contributions des Data Architects, Data Engineers et équipes BI . Documenter la valeur métier des solutions data proposées. Préparer le budget (build/run) et le planning projet . Formaliser les propositions de lancement de projets data . Anglais courants . Environnement technique BI / Data Visualization : Power BI, Microstrategy Data Platform / Data Warehouse : Azure, Snowflake Data : SQL, Data Modeling, Data Analysis ERP / Data Sources : SAP Architecture Data & Data Lifecycle
CDI

Offre d'emploi
Intégrateur Production Data (Talend/PL-SQL)

TechOps SAS
Publiée le
SQL
Talend

50k-60k €
75003, Paris, Île-de-France
Responsabilités principales : Intégration & interopérabilité Concevoir, développer et maintenir les flux d’intégration entre les différents systèmes (ERP, CRM, e-commerce, logistique…) Assurer la cohérence et la fluidité des échanges de données entre les applications Participer à l’architecture des solutions d’intégration Développement & maintenance Développer et faire évoluer les traitements d’intégration via Talend Écrire, optimiser et maintenir des requêtes complexes en PL-SQL Garantir la qualité, la performance et la robustesse des flux Qualité & gouvernance de la donnée Assurer la fiabilité, l’intégrité et la traçabilité des données Mettre en place des contrôles et outils de monitoring Diagnostiquer et corriger les anomalies Collaboration transverse Travailler en étroite collaboration avec les équipes métiers et IT Participer aux projets de transformation digitale et d’évolution du SI Contribuer aux bonnes pratiques et à l’amélioration continue
Freelance

Mission freelance
Data Engineer Confirmé / Senior – Snowflake / dbt / Data Vault

CHOURAK CONSULTING
Publiée le
AWS Cloud
Azure
CI/CD

3 mois
400-670 €
Île-de-France, France
Nous recherchons un Data Engineer confirmé ou senior pour intervenir sur une plateforme data moderne reposant sur Snowflake et dbt , avec une forte exigence en modélisation Data Vault . Contexte de la mission : Vous rejoindrez une équipe Data en charge de structurer et faire évoluer une architecture analytique robuste et scalable. La mission s’inscrit dans une logique d’industrialisation, de qualité et de standardisation des flux. Missions principales Concevoir et implémenter des modèles Data Vault (obligatoire) . Développer et optimiser les transformations via dbt . Modéliser et structurer les données dans Snowflake . Participer à la définition des standards d’architecture et des bonnes pratiques. Assurer la qualité, la performance et la traçabilité des données. Collaborer avec les équipes BI (notamment Power BI ) et métiers.
Freelance

Mission freelance
chef de projet technique / Cloud /Devops

Keypeople Consulting
Publiée le
.NET
AWS Cloud
Azure

6 mois
400-600 €
Île-de-France, France
Nous CHERCHONS un Chef de Projet / Product Owner Technique (Senior) – Transformation Cloud & DevOps Dans le cadre d’un programme majeur de modernisation technologique , nous recherchons un Chef de Projet / PO Technique Senior pour accompagner la transformation d’un système d’information stratégique dans le secteur des médias et de la diffusion audiovisuelle. 🎯 Votre mission Au cœur des projets de transformation, vous interviendrez sur plusieurs axes structurants : Piloter les projets techniques liés à la modernisation du SI et à la migration vers un nouveau Data Center Accompagner la mise en place d’une architecture cible moderne (Cloud / DevOps / Cloud Native) Intervenir sur l’intégration et l’évolution d’un Broadcast Management System (BMS) central dans l’écosystème métier Collaborer avec les équipes IT, exploitation et développement Contribuer aux sujets transverses : orchestration des workflows médias urbanisation de la data stratégie de supervision et amélioration de la qualité de service Participer aux choix d’architecture et aux projets de transformation Cloud 🛠 Compétences techniques attendues Expérience des environnements Cloud (AWS, Azure ou GCP) Bases de données : Oracle, SQL Server, PostgreSQL Connaissance du développement .NET Bonne maîtrise des architectures microservices Connaissances en sécurité IT et réseaux ⭐ Un plus Expérience dans l’univers média / télévision / broadcast Connaissance d’un Broadcast Management System (BMS) ou outils similaires Familiarité avec les problématiques MAM, stockage média, orchestration de workflows Expérience en Agile, DevOps ou architectures Cloud Native 📍 Modalités Mission Senior Présence sur site : environ 50% Environnement technique stimulant et projets à fort impact
CDI
Freelance

Offre d'emploi
Développeur Python DevOps GCP (H/F)

STORM GROUP
Publiée le
BigQuery
Google Cloud Platform (GCP)
Jenkins

3 ans
50k-54k €
400-420 €
Île-de-France, France
Contexte : Nous recherchons un/une développeur/développeuse Python DevOps GCP pour renforcer nos équipes. Missions : Vous serez amené(e) à réaliser les tâches suivantes : La mission consiste à participer à la réalisation du projet basée sur Google Cloud Platform, à forts enjeux au sein d'une équipe engagée et experte sur le sujet. Développement et Intégration de solutions Python Spark avec les services data et compute de Google Cloud Platform Participer à des projets avec de fortes contraintes techniques, de sécurité et de performances.
Freelance
CDI

Offre d'emploi
SOC Expert (Incident Response / Detection Engineering / SOAR)

Gentis Recruitment SAS
Publiée le
AWS Cloud
Azure
Bash

12 mois
Paris, France
Contexte de la mission Dans le cadre du renforcement de son dispositif de cybersécurité, un acteur majeur du secteur financier recherche un SOC Expert afin de renforcer les capacités de détection, d’investigation et d’automatisation de son Security Operations Center. L’objectif est d’améliorer la posture de sécurité globale, réduire les délais de détection et de remédiation (MTTD / MTTR), diminuer les faux positifs et renforcer la couverture des menaces. La mission s’inscrit dans un environnement international avec des infrastructures hybrides (on-premise et cloud). Objectifs de la mission Le consultant interviendra sur quatre axes principaux : Incident Response & Case Management Gestion complète des incidents de sécurité (analyse, qualification, remédiation) Coordination des actions de containment, eradication et recovery Documentation rigoureuse dans l’outil de gestion des incidents Traitement des demandes sécurité remontées par les utilisateurs Amélioration continue des playbooks d’intervention SOC Tooling & Platform Operations Administration des outils SOC : SIEM SOAR Outils de vulnérabilité / compliance Mise à jour des plateformes Tests de performance et health checks Déploiement des évolutions de configuration Detection Engineering Intégration de nouvelles sources de logs dans le SIEM Création et tuning de règles de détection avancées Réduction des faux positifs Mise en place de dashboards de suivi Mapping des détections vers le framework MITRE ATT&CK Automatisation (SOAR) Conception de playbooks dynamiques Automatisation des réponses : Isolation endpoint Blocage IP Désactivation comptes Scans post-incident Intégration cross-tools

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

2741 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous