L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 545 résultats.
Offre d'emploi
Data Engineer (14)
Publiée le
Google Cloud Platform (GCP)
Python
1 an
40k-45k €
400-570 €
Île-de-France, France
Télétravail partiel
Informations Générales Contexte de la Mission Rattachement Direction Data (Direction du Numérique). Intégration à l'équipe Gold Pilotage (PO + 2 Data Engineers) en charge de la mise à disposition des données pour le pilotage des offres numériques via le produit Data4All. Stack : Python, SQL, dbt, BigQuery, Airflow, Terraform/Terragrunt, services GCP. Activités Attendues Maintenir et faire évoluer Data4All et les dispositifs de l'équipe ; qualité des données et support aux utilisateurs. Concevoir & maintenir des modèles de données et pipelines robustes et scalables ; organiser/structurer le stockage. Mettre en place et maintenir des infrastructures scalables, assurer sécurité/stabilité des environnements, workflows CI/CD. Contribuer à la gouvernance (qualité, fiabilité, intégrité), documentation et veille ; participation aux instances Data Ingénieurs.
Mission freelance
Data Engineer AWS / Snowflake (Urgent)
Publiée le
Amazon S3
AWS Cloud
Gitlab
6 mois
400-550 €
Paris, France
Télétravail partiel
Nous recherchons un Data Engineer AWS / Snowflake confirmé pour intervenir au sein d’une équipe Data sur un environnement cloud moderne, fortement orienté industrialisation, performance et qualité des données. 🎯 Contexte de la mission : Vous serez en charge de maintenir, optimiser et faire évoluer les pipelines et architectures Data existants, dans un écosystème AWS & Snowflake à forte volumétrie. La mission inclut également la prise en main de sujets de développement et d’industrialisation en cours. ⚙️ Vos missions principales : Ingestion & Transformation Développer et maintenir des pipelines Python / PySpark (batch, transformations, industrialisation). Implémenter des processus d’ingestion Snowflake ( Snowpipe, procédures stockées, tables dynamiques, datamarts ). Gérer le datalake, les flux d’ingestion et les orchestrations associées. Architecture & AWS Intervenir sur les services AWS : S3, Lambda, Step Functions, EMR, DynamoDB, RDS, EventBridge, IAM, API Gateway… Optimiser et sécuriser les flux Data sur AWS. Assurer la résilience, les performances et la montée en charge des environnements Data. CI/CD & Infrastructure Maintenir et faire évoluer les pipelines GitLab CI , Travailler avec Docker & Pulumni pour l’industrialisation et l’infrastructure as code. Monitoring & Qualité Mettre en place ou améliorer les mécanismes de monitoring , d’observabilité et de data quality . Documenter, partager les bonnes pratiques et contribuer à l’amélioration continue.
Offre d'emploi
Functional Expertise Proxy PO (Fund Administration)
Publiée le
API
Cloud
1 an
40k-45k €
400-500 €
Île-de-France, France
Télétravail partiel
Descriptif du poste Un leader mondial dans les métiers des titres recherche un Senior IT Subject Matter Expert (SME) – Fund Administration. Au sein de la division Investment Fund Services (IFS), le domaine Fund Administration est au cœur de la chaîne de valeur de l'organisation. Il prend en charge la comptabilité des fonds, le calcul de la valeur liquidative (NAV), la gestion des commissions de performance, le reporting client ainsi que l'onboarding des clients. Parallèlement, le paysage IT connaît une profonde transformation visant à moderniser les systèmes historiques et à rationaliser les flux de données afin d'améliorer l'expérience client et utilisateur. L'onboarding client, en particulier, constitue un axe stratégique : l'intégration de nouveaux fonds et de nouveaux clients nécessite des solutions IT robustes et flexibles, garantissant un time-to-market plus rapide, des performances optimisées et un niveau élevé de qualité de service. L'IT SME est l'intermédiaire principal entre les équipes IT, les équipes Client Delivery (Opérations / Projets) et les équipes Client Lines (Produit, RM). Il est responsable d'apporter une expertise solution sur les projets potentiels, existants et les évolutions. Il comprend et analyse les besoins de la ligne métier afin de proposer et de mettre en œuvre des solutions adaptées à ses exigences complexes. Il interagit également avec les clients afin d'affiner cette compréhension métier. Activités principales attendues du Functional Expert / Proxy PO Identifier, comprendre et analyser les besoins d'une ou plusieurs lignes métier, afin de faire évoluer le SI avec des solutions adaptées et pérennes, tout en respectant les contraintes de qualité, de délais et de coûts. Être responsable de l'étude de la solution fonctionnelle / technique optimale, de son intégration et de son industrialisation, dans un contexte de transformation IT (Agile, DevOps, API, Cloud). Accompagner la mise en œuvre des projets liés au Fund Administration ou Middle Office (nouveaux clients, nouveaux services, nouvelles implantations). S'assurer que les livrables répondent aux exigences de la ligne métier. Être le référent fonctionnel sur les besoins complexes (produits, réglementaire, reporting…) dans un environnement multigéographique. Être l'expert solution depuis la phase d'initiation jusqu'au déploiement en production. Collaborer avec l'ensemble des spécialités : architectes, business analysts IT, chefs de projet, fonctions support, etc. Interagir avec les fournisseurs et être le point de référence sur les aspects fonctionnels et techniques. Des déplacements ponctuels sont à prévoir. Pourquoi nous rejoindre ? Contribuer à une transformation stratégique de l'IT Fund Administration. Intervenir sur des initiatives de pointe : API, Cloud, DevOps, automatisation des tests, stratégie data. Avoir un impact direct sur l'onboarding client, le reporting et l'excellence opérationnelle. Profil recherché Expérience requise Plus de 10 ans d'expérience Excellente connaissance des activités de Fund Administration (Opérations & IT) Excellente connaissance de Multifonds Global Accounting & Satellites (MFGA) Excellente maîtrise des méthodologies de gestion de projet Très bonne connaissance de l'analyse et de la conception de processus Compétences métier Relation Business / IT (Confirmé) Fund Accounting & Asset Services (Expert) Tests IT (Expert) Connaissance Asset Management (Confirmé) IT Risk & Cyber Security (Confirmé) Architecture (Confirmé) Middle Office Operations (Confirmé) Connaissances IT générales (Confirmé)
Offre d'emploi
PMO IT (H/F)
Publiée le
Big Data
Gestion de projet
3 ans
40k-45k €
400-460 €
Île-de-France, France
Pour notre client grand compte du secteur bancaire, nous recherchons un PMO / Chef de Projet confirmé afin d’accompagner les évolutions réglementaires du dispositif Big Data de stress tests Risque. La mission couvre : • Les projections des paramètres de risque basées sur les variables macroéconomiques • Les simulations mesurant l’impact des chocs sur le coût du risque et les provisions • La mise en conformité du dispositif avec les exigences réglementaires et prudentielles Le consultant interviendra au sein de l’équipe Stress Test Risk SI, en coordination avec les équipes Data, Risk Modeling, IT et Architecture. Missions • Organiser, préparer et animer les instances de gouvernance (COPIL, COPROJ, comités transverses) • Piloter l’état d’avancement des projets : KPI, indicateurs, tableaux de bord, reporting d’avancement • Assurer le suivi du planning, de la charge, du budget et de la qualité des livrables • Identifier et analyser les risques projet, définir les plans d’actions et suivre leur exécution • Coordonner les interactions avec les équipes Stress Test, Data Engineering, Modélisation et Architecture • Contribuer à la structuration et à la cohérence de la documentation opérationnelle et réglementaire • Participer aux échanges offshoring/onshoring et assurer la cohérence des travaux • Préparer les éléments attendus dans le cadre des audits internes et externes • Accompagner la mise en place ou l’amélioration des pratiques Agile au sein des équipes • Intervenir sur le pilotage technique lié au dispositif Big Data (Hadoop, Cloudera, Hortonworks, Databricks, GCP Dataproc/BigQuery, AWS EMR/Redshift, Azure Synapse/HDInsight)
Offre d'emploi
Data Architecte - Lyon
Publiée le
AWS Cloud
Azure
Databricks
60k-70k €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Ton quotidien chez Komeet sera rythmé par : - Animation des ateliers afin d’étudier et cadrer les besoins clients en collaboration avec le Data Platform Architect - Analyser, conseiller, et faire des recommandations de façon à améliorer l’efficience et l’efficacité de la solution Databricks chez ton client. - Préconisation, conception et mise en œuvre du LakeHouse Databricks - Rédaction de dossiers d’architecture et spécifications techniques - Mise en œuvre des stratégies d’exploitation de la plateforme Databricks - Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. - Tests, validation et documentation des développements - Réalisation d’audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP
Offre d'emploi
Chef de Projet Data (22)
Publiée le
Google Cloud Platform (GCP)
SQL
1 an
40k-45k €
400-800 €
Île-de-France, France
Télétravail partiel
Descriptif du poste La Direction Technique du Numérique mène des projets transverses en étroite collaboration avec les autres directions, notamment la direction Data. La Direction Data, au sein de la Direction du Numérique, a été créée avec la volonté de faire de la Data un levier de croissance des offres numériques. Elle a 3 grandes missions : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l'expérience utilisateur, mettre à disposition auprès des équipes internes des outils de pilotage et d'aide à la décision. Afin d'assurer la coordination de l'ensemble de cas d'usages transverses aux pôles Data. Prestations attendues En interaction avec l'ensemble de la direction data et des directions métiers consommatrices des données (Produit, Editorial, Partenariats, Marketing, Publicité…), la prestation consistera à : Gestion de la coordination intra Data : Assurer la transversalité Data pour les projets transverses entre les pôles (Technique, Intelligence, Management, et Gouvernance) Identification des actions pour chaque équipe Suivi des avancées et remontées des alertes Mise en place la coordination, la documentation, la comitologie projet Remontée au management le suivi de ces sujets transverses Gestion de la coordination inter Data : Point d'entrée pour les principales directions métiers consommatrices des données, et responsabilité de la coordination des différents pôles Data avec les équipes métiers sur leurs besoins (Collecte, tracking, Dashboard, analyses,…) Identification des besoins Représentation de la data dans les instances de coordination projets transverses Suivi des projets en mettant en place la coordination entre les interlocuteurs data et métiers, organisation de la documentation, des ateliers de travail, des réunions de restitution avec les parties prenantes Communication des delivery Data afin d'assurer la promotion des travaux
Offre d'emploi
Architecte Technique Data
Publiée le
Apache Spark
Architecture
Big Data
2 ans
48k-98k €
400-770 €
Villejuif, Île-de-France
Télétravail partiel
Bonjour, Dans le cadre de ses projets clients, Visian est à la recherche d'un Architecte technique Data Sa mission consistera à : - Accompagner les équipes Data en expertise sur les solutions et architectures actuelles autour des deux grandes plates-forme DATA que sont Teradata et Cloudera CDP (HDFS, Hive, Spark, Hbase,...). - Participer aux reflexions et aux études sur les trajectoires DATA (dont la trajectoire post SAS). - Apporter une expertise sur les architectures de traitement des données en temps réel (KAFKA) ainsi que leur exposition en mode API. - Accompagner la modérnisation technologique sur des solutions innovantes de type Data LakeHouse “On premise” (Storage MINIO, Compute KUB, Processisng SPARK et TRINO, Services JUPYTER) et “Cloud/GCP” (Big Query etc)
Offre d'emploi
Pixie – Mission Freelance Data Analyst / Business Analyst E‑Commerce – Lille – Portage possible
Publiée le
BigQuery
Microsoft Power BI
SQL
3 ans
Nord, France
Télétravail partiel
Bonjour Pour un de mes clients, je recherche un(e) : Data Analyst / Business Analyst E-Commerce Rattaché(e) à l’équipe métier Pro Analyse du business des clients professionnels Réalisation d’analyses ad hoc et de dashboards pour accompagner les équipes métier Mission Couvrir tout le cycle data Requêtes SQL Analyse des données Création de KPIs Construction et mise à jour de dashboards Power BI Restitution claire des résultats avec une dimension data storytelling Échanges réguliers avec les équipes métier Pro et la direction Data Tâches principales Suivi des mises à jour des dashboards Analyses de performance des opérations commerciales Analyses de performance des conseillers de vente Pro Analyses de performance de l’offre Outils Power BI SQL GCP BigQuery Environnement marketing Python apprécié Git/Github niveau basique Profil recherché Minimum 5 ans d’expérience Capacité à challenger des équipes métier expérimentées Français courant Infos mission Début janvier Durée longue 3 ans Localisation Lille 3 jours sur site Résumé du profil idéal Data Analyst confirmé orienté business Pro À l’aise avec Power BI, SQL et BigQuery Capable de dialoguer avec le métier et de faire parler la donnée Si ce poste vous intéresse et que votre profil correspond, merci d’envoyer votre CV à jour. Je reviendrai vers vous rapidement pour échanger
Mission freelance
DATA MANAGER / REF GOUVERNANCE DE DE DONNEES
Publiée le
Collibra
Google Cloud Platform (GCP)
Gouvernance
1 an
400-550 €
Nord, France
Nous recherchons un Référent Gouvernance de Données / Data Steward pour une mission freelance au sein d’une équipe transverse Data. Ce rôle stratégique consiste à accompagner les équipes produits digitaux dans l’exposition et la qualité de leurs données, en garantissant le respect des règles de gouvernance définies au niveau groupe. Le consultant sera le point de référence sur la gouvernance des données , travaillera en autonomie et interagira régulièrement avec les autres référents data des différentes plateformes pour harmoniser les pratiques et contribuer à l’amélioration continue. Missions principales : Accompagner les équipes produits dans l’exposition de leurs données selon les standards de gouvernance. Définir et mettre en œuvre les règles de qualité des données en collaboration avec les équipes concernées. Garantir la certification des données publiées. Participer aux comités de gouvernance avec les autres référents data. Être force de proposition sur l’évolution des pratiques et des modèles de données. Contribuer à la modélisation des données et à la valorisation des données de référence. Livrables attendus : Données exposées selon les règles de gouvernance définies. Règles de qualité déployées et respectées. Évaluation du respect des standards de gouvernance.
Mission freelance
Développeur AWS Data et spark
Publiée le
API
AWS Cloud
AWS Glue
1 an
540-580 €
Maisons-Alfort, Île-de-France
Télétravail partiel
Dans le cadre d’un programme stratégique de pilotage financier, nous recherchons un Ingénieur Logiciel Data Cloud AWS confirmé (+7 ans d’expérience) pour rejoindre une équipe de développement et d’ingénierie orientée données et services cloud. Vous interviendrez sur la conception, l’implémentation et l’amélioration continue des services AWS nécessaires au traitement, à l’analyse et à la planification financière. Le contexte est exigeant : réglementaire, sécurité, performance, optimisation des coûts et démarche DevOps/DORA. Vous intégrerez une équipe de 9 personnes, dont un pôle cloud/data AWS déjà en place. Vos missions : Concevoir, développer et faire évoluer les services applicatifs AWS (Glue Spark, Lambda, Step Functions, Athena, S3, IAM). Intégrer les services aux différents écosystèmes techniques (plateforme Data, MDM, ZDP, Data Link, Anaplan). Proposer des optimisations, améliorer les architectures existantes, renforcer la robustesse et la performance. Prendre en compte les exigences métiers, réglementaires, sécuritaires et environnementales. Participer à une démarche d’amélioration continue (Lean, DevOps, DORA). Documenter les architectures, formaliser les conceptions, assurer un bon niveau de qualité. Implémenter les bonnes pratiques TDD / BDD. Collaborer en équipe dans un environnement cloud industriel avancé.
Mission freelance
Data Engineer
Publiée le
Apache Spark
Java
ODI Oracle Data Integrator
3 ans
400-550 €
Tours, Centre-Val de Loire
Télétravail partiel
En renfort de l’entité Solutions Data pour participer activement (Run/Build/Expertise et Accompagnement) aux sujets ci-dessous dans un environnement hybride Cloud/On-Premise (avec le On-Premise en cible) : Participer à l’élaboration du design technique des produits logiciels, Faciliter la recherche de solutions techniques, Prendre en charge une partie des dév. Accompagner les autres Dév. (Coaching, optimisation de code, …), Collaborer à l’intégration des produits dans le SI avec l’architecte data, Garantir la qualité des produits logiciels, Accompagner les directions métiers dans la réalisation de leurs cas d’usage data
Mission freelance
[MDO] Data & AI - Data Engineer (5 ans minimum)
Publiée le
Azure Data Factory
Azure Logic Apps
Databricks
1 an
400 €
Clermont-Ferrand, Auvergne-Rhône-Alpes
Télétravail partiel
Data Engineer - Collecter, analyser et exploiter les données disponibles et pertinentes pour améliorer le pilotage des activités et identifier les leviers de création de valeur pour l'entreprise. - Aide aux équipes métier à développer, déployer et opérer les solutions pour permettre d’atteindre leurs objectifs. Principaux résultats attendus : • Les données pertinentes pour répondre aux besoins des utilisateurs sont identifiées, capturées et choisies • Le temps et les ressources/outils nécessaires à la gestion et à l'analyse des données sont optimisées. • Les données sont analysées et partagées dans un format accessible à tous grâce à des visualisations de données • Les activités métier disposent des lignes guides et recommandations pour créer de la valeur • Les offres, services ou processus de l'entreprise sont optimisés grâce aux connaissances acquises par l'analyse et l'évaluation des données • Les prescriptions du groupe en matière d'éthique et de gouvernance des données sont appliquées et respectées. • Présentation des fonctionnalités du ou des « produits » pour les promouvoir et pour faciliter la maintenance dans la durée • Résultats de tests conforme à la stratégie de test • Catalogue des produits data (dataset) à jour • Kit de formation et outils pour les utilisateurs Compétences fondamentales en Data Engineering : • Modélisation de données : conception de modèles relationnels, dimensionnels et Data Vault • ETL / ELT : conception et optimisation de pipelines robustes, gestion des dépendances • Qualité & gouvernance des données : data lineage, data quality checks, catalogage, gestion des métadonnées • Architecture data : compréhension des patterns modernes (Data Lakehouse, Data Mesh, etc.)
Mission freelance
Expert Talend / Talend Data Integration Specialist
Publiée le
ETL (Extract-transform-load)
Talend
12 mois
Paris, France
Télétravail partiel
Contexte L’entreprise recherche un expert Talend capable de concevoir, industrialiser et optimiser des flux de données dans un environnement moderne orienté cloud. Le rôle consiste à renforcer l’équipe Data dans un contexte d’industrialisation, de migration ou de modernisation des pipelines existants. Missions Conception et développement Concevoir et développer des pipelines ETL/ELT sous Talend (Open Studio ou Talend Data Integration). Mettre en place des jobs complexes (gestion d’erreurs, reprise, optimisation des performances). Définir et structurer les modèles de données selon les bonnes pratiques. Industrialisation et optimisation Optimiser les performances des jobs existants. Mettre en place les bonnes pratiques de versioning, CI/CD, automatisation des déploiements. Assurer la qualité, la traçabilité et la robustesse des flux. Intégration Cloud / Écosystème Intégrer Talend à un environnement cloud (Azure, AWS ou GCP, selon le client). Exploiter les services de stockage et de traitement du cloud (exemples : Azure Data Lake, AWS S3, BigQuery). Implémenter des orchestrations via Airflow, Talend TAC, ou équivalent. Support et expertise Accompagner les équipes internes dans l'utilisation de Talend. Diagnostiquer et résoudre les incidents sur les chaînes de traitement. Documenter les processus et assurer la mise en production. Compétences techniques attendues Indispensables Talend Data Integration (niveau expert, minimum 5 ans). Maîtrise des jobs complexes : tMap, tFlowToIterate, tJava, tREST, tFileInput/Output, etc. ETL/ELT avancé : transformations, normalisation, gestion des erreurs, optimisation. SQL avancé (PostgreSQL, Oracle, SQL Server ou autre). Connaissances solides en architectures Data (Batch, temps réel, Data Lake, Data Warehouse). Versioning Git. Méthodologies CI/CD (Jenkins, GitLab CI ou équivalent). Souhaitables Connaissances cloud (Azure / AWS / GCP). Orchestration Airflow, Control-M ou équivalent. Talend Administration Center (TAC). Notions en API, microservices, REST. Connaissances en Data Quality / Data Governance (optionnel). Soft skills Capacité d’analyse précise et rigoureuse. Autonomie et fiabilité. Capacité à challenger les besoins métier de manière factuelle. Communication claire avec l’équipe Data. Profil recherché Minimum 5 à 7 ans d’expérience sur Talend. Expérience dans des environnements Data complexes. Capacité à intervenir comme référent ou expert technique.
Offre d'emploi
Data Engineer AWS
Publiée le
Amazon S3
AWS Cloud
AWS Glue
40k-45k €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
Expérience requise : 5 à 10 ans Anglais obligatoire Compétences recherchées : Data Engineer AWS (S3, Glue, Athena, Python) Tâches à traiter : Compréhension des données scientifiques dans le domaine pharma CMC Clarification des besoins avec les parties prenantes, estimation de l’effort pour la planification PI Bonne connaissance des pratiques Lean & Agile Ingénierie de données AWS : S3, Glue (Jobs/Workflows), Athena Développement ETL/ELT : Python, Glue ETL, évolution de schémas, partitionnement Modélisation de données : modèles de domaine harmonisés, schémas en étoile/flocon, gestion des métadonnées Optimisation SQL : amélioration des performances sous Athena, conception de requêtes optimisées en coût, stratégies de partitionnement/pruning Tests et qualité : tests unitaires/intégration pour les pipelines, frameworks de qualité des données Documentation et transfert de connaissances : runbooks, diagrammes d’architecture, planification et exécution du KT Expérience en migration : stratégie de fonctionnement parallèle, planification du cutover, backfill, rapprochement des données
Mission freelance
Expert IA / CP Cybersécurité (Sénior)
Publiée le
Cybersécurité
Data governance
Data Lake
12 mois
550-650 €
Île-de-France, France
Télétravail partiel
Contexte du poste Dans un contexte d’accélération des usages de l’IA et d’exigences croissantes en cybersécurité et conformité réglementaire (NIS2, RGPD, AI Act, bonnes pratiques ISO/IEC 42001, 27001/27005…), l’organisation souhaite structurer et formaliser sa politique de cybersécurité appliquée à l’IA. Le Chef de projet IA / Cybersécurité jouera un rôle clé dans la définition du cadre, sa mise en œuvre opérationnelle, et l’accompagnement des équipes techniques et métiers. Missions principales 1. Élaboration de la politique de cybersécurité appliquée à l’IA Construire une politique cybersécurité dédiée aux projets IA (purs ou intégrant des briques IA). Définir les exigences de sécurité adaptées aux différents types d’IA (ML, LLM, modèles embarqués, services cloud, etc.). Intégrer les enjeux liés aux données (qualité, confidentialité, gouvernance, gestion des jeux d’entraînement). 2. Définition du processus de prise en compte de la cybersécurité dans le cycle de vie des projets IA Conception d’un processus de sécurité couvrant tout le cycle : idéation, cadrage, conception, entraînement, validation, déploiement, exploitation. Coordination avec les métiers, les équipes d’ingénierie, les architectes, le juridique, la data gouvernance et le RSSI. Intégration du processus dans la gouvernance projet et dans les instances existantes. 3. Rédaction du livrable de référence : “Politique de prise en compte de la cybersécurité dans les projets et produits IA” Le livrable inclura notamment : L’organisation cible et les rôles/responsabilités (Métiers, Data, RSSI, Architectes, Juridique, Achats…). Les jalons de validation et exigences à contrôler à chaque étape. Les points de contrôle cyber spécifiques aux projets IA (robustesse des modèles, attaques adversariales, données sensibles, dérives de modèle, dépendances cloud…). Les grilles d’évaluation et matrices de risques cyber appliquées à l’IA (risques modèles, risques données, risques d’exploitation). Les clauses contractuelles types pour appels d’offres et contrats incluant de l’IA : obligations de sécurité, exigences de gestion et protection des données, auditabilité et monitoring, obligations de conformité (AI Act, RGPD…), obligations en matière de gestion de vulnérabilités IA. 4. Préparation de la phase opérationnelle Préparer le passage de la politique à l’opérationnel. Former et sensibiliser les équipes (ingénierie, métiers, achats, juridique). Participer à la structuration du dispositif opérationnel et soutenir l’Expert IA / Cybersécurité. Contribuer à la mise en place des outils de suivi, audit, monitoring sécurité des modèles.
Mission freelance
Team Lead Cloud de transition – Incident Manager
Publiée le
Kubernetes
Python
Shell
18 mois
100-600 €
Paris, France
Télétravail partiel
CONTEXTE EXPERIENCE : 7 ans et plus Métiers Fonctions : Production, Exploitation, Infrastructure, Incident Manager Spécialités technologiques : Middleware, Infrastructure, PaaS, SaaS, Incident Management La mission se déroule au sein d’une Tour de Contrôle d’un grand groupe national en pleine transformation. Le consultant interviendra pour reprendre un rôle managérial laissé vacant et accompagner la structuration de l’équipe d’Incident Management. Le poste comporte deux volets : Pilotage opérationnel des incidents (40–50 %) Management d’équipe et transformation (50–60 %) MISSIONS 1. Pilotage opérationnel de l’incident management Organiser, prioriser et allouer les ressources. Piloter les incidents majeurs et non majeurs. Gérer les escalades et coordonner les cellules de crise. Assurer la communication en situation de crise auprès des différentes parties prenantes. Participer aux astreintes. Apporter une légitimité technique permettant de piloter sans dépendre des experts. Réduire l’impact business, améliorer MTTR, SLA et processus. 2. Management et animation d’équipe Manager une équipe de 12 personnes (internes et externes), majoritairement expérimentées. Structurer l’activité, gérer les plannings, organiser la charge. Accompagner la montée en compétence, coacher et fédérer l’équipe. Installer une dynamique collective et une culture d’excellence. Donner une vision claire et piloter la transformation en cours. Mettre en œuvre les actions nécessaires pour renforcer l’autonomie et la responsabilisation. 3. Coordination transverse Assurer la coordination avec les équipes techniques, métiers, support, ingénierie et fournisseurs. Interagir avec des interlocuteurs variés : data, POS, réseau, activités opérationnelles diverses. Coordonner avec le top management lors des incidents critiques. 4. Performance et amélioration continue Définir et suivre les KPI (SLA, MTTR). Mettre en place des plans d’amélioration continue. Challenger les processus existants et intégrer les bonnes pratiques ITIL. Contribuer à la transformation de la Tour de Contrôle. Livrables attendus : Reporting opérationnel (KPI, performance, incidents). Plans de montée en compétence. Plans d’amélioration continue. REX / analyses post-incident. Documents d’organisation et de pilotage. Expertise souhaitée Compétences techniques Infrastructure : OS, middleware, supervision, traçabilité, troubleshooting. Scripting : Shell, PowerShell, Python.Kafka.ELK. Prometheus, Centreon, Dynatrace.Linux et Windows. Docker, Kubernetes. Réseaux et sécurité. Ordonnanceur type Autosys. Culture Infra-as-Code et environnements IAAS/PAAS/SAAS/CAAS. Connaissance Cloud (Azure). Outils CI/CD appréciés : Jenkins, Gitlab, Git, JMeter. Méthodes Connaissance des pratiques Agile et SAFe. Maîtrise des outils collaboratifs (Jira, Confluence…). Compétences comportementales Leadership fort, capacité à embarquer des équipes expérimentées. Dynamisme et aptitude à challenger. Autonomie, force de proposition. Résilience et endurance dans un contexte exigeant. Capacité à transformer une vision en actions concrètes. Compétences Technologies et Outils ELK Python Kubernetes Gitlab Azure Linux PowerShell JIRA Docker CI/CD Prometheus Centreon Jmeter Jenkins confluence Autosys Windows GIT Dynatrace Méthodes / Normes AgileITILKPI Soft skills Force de proposition Leadership Autonomie
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Gestion d’entreprise : astuces pour freelances IT
- Freelance : peu de retours sur mes candidatures – vos stratégies ?
- Traitement fiscal des cotisations sociales payées en 2025 sur CA micro-BNC 2024
- L'EI à l'IS est-elle toujours plus intéressante qu'à l'IR ?
- ESN qui cherche à trop marger
- micro entreprise avant validation ARE
545 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois