L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 132 résultats.
Mission freelance
Comptable Général / Projets – CSP & Automatisation
Codezys
Publiée le
Comptabilité
SAP
SAP BFC
6 mois
Lyon, Auvergne-Rhône-Alpes
Contexte de la mission Client confidentiel Dans un CSP de 22 personnes, vous intervenez sur un périmètre orienté holding / haut de bilan, avec un fort accent sur les flux financiers, les comptes courants bancaires et les projets d’automatisation. Le service est en pleine transformation (projets en continu, optimisation, IA, automatisation de factures) et recherche un profil opérationnel mais aussi très orienté projets. Objectifs et livrables Missions principales Tenue de la comptabilité générale d’une ou plusieurs entités : Suivi des opérations comptables quotidiennes (banques, comptes courants, paie, immobilisations, taxes…) Analyse mensuelle des comptes de bilan, justification des soldes, identification des anomalies Participation active aux travaux de clôture et de reporting : Clôtures mensuelles, trimestrielles et annuelles Liasses de consolidation et reportings divers Rapprochements intercos Contribution forte aux projets d’automatisation et d’optimisation : Automatisation du traitement des factures Développement et optimisation de fichiers Excel complexes Participation à des initiatives autour de l’IA et de la digitalisation des process Proposition d’améliorations, prise de recul sur les pratiques existantes, apport d’un regard neuf Support au Responsable Comptabilité Générale dans ses missions : Participation aux projets d’extension du CS Contribution à l’atteinte des objectifs du service Respect et diffusion des règles et procédures du Groupe et du CSP Comptable confi...edocx.docx Interface avec les interlocuteurs internes et externes : Échanges réguliers avec les équipes locales (finance, paie, contrôle de gestion…) Relation avec les auditeurs externes pour la fourniture des états et justificatifs Environnement & soft skills attendus CSP structuré, exigeant, avec de nombreux projets en parallèle Réunions hebdomadaires pour partager les challenges et suivre l’avancement des projets Très bonne ambiance, respect, solidarité au sein de chaque pôle Profil recherché : Très opérationnel, à l’aise dans un contexte de transformation et de projets permanents Forte appétence pour l’automatisation, les outils, l’optimisation des process Capacité à s’intégrer rapidement, à travailler en équipe et à faire preuve de discrétion Résistance au stress, adaptabilité, esprit critique et curiosité
Offre d'emploi
Tech-Lead Data Quality, IA, Azure
Management Square
Publiée le
Azure Synapse
Data quality
IA
1 an
57k-62k €
500-600 €
Paris, France
Activités principales : • Présenter des retours d'expérience sur la gestion de la qualité des données sur les plateformes Azure et les bonnes pratiques de gestion de la qualité sur les plateformes Azure • Réaliser un audit de la gestion de la qualité des données sur les plateformes et prendre connaissance des contrôles de qualité actuellement disponibles et des objectifs à court et moyen terme • Définir le champ des possibles sur la base des composants actuellement disponibles sur la plateforme ou standards sur Azure. • Présenter les apports de l'IA dans le cadre d'une pratique de contrôle de qualité des données • Présenter la stratégie de déploiement de la qualité des données pour les prochains mois • Déployer les contrôles de qualité existants ainsi que ceux identifiés par le CDO • Assurer le passage de connaissance vers les équipes internes
Offre d'emploi
Consultant Senior IT Governance & Compliance
PSSWRD
Publiée le
Gouvernance, gestion des risques et conformité (GRC)
6 mois
Issy-les-Moulineaux, Île-de-France
👀 Je recherche pour l’un de nos clients basé à Issy-Les-Moulineaux (92) un Consultant Gouvernance IT & Compliance Senior, afin d'intervenir sur le programme stratégique de maturité technologique et de conformité à grande échelle. 🏁 CONTEXTE DE LA MISSION • La mission s’inscrit au sein de l’organisation Tech d’un grand groupe international, avec des enjeux forts autour de la standardisation et de la conformité des environnements IT à l’échelle mondiale ; • L’objectif est de structurer et intervenir opérationnellement dans un programme global de maturité technologique visant à mesurer et améliorer l’adoption des standards IT (sécurité, infrastructures, systèmes opérationnels) au sein des entités (multi-sites / franchisés) ; • Le programme consolide plusieurs initiatives existantes (cybersécurité, conformité, gestion des systèmes obsolètes, audit, etc.) aujourd’hui fragmentées et parfois redondantes ; • Enjeux majeurs : harmonisation des pratiques, réduction des doublons, priorisation des actions et mise en place d’un cadre cohérent, industrialisable et mesurable. 🎯 MISSIONS 1. Lead GRC • Piloter un programme global structuré autour de plusieurs streams : définition des standards, conformité & audit, déploiement régional ; • Coordonner un large écosystème de parties prenantes (IT, métiers, régions, juridique, opérations…) ; • Aligner les priorités, arbitrer les conflits et fluidifier la prise de décision ; • Assurer le bon rythme d’avancement et lever les points de blocage. 2. Structuration des frameworks • Concevoir et déployer les référentiels clés : classification des standards, modèle de conformité, mécanismes de contrôle, outils de mesure de maturité ; • Définir clairement les standards obligatoires vs recommandés avec une approche basée sur le risque ; • Mettre en place des modèles de gouvernance robustes, applicables à grande échelle (environnements multi-sites / franchisés). 3. Alignement des parties prenantes • Obtenir l’adhésion des directions IT régionales (CIO) sur les standards consolidés ; • Aligner les approches de conformité avec les équipes juridiques et opérationnelles ; • Influencer les décideurs (top management) pour sécuriser les arbitrages et les ressources ; • Piloter la conduite du changement et la communication associée. 4. Documentation & industrialisation • Traduire des standards techniques en documentation opérationnelle claire et exploitable (playbooks terrain) ; • Mettre en place des dashboards et outils de reporting adaptés aux différents niveaux de lecture ; • Produire des guides opérationnels détaillés par typologie d’entité ; • Structurer la documentation globale du programme avec des KPIs de suivi. 📦 LIVRABLES ATTENDUS • Framework de classification des standards (obligatoires vs recommandés) ; • Cartographie des standards vs niveaux de maturité ; • Modèle unifié d’évaluation de la conformité ; • Framework de gestion des preuves et auditabilité ; • Mécanismes de contrôle et d’application (incentives, sanctions, escalade) ; • Dashboards de suivi de la maturité technologique ; • Référentiel consolidé des standards IT du groupe ; • Playbooks opérationnels terrain ; • Documentation complète du programme avec indicateurs de performance.
Mission freelance
INGÉNIEUR SÉCURITÉ OPÉRATIONNELLE – FIREWALL / N2
Hexagone Digitale
Publiée le
Firewall
Fortinet
Palo Alto
215 jours
Île-de-France, France
Contexte La mission s'inscrit au sein d'une DSI de grande envergure, dans une équipe dédiée à la sécurité des infrastructures réseau. L'objectif est d'accompagner la mise en œuvre de la politique de sécurité des réseaux en assurant à la fois des activités de RUN quotidien (analyse, filtrage, diagnostic) et de BUILD (implémentation de matrices de flux). Le prestataire intervient en Île-de-France, sur un rythme hybride de 3 jours par semaine sur site. Rôle et responsabilités principales : Traiter les demandes d'analyse et assurer le troubleshooting des incidents firewall Modifier et maintenir la politique de filtrage sur les firewalls en production Implémenter les matrices de flux correspondant aux besoins des projets (BUILD) Réaliser des diagnostics de dysfonctionnement et proposer des correctifs ou contournements Participer à la mise en œuvre et au contrôle de la politique de sécurité interne (contrôles périodiques de niveau 1) Instruire et valider les dérogations à la politique de sécurité Contribuer aux audits internes et externes, et assurer le suivi des recommandations Participer aux astreintes et interventions hors heures ouvrées (réseau, sécurité, filtrage Web, proxys) Livrables attendus : Règles de filtrage implémentées et documentées sur les firewalls Matrices de flux projets mises en œuvre Diagnostics et rapports d'incidents avec propositions de correction Guides et standards de sécurité rédigés Contributions aux rapports d'audit et plans de remédiation Compte-rendu des contrôles périodiques de niveau 1
Offre d'emploi
Directeur de projet - Risk Data Aggregation & Reporting (H/F)
STORM GROUP
Publiée le
ETL (Extract-transform-load)
Méthode Agile
Safe
3 ans
50k-70k €
500-700 €
Île-de-France, France
Dans un contexte de renforcement des exigences réglementaires imposées aux établissements bancaires, notre client DSI met en œuvre la norme RDAR ( Risk Data Aggregation & Reporting ), visant à garantir la fiabilité, la traçabilité et la gouvernance des données de risque. Ce programme stratégique de plus de 10 M€ s’inscrit dans la continuité des travaux BCBS 239 et couvre l’ensemble du cycle de vie du projet, depuis les phases de cadrage amont jusqu’à la mise en production et la clôture. Missions principales : Phases amont & cadrage du programme – fortement apprécié Piloter les phases de pré-cadrage et de cadrage : définition du périmètre, des objectifs et des enjeux réglementaires. Conduire les études de faisabilité et les analyses d’impact (organisationnelles, techniques, budgétaires). Élaborer le business case et le dossier de lancement soumis au sponsor et aux instances de décision. Définir la vision cible, la stratégie de mise en œuvre et la structure de gouvernance du programme. Rédiger les documents de référence : charte de projet, plan de management, matrice RACI. Structurer le découpage en workstreams et lots de travaux (WBS) en cohérence avec la roadmap réglementaire. Animer les ateliers de cadrage avec les parties prenantes métier (Risk, Compliance, Finance) et IT. Pilotage du programme RDAR Assurer le pilotage global d’un programme supérieur à 10 M€, avec pleine responsabilité budgétaire. Conduire les travaux de mise en conformité à la norme RDAR au sein de la DSI bancaire. Définir et piloter la roadmap du programme en lien avec les équipes Risk, Finance et IT. Assurer le reporting d’avancement auprès des instances de gouvernance (CODIR, Comité Risques). Coordonner les workstreams métier et technique, en veillant à la cohérence d’ensemble. Gestion budgétaire & financière du programme Élaborer et suivre le budget programme (>10 M€) : plan de charge, forecast, atterrissage. Piloter les coûts par workstream et assurer la maîtrise des écarts budgétaires. Gérer les relations contractuelles avec les prestataires externes (cabinets, ESN, éditeurs). Produire les reportings financiers à destination du sponsor et des instances de gouvernance. Anticiper les risques de dérive budgétaire et mettre en place les plans correctifs. Traçabilité & gouvernance des données de risque Mettre en place les référentiels de traçabilité des données de risque ( data lineage, data quality ). Définir les règles de gestion et les normes de qualité des données en lien avec les équipes Data Office. Superviser la mise en œuvre des dispositifs de contrôle et d’auditabilité des flux de données. Piloter les travaux de cartographie des données critiques ( CDE – Critical Data Elements ). Coordination technique & Data Collaborer avec les équipes Data Engineering et Architecture sur les pipelines de données (Big Data, datalake , entrepôts). Valider les choix d’architecture technique garantissant la conformité réglementaire. Assurer l’interface entre les équipes métier (Risk, Compliance) et les équipes IT. Gestion des parties prenantes & reporting réglementaire Préparer les livrables destinés au régulateur (BCE, ACPR) et aux auditeurs internes. Animer les comités de pilotage et rédiger les comptes rendus d’avancement. Identifier et gérer les risques programme, mettre en place les plans de mitigation. Manager une équipe pluridisciplinaire de chefs de projet, business analysts et experts techniques.
Mission freelance
Expert Cloud Security & CSPM ☁️ (Azure / AWS / IAM / DevOps)
Comet
Publiée le
AWS Cloud
Azure
Azure DevOps
140 jours
410-680 €
Île-de-France, France
Bonjour à tous, notamment aux Experts Cloud Security & CSPM ☁️💛 (Azure / AWS / IAM / DevOps) 🔎 Je cherche un Cloud Security CSPM Expert senior pour rejoindre un programme stratégique de transformation IT et remédiation sécurité. Dans le cadre de ce carve-out IT complexe, l’objectif est de mettre sous contrôle la sécurité des environnements cloud publics multi-cloud, tout en pilotant les remédiations issues d’un audit cybersécurité et en renforçant la posture de sécurité globale. 💻 Ce que tu vas faire : Exploiter et optimiser les outils CSPM (Qualys TotalCloud, Wiz) Analyser les vulnérabilités et mauvaises configurations Cloud Piloter les remédiations avec les équipes Cloud, Infra et DevOps Structurer et améliorer les pratiques de sécurité Cloud (CSPM) Contribuer à l’industrialisation des pratiques de sécurité et à la gouvernance Cloud Prioriser et coordonner les actions critiques en environnement multi-cloud Reporter régulièrement sur les risques, remédiations et niveaux de conformité 🎯 Stack & environnement 💛 : Azure / AWS / OCI (bonus) / Qualys TotalCloud / Wiz / IAM / Sécurité Cloud / Terraform / DevOps / environnements legacy multi-cloud ⚠️ Profil recherché : Senior (expertise 10+ ans) Très hands-on (sécurité opérationnelle, remédiation, coordination) Expérience CSPM et remédiation post-audit cybersécurité Habitué aux environnements complexes multi-cloud et legacy Capacité à travailler en transverse et à gérer la pression des audits 📍 Mission : Lyon OU Paris – 7 mois potentiellement renouvelable 💰 Budget : Jusqu'aux alentours de 650 📅 Démarrage : ASAP Merci de me transmettre vos CVs en MP !
Mission freelance
Expert Cloud Security & CSPM (Azure / AWS / IAM / DevOps)
Comet
Publiée le
AWS Cloud
Azure
Azure DevOps
140 jours
460-670 €
Lyon, Auvergne-Rhône-Alpes
Bonjour à tous, notamment aux Experts Cloud Security & CSPM ☁️💛 (Azure / AWS / IAM / DevOps) 🔎 Je cherche un Cloud Security CSPM Expert senior pour rejoindre un programme stratégique de transformation IT et remédiation sécurité. Dans le cadre de ce carve-out IT complexe, l’objectif est de mettre sous contrôle la sécurité des environnements cloud publics multi-cloud, tout en pilotant les remédiations issues d’un audit cybersécurité et en renforçant la posture de sécurité globale. 💻 Ce que tu vas faire : Exploiter et optimiser les outils CSPM (Qualys TotalCloud, Wiz) Analyser les vulnérabilités et mauvaises configurations Cloud Piloter les remédiations avec les équipes Cloud, Infra et DevOps Structurer et améliorer les pratiques de sécurité Cloud (CSPM) Contribuer à l’industrialisation des pratiques de sécurité et à la gouvernance Cloud Prioriser et coordonner les actions critiques en environnement multi-cloud Reporter régulièrement sur les risques, remédiations et niveaux de conformité 🎯 Stack & environnement 💛 : Azure / AWS / OCI (bonus) / Qualys TotalCloud / Wiz / IAM / Sécurité Cloud / Terraform / DevOps / environnements legacy multi-cloud ⚠️ Profil recherché : Senior (expertise 10+ ans) Très hands-on (sécurité opérationnelle, remédiation, coordination) Expérience CSPM et remédiation post-audit cybersécurité Habitué aux environnements complexes multi-cloud et legacy Capacité à travailler en transverse et à gérer la pression des audits 📍 Mission : Lyon OU Paris – 7 mois potentiellement renouvelable 💰 Budget : Jusqu'aux alentours de 650 📅 Démarrage : ASAP Merci de me transmettre vos CVs en MP !
Mission freelance
Quality Data/Lead Data Referentiel
Cherry Pick
Publiée le
Finance
IA
Numpy
12 mois
Paris, France
PRÉSENTATION DE LA MISSION Dans le cadre d'un programme de transformation de la qualité des données de marché, vous rejoignez l'équipe DIR (Direction du Référentiel) . Votre rôle est de concevoir, déployer et industrialiser un cadre de contrôle rigoureux pour les actifs financiers (Futures, Yields, FX, Index, Bonds) afin de garantir la fiabilité des modèles de recherche et des décisions de trading. Type de contrat : Freelance Durée : 6 mois Localisation : Paris Environnement technique : Python (Data Stack), SQL, Bloomberg/Reuters API, LLM/IA. 2. MISSIONS ET RESPONSABILITÉS Axe 1 : Audit et Diagnostic (Phase d'Évaluation) Réaliser un audit complet des dimensions de qualité par classe d'actifs. Recenser l'existant (scripts épars, contrôles manuels) et identifier les zones de risque (gaps de couverture). Prioriser le backlog des anomalies historiques en collaboration avec les équipes Recherche et Prédiction. Axe 2 : Industrialisation de la Qualité (Mise en œuvre) Développer une bibliothèque unifiée et modulaire de contrôles (en Python) intégrable aux pipelines de données. Assurer la remédiation du stock historique : investigation des causes racines, correction des données et résolution des litiges avec les fournisseurs (Bloomberg, etc.). Mettre en place des mécanismes de prévention pour bloquer les anomalies dès l'ingestion. Axe 3 : Monitoring et Innovation Concevoir des dashboards de pilotage (KPI) pour monitorer la santé des données en temps réel. Développer un PoC basé sur les LLM pour automatiser la génération de nouveaux contrôles et faciliter l'analyse des causes racines (Root Cause Analysis). Rédiger le Playbook opérationnel (procédures de gestion d'incidents et workflows d'alerte).
Mission freelance
Risk management
Gentis Recruitment SAS
Publiée le
Gouvernance, gestion des risques et conformité (GRC)
IAM
8 mois
Luxembourg
Votre mission Vous participez à l’identification, à l’évaluation et au suivi des risques opérationnels, tout en contribuant à l’utilisation efficace de l’outil GRC de la Banque. Vos responsabilités • Participer à l’évaluation et au suivi des risques opérationnels au sein de la Banque • Accompagner les unités métiers (première ligne de défense) dans l’identification, l’évaluation et la documentation des risques • Guider et accompagner les utilisateurs dans l’utilisation efficace de l’outil GRC • Contribuer aux contrôles de deuxième ligne et proposer des mesures préventives et correctives • Assister les projets dans l’évaluation des risques et la définition des actions de mitigation • Contribuer au reporting des risques, y compris les rapports périodiques et la mise à jour de la cartographie des risques • Analyser les indicateurs clés de risque (KRI) et soutenir le suivi des risques • Assurer une documentation appropriée des risques conformément au cadre de gestion des risques Votre profil • Une première expérience (stage ou poste junior) en gestion des risques, contrôle interne ou audit dans un environnement financier • Intérêt pour les outils GRC et la gestion des risques opérationnels • Solides compétences analytiques, organisationnelles et rédactionnelles • Bonnes capacités de communication et relationnelles • Capacité à travailler de manière autonome et en équipe • Maîtrise du français et de l’anglais ; l’allemand et/ou le luxembourgeois sont un atout
Offre d'emploi
DevOps SysOps Infrastructure Cloud
VISIAN
Publiée le
AWS Cloud
CI/CD
Cloud
1 an
Paris, France
Missions Analyser les besoins métier afin de concevoir des solutions cloud adaptées aux exigences spécifiques de l’entreprise. Concevoir des architectures cloud robustes et évolutives, en intégrant les meilleures pratiques en matière de sécurité, performance et coût. Intégrer des mécanismes de sécurité robustes dans l’architecture cloud, en garantissant le respect des normes de sécurité et de conformité du groupe. Mettre en place des stratégies d’optimisation des coûts liés à l’infrastructure cloud, en sélectionnant les ressources appropriées et en appliquant des politiques de gestion des coûts. Assurer la restitution des dossiers d’architecture techniques et accompagner les équipes dans l’implémentation des solutions. Effectuer une veille technologique pour rester informé des évolutions dans le domaine du cloud et recommander des innovations apportant de la valeur à l’entreprise. Collaborer étroitement avec les équipes métiers, projets et DevOps pour garantir que les infrastructures répondent aux besoins business tout en respectant les meilleures pratiques Cloud et les normes de cybersécurité du groupe. Outils & Environnement Cloud : AWS, Azure, GCP Infrastructure as Code : Terraform, Ansible, Packer Conteneurisation et orchestration : Docker, Kubernetes, ECS, EKS, Karpenter CI/CD : Gitlab CI, Github Langages : Python, Java, Php, NodeJS, Bash Sécurité : Okta, Prisma Cloud, Crowdstrike EDR Autres outils : Databricks, Apigee Monitoring & Logging : Splunk, Datadog, fluentd Concepts réseau AWS (VPC, transit gateway, firewall, DNS) Sécurité AWS (SSM, KMS, secret manager, inspector, WAF, IAM) Résilience et redondance des données (S3, EFS, EBS) Types de bases de données AWS Types de déploiement (Blue/Green, Canary, Rolling) Concepts serverless (Lambda, API Gateway, Cloudfront) Approche SecOps et Security by Design (SCP, IAM, tagging, audit) Notions GitOps (Argocd, Kyverno, Helm, Kustomize) Industrialisation des contrôles de sécurité via Terraform, Ansible
Mission freelance
Banque de détail - analyse de données réglementaires
Mon Consultant Indépendant
Publiée le
Finance
Gestion de projet
24 mois
600-630 €
Paris, France
Contexte & Enjeux : Dans le cadre du renforcement d'un centre de services bancaires, nous recherchons un(e) freelance pour accompagner la mise en conformité des déclarations fiscales internationales (FATCA et EAI). L'objectif est de sécuriser la qualité des données produites par les systèmes d’information et d’anticiper les évolutions annuelles des cahiers des charges réglementaires. La mission s’inscrit dans une démarche de fiabilisation à long terme et nécessite une expertise pointue en environnement bancaire. Description des Travaux : 1. Production et Fiabilisation des Déclarations · Préparation, contrôle et correction des flux déclaratifs (cycles de tests et corrections). · Coordination avec les partenaires d'audit et de conseil. · Rédaction des bilans de contrôle et de conformité. 2. Amélioration Continue et Veille Réglementaire · Analyse des retours d’expérience (post-mortem) pour optimiser les processus. · Anticipation des impacts réglementaires sur les outils existants. · Rédaction des spécifications fonctionnelles pour les évolutions du Système d’Information. 3. Pilotage de la Donnée et Reporting · Production mensuelle des fichiers de reporting et gestion des campagnes. · Maintenance du socle de données et réalisation de diligences spécifiques (High Value). · Analyses de données ad hoc pour la justification d’anomalies. · Participation active aux ateliers de pilotage opérationnel. Profil Recherché : · Expérience : Minimum 5 ans sur un poste similaire en Data/Réglementaire. · Expertise métier : Maîtrise de la Banque de Détail et des enjeux fiscaux internationaux. · Connaissance approfondie des référentiels tiers (données clients/contrats). · Culture des entrepôts de données bancaires (Datawarehouse). Compétences techniques : · Analyse de données complexe. · Maîtrise de SAS Studio. · Excellente pratique d'Excel et de PowerPoint. · Savoir-être : Autonomie, grande rigueur et force de proposition. Livrables Attendus : · Fichiers de déclarations réglementaires définitifs. · Bilans de contrôle et documents de synthèse post-mortem. · Dossiers de spécifications fonctionnelles (DFD). · Reportings et analyses de données récurrents. Modalités : · Démarrage : Juillet 2026. · Durée : Accompagnement pluriannuel (visibilité sur 3 ans).
Mission freelance
Data Quality Engineer Senior
INFOGENE
Publiée le
Bloomberg
Data Engineering
Data quality
6 mois
500-1k €
Paris, France
Contexte & Enjeux Les données de marché de référence (futures, yields, FX, indices, obligations) présentent de nombreuses anomalies non détectées, non tracées et souvent corrigées manuellement. Cette situation entraîne une perte de temps significative et impacte la confiance des équipes Research & Prediction. Objectif de la mission Structurer, fiabiliser et industrialiser les contrôles de qualité sur les données de marché, avec une approche à la fois technique et analytique. Les 3 axes principaux 1. Audit Cartographie complète des contrôles existants Identification des gaps par classe d’actifs Construction d’un backlog priorisé 2. Implémentation Développement d’une librairie modulaire de quality checks en Python Remédiation des données historiques Gestion des escalades avec les fournisseurs de données (Bloomberg) 3. Industrialisation & IA Mise en place d’un monitoring automatisé (dashboards KPI, alerting) Industrialisation des contrôles en production Réalisation d’un POC basé sur des LLMs pour : Génération semi-automatique de contrôles Analyse des causes racines des anomalies
Offre premium
Offre d'emploi
Expert Infrastructures Physiques Réseaux
UNITED SOLUTIONS
Publiée le
AMOA
Réseaux
1 an
55k-65k €
480-530 €
Paris, France
Dans le cadre du renforcement de ses équipes infrastructures, United Solutions recrute un Expert Infrastructures Physiques Réseaux expérimenté (+8 ans d’expérience) afin d’accompagner le déploiement et la mise en conformité de ses environnements réseaux et VDI. Ce poste s’inscrit dans un contexte exigeant, où les enjeux sont à la fois techniques, opérationnels et stratégiques. L’objectif est clair : garantir des infrastructures fiables, conformes et adaptées aux contraintes spécifiques de chaque site, tout en maintenant un haut niveau de standardisation. Nous recherchons un profil capable d’apporter une réelle expertise terrain, avec la capacité à prendre du recul sur les standards existants et proposer des solutions pertinentes et pragmatiques. Votre mission Intervenir en tant que référent AMOA sur les projets d’infrastructures réseaux et VDI, en assurant : la conception des infrastructures, le respect des standards et des normes groupe, et le pilotage des déploiements jusqu’à la mise en service. Vous intervenez sur l’ensemble du cycle projet, de l’analyse des besoins jusqu’à la livraison des sites. Responsabilités & missions 1. Assistance à Maîtrise d’Ouvrage - Déploiement infrastructures Analyser les plans architecturaux afin de définir l’infrastructure réseau la plus adaptée. Concevoir les architectures VDI dans le respect des normes et standards en vigueur. Définir les cheminements de câbles et l’implantation des équipements en limitant les points uniques de défaillance (SPOF). Rédiger les cahiers des charges techniques et participer aux consultations. Contribuer au choix des prestataires et installateurs. Assurer le suivi de chantier : contrôle de la pose des câbles, validation des installations en baies, supervision du brassage et des équipements actifs. Réaliser les OPR et valider les installations avant mise en service. 2. Standards & conformité Rédiger et faire évoluer les référentiels techniques (infrastructures physiques, réseaux, télécoms). Garantir l’application des standards sur l’ensemble des projets. Réaliser des audits techniques sur des sites existants ou en phase de conception. Identifier les non-conformités et définir les plans de remédiation. Produire les livrables techniques associés. Être force de proposition dans l’amélioration continue des standards. 3. Pilotage de projets Participer aux comités projets et aux instances de pilotage. Coordonner les déploiements et les migrations d’infrastructures. Suivre les jalons clés : tirage des câbles, validation de la connectique, phases de tests, mise en service. Anticiper les risques et sécuriser les phases critiques. Assurer la livraison des sites et accompagner leur mise à disposition. 4. Communication & coordination Assurer un rôle d’interface entre les équipes techniques, les métiers et les prestataires. Coordonner les différents acteurs impliqués dans les projets. Assurer un reporting clair sur : l’avancement, les priorités, les risques et points de vigilance. Porter une posture d’expertise, avec capacité à challenger les choix techniques.
Offre d'emploi
Offre de mission d'un Recetteur et Analyst QOD sur Paris
EterniTech
Publiée le
Google Cloud Platform (GCP)
Microsoft SQL Server
QA
3 mois
Paris, France
Je cherche pour un de mes clients un Recetteur et Analyst QOD sur Paris Contexte de la mission : Dans le cadre du programme de transformation de la Data B2B (Polaris), Le client construit son nouvel espace de données sur la plateforme Groupe AIDA (Google Cloud Platform/BigQuery). La stratégie adoptée est une approche "Greenfield" en méthode scrum : reconstruction des produits de données (et non migration "Lift & Shift") depuis le SI legacy B2B vers GCP (BigQuery/Vertex AI) en utilisant un framework interne : l'ELT HYDRA (s'appuyant sur DBT comme back-end) La prestation s'intègre au sein de la "Core Team", l'équipe transverse chargée de bâtir le socle technique et les données de référence (RCU=Référentiel Client Unique et les clés associées) qui serviront ensuite aux Squads Métiers pour bâtir leurs produits data Afin de sécuriser les livrables de chaque Sprint et de pallier le manque de maturité data des systèmes amont, nous créons un poste dédié à la Recette Data et à la Qualité des Données (QoD). Objectifs/Descriptif de mission : Le consultant agira comme le "Bouclier Qualité de la Donnée" de la Core Team et des Squad métier. En support direct des Product Owners et du Scrum Master, la prestation consistera à : 1) Recetter les livrables produits data : Valider que les tables générées dans BigQuery respectent les règles de gestion définies par les PO lors des Sprints. 2) Traquer la dette Data (Data Profiling) : Écrire des requêtes SQL complexes pour profiler les données sources et cibles (détection de doublons, calcul des taux de valeurs nulles, incohérences de formats, ruptures d'intégrité référentielle). 3) Automatiser les contrôles QoD : Traduire ces règles de gestion en scripts/assertions SQL qui seront intégrés dans notre framework d'orchestration ELT (Hydra) pour un contrôle continu (à chaud et à froid). 4) Alerter et documenter : Remonter factuellement les anomalies de données imputables aux systèmes sources B2B (CRM, Facturation) pour forcer les arbitrages métiers. Livrables attendus Activités / Lots Résultats attendus / Livrables associés Planning / Date de livrables Data Profiling & Audit Amont : Exploration en SQL avancé des données brutes issues du legacy B2B. L'objectif est d'identifier les anomalies avant la modélisation Requêtes SQL d'audit (Data Profiling) Cartographie des anomalies sources (Identification de la "Dette Data" amont) Recommandations techniques au PO pour adapter les règles de gestion du RCU. En amont et au début de chaque Sprint Ingénierie des tests et implémentation QoD (Framework Hydra) : Traduction des règles de gestion métier et des critères d'acceptation du Product Owner en tests techniques automatisés dans le Framework HYDRA. Scripts SQL de tests de QoD "à chaud" et "à froid" (assertions : unicité, non-nullité, bornes de valeurs, check croisés) Intégration des règles de Qualité (QoD) dans le code ELT (Hydra) Documentation des règles de contrôle dans le Data Catalog (AIDA / ODG). Continu (Pendant le Sprint) Recette Backend & Validation des livrables Core Team Test et validation des tables physiques générées par les Data Engineers à la fin de chaque itération. Cahier de recette technique (Cas de tests documentés dans Jira). Requêtes SQL de validation finale (UAT Backend) Bilan de recette (Go / No-Go technique) autorisant l'exposition de la table aux Squads Métiers. À la fin de chaque Sprint (toutes les 3 sem.) Monitoring de la Dette Data & Exposition (Cockpit QoD): Mise en place d'un suivi de la santé des données. Vues SQL (Cockpit QoD) sur HYDRA monitorant la santé des données par domaine (Parc, Facturation, Client). Création et suivi des tickets d'anomalies (Jira) assignés aux fournisseurs de données (IT B2B) Continu / Sprint Review Compétences requises Compétences et expériences obligatoires : SQL Avancé (Niveau Expert) : Capacité à manipuler des millions de lignes, maîtriser les jointures complexes, les expressions régulières (Regex) et les fonctions analytiques pour traquer les anomalies. Mindset "QA / Testeur" appliqué à la Data : Esprit critique, rigueur extrême, capacité à imaginer les "cas aux limites" (Edge cases) pour faire crasher les modèles. Compréhension Fonctionnelle B2B : Capacité à comprendre une règle métier (ex: le cycle de vie d'un contrat) pour la traduire en test technique. Agilité & Environnement Backend : Habitude de travailler en Sprints courts avec des livraisons fréquentes sur des socles de données Cloud (Architecture dénormalisée, tables Pivots). Compétences souhaitées Connaissance du secteur Télécom : Compréhension des produits et services Telecom (fixe/mobile). Google Cloud Platform (GCP) : Pratique courante de BigQuery (requêtage orienté colonnes, champs imbriqués) et le FINOPS associé Frameworks ELT : Connaissance des transformations "in-database" 100% SQL (type dbt, Dataform) pour une prise en main rapide de notre framework interne (Hydra). Savoir-être : Esprit "Crash-Test" & Rigueur : Posture de traqueur d'anomalies. Ne pas se contenter du cas nominal, chercher systématiquement les cas aux limites (Edge cases). Fermeté & Posture de "Bouclier" : Courage de remonter la dette Data aux systèmes sources (IT B2B) sans chercher à corriger manuellement une donnée corrompue en amont. Esprit de synthèse : Capacité à vulgariser les problèmes techniques de qualité (QoD) pour forcer les arbitrages des Product Owners Métiers. Pragmatisme : Livrer de la valeur incrémentale. Expérience : > 7 ans Localisation : 16 Rue du Général Alain de Boissieu A Exclure : Ce que nous ne cherchons PAS : PAS de Testeurs QA "Logiciel/Web" : Nous ne voulons pas de testeurs d'interfaces graphiques (IHM). ). Le travail se passe à 100% dans la base de données. PAS de profils BI / Dataviz : La recette ne se fait pas visuellement sur Power BI ou Tableau. Elle se fait par le code (SQL). PAS de Scrum Masters ou PMO : Le rôle est opérationnel ("Hands-on"
Mission freelance
Expert DBA Oracle / SQL Server
Codezys
Publiée le
Migration
Oracle
Oracle Database
12 mois
450-660 €
Vélizy-Villacoublay, Île-de-France
Contexte de la mission Dans le cadre du maintien opérationnel du système d'information, l'entreprise gère des bases de données essentielles à ses applications métiers. Pour renforcer sa cyber-résilience, elle souhaite traiter l’obsolescence de ses moteurs de bases de données. Objet du cahier de consultation La mission consiste à mobiliser une expertise technique pour effectuer la montée de version des SGBD Oracle (11 à 19) et MS SQL (2012 à 2022). Logistique Dates : du 15/04/2026 au 31/01/2027 Lieu : Velizy Villacoublay Habilitation : aucune nécessaire Niveau de séniorité : Sénior - Expert Panel pressenti : Infrastructures Typologie : Expertise Langue : Anglais courant obligatoire Matériel : PC autorisé et masterisé par l'entreprise Objectifs et livrables La prestation vise à réaliser une montée de version sécurisée et conforme des SGBD obsolètes, comprenant : Audit des environnements existants : Recensement des versions Oracle et SQL Server Identification des bases concernées et analyse de criticité Coordination avec les responsables applicatifs Évaluation des risques : Identification des failles de sécurité et risques liés à la perte de support Impact sur performance et stabilité Proposition de scénarios : Choix des versions cibles et planification des migrations Estimation des coûts, ressources et impacts Définition des prérequis : Vérification de compatibilité applicative Identification des adaptations nécessaires Préparation, tests et validation en coordination avec l’équipe applicative Migration, support et suivi : Mise à jour en test puis en production Migration des données et accompagnement technique Gestion des incidents et retours d’expérience Collaboration lors des phases critiques Documentation et formation : Rédaction des procédures et mise à jour des référentiels Formation des équipes techniques et applicatives Validation et pérennité : Contrôle des performances et de la sécurité Veille technologique et recommandations futures La communication se fera en français et en anglais, tous les documents étant rédigés en anglais.
Offre d'emploi
Data Engineer Apache NiFi/SQL/JSON/XML/API
OBJECTWARE
Publiée le
Apache NiFi
API
JSON
3 ans
40k-68k €
400-550 €
Île-de-France, France
Objectif de la mission Dans le cadre du déploiement d’une plateforme Data destinée à centraliser, fiabiliser et gouverner l’ensemble des données des domaines banque et assurance, vous intégrez la squad Data Flux. Cette équipe, composée de trois développeurs Data, d’un architecte technique, d’un Business Analyst et d’un Product Owner, est responsable des missions suivantes : la conception et l’implémentation des flux de données, l’intégration et la transformation de données provenant de sources multiples, la sécurisation et l’industrialisation des flux, en conformité avec les standards attendus en matière de qualité et de traçabilité. Une expérience dans les secteurs de l’assurance, de la banque ou de la finance est vivement recommandée, notamment sur des développements de flux conformes à la norme Penelop, ainsi que sur des flux de données liés aux domaines assurantiels ou aux données clients. - Conception et développement de pipelines de données : Concevoir des flux robustes et évolutifs pour l’ingestion, la transformation et la diffusion des données dans le cadre du modèle Bronze / Silver / Gold. - Développement et intégration sur Apache NiFi : Implémenter et paramétrer des workflows NiFi pour collecter et normaliser les données issues de différentes sources (fichiers XML/CSV, API REST). - Transformation et modélisation des données : Participer à la modélisation du socle de données structurées et au développement des transformations afin de constituer les vues consolidées du MDM. - Contrôles de qualité et traçabilité : Mettre en place des mécanismes d’audit, de logs et de contrôle (complétude, unicité, cohérence, versioning des données). - Optimisation et performance : Surveiller les performances des pipelines, identifier les goulots d’étranglement et proposer des améliorations continues. - Sécurité et conformité : Veiller à la sécurité des données (authentification, chiffrement, gestion des accès) dans le cadre des standards du groupe. - Documentation et partage de connaissances : Documenter les processus, les schémas et les bonnes pratiques afin d’assurer la maintenabilité et la transmission des savoirs au sein de la squad. PREREQUIS TECHNIQUES : - Maîtrise d’Apache NiFi (ingestion, orchestration, monitoring) - Solides connaissances en SQL et modélisation de données relationnelles (PostgreSQL) - Connaissance des modèles de stockage objet (S3, Blob) - Connaissance des formats et protocoles : JSON, XML, CSV, REST API - Compétences en scripting (Python, Bash) appréciées - Sensibilité aux enjeux de qualité, sécurité et gouvernance des données Compétences Techniques : SQL, Python, Bash, Gitlab
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Simulateur urssaf pour nouvelle regle avec cipav et EURL introuvable ?
- Démission pour création d'entreprise rapide
- Nouveau volet social dans la déclaration d'impôts sur le revenu
- Retour d'expérience démission-reconversion
- Passer de micro à SASU avec des factures en attente : comment récupérer son reliquat ARE ?
- Offre fictifs et offre non sérieuses
132 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois