L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 778 résultats.
Mission freelance
Responsable d’Applications Supply Chain
ESENCA
Publiée le
Google Cloud Platform (GCP)
Java
SQL
1 an
Lille, Hauts-de-France
Contexte de la mission Dans un environnement international, nous recherchons un Responsable d’Applications expérimenté afin d’assurer la maintenance et l’évolution de plusieurs produits digitaux liés aux activités Transport et Entrepôts au sein d’un périmètre Supply Chain. Vous interviendrez au sein d’une équipe Build & Run en collaboration étroite avec les utilisateurs métiers, les équipes IT (développement, architecture, sécurité, infrastructure) ainsi que différents partenaires externes. L’objectif principal est de garantir la disponibilité, la performance et la qualité de service des applications tout en accompagnant leur évolution. Vos missions Assurer le maintien en conditions opérationnelles (MCO) des applications du périmètre. Suivre et piloter l’activité via des indicateurs de performance , et mettre en place des plans d’actions préventifs et correctifs. Gérer les demandes d’évolution et de service dans le respect des engagements de service (SLA). Collaborer avec les équipes IT (Product Owner, développeurs, autres responsables applicatifs). Mettre en production les nouvelles versions et participer aux projets de sécurisation du SI. Garantir la qualité de service et la satisfaction des utilisateurs . Maîtriser le paramétrage, les flux applicatifs et les plans de production des solutions maintenues. Maintenir une documentation technique et fonctionnelle à jour . Proposer et mettre en œuvre des améliorations continues pour optimiser les solutions et les processus. Compétences techniques requises Talend et SQL (niveau confirmé – impératif). Connaissance des métiers Transport et Entrepôts (confirmé – impératif). Environnements data et cloud : GCP, BigQuery, Kafka, DataDog, Ordonnanceur AWA (confirmé – important). Connaissances en Java et Python (niveau junior – apprécié).
Mission freelance
DBA ORACLE Sénior
INFOTEL CONSEIL
Publiée le
AWS Cloud
Oracle Database
RMAN
3 mois
600-750 €
France
- INGÉNIERIE : Travailler au sein d'une équipe mondiale d'administrateurs de bases de données (DBA) - Migration vers le cloud - Automatisation - Réplication - Auto-réparation - Consolidation des métriques et des tableaux de bord - Transition vers le cloud public - Assurer la maintenance des serveurs de bases de données Oracle et SQL dans la région EMEA (incidents, changements, migration, plan de reprise après sinistre), dépanner et fournir une assistance - Des permanences seront requises - Au moins 5 ans d'expérience en administration Oracle. Souhaitable : SQL Server, MongoDB, PostgreSQL ou Hadoop - Expertise AWS - Clusters ORACLE RAC - Sauvegarde / clonage / migration : DATAPUMP, RMAN - RPO : Data Guard - Outils de réplication (GoldenGate, Data Guard) - Linux : Red Hat - Surveillance : OEM/Sitescope/Prometheus/Dynatrace - Compétences en automatisation : connaissances en développement/scripting (Python, Java, PowerShell, Terraform) - Connaissance des technologies CI/CD (Ansible, AWS, etc.)
Mission freelance
Ingénieur Performance Senior - Expert Neoload & Dynatrace - Environnements Cloud (Azure/AWS/K8s)
CAT-AMANIA
Publiée le
AWS Cloud
Dynatrace
Git
6 mois
580-660 €
Île-de-France, France
Dans le cadre d’un renforcement de nos équipes sur des programmes stratégiques, nous recherchons un consultant expert en Tests de Performance. Vous interviendrez sur des architectures complexes (N-Tiers, Web, Cloud) pour garantir la stabilité et la montée en charge des solutions de notre client. Missions principales : Définition et conception de la stratégie de tests de performance. Modélisation de scénarios de charge et scripting via Neoload. Exécution des tirs de charge et monitoring temps réel. Analyse fine des goulots d’étranglement (bottlenecks) à l’aide de Dynatrace. Rédaction des dossiers de tests, procès-verbaux (PV) et restitution des résultats. Gestion du versioning des projets sous GIT. Profil recherché : Expertise confirmée en tests de charge et de performance. Maîtrise impérative de Neoload et Dynatrace (Certifications requises). Solides connaissances des environnements Cloud ( Azure, AWS, TKGS ) et de l’orchestration Kubernetes . Bonne compréhension technique des stacks Java, .NET, SQL et des problématiques réseaux/VMware. Aisance rédactionnelle pour la production de livrables de haute qualité. Outils & Environnement : Neoload, Dynatrace, GIT, JIRA, Azure, AWS, Kubernetes.
Mission freelance
Directeur de projet
HAYS France
Publiée le
Data governance
Gouvernance
5 ans
110-600 £GB
Lille, Hauts-de-France
Manager de la gestion de l’actif stratégique des données business Contexte et enjeux : Les données business, en tant que couche finale de consumer-aligned data, constituent un actif stratégique majeur pour l’entreprise. Elles incluent notamment les données orientées usages métiers, les KPI, les Aggregated Data Products ainsi que le référentiel sémantique partagé. Dans ce contexte, le/la manager de la gestion de l’actif stratégique des données business a pour mission de maximiser la valeur créée par ces données, tout en maîtrisant leur qualité, leur usage et les coûts associés à leur construction et à leur exploitation. Mission principale : Piloter, structurer et valoriser l’actif des données business de l’entreprise, en assurant l’alignement entre les enjeux stratégiques, les attentes des métiers et les capacités data et technologiques. Responsabilités clés : 1/ Animation et gouvernance du backlog de données business : -Animer et accompagner la construction, la priorisation et la gouvernance du backlog de données business aux niveaux GLT, Platform Leaders et Head of Data, Performance -Assurer l’alignement stratégique et la gestion des attentes des parties prenante -Garantir la cohérence globale des besoins métiers exprimés 2/ Pilotage de la valeur, de l’usage et de la qualité de l’actif data : -Mettre en place et animer un cockpit de pilotage de l’utilisation des données business - Analyser l’usage réel des KPI et des Aggregated Data Products existants - Mettre en regard les coûts de construction avec les niveaux d’adoption et de consommation - Identifier les opportunités de rationalisation et de création de valeur
Offre d'emploi
Data Engineer Snowflake H/F
JEMS
Publiée le
40k-55k €
Lyon, Auvergne-Rhône-Alpes
Nous recherchons un(e) data engineer spécialisé(e) sur Snowflake capable de trouver des solutions innovantes et robustes à l'ensemble des problématiques Data. Vous aurez la charge de : • Participer à la conception et réalisation d'une solution Data depuis l'acquisition jusqu'à l'exploitation de la donnée en accompagnant la réflexion des directions métiers • Identifier, collecter et intégrer les données nécessaires à la résolution de problématiques métier et opérationnelles • Garantir la qualité des données en mettant en place les outils de mesure et de suivi adéquats en appliquant les règles de Data Gouvernance et de Data Management • Transcrire des besoins métier en règles de gestion data • Industrialiser le déploiement de vos réalisations à travers l'implémentation de tests unitaires, d'intégration et de non-régression Référence de l'offre : 12zcorxp80
Offre d'emploi
Data Ingénieur (32)
VISIAN
Publiée le
BigQuery
Google Cloud Platform (GCP)
1 an
Île-de-France, France
Data IngénieurPrestations attenduesPrestation de cette équipe Collecter et centraliser les différentes sources de données non homogènes Assurer la conformité et la sécurité des données Participer aux initiatives de gouvernance des données Prestation du data ingénieur En interaction avec les membres de l'équipe, la prestation consiste à : Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l'équipe Construire et maintenir de pipelines data robustes et scalables Accompagner les membres de l'équipe dans l'exploitation et le requêtage des données Organiser et structurer le stockage des données Mettre en place et maintenir des infrastructures scalables capable de répondre aux besoins et à l'accroissement rapide du volume de données Construire et maintenir les workflows de la CI/CD Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur Assurer l'évolutivité, la sécurité, la stabilité des environnements Participer aux différentes instances des data ingénieurs Contribuer et veiller à la mise à jour de la documentation Faire de la veille technologique active dans le domaine
Mission freelance
DATA MESH PLATFORM MANAGER SENIOR F/H
SMARTPOINT
Publiée le
AWS Cloud
Azure
CI/CD
12 mois
100-600 €
Île-de-France, France
Concevoir, construire, déployer et exploiter la plateforme Data Mesh du Groupe (appelée Group Data Platform – GDP) comme un produit interne, en garantissant : Sa livraison technique Son adoption à l’échelle de l’entreprise Son excellence opérationnelle Son amélioration continue RESPONSABILITÉS CLÉSConstruction et Livraison de la Plateforme (Responsabilité principale)1. Responsabilités Concevoir et implémenter l’architecture de la plateforme Data Self-Service Définir les capacités de la plateforme (data products, pipelines, gouvernance, observabilité, accès self-service) Définir et faire respecter les standards techniques et les patterns d’architecture Garantir la scalabilité, la performance et la sécurité Prendre des décisions techniques hands-on et valider les solutions 2. Livrables attendus Architecture Decision Records (ADR) Patterns d’architecture de référence et templates réutilisables Roadmap des capacités de la plateforme Standards techniques de la plateforme Architecture Cloud et Infrastructure3. Responsabilités Piloter la conception et l’exploitation d’architectures cloud et hybrides avec le Group Data Architect Coordonner avec l’équipe Group Data Delivery l’implémentation sur AWS et Microsoft Azure Piloter l’intégration des systèmes on-premise Piloter l’automatisation et l’Infrastructure as Code Garantir les exigences de sécurité et de conformité 4. Livrables attendus Blueprint d’architecture cloud (avec le Group Data Architect) Framework de sécurité et de gestion des accès Pilotage Delivery & Exécution5. Responsabilités Être responsable du cycle de vie de livraison de la plateforme Définir le backlog et le processus de priorisation Gérer les releases et les déploiements en production Suivre la performance et la fiabilité Gérer les risques et incidents techniques 6. Livrables attendus Roadmap plateforme (court / moyen / long terme) Backlog produit et framework de priorisation Plan de release et gestion des versions Dashboards de suivi delivery Indicateurs SLA / métriques de fiabilité Déploiement & Adoption par les Domaines7. Responsabilités Déployer la plateforme dans les différents domaines métiers Permettre aux équipes domaine de construire leurs data products Déployer le modèle opérationnel Data Mesh Accompagner l’onboarding et l’adoption Résoudre les problématiques d’adoption opérationnelle 8. Livrables attendus Framework et processus d’onboarding des domaines Guidelines du cycle de vie des data products Playbooks d’accompagnement des domaines Indicateurs d’adoption et d’usage Supports de formation et documentation d’onboarding Product Management (orienté usage) & Amélioration Continue9. Responsabilités Recueillir les besoins utilisateurs et exigences plateforme Définir la vision produit et la roadmap Mesurer l’usage et la création de valeur Améliorer l’expérience développeur et utilisateur 10. Livrables attendus Vision produit et proposition de valeur KPIs plateforme et métriques d’adoption Boucles de feedback utilisateur et backlog d’amélioration Roadmap d’évolution de la plateforme Documentation, Standardisation & Gouvernance11. Responsabilités Documenter les capacités et processus de la plateforme Garantir la conformité avec la gouvernance fédérée des données du Groupe 12. Livrables attendus Référentiel documentaire de la plateforme Standards techniques et guides d’implémentation Framework de gouvernance et conformité Playbooks de bonnes pratiques Communication Opérationnelle & Reporting Exécutif13. Responsabilités Communiquer sur l’avancement et l’impact de la plateforme Fournir un reporting de niveau exécutif Assurer l’alignement des parties prenantes 14. Livrables attendus Dashboard exécutif du projet Dashboards de performance plateforme Présentations en comité de pilotage Suivi des décisions, risques et incidents Promotion Interne & Évangélisation15. Responsabilités Promouvoir la valeur de la plateforme dans l’organisation Soutenir les initiatives d’adoption interne Construire une communauté plateforme 16. Livrables attendus Supports de communication interne Stratégie d’adoption et plan de déploiement Démonstrations plateforme et portfolio de cas d’usage Expérience requise Minimum 15 ans d’expérience en data platform, data engineering ou architecture Expérience prouvée dans la construction et livraison de plateformes data en production Forte expérience hands-on en delivery technique Expérience en platform engineering ou data engineering avancé Expérience en environnement grand groupe ou multi-entités Expérience pratique du Data Mesh obligatoire Compétences techniquesArchitecture & Engineering Architecture data distribuée Conception de systèmes distribués Infrastructure as Code Pratiques DevOps / DataOps / CI/CD Ingénierie performance et scalabilité Cloud & Infrastructure Expertise avancée AWS et Azure Architectures hybrides et on-premise Sécurité et gouvernance cloud Plateforme Data Data products & gestion du cycle de vie Pipelines et orchestration Gestion des métadonnées et catalogues Frameworks de gouvernance data Observabilité data Product & Delivery Approche produit appliquée aux plateformes techniques Gestion roadmap & backlog Méthodologies Agile Développement orienté valeur Soft Skills critiques Leadership technique et opérationnel fort Orientation exécution et delivery Capacité à intervenir de manière hands-on dans des environnements complexes Excellente communication transverse Sens fort de la responsabilité Esprit analytique et pragmatique Capacité d’influence sans autorité hiérarchique directe Vision stratégique avec focus opérationnel Gestion des parties prenantes au niveau exécutif et opérationnel Anglais courant obligatoire (écrit et oral) Indicateurs de succès Plateforme livrée et opérationnelle en production Adoption par les domaines métiers Nombre et qualité des data products déployés Fiabilité et performance de la plateforme Satisfaction et usage des utilisateurs Réduction du time-to-market des cas d’usage data
Mission freelance
Consultant Conformité BCBS239 / RDARR
NEXORIS
Publiée le
Data management
6 mois
600 €
Île-de-France, France
Notre client, recherche un Consultant Senior Finance – Conformité BCBS239 / RDARR (H/F) dans le cadre d'une longue mission. Dans le cadre d’un programme de refonte de la filière finance, la mission vise à garantir la cohérence des travaux avec les exigences réglementaires BCBS239 (RDARR) en matière de gestion des risques et de qualité des données. - Assurer l’alignement des travaux de refonte avec les principes BCBS239 (gouvernance, qualité, traçabilité des données) - Piloter la cohérence transverse entre les différents chantiers (finance, risques, data) - Analyser les écarts entre les dispositifs existants et les exigences RDARR - Définir et mettre en œuvre des recommandations de remédiation - Accompagner les équipes métiers et IT dans l’intégration des bonnes pratiques data - Participer aux comités de pilotage et produire les reportings associés - Contribuer à la documentation réglementaire et aux audits internes/externe Profil et compétences recherchés
Offre d'emploi
AI ENGINEER - DATA SCIENTIST
SMILE
Publiée le
Data science
Pilotage
Python
6 mois
Paris, France
Au sein de la DSI Corporate d’un grand groupe bancaire, le département Développements Tactiques de la direction Fast Delivery Solutions recrute un Expert Leader Data & IA . Cette direction a pour but de mettre en place des solutions rapides au service de l'ensemble des directions métiers et des fonctions supports, en réponse à des besoins ponctuels ou pérennes. En lien avec les DSI métiers, elle en assure la maintenance et participe à leur éventuelle intégration dans le SI. Pour ce faire, elle met au service des filières métiers une équipe de proximité multi solutions afin de les aider dans leurs travaux ponctuels, la réalisation de POC (Proof Of Concept), de reportings ou bien encore l’automatisation de tâches récurrentes. La mission se situe au sein du département Développements Tactiques qui a pour mission de : Développer des outils en mode commando et en proximité directe avec le métier. Mettre en œuvre des solutions faisant appel à de l’IA générative pour répondre à des besoins métier. Accompagner l’industrialisation de ces solutions dans le parc applicatif des DSI filières. Étudier la possibilité de mise en œuvre de solutions innovantes, au travers d’une veille technologique et d’études d’opportunités. Participer à des évènements et animations de démo ou d’ateliers autour de l’IA ou de la data. L’équipe, actuellement constituée de 19 membres (Data Engineers, Data Scientists et Développeurs FullStack), fonctionne entièrement en mode agile et en proximité avec les métiers. Jeune, dynamique, motivée et très proactive, l’équipe valorise l’entraide et la bonne ambiance. Le candidat devra donc avoir la personnalité permettant de conserver cette dynamique intacte. Les soft skills sont donc autant essentielles que les compétences techniques : bon communiquant, motivé, force de proposition et sociable. Compétences techniques déjà présentes dans l’équipe : Développement autour de l’IA Générative. Développement Python / Pycharm. Développement Front Angular. Développement de cas d’usage IA générative à destination du business. Développement PySpark / Spark / Scala. Connaissance des plateformes Cloud. Mise en œuvre de workflows sous Alteryx. La mission : L’équipe se voit confier un nouveau programme visant à mettre en œuvre un ensemble de Use Cases faisant appel à de l’IA générative ou consistant à automatiser des traitements. Pour faire face à ce nouveau programme, nous souhaitons renforcer nos compétences avec un AI Engineer confirmé Data & IA . Principales missions : Innovation et réalisation de POCs : assurer la faisabilité technique des cas d’usage, développer des POCs autour de projets IA générative, proposer des solutions innovantes (LLM, prompts, RAG, traitement de données complexes). Industrialisation : en collaboration avec la production applicative et les contributeurs DSI, industrialiser les sujets dont les POCs s’avèrent concluants. Expertise Data & IA Générative : leader techniquement les projets, en s’appuyant sur les technologies internes (plateforme cloud, outils IA, modèles de langage type Gemini). Force de proposition : identifier des axes d’amélioration et proposer des solutions innovantes. Partage de connaissances : contribuer à la montée en compétences collective au sein de l’équipe. Suivi des sujets : assurer une communication claire et synthétique au responsable de l’équipe et aux Product Owners.
Mission freelance
Architecte DATA & Intégration (H-F)
HOXTON PARTNERS
Publiée le
Architecture
Data Lake
microsoft
2 ans
660-750 €
Bruxelles-Capitale, Belgique
Nous recherchons un Architecte Data & Intégration pour l’un de nos clients dans le cadre d’un programme de transformation d’envergure autour des plateformes Data et d’intégration. La mission s’inscrit dans la structuration et le déploiement d’une plateforme moderne orientée data et usages avancés. Missions principales : Définir l’architecture cible d’une plateforme Data basée sur des technologies Microsoft et construire la roadmap associée Piloter la migration d’un Data Lake existant (flux, pipelines, cas d’usage) vers une nouvelle plateforme cible Mettre en place la gouvernance Data (qualité, sécurité, conformité, métadonnées, rôles et responsabilités) Accompagner les équipes techniques dans l’implémentation et assurer le suivi des jalons et des risques Concevoir une plateforme « AI-ready » intégrant des capacités avancées (IA/ML, streaming, analytics) Produire la documentation d’architecture et assurer le transfert de compétences
Mission freelance
DevSecOps Cloud AWS (H/F)
Insitoo Freelances
Publiée le
AWS Cloud
DevOps
IA
2 ans
450-500 €
Lyon, Auvergne-Rhône-Alpes
Contexte : Fonctionnement : 2 jours sur site non consécutifs par semaine Les missions attendues par le DevSecOps Cloud AWS (H/F) : En tant qu’ Ingénieur DevSecOps , vous serez un acteur clé pour : Automatiser et sécuriser les livraisons logicielles : Concevoir, déployer et maintenir des pipelines CI/CD (GitLab CI, Jenkins) pour garantir des déploiements fluides et sécurisés. Intégrer des tests automatisés (unitaires, d’intégration, de non-régression) et des scans de sécurité (Checkmarx SAST/SCA, AWS Inspector) dans le processus de développement. Garantir la robustesse des infrastructures : Gérer l’ Infrastructure as Code (Terraform) pour des environnements reproductibles et scalables. Superviser la performance et la sécurité des applications en production (CloudWatch, Grafana, AWS Security Hub). Collaborer avec les équipes produit et sécurité : Travailler en étroite collaboration avec les développeurs, Product Owners et experts cybersécurité pour intégrer les bonnes pratiques DevSecOps dès la conception. Participer aux rituels agiles (daily, rétrospectives) et aux Gamedays pour tester la résilience des solutions. Documenter et former : Rédiger des procédures techniques et des guides de bonnes pratiques pour capitaliser sur les retours d’expérience. Accompagner les équipes dans la montée en compétences sur les outils DevSecOps.
Offre d'emploi
Data base administrateur (DBA) MongoDB
Sijo
Publiée le
AWS Cloud
Azure
Mongodb
3 ans
55k-75k €
500-700 €
Île-de-France, France
Nous recherchons un Data base administrateur (DBA) MongoDB dynamique et motivé pour rejoindre le cabinet Sijo. Sijo est un cabinet de conseil en IT spécialisé dans le secteur de la banque et de la finance. Nous accompagnons nos clients dans leurs réalisations de projets techniques, ainsi que nos consultants dans leurs projets de carrière. Nous sommes un cabinet référencé auprès de la Société Générale, la BNP, la Banque Postale, le Crédit Agricole, Engie Trading et Natixis. Nous sommes référencé « Top vendeur » auprès de la Société Générale, ce qui signifie que nous faisons partie de leurs 40 1er fournisseurs. Le candidat idéal aura une expertise en gestion de base de données avec la technologie MongoDB et une bonne connaissance sur Azure et AWS.
Mission freelance
AWS Senior Data Engineer / Data Architect (Event-Driven & Streaming)
Tenth Revolution Group
Publiée le
Amazon Redshift
AWS Cloud
AWS Glue
6 mois
400-650 €
Auvergne-Rhône-Alpes, France
Contexte Dans le cadre de la modernisation d’une plateforme data, vous concevez et mettez en œuvre des architectures cloud-native orientées événements sur AWS. L’objectif est de remplacer les traitements batch par des pipelines distribués, temps réel ou quasi temps réel, robustes et scalables. Missions principales Vous définissez des architectures data serverless event-driven, concevez des pipelines d’ingestion et de transformation distribués et mettez en place des systèmes découplés basés sur la messagerie en garantissant la scalabilité, la résilience et l’optimisation des coûts. Vous transformez les flux ETL batch en pipelines cloud-native, implémentez les patterns asynchrones (retry, DLQ, idempotence, gestion des timeouts) et industrialisez les déploiements via l’Infrastructure as Code et la CI/CD. Vous déployez le monitoring, le logging et le tracing afin de suivre la performance, la latence et la qualité des flux. Compétences clés Solide expérience des architectures event-driven et des systèmes distribués, de l’event sourcing et du message brokering, de la gestion du backpressure et de la latence ainsi que de la transformation distribuée et du traitement de gros volumes. Ce poste n’est pas orienté BI, reporting ou data engineering batch classique Positionnement Rôle transverse avec une forte interaction avec les équipes data, cloud, DevOps et applicatives, impliquant une responsabilité importante sur les choix techniques et les bonnes pratiques. Synthèse Profil d’architecte data AWS spécialisé en serverless et en architectures orientées événements, capable de concevoir des pipelines distribués scalables et résilients.
Offre d'emploi
Senior Machine Learning Engineer (MLE) - H/F
AMD Blue
Publiée le
AWS Cloud
Machine Learning
PySpark
3 ans
60k-65k €
650-730 €
Paris, France
Qui sommes-nous ? Chez AMD Blue , l'innovation est notre passion, et nous sommes fiers de présenter Blue Data . Avec une présence établie sur l'ensemble du territoire français et une récente expansion aux États-Unis, nous sommes résolument tournés vers l'avenir. Dans le cadre d’un besoin client, nous avons l'opportunité d'accueillir un nouveau membre au sein de notre Tribu Data . Contexte de la mission : Notre client développe et maintient des modèles de prévision de la demande et des ventes à l'échelle internationale. L'enjeu de 2026 est d'étendre la couverture de ces pipelines de production à de nouvelles zones géographiques mondiales (SEA, LATAM, NA et MEA). Dans ce cadre, nous recherchons un(e) Senior Machine Learning Engineer pour industrialiser, déployer et fiabiliser ces modèles de forecast à grande échelle. Descriptif de la mission : Les missions sont : Industrialisation et déploiement : Transformer les prototypes Data Science en pipelines robustes, orchestrer la mise en production et optimiser les performances de run. MLOps & Robustesse : Renforcer la CI/CD ML, versionner les modèles/datasets et implémenter le monitoring (drift, stabilité). Collaboration technique : Challenger la conception des modèles pour faciliter l'industrialisation et améliorer la qualité du code (structure, tests). Scalabilité internationale : Adapter les pipelines pour supporter de fortes volumétries multi-régions. Coordination : Structurer et prioriser les activités de Run & Stabilisation dans un environnement Agile (Scrum).
Mission freelance
Consultant Data Quality
NOVAMINDS
Publiée le
Data quality
3 mois
400-440 €
Paris, France
Objectif de la mission La mission du Data Office s’est fortement enrichie avec la promotion de l’utilisation de la Data par l’ensemble des projets des Métiers / Fonctions (Risque/Finance/ IT) de la banque de détail et du Groupe. L’objectif est de développer l’activité commerciale, de diminuer les coûts, d’améliorer l’efficacité opérationnelle et de répondre à la dimension règlementaire. La mission se déroulera au sein de l’équipe Data Office Data Quality de la banque de détail. Prestations demandées L’activité de cette équipe porte sur le développement, l’amélioration et le déploiement du Dispositif Data Quality (contrôle, dimension, labélisation, coordination des remédiations) dans l’écosystème banque de détail et sur l’accompagnement Data sur les projets réglementaires (définition, cadrage, flowcharts, règle de gestion, etc.). Le profil a une connaissance théorique des expertises demandées par sa formation et a pu les mettre en pratique sur une ou deux missions. Le profil est régulièrement formé ou informé par ses pairs ou par le biais de formations sur l’expertise demandée.
Offre d'emploi
Tech Lead .NET/Cloud
VISIAN
Publiée le
.NET
AWS Cloud
Azure
2 ans
41k-90k €
400-600 €
Boulogne-Billancourt, Île-de-France
Bonjour, Dans le cadre de ses projets clients, Visian est à la recherche d'un Tech Expertise technique et architecture Établir et incarner les standards d’excellence technique en définissant des bonnes pratiques ambitieuses et en garantissant leur application rigoureuse au sein des équipes Piloter l’architecture et le développement logiciel avec un haut niveau d’exigence : conception robuste, code de qualité irréprochable, patterns maîtrisés et alignement constant avec une vision d’architecture moderne et scalable. Prendre les décisions techniques stratégiques et arbitrer avec assurance entre performance, scalabilité, sécurité et rapidité d’exécution en gardant toujours l’impact business en ligne de mire. Travailler en binôme avec l’équipe Cloud & Infrastructure pour garantir la résilience, l’observabilité et la fiabilité d’un SI moderne, industrialisé et hautement disponible. Diriger les résolutions d’incidents majeurs en intervenant comme expert technique référent : diagnostic rapide, RCA approfondi, post- mortems structurés et actions correctives durables
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
2778 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois