L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 887 résultats.
Mission freelance
DBA SQL Server MSBI (H/F)
LeHibou
Publiée le
Microsoft SQL Server
12 mois
560-620 €
Guyancourt, Île-de-France
DBA expert(e) SQL Server / MSBI Contexte et objectif de la mission Au sein du pôle infrastructure et production informatique d’un grand groupe bancaire international (environnement Corporate/Investment Banking), la mission vise à assurer l’évolution et le traitement de l’obsolescence des infrastructures de monitoring utilisées à l’échelle mondiale. L’infrastructure concernée permet de gérer environ 20 000 postes de travail et 10 000 serveurs. Missions principales / Responsabilités • Assurer l’évolution et le traitement de l’obsolescence des infrastructures de monitoring utilisées mondialement • Administrer et faire évoluer une offre IaaS/DBaaS on premise incluant : MS SQL Engine, SSIS, SSAS, SSRS, PowerBI Report Server • Participer aux efforts d’automatisation et de fiabilisation, notamment via des API et des déploiements PowerShell DSC / AWX • Contribuer au développement et à la maintenance d’un outil interne d’inventaire des bases (développement maison) • Réaliser des présentations techniques • Assurer le support technique de niveau 3 auprès d’équipes RUN basées à Singapour • Rédiger des dossiers et avis techniques ainsi que des feuilles de route à destination des chefs de projet et équipes opérationnelles • Participer à des astreintes et/ou opérations ponctuelles en heures non ouvrées (HNO)
Mission freelance
PMO (Project Management Officer) H/F Niort (79)
CAT-AMANIA
Publiée le
Reporting
2 ans
350-500 €
Niort, Nouvelle-Aquitaine
Nous recherchons un PMO (Project Management Officer) pour le compte d'un de nos clients sur Niort. Notre client recherche un PMO. Le consultant sera en charge du suivi opérationnel, du reporting et de l’accompagnement des équipes pour garantir la réussite du projet. Les principales missions seront : Assurer le suivi du pilotage opérationnel et du reporting des activités du programme, Suivre les plannings prévisionnels , l’affectation des ressources, les réalisations et le budget, Alerter les responsables en cas d’anomalie par rapport aux prévisions, Participer à l’analyse et au suivi des adhérences et des risques , Garantir l’application des bonnes pratiques méthodologiques et assurer le respect des engagements du programme. Livrables attendus Planification : Contribuer à l’élaboration du portefeuille du programme en intégrant contraintes, dépendances et besoins en ressources, Suivi des activités et ressources : Vérifier l’avancement du programme et veiller à l’application des méthodologies et bonnes pratiques, Pilotage du plan projet/programme : Proposer des ajustements et des replanifications si nécessaire, Suivi du budget et reporting : Suivre l’actualisation du budget et des moyens alloués, produire les tableaux de bord et reportings nécessaires,
Mission freelance
DBA Oracle, PostGreSQL, Habilitable
CS Group Solutions
Publiée le
dBase
Oracle Database
PostgreSQL
12 mois
Angers, Pays de la Loire
Nous recherchons un DBA Oracle, PostGreSQL, Habilitable Description: Au sein d'un projet en charge de l'infrastructure d'un client et organisé en pôle de spécialistes (Linux, Windows, bases de Données), nous renforçons l'équipe de DBA. Dans une équipe structurée, vous assurez l’administration complexe des bases de données afin de garantir à notre client la sécurité et la haute disponibilité de ses infrastructures. vous assurez les activités qui suivent : • Administrer, optimiser les environnements BDD et assurer le maintien en condition opérationnelle (Oracle 19c, PostgreSQL, SQLServer, MariaDB/MySQL) • Concevoir et mettre en œuvre les infrastructures de système de gestion des BDD (Oracle Clusterware, environnements mutualisés) • Mettre en Œuvre les solutions de réplication de BDD (Oracle : Dataguard, PostgreSQL/MariaDB/MySQL : réplication stream, standby & logique, SQL Server : Always-On) • Assurer le traitement des demandes de services et des incidents de Niveau 2 et interface avec les équipes N3 du client lorsque nécessaire • Participer à la mise en en production • Analyser et suivre les incidents de mise en production • Maintenir les conditions générales de production de service (résolution d’incidents sur son domaine technique et propositions d’amélioration) • Réaliser l’enrichissement des référentiels d’exploitation ; • Participer à l’automatisation & à l’amélioration des activités • Réaliser l’intégration technique des composants dans le respect des normes d’exploitabilité la mission nécessite une autonomie dans l'administration des bases de données sur des systèmes complexes et à haute disponibilité : - Oracle RAC - PostGreSQL - SQLServer - Linux Redhat - VMWare La mission autorise le télétravail à hauteur de 2j et implique une domiciliation autour de Nantes (moins de 1h) pour assurer les astreintes et interventions 1semaine/mois. Le démarrage sur la mission nécessitera une habilitation.
Offre d'emploi
Analyste d'exploitation F/H
Experis France
Publiée le
26k-30k €
Niort, Nouvelle-Aquitaine
Analyste d'exploitation F/H - Niort 🛠️ Analyste d'exploitation (F/H) - Rejoignez Experis à Niort ! 📍 Localisation : Niort 📅 Contrat : CDI 🎯 Expérience : Confirmée Chez Experis , nous accompagnons les grandes entreprises dans leurs enjeux IT. Nous recherchons un(e) Analyste d'exploitation pour intervenir en prestation chez l'un de nos clients, dans un environnement technique stimulant. 🎯 Votre mission Vous serez le point de contact technique pour accompagner les équipes de réalisation sur les sujets d'exploitation et de DevOps : MCO des environnements dédiés Supervision, ouverture de flux, règles de sécurité Rédaction de fiches d'exploitation et modes opératoires Support technique (debug, analyse) Accompagnement des équipes de build Suivi des livrables liés à la mise en service (PRA, supervision, activation…
Offre d'emploi
Consultant Data Gouvernance sur Paris 12
EterniTech
Publiée le
Cloudera
Microsoft Power BI
SAS
2 ans
75560 CEDEX 12, Paris, Île-de-France
Je recherche pour un de mes clients un Consultant Data Gouvernance sur Paris 12 CONTEXTE DE LA MISSION Dans le cadre de ses missions de définition des politiques de gestion des données et du suivi de leur mise en œuvre, l'activité Gouvernance de la Donnée du client (3 salariés à ce jour) souhaite renforcer son équipe d'un profil confirmé en la matière. Le client recherche donc à apporter à l'équipe Gouvernance de la donnée un accompagnement assorti d'un regard éclairé dans l'exécution des différents pans de ses missions : définition des politiques de gestion des données (rôles et responsabilités; mise en place/alimentation d'un Glossaire métier et d'un Dictionnaire des données; modalités de suivi de la qualité des données; modalités permettant d'assurer la sécurité et la conformité réglementaire de l'accès aux données; articulation avec les capacités de la plate-forme Data choisie par l'entreprise); mise en oeuvre et suivi de ces politiques, en lien avec les contributeurs nécessaires; acculturation des différentes populations de l'entreprise aux exigences et apports en lien avec la gouvernance des données; etc..... DESCRIPTION DE LA MISSION Les missions principales au sein de l'activité Gouvernance de la donnée seront les suivantes : - Participation le cas échéant au choix des outils de gouvernance des données (rencontres fournisseurs initiées ; échanges en cours) - Catalogage / connaissance des données : Définir les standards et bonnes pratiques et en vérifier la bonne application en mobilisant les acteurs requis (SI, métier), assurer l’acculturation nécessaire ; - Cartographie des Données : Approfondir la cartographie des données qui aura été initiée (avec les acteurs métier, SI, urbanistes) et être capable de la présenter, la faire adopter et de l’utiliser à des fins de gouvernance des données… - Conformité règlementaire : Garantir que toutes les données respectent les normes internes et externes, en particulier en matière de RGPD et de conformité légale. - Gestion des rôles et animation de la communauté Data : Identifier les relais de la gouvernance dans un contexte de responsabilités fédérées. Mobiliser les acteurs (animation de séminaires, communication…). - Gestion des habilitations : Définir la granularité des habilitations des rôles et utilisateurs identifiés. - Accompagnement de la montée en compétence des autres membres de l'équipe sur des sujets structurants devant être maîtrisés pour mener à bien les missions de l'activité LIVRABLES ATTENDUS ET ENVIRONNEMENT TECHNIQUE Exemples de livrables attendus : Chapitres thématiques de la politique de Gouvernance des données : - rôles et responsabilités ; - gestion Glossaire/Dictionnaire ; - gestion du Data Lineage ; - sécurité et droits d'accès, dont conformité juridique ; - Suivi de la qualité des données ; - process permettant l'évolution de la plate-forme Data Environnement technique : Sélection en cours du fournisseur pour une plateforme Data d’entreprise cible Couche stockage : - Teradata - Hadoopa Cloudera - Postgre Transformation : - Data stage - Spark BI : - Power BI - SAS Expériences attendues : - Expérience au sein d'un Data Office en charge de la Gouvernance des données (au moins 2 expériences significatives) - Utilisation des outils de Gouvernance des données (gestion des méta données, dont Glossaire / Dictionnaire, Catalogage, Création/Exposition de Data Product, Data Quality, Lineage) - Compréhension des grands modèles d'Architecture Data (Extraction/Chargement, Transformation/Nettoyage, Mise à disposition, Suivi des usages) - Pratique d'une solution Plate-Forme Data
Mission freelance
Product Owner Senior – Produit Digital Data (H/F)
Comet
Publiée le
Méthode Agile
1 an
400-580 €
Île-de-France, France
Contexte Dans le cadre du développement d’un produit digital stratégique orienté data et performance opérationnelle, nous recherchons un Product Owner Senior pour accompagner une entité innovation / engineering. Le produit est déjà en phase de développement et nécessite un renfort pour structurer la vision, piloter le backlog et accompagner les mises en production. Missions principalesVision & Produit Co-construction et clarification de la vision produit Définition et priorisation du backlog Rédaction des user stories et spécifications fonctionnelles Animation des ateliers métiers & techniques Delivery & Run Suivi des développements en méthodologie Agile Coordination avec équipes techniques (data, architecture, APIs) Suivi des mises en production Qualification des anomalies & gestion du support Data & Technique Compréhension des modèles de données et workflows Participation à la documentation fonctionnelle et technique Rédaction des spécifications d’évolution produit Contribution aux phases de tests et validation fonctionnelle 📈 Pilotage & Reporting Organisation des rituels produit Comptes rendus structurés Suivi planning / risques / décisions Reporting régulier aux parties prenantes Compétences attendues ✔️ Expérience confirmée en tant que Product Owner ✔️ Maîtrise des environnements Agile ✔️ Bonne compréhension des architectures techniques (API, data models, performance) ✔️ Expérience en gestion de backlog & pilotage delivery ✔️ Notions en data / analytics / optimisation ✔️ Excellente communication (animation ateliers, relation métiers & IT) ✔️ Expérience en contexte grand groupe / environnement complexe
Mission freelance
Architecte Data - Lyon
Cherry Pick
Publiée le
Apache Kafka
Apache Spark
Architecture
6 mois
700-870 €
Lyon, Auvergne-Rhône-Alpes
Architecte Data / Cloud Senior (Expert)🎯 Contexte & Enjeux Dans le cadre de la transformation de notre client (Secteur d' Assurance) vers un Système d’Information Data Centric , nous recherchons un(e) Architecte Data / Cloud Senior capable d’accompagner la modernisation de notre infrastructure Data On-Premise et Cloud. Cette transformation stratégique vise à bâtir un SI : Agile Évolutif Résilient Orienté données Aligné avec nos enjeux long terme L’expert(e) interviendra en transverse auprès des équipes MOA, Techlead, Développeurs et DBA afin de garantir une intégration fluide des architectures Data modernes. 🎯 Objectifs de la mission Évaluer l’architecture existante et recommander les meilleures pratiques Data / Cloud Concevoir et mettre en œuvre une architecture Data Centric robuste et scalable Définir et implémenter les patterns Data (Batch, Streaming, Event-driven, Microservices data, etc.) Assurer l’intégration cohérente des environnements On-Premise et Cloud Accompagner les équipes internes (MOA, Tech, DBA) Garantir la sécurité, la gouvernance et la performance des données Assurer le transfert de compétences Produire une documentation complète (HLD, LLD, DAT, schémas d’architecture) 📦 Livrables attendus Dossier d’architecture cible (HLD/LLD) Schémas d’urbanisation Data Blueprint Data/Cloud (multi-cloud / hybrid) Recommandations techniques formalisées Plan de migration On-Premise → Cloud Documentation des pipelines Data Guide de bonnes pratiques Support aux équipes techniques Plan de gouvernance et sécurité des données 🛠 Responsabilités principales Définir l’architecture Data (Batch & Streaming) Mettre en œuvre des pipelines temps réel (Kafka, Spark Streaming, Beam) Concevoir des architectures multi-cloud (AWS, GCP, Azure, Oracle Cloud) Intégrer les solutions NoSQL (CouchDB, MongoDB) Concevoir des architectures sécurisées (Keycloak, IAM, RBAC) Superviser les choix techniques liés aux bases Oracle Accompagner l’industrialisation sous OpenShift Garantir la performance, la scalabilité et la résilience 👤 PROFIL RECHERCHÉ🎓 Formation Bac+5 (Ingénieur / Master en Informatique / Data / Cloud) Minimum 8 à 10 ans d’expérience dont plusieurs années en architecture Data
Offre d'emploi
Développeur Data Python SQL Shell Spark
KEONI CONSULTING
Publiée le
JIRA
Jupyter Notebook
Python
18 mois
20k-60k €
100-500 €
Lyon, Auvergne-Rhône-Alpes
CONTEXTE : Le client dans le cadre de son activité Big Data, recherche un profil en développement Data, Python, SQL, Shell, Spark (+ de 5 ans d'expérience) pour nous accompagner dans les actions sur la plateforme Cloudera Hadoop. L'objectif de la mission est de réaliser et maintenir les développements nécessaires à l'alimentation de la plateforme Hadoop, à la mise en place d'extractions et à l'accompagnement des utilisateurs MISSIONS Rattaché au responsable Big Data, le profil aura pour principales missions : - de prendre en charge les évolutions des données à intégrer, reprendre les développements effectués pour l'alimentation du Datalake , de les faire évoluer en fonction des besoins (Stack technique : Hadoop Cloudera, Hive, Impala, Python, Shell, Linux, SQL, VBA, Jupyter) - d'avoir une expertise technique permettant de spécifier techniquement les tâches, fournir les requêtes de référence, effectuer une revue de code, accompagner les potentiels alternants ou stagiaires (une alternante à date) - de mettre en place des extractions à partir de ces données, - d’assurer le support niveau 2, - de faire appliquer les consignes aux utilisateurs, - de garantir la tenue des délais de livraison dans un contexte de production à fortes attentes - de contribuer à garantir la maintenabilité de la plateforme ainsi que ses performances et son exploitabilité Il veillera au respect de l’utilisation des modèles référencés ou à leur évolution en collaboration avec la Direction Technique Informatique et la Gourvernance de la Donnée. Le profil devra posséder des aptitudes et qualités avérées sur sa capacité à communiquer avec diplomatie, à écouter, à s'intégrer et à partager son savoir faire, à documenter ses actions et à accompagner. Dans le même ordre d'idée, quelques attendus : - Développement des traitements d'alimentation, forte capacité à structurer l'activité (JIRA), mise en place et description de processus (guides, accompagnement utilisateurs, …), pilotage opérationnel de certains sujets - Développement d'extractions avec SQL (expert) et scripting Shell avancé pour l'automatisation - Capacité à investiguer et faire du reverse engineering dans une architecture héritée complexe - Optimisation des traitements de la plateforme et ceux des utilisateurs Livrables attendus "Code source documenté Plan de tests / fiches de test Bilan Bordereau de livraison Manuel d’installation Dossier d’exploitation JIRA documentée" Environnement technique - technologique "• Cloudera Hadoop • Hive, impala • Python • SQL • Shell • Spark • VBA • GIT • Jupyter • Linux • JIRA" Compétences techniques Connaisance Cloudera Hadoop, Hive, Impala Développement Python Requêtage SQL Développement Shell Développement Spark (Scala) Utilisation de GIT Agilité (méthodes Kanban et/ou Scrum) Compétence liée à l'environnement Connaissance de l'écosystème de la protection sociale
Mission freelance
DBA TRANSVERSES SQL SERVER CERTIFIES MICROSOFT
PROPULSE IT
Publiée le
microsoft
SQL
24 mois
275-550 €
Le Plessis-Robinson, Île-de-France
Pour l'un de nos clients nous recherchons actuellement plusieurs DBA SQL SERVER TRANSVERSES ETUDE ET PRODUCTION Missions proposée : - Intégration dans une équipe Franco-Vietnamienne transverse de DBA et développeurs SQL - Accompagnement et échanges permanent avec une équipe de DBA N3 - Travail en autonomie en mode projet (optimisation, développement de fonctionnalités et mise en place de reporting) - Travail en équipe afin d'échanger sur différentes problématiques - Analyse en live ou post mortem d'incident, préconisations préventives et correctives pour le futur - Audit de bases de données et rédaction de rapport d'audit - Accompagnement et coopération avec différentes équipes : Développement .Net, EDI, SAN, réseaux, système,… - Veille technologique
Mission freelance
📢 Offre de mission – Développeur Java / React (H/F)
SMH PARTICIPATION
Publiée le
Agile Scrum
API REST
Git
1 an
100-370 €
Niort, Nouvelle-Aquitaine
Dans le cadre d’une mission de longue durée chez l’un de nos clients, acteur majeur du secteur de l’assurance, nous recherchons un(e) Développeur(se) Java / React 📍 Localisation: Niort (79) avec un mode de travail Hybride ( 2 jours de TT) 🎯 Contexte Vous interviendrez sur des applications métiers critiques dans un environnement agile, au sein d’équipes dynamiques et expérimentées. ✅ Vos missions Développement back-end en Java (Spring / Spring Boot) Développement front-end en React JS Participation aux phases d’analyse et de conception Rédaction de la documentation technique Mise en place de tests unitaires Collaboration avec les équipes fonctionnelles, QA et DevOps Contribution aux bonnes pratiques de développement 🧰 Environnement technique Java 8+ / Spring Boot React JS, JavaScript / TypeScript APIs REST Git, CI/CD Méthodologie Agile / Scrum 👤 Profil recherché Expérience confirmée en Java et React Bonne maîtrise des architectures web Autonomie, rigueur et esprit d’équipe Une expérience dans le secteur de l’assurance est un plus
Mission freelance
Data Product Owner – Intermodal
LINKWAY
Publiée le
Business Intelligence
Confluence
JIRA
1 an
400-490 €
Île-de-France, France
Dans un contexte de transformation digitale et d'optimisation des flux logistiques mondiaux, nous recherchons un Data Product Owner spécialisé dans le transport Intermodal . Le secteur de la logistique vit une révolution axée sur la donnée, et l'intermodalité (la combinaison intelligente de différents modes de transport comme le rail, la route et le maritime) est au cœur des enjeux écologiques et économiques actuels. En tant que Data Product Owner, vous serez le chef d'orchestre de produits de données innovants destinés à optimiser ces flux complexes. Vous intégrerez une équipe transverse ("Squad") composée de Data Engineers, de Data Scientists et d'analystes, et vous ferez le lien vital entre les équipes techniques et les métiers opérationnels du transport. Définition de la Vision et de la Roadmap Produit : Vous serez responsable de la construction et du maintien de la vision produit. Cela implique de comprendre les besoins des opérationnels qui gèrent le transport intermodal au quotidien. Vous devrez traduire ces besoins business en solutions "Data" concrètes (tableaux de bord décisionnels, algorithmes d'optimisation de routes, outils de tracking prédictif, calculateurs d'émissions CO2). Vous élaborerez une roadmap claire à court, moyen et long terme, en priorisant les fonctionnalités qui apportent le plus de valeur ajoutée à l'entreprise (ROI). Gestion du Backlog et Delivery : Vous serez en charge de la rédaction des User Stories, en vous assurant qu'elles sont claires, testables et orientées vers la valeur utilisateur. Vous gérerez le Product Backlog, en arbitrant constamment les priorités entre les nouvelles fonctionnalités, la dette technique et les corrections de bugs. Vous animerez les rituels agiles (Sprint Planning, Daily Stand-up, Sprint Review, Retrospective) pour garantir un rythme de livraison soutenu et de qualité. Valorisation de la Donnée et Qualité : Le cœur de votre mission reste la donnée. Vous devrez travailler en étroite collaboration avec la gouvernance des données pour vous assurer de la qualité, de la fiabilité et de la disponibilité des flux de données entrants (IoT, systèmes TMS, données partenaires). Vous devrez identifier les sources de données pertinentes pour résoudre les problèmes de logistique intermodale (ex: temps d'attente aux terminaux, congestion ferroviaire) et transformer ces données brutes en insights actionnables pour les décideurs. Gestion des Parties Prenantes (Stakeholder Management) : Vous serez l'interlocuteur privilégié des différentes directions (Opérations, Commerce, RSE, IT). Votre rôle sera de fédérer ces acteurs autour du produit, de gérer les attentes parfois contradictoires et de communiquer transparentement sur l'avancement des projets. Vous devrez faire preuve de pédagogie pour expliquer les contraintes techniques aux métiers et les enjeux business aux équipes techniques. Accompagnement au Changement : Le déploiement d'un produit Data ne s'arrête pas à la mise en production. Vous accompagnerez les utilisateurs finaux dans la prise en main des outils, recueillerez leurs retours pour l'amélioration continue et mesurerez l'adoption des solutions via des KPIs précis (taux d'utilisation, impact sur la marge, réduction des délais, etc.).
Offre d'emploi
Data Scientist - Domaine Paiements & Big Data (GCP, Python, ML/NLP)
CAT-AMANIA
Publiée le
Git
Google Cloud Platform (GCP)
Python
6 mois
40k-71k €
500-610 €
Île-de-France, France
Au sein d'un grand groupe bancaire, intégré au pôle Paiement, vous agissez en tant que référent technique et fonctionnel sur des projets décisionnels et Big Data. Vous faites le lien entre les besoins métiers et les solutions technologiques innovantes basées sur l'Intelligence Artificielle et le Cloud. Vos missions principales : Gestion de projet & Analyse : Collecter les besoins auprès des métiers, animer des groupes de travail et rédiger les spécifications fonctionnelles et techniques. Data Engineering & Architecture : Modéliser les données et développer des reportings. Vous assurez l'exploration des données et contribuez à l'architecture sur le Cloud. Data Science & Machine Learning : Concevoir et implémenter des algorithmes de Machine Learning (spécifiquement en classification et NLP - Traitement du Langage Naturel). Delivery & Qualité : Assurer la recette, la mise en production (CI/CD) et garantir la qualité des livrables. Accompagnement : Former les utilisateurs et vulgariser la donnée via une communication visuelle efficace. Environnement Technique & Méthodologique : Cloud & Big Data : Expertise Google Cloud Platform indispensable (BigQuery, Airflow, Vertex AI/Notebook Jupyter). Langages & Libs : SQL, Python (Pandas, Scikit-learn, TensorFlow). DevOps/Delivery : Git, Jenkins, Cloud Build. Méthodologie : Agilité (Scrum, Kanban).
Offre d'emploi
Consultant Confirmé en Data gouvernance Collibra
R&S TELECOM
Publiée le
Microsoft Access
12 mois
40k-48k €
400-480 €
Paris, France
Contexte de la mission : Dans le cadre du déploiement et de l’industrialisation de notre démarche de gouvernance des données, nous recherchons un consultant expert technique Collibra. La mission s’inscrit dans un programme structurant visant à renforcer le catalogage des données et la traçabilité (data lineage). Le consultant intégrera l’équipe Data en lien direct avec les architectes de la DSI qui ont une vision sur l’ensemble de la chaîne de valeur de la donnée, de l’acquisition à la restitution. Tâches à réaliser : · L’operating model de Collibra et la capacité à modifier les settings sur sa partie OOTB ou custom (asset type, attributs, relations…) selon un scope puis mesurer les impacts sur l’existant DEV/PROD et le déployer en PROD · L’asset model du Data Product · Les rôles et permissions (globale, ressources, …) · Les fonctionnalités de migration import/export (par ex. pour les vues) · Le paramétrage des vues de diagramme · Savoir lancer et interpréter les résultats des connecteurs EDGE (technologies Datalake Azure/AWS, Databricks unity) et technical lineage (Databricks, Power BI) · Savoir manipuler les assets en masse (modification d’attributs, déplacements, suppressions), si besoin par import/export · Connaitre les fonctionnalités liées à Edge pour le sampling, profiling, data notebook · Scripting / APIs / Workflow · Trouver et savoir tester les APIs Collibra du portail développeur · Savoir comprendre et modifier un workflow existant (script : Groovy), le rendre paramétrable, le versionner si besoin et déployer DEV/PROD · Scripter des validations rules sur les assets Livrables attendus · Expressions de besoins et documents de cadrage · Workflows Collibra configurés · Catalogues de données alimentés · Lineage modélisé et documenté · Toute l’implémentation est en langue EN, éventuelle doc. technique succincte à réaliser sur les actions menées Compétences recherchées : Obligatoires : Maîtrise avancée de Collibra (Catalog, Lineage, Workflows) Solide expérience en Data Gouvernance et Data Management Bonnes connaissances des environnements Azure/ AWS / Databricks / Power BI /API/ BDD Expérience nécessaire : 5 années minimum Langues : Anglais et français
Mission freelance
EXPERT DBA SQL ORACLE & AWS HABILITABLE, anglais courant H/F
Cheops Technology
Publiée le
Administration système
AWS Cloud
Microsoft SQL Server
6 mois
400-550 €
Melun, Île-de-France
Sous la responsabilité du responsable de service et le support d’un référent interne expert le candidat aura en charge la gestion des activités suivantes Gestion globale d’exploitation du périmètre des bases de données •Gestion des incidents et des changements •Maintien en Condition opérationnelles et de Sécurité (Patching) •Contribution à la mise à jour et au maintien du catalogue des services Base de Données •Reporting et du suivi d’activité global de son périmètre •Respect des normes et exigences de sécurité des systèmes d’informations •Respect des process •Réalisation et mise à jour des documentations d’exploitation En complément, il participera à l’accompagnement technique d’intégration des bases de données pour les projets (BUILD) •Définition d’architecture des bases de données pour les projet applicatifs (accompagnement des architectes sur les spécifications et exigences techniques de dimensionnement, disponibilité, et de performance •Accompagnement à l’intégration des bases de données des solutions applicatives •Elaboration des référentiels techniques de bases de données (Dossier d’architecture technique détaillés, Dossier de mise en exploitation SQL Serveur CLOUD
Mission freelance
Support Office Investment Team
NOVAMINDS
Publiée le
Data analysis
4 mois
400-580 €
Paris, France
Objectif de la mission L'équipe Front Office Business Support, est une équipe Opérations. Elle effectue le support quotidien auprès des équipes d'investissements et de contrôle de BNPP AM (Gérants, Traders, Investment Compliance, Risk analysts et les autres équipes opérations). Elle effectue un support sur l'outil Aladdin, sur l'ensemble du workflow du passage d'ordre (de la saisie au dénouement et la comptabilisation) et l'ensemble des problématiques opérationnelles. L’équipe est aussi amenée à travailler sur des projets et en particulier sur GLOBE. C'est dans ce contexte qu’un poste est ouvert, afin de renforcer l'équipe dans ses missions et permettre de réaliser l'ensemble des tâches Prestation En BAU, vous serez le premier point de contact pour toutes questions relatives aux procédures opérationnelles et aux outils informatiques, qui sont utilisés dans la chaine Front To Back. Vous aiderez le métier dans leurs tâches quotidiennes et serez chargé de trouver les solutions les plus efficaces, en vous appuyant sur d'autres équipes de support opérationnel et informatique (BNPP AM and BP2S). Responsabilité des sujets adressés à l'équipe, en faire le suivi jusqu'à leurs résolutions et les enregistrer afin de permettre l'élaboration de rapports et l'analyse des problèmes sous-jacents. Gérance et préparation des communications adéquates pour le métier lors d’incidents sur la chaine Front To Back. En projet (GLOBE), deux principaux sujets : - Configuration des utilisateurs dans Aladdin et mise en place du modèle de permissions. - Migration des règles/alertes de gestion de Simcorp vers Aladdin. Il y aura une première phase d'analyse, puis le codage sera à faire dans Rubic et Workbench. Ce rôle est central dans notre organisation et nécessite une bonne connaissance du métier d'asset manager et des opérations
Mission freelance
SAP Finance Data Governance Expert
Signe +
Publiée le
SAP S/4HANA
1 an
600-800 €
Paris, France
Dans le cadre d’un programme international de transformation digitale, un groupe déploie un ERP unique basé sur SAP S/4HANA Public Cloud afin d’harmoniser ses processus Finance. Ce programme vise à mettre en place un modèle de données global, standardisé et gouverné , garantissant qualité, fiabilité et conformité des données financières dans un environnement multi-pays. Rattaché(e) au programme Finance Transformation, vous êtes le/la référent(e) Data Governance sur le périmètre Finance. À ce titre, vous : Définissez et structurez le framework de Finance Data Governance Formalisez les rôles et responsabilités (Data Owners, Data Stewards) Définissez et maintenez le Finance Data Model cible Mettez en place les règles et indicateurs de Data Quality Supervisez les activités de nettoyage et de remédiation des données Encadrez les règles de mapping et de transformation dans le cadre des migrations SAP S/4 HANA Assurez la cohérence des données entre systèmes et flux inter-applicatifs Garantissez l’alignement avec les exigences réglementaires et de contrôle interne Animez les instances de gouvernance Data et accompagnez l’adoption au niveau global Des interactions fréquentes avec les équipes Finance, IT et Process Owners sont attendues. Des déplacements peuvent être à prévoir en phase de déploiement. Démarrage : Mars 2026 Durée : 1 an renouvelable Localisation : Paris ou Grenoble (2/3 jours de présentiel)
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
2887 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois