L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 857 résultats.
Mission freelance
Product Owner Data / Observabilité - ASAP - 92
Montreal Associates
Publiée le
Data quality
Grafana
Intégration
7 mois
550-650 €
Clichy, Île-de-France
Product Owner Data / Observabilité - ASAP - 92 Dans le cadre d’un produit de monitoring & réconciliation de données (E-commerce, Retail, CRM), nous recherchons un Product Owner expérimenté pour piloter la fiabilité des flux et la détection d’anomalies dans un environnement international. 🎯 Objectifs et Environnements Priorisation des use cases (contrôles & alerting) Traduction besoins métier → backlog / user stories Suivi roadmap & qualité des dashboards Microsoft Azure (SQL, Functions) Microsoft Power BI Microsoft Power Automate 👤 Profil Recherché PO spécialisé Data / monitoring / intégration Bonne compréhension des flux data Anglais courant #Freelance #ProductOwner #Data #Observabilité #Monitoring #Ecommerce
Offre d'emploi
Business Analyst IT – Data / BI – Finance de Marchés (H/F)
Amontech
Publiée le
Business Analyst
C#
Confluence
1 an
45k-50k €
500-550 €
Paris, France
🧠 Contexte Au sein d’une direction IT, vous intégrez une équipe dédiée à la data client en finance de marchés . Cette équipe développe des solutions de Business Intelligence permettant aux équipes Front Office (Global Markets) d’exploiter leurs données, notamment pour : Suivi de la rentabilité client (Client Contribution) Performance des équipes commerciales (Sales Credit) Analyse des hit ratios (RFQ) Suivi des interactions clients (CRM : meetings, contacts…) 🎯 Missions Au quotidien, vous interviendrez sur des activités de run et de projet : 🧩 Analyse & cadrage Recueillir et analyser les besoins métier Rédiger les spécifications fonctionnelles 🧪 Tests & validation Définir la stratégie de tests Rédiger les cas de tests Piloter les recettes et rédiger les PV de validation 📊 Suivi & coordination Maintenir le backlog à jour Suivre l’avancement des sujets Coordonner les différents intervenants (IT & métier) 🛠 Support Gérer des incidents de niveau 2 Analyser des problématiques sur : IHM dashboards BI bases de données (requêtes SQL) 🔄 Change management Accompagner les utilisateurs Contribuer à l’adoption des solutions ⚙️ Méthodologie Participation active aux rituels Agile 🛠 Environnement technique Microsoft (SQL Server, SSAS, Power BI, .Net C#) Business Objects Jira, Xray, Confluence
Mission freelance
Data Engineer -CLOUD GOOGLE-
DEVIK CONSULTING
Publiée le
Apache Airflow
BigQuery
Google Cloud Platform (GCP)
1 an
400-650 €
Paris, France
Description Pour le compte de notre client grand compte, nous recherchons un Expert Data Engineer Spécialisé sur Google Cloud afin de rejoindre la Squad data pour le pilotage commercial Tâches principales Développement de pipeline de données sur Cloud Composer / Airflow Optimisation des performances et coûts des traitements sur GCP Participation aux choix d'outils et des solutions techniques sur GCP et développement de nouvelles application Modélisation des données sur BigQuery Maintenir l'existant en condition opérationnelle Préparer et mettre en œuvre l’interopérabilité avec de nouveaux systèmes opérationnels Proposer des simplifications et/ou optimisations selon les normes internes Compétences demandées GCP : Confirmé Big Query : Expert Base de donnée : Confirmé Python : confirmé Lieu : Paris
Mission freelance
Data engineer Google cloud platform (GCP)
CAT-AMANIA
Publiée le
Apache Kafka
Apache Spark
BigQuery
6 mois
Île-de-France, France
Pour le compte d'un acteur majeur, nous recherchons un(e) Data Engineer confirmé(e) pour concevoir et déployer des chaînes de traitement de données complexes au sein d'un Datalake moderne. Vous intégrerez une équipe évoluant en mode Agile (Scrum/Kanban) avec une forte culture de l'automatisation. Vos responsabilités : Concevoir et mettre en œuvre les chaînes d’ingestion, de validation et de croisement de données. Assurer le déversement et l'enrichissement des données dans le Datalake. Produire automatiquement des agrégats (journaliers à mensuels) via la puissance du Cloud. Développer et documenter les User Stories en collaboration directe avec le Product Owner. Garantir la qualité via l'automatisation des tests fonctionnels et la correction des anomalies. Participer activement à la chaîne de delivery continue et assister les équipes d'exploitation. Profil recherché : Expertise confirmée sur la plateforme GCP (indispensable) . Maîtrise avancée de l'écosystème Spark / Scala / Kafka . Expérience solide sur les environnements conteneurisés ( GKE, Docker ) et l'Infrastructure as Code ( Terraform, Ansible ). Compétences pointues en stockage et requêtage ( BigQuery, SQL, HDFS ). Capacité à orchestrer des workflows complexes avec Airflow / Composer . Esprit collaboratif, curieux des évolutions technologiques et doté d'un excellent relationnel.
Mission freelance
Expert SAP - Data Migration
Montreal Associates
Publiée le
SAP
6 mois
600-700 €
Paris, France
Bonjour, 🚫 𝐏𝐀𝐒 𝐃𝐄 𝐒𝐎𝐔𝐒-𝐓𝐑𝐀𝐈𝐓𝐀𝐍𝐂𝐄!🚫 Je recherche actuellement pour un de mes clients plusieurs profils : 🔔 𝐂𝐨𝐧𝐬𝐮𝐥𝐭𝐚𝐧𝐭 𝐞𝐧 𝐃𝐚𝐭𝐚 𝐌𝐢𝐠𝐫𝐚𝐭𝐢𝐨𝐧 𝐸𝑥𝑝𝑒𝑟𝑡𝑖𝑠𝑒 𝑒𝑛 𝑚𝑖𝑔𝑟𝑎𝑡𝑖𝑜𝑛 𝑑𝑒 𝑑𝑜𝑛𝑛𝑒́𝑒𝑠 𝐵𝑜𝑛𝑛𝑒 𝑐𝑜𝑛𝑛𝑎𝑖𝑠𝑠𝑎𝑛𝑐𝑒 𝑑𝑒 𝑙𝑎 𝑠𝑜𝑙𝑢𝑡𝑖𝑜𝑛 𝑆𝐴𝑃, 𝑖𝑑𝑒́𝑎𝑙𝑒𝑚𝑒𝑛𝑡 𝑆4 𝑀𝑎𝑖𝑡𝑟𝑖𝑠𝑒 𝑑𝑒 𝑙𝑎 𝑚𝑒́𝑡ℎ𝑜𝑑𝑜𝑙𝑜𝑔𝑖𝑒 𝐷𝑇𝑀 𝐶𝑎𝑝𝑎𝑐𝑖𝑡𝑒́ 𝑎̀ 𝑡𝑟𝑎𝑑𝑢𝑖𝑟𝑒 𝑙𝑒𝑠 𝑠𝑝𝑒́𝑐𝑖𝑓𝑖𝑐𝑖𝑡𝑒́𝑠 𝑑𝑒𝑠 𝑜𝑏𝑗𝑒𝑡𝑠 𝑒𝑛 𝑢𝑛𝑒 𝑠𝑡𝑟𝑎𝑡𝑒́𝑔𝑖𝑒 𝑒𝑡 𝑢𝑛𝑒 𝑚𝑒́𝑡ℎ𝑜𝑙𝑜𝑔𝑖𝑒 𝑠𝑡𝑟𝑢𝑐𝑡𝑢𝑟𝑒́𝑒𝑠 𝐹𝑜𝑟𝑡 𝑖𝑛𝑡𝑒́𝑟𝑒̂𝑡 𝑝𝑜𝑢𝑟 𝑙𝑒 𝑝𝑎𝑟𝑡𝑎𝑔𝑒 𝑑𝑒𝑠 𝑐𝑜𝑛𝑛𝑎𝑖𝑠𝑠𝑎𝑛𝑐𝑒𝑠, 𝑙𝑎 𝑓𝑜𝑟𝑚𝑎𝑡𝑖𝑜𝑛 𝑒𝑡 𝑙𝑎 𝑚𝑖𝑠𝑒 𝑒𝑛 𝑜𝑒𝑢𝑣𝑟𝑒 𝑑𝑒 𝑙𝑎 𝑚𝑒́𝑡ℎ𝑜𝑑𝑜𝑙𝑜𝑔𝑖𝑒 𝐸𝑥𝑐𝑒𝑙𝑙𝑒𝑛𝑡𝑒 𝑎𝑝𝑡𝑖𝑡𝑢𝑑𝑒𝑠 𝑎̀ 𝑎𝑛𝑖𝑚𝑒𝑟 𝑢𝑛𝑒 𝑐𝑜𝑚𝑚𝑢𝑛𝑎𝑢𝑡𝑒́ 🎯 𝐌𝐢𝐬𝐬𝐢𝐨𝐧 𝐏𝐚𝐫𝐭𝐢𝐜𝐢𝐩𝐞𝐫 𝐚̀ 𝐥𝐚 𝐦𝐢𝐠𝐫𝐚𝐭𝐢𝐨𝐧 𝐝𝐞 𝐝𝐨𝐧𝐧𝐞́𝐞𝐬 𝐝𝐞 𝐥𝐚 𝐩𝐫𝐞́𝐩𝐚𝐫𝐚𝐭𝐢𝐨𝐧 𝐚̀ 𝐥'𝐞𝐱𝐞́𝐜𝐮𝐭𝐢𝐨𝐧. -Permettre aux équipes locales de mener à bien la définition de l'approche de migration jusqu'à la validation des données métier. -Piloter le calendrier d'exécutions des objets. -Assurer l'analyse de premier niveau des anomalies - Apporter un soutien aux responsables d'applications en fournissant les informations nécessaires à la propagation des données. - Définir la stratégie de nettoyage des données, les indicateurs (KPI) et le suivi - Garantir la cohérence entre les régions et soutenir l'amélioration continue - Définir et maintenir les modèles de migration, les rapports et tableaux de bord de qualité des données, la base de connaissances. - Arbitrer les écarts par rapport à la méthodologie et gérer l'impact des demandes de dérogation sur leur périmètre. - Former et animer la communauté sur le périmètre des objets. 🔊 𝐀𝐧𝐠𝐥𝐚𝐢𝐬 𝐜𝐨𝐮𝐫𝐚𝐧𝐭 obligatoire 📍𝐈𝐃𝐅 - 3j semaine sur site 🕐 Début avril - 𝟔 𝐦𝐨𝐢𝐬 𝐫𝐞𝐧𝐨𝐮𝐯. 💶 𝐓𝐉𝐌 : 650/700€
Offre d'emploi
DBA Oracle et SQL Server H/F
HELPLINE
Publiée le
Microsoft SQL Server
Oracle
1 mois
46k-52k €
390-410 €
Lyon, Auvergne-Rhône-Alpes
💼 Mission : Dans le cadre de son développement, HELPLINE recherche un/une DBA Oracle et SQL Server pour un de nos clients partenaire dans le secteur bancaire à Lyon (69). Responsabilités : Vous serez en charge de veiller au bon fonctionnement et à la résolution des incidents et problèmes de performances des bases de données ORACLE, SQL-SERVER et MYSQL. Vous participerez aux travaux de préparation des environnements de certification et migrations au travers des outils mis à disposition, tout en apportant l'expertise nécessaire pour tenir nos engagements de planning. -Technologies RAC, Dataguard d'Oracle -Technologies Microsoft SQL Server (Always On) - Maintien en condition opérationnelle des serveurs de bases de données - Administration de la réplication en configuration multi-site - Support niveau 2 auprès du pilotage sur les incidents de bases de données au niveau des moteurs SGBD et du code SQL ; - Analyse technique des changements ; - Identification des maintenances préventives et pilotage de ces maintenances ; - Traitement des changements correspondant aux évolutions ; - Traitements des incidents de niveau 3 et des problèmes de niveau 2
Mission freelance
Data Engineer GCP H/F
LOMEGARD
Publiée le
Ansible
Apache Airflow
Google Cloud Platform (GCP)
6 mois
400-480 €
Île-de-France, France
Dans le cadre d’un accroissement d’activité et afin de renforcer l’équipe Data d’un grand acteur bancaire, notre client recherche un Data Engineer GCP expérimenté. La mission s’inscrit dans un environnement Big Data / Cloud GCP en pleine transformation, avec des enjeux forts autour de l’industrialisation des pipelines, de la qualité de données et de la mise à disposition de datasets fiables pour les équipes métiers et analytiques. La mission est basée en Île-de-France (IDF) avec 2 jours de TT par semaine. Votre rôle consiste à: Mettre en place les chaînes d’ingestion, validation, croisement et enrichissement des données. Alimenter et exploiter le Data Lake GCP (GCS) et produire des agrégats (J/H/M). Développer des pipelines batch & streaming (Spark, Kafka, Scala). Industrialiser les traitements via Airflow / Composer et CI/CD. Mettre à disposition les données (API, fichiers, dashboards). Participer à la mise en production de modèles statistiques. Documenter, corriger les anomalies, assister les équipes d’exploitation. Travailler en mode Agile (Scrum/Kanban) .
Mission freelance
Consultant MS BI Power BI
Clémence Consulting
Publiée le
Azure Data Factory
DAX
Microsoft Power BI
3 mois
Paris, France
Pour créer de A à Z (modélisation, alimentation... jusqu'aux rapports) des reporting pour une nouvelle activité ; la mission comprendra les tâches suivantes : · Concevoir des modèles de données adaptés. · Créer et optimiser des bases de données et entrepôts de données (SQL Server principalement). · Prendre en charge les développements de rapports Power BI. · Prendre en charge les développements de scripts SQL/Procédures. · Prendre en charge les développements des pipelines Azure Data Factory. · Participer à la mise en place de bonnes pratiques (CI/CD, DevOps Data, Data Quality). · Être force de propositions sur les optimisations de traitement · Rédaction de la documentation (spécifications techniques), recettes. · Gestion du code source via Microsoft Devops et déploiement CI/CD. · Préparation des livrables pour les mises en production.
Mission freelance
ERP Data Lead - planification industrielle
The Yellow Office
Publiée le
CoreData
Data governance
Data quality
3 ans
Yvelines, France
ERP Data Lead – Transformation Industrielle & Core Model Data Je recherche un ERP Data Lead capable de piloter la structuration du modèle de données dans le cadre d’une migration ERP majeure au sein d’un groupe industriel. Ce n’est pas un rôle de BA classique. C’est un rôle transverse, stratégique, au croisement de la planification industrielle, des référentiels ERP et de la gouvernance Data. Contexte L’entreprise prépare une transformation ERP structurante. Objectif : identifier les points de blocage organisationnels et data afin d’unifier le core model Data, harmoniser les référentiels et améliorer durablement la qualité des données. Mission longue, structurante, avec impact direct sur l’organisation. Expertise métier indispensable • Planification industrielle • S&OP • IBP • MPS / MRP • Compréhension fine des flux industriels Le consultant doit maîtriser les fondamentaux terrain : • Bill of Material (BOM) • Work Orders • Logique de nomenclature, ordonnancement, planification Il doit parler le langage métier, pas seulement IT. Dimension Data attendue • MDM • Data Quality • Data Catalogue • Harmonisation des référentiels ERP • Structuration du core model Rôle • Identifier les blocages organisationnels liés aux données • Analyser les impacts métier de la migration ERP • Structurer et unifier le modèle de données cible • Améliorer la qualité et l’usage des données industrielles • Faire le lien entre métiers, IT et équipes Data Informations mission • Localisation : Yvelines (78) • Télétravail : 2 jours par semaine • Durée : 2 à 3 ans • Démarrage : dans les 3 mois • Anglais technique minimum • Contrat : Freelance On cherche un profil capable de comprendre que dans l’industrie, une mauvaise donnée ERP n’est pas un détail, c’est un risque opérationnel. Contact
Mission freelance
Ingénieur·e Data / DevOps
ATTINEOS
Publiée le
DevOps
1 an
320-470 €
Rouen, Normandie
Vous aimez évoluer sur des environnements data, manipuler de gros volumes de données et intervenir aussi bien en développement qu’en exploitation ? Cette opportunité est faite pour vous ! Nous recherchons un·e Ingénieur·e Data / DevOps pour renforcer une équipe intervenant sur des sujets à forte dominante data et bases de données. Au sein de l’équipe, vous interviendrez principalement sur des activités de RUN avec une forte composante développement, dans un environnement orienté data. Vos principales responsabilités : Développement autour des environnements Altair Intervention sur des problématiques data et bases de données Maintien en conditions opérationnelles des applications Analyse et résolution d’incidents Optimisation des traitements et des performances Contribution à l’amélioration continue des outils et des process Environnement technique : Altair, Bases de données (SQL), Environnement data, Notions DevOps et infrastructure (appréciées)
Offre d'emploi
Chef de Projets Data H/F
JEMS
Publiée le
45k-55k €
Nice, Provence-Alpes-Côte d'Azur
Nous recherchons un Chef de Projets Data pour venir renforcer nos équipes Delivery. Vous serez responsable de la gestion complète des projets de déploiement de nos plateformes data chez nos clients, en garantissant le respect des délais, du budget et de la qualité des livrables. Nous attendons de vous des compétences fortes en Management et Leadership. Vous aurez la charge de : • Superviser l'ensemble du cycle de vie des projets en mode forfaitaire ou en mode dispositif à engagements, jusqu'au déploiement en production • Définir et formaliser les besoins clients en étroite collaboration avec les équipes techniques et les stakeholders • Chiffrer les différentes étapes du projet, identifier les compétences nécessaires, élaborer les plannings, définir le plan de charge (montée en charge des ressources nécessaires) • Assurer un suivi rigoureux des coûts, des délais et des risques, en identifiant et en gérant les éventuels écarts de périmètre • Initialiser et maintenir le plan d'assurance qualité à jour • Encadrer et animer les équipes projets, en motivant et en assurant un suivi efficace de la performance de l'équipe • Garantir la qualité des livrables en supervisant les tests, la validation des fonctionnalités et la conformité aux exigences spécifiées • Participer à l'amélioration continue des processus et méthodologies de gestion de projets (plan de progrès) • Préparer des rapports réguliers sur l'état d'avancement des projets et les résultats obtenus. Référence de l'offre : j5wop5mqy9
Mission freelance
Architecte DATA
Codezys
Publiée le
Python
SQL
Teradata
12 mois
Lyon, Auvergne-Rhône-Alpes
Contexte de la mission Dans le cadre d'une phase de transformation visant à adopter un modèle axé sur les données (Data Centric) et de définition d'une stratégie Data, le client met en œuvre une nouvelle plateforme Data Régime pour répondre à ses besoins. Un programme dédié à cette plateforme a été lancé fin 2025. Au premier trimestre 2026, des Proofs of Concept (POC) sont en cours afin de sélectionner la future plateforme Data. Le client recherche une prestation en architecture Data pour l’accompagner dans la définition de l’architecture cible et la mise en œuvre de cette nouvelle plateforme au sein d’un écosystème existant. Objectifs et livrables Le consultant intervenant aura pour mission de définir, concevoir et accompagner la construction de l’architecture cible Data. Ses principales responsabilités seront : Définir l’architecture cible Data : Concevoir une architecture alignée avec la stratégie globale Data et les principes Data-Centric, en déterminant les patterns d’intégration ainsi que les couches fonctionnelles de la plateforme (inclusion, traitement, stockage, exposition). Concevoir l’architecture de la nouvelle plateforme Data : Élaborer l’architecture technique globale en intégrant l’écosystème existant (tels que Teradata, Hadoop) et en tenant compte des stratégies d’évolution (cloud ou on-premise, gouvernance, scalabilité). Proposer une trajectoire d’évolution permettant la transition vers cette nouvelle plateforme, incluant stratégie de migration, coexistence et déploiement par phases. Modélisation et harmonisation des données : Définir des modèles de données harmonisés (modèle cible, datamarts, vues métiers, glossaire). Établir les principes de modélisation adaptés aux usages, qu'ils soient analytiques, opérationnels ou liés à des data products. Data Products & accompagnement métier : Soutenir les équipes métiers dans la conception et la structuration des data products, en veillant à leur cohérence avec les modèles de données, les standards d’intégration et l’architecture cible. Définition et formalisation des standards Data : Élaborer les standards d’intégration, de transformation, de stockage et d’exposition des données. Formaliser les bonnes pratiques concernant les outils de l’écosystème, notamment ceux liés à l’ingestion, à la qualité, à l’orchestration, au catalogage et à la gouvernance.
Mission freelance
IA Delivery Lead
ESENCA
Publiée le
Data quality
GenAI
Large Language Model (LLM)
1 an
Lille, Hauts-de-France
Informations générales Département : Digital, Data & IA Localisation : Siège / Lille (présence obligatoire sur site) Supérieur hiérarchique : Head of IA Position dans l’organisation Le/la IA Delivery Lead pilote une équipe dédiée à la conception et à la livraison de solutions d’intelligence artificielle. Encadrement Management fonctionnel d’une équipe pluridisciplinaire : Product Owner Copilots & Agents IA Business Analyst / AMOA IA Spécialiste fonctionnel RAG / Prompt (optionnel) Interactions internes Équipes Data (Data Hub, gouvernance, référentiels) Équipes IT / DSI Directions métiers Équipes Digital / Data / IA Interactions externes Partenaires technologiques et plateformes cloud Éditeurs de solutions IA (LLM, RAG, etc.) Cabinets de conseil spécialisés Mission Le/la IA Delivery Lead est responsable du pilotage de bout en bout des cas d’usage en intelligence artificielle (copilots, agents, solutions RAG), depuis leur cadrage jusqu’à leur mise en production, leur adoption et la mesure de leur valeur. Il/elle garantit la structuration des projets, la coordination des parties prenantes et la qualité des livrables, tout en assurant un impact métier mesurable. Responsabilités principales 1. Cadrage et qualification Animer les ateliers de cadrage avec les métiers Évaluer la faisabilité fonctionnelle et l’effort de delivery Définir les critères de succès (valeur, adoption, qualité, risques) Intégrer les enjeux de données, de traçabilité et de conformité 2. Pilotage du delivery Construire et piloter les plans de delivery (jalons, sprints, capacité) Coordonner les parties prenantes internes et externes Gérer les risques, dépendances et arbitrages Garantir la qualité des livrables (backlog, spécifications, décisions) 3. Recette et validation Préparer et animer les comités de validation Définir les critères d’acceptation et organiser la recette fonctionnelle Coordonner les validations finales (go / no-go) 4. Déploiement et adoption Définir la stratégie de déploiement (pilote, passage à l’échelle) Accompagner l’adoption (formation, communication, support) Mettre en place les indicateurs d’usage (adoption, fréquence, satisfaction) Organiser les boucles de feedback 5. Mesure de la valeur Suivre les gains générés (temps, qualité, réduction des risques) Piloter l’amélioration continue des solutions 6. Qualité et fiabilité Définir les standards de qualité des solutions IA Mettre en place des contrôles fonctionnels Suivre et corriger les écarts 7. Industrialisation Capitaliser sur les retours d’expérience Standardiser les méthodes et outils (copilots, agents, RAG) Contribuer à l’industrialisation des pratiques IA
Mission freelance
Reporting Réglementaire (SQL/Alteryx) Recette & Data
STHREE SAS pour HUXLEY
Publiée le
6 mois
75001, France
Contexte & objectifs Au sein d'une équipe projet Finance & Risques rattachée à la Direction Architecture & Reporting , vous intervenez sur des travaux de recette et de qualité des données pour des reportings réglementaires d'un groupe bancaire de premier plan. L'objectif : sécuriser la production réglementaire, fiabiliser les flux de données et déployer de nouveaux contrôles de second niveau. Missions principales 1) Déclinaison d'une nouvelle guidance BIDS au format MBDT Organiser la recette (stratégie, jeux d'essais, critères d'acceptation). Exécuter les campagnes de tests en interaction avec les métiers. Réaliser l' analyse de qualité des données avec les communautés concernées et leurs DSI. Suivre les anomalies (qualification, priorisation, plan de remédiation). Animer des ateliers de restitution et produire les synthèses de recette . 2) Recette des dispositifs réglementaires au sein de la squad "Usages" Conduire les TNR et évolutions liées aux nouvelles versions des backbones de données (sourcing des reportings réglementaires). Valider les tirs de certification dynamique dans le cadre d'un projet de mutualisation du SI (tests d'intégration bout‑en‑bout, traçabilité, conformité). Livrables attendus Stratégie et cahiers de recette , cas de tests, jeux de données, PV de validation. Dossiers de contrôle (fiches de contrôle, flowcharts de production, notes de synthèse). Tableaux de bord d'anomalies et plans d'actions. Compte‑rendus d'ateliers et rapports de synthèse pour les parties prenantes. Profil recherché 7 à 9 ans d'expérience en data/recette dans un environnement bancaire/assurance . Maîtrise de SQL et Alteryx ; à l'aise avec des volumétries importantes et la traçabilité de bout en bout. Solide culture fonctionnelle bancaire et reporting réglementaire (ex. AnaCredit, RCH, VDS, SRB‑MREL ). Connaissance des dispositifs de contrôle 1er/2nd niveaux et des meilleures pratiques de qualité de données . Rigueur, autonomie, sens du service et capacité d'animation (ateliers, restitutions, coordination multi‑équipes).
Mission freelance
Data Analyst
PARTENOR
Publiée le
Dataiku
Google Cloud Platform (GCP)
Gouvernance
1 an
Puteaux, Île-de-France
Notre client réalise une transformation de sa plateforme Data vers la Google Cloud Plateform avec l'adoption de Dataiku en outil de data préparation. Au sein de la direction Intelligence de la donnée, le département Data Management et Business Intelligence a pour objectif de réaliser sa propre transformation et d'accompagner les directions utilisatrices de GCP/Dataiku à exploiter la plateforme dans le cadre défini, de déployer la gouvernance associée et de l'ajuster dans une démarche d'amélioration continue. Nous recherchons un(e) Data analyst pour aider à accompagner cette transformation. Ces travaux mixent des aspects de pilotage, d'accompagnement au changement et de développements BI Data management, Accompagnement au changement, Data-préparation (Dataiku), plateforme GCP.
Mission freelance
Data Engineer - IA (Bordeaux)
Cherry Pick
Publiée le
Agent IA
Apache Kafka
DBT
12 mois
390-400 €
Bordeaux, Nouvelle-Aquitaine
Intégré à la DSI au sein de l’équipe Data Tech Knowledge de la direction IT DATA de notre client à Bordeaux , le Data Engineer participera à des projets autour de l’IA et de la data. La mission consiste à : Effectuer des alimentations de données . Collaborer avec un Data Analyst sur des projets IA/Data. Développer et travailler autour d’ agents IA pour le requetage SQL en langage naturel . Mettre à disposition des outils d’aide au développement et au monitoring . Assurer une veille technologique sur les architectures data et outils associés. Stack Technique : Langages : Python, SQL Bases de données : Snowflake, SQL Server, PostgreSQL DevOps : Git, TFS, Azure DevOps, Docker, Kubernetes, Liquibase Infrastructure as Code : Terraform Data Processing : DBT, Talend Data Ingestion : DLT, Kafka, Talend Data Visualisation : PowerBI
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
2857 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois