Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 53 résultats.
Freelance

Mission freelance
Lead Data Quality Analyst

Publiée le
Dataiku
Qlik
ServiceNow

12 mois
600-700 €
Paris, France
Télétravail partiel
En tant que Lead Data Quality Analyst , vous êtes le garant de la fiabilité et de l'intégrité de nos actifs data. Votre rôle central consiste à définir, mesurer et mettre en œuvre les stratégies et processus assurant une haute qualité des données, indispensable à la prise de décision et au succès de nos initiatives métier. Vous pilotez l'ensemble du cycle de vie de la qualité des données : Gouvernance et Stratégie Data Quality : Définir et maintenir les règles de qualité des données (complétude, unicité, validité, cohérence et format). Établir les indicateurs clés de performance (KPI) de la qualité des données et s'assurer de leur suivi régulier. Analyse et Audit des Données : Analyser la qualité des données au sein de nos systèmes sources et cibles (Data Warehouse, Data Lake). Identifier les anomalies, les causes racines des problèmes de qualité (système, processus, ou saisie) et recommander des actions correctives. Implémentation Technique : Mettre en œuvre des contrôles de qualité automatisés directement dans les outils d'entrepôt de données (notamment Snowflake ). Développer des tableaux de bord de monitoring de la qualité pour visualiser les scores et les tendances (via Qlik ou d'autres outils de visualisation). Coordination et Amélioration Continue : Collaborer étroitement avec les Data Engineers, les Data Scientists et les équipes métier pour garantir la bonne application des règles de qualité. Gérer la priorisation des tickets et des actions d'amélioration de la qualité des données.
Freelance

Mission freelance
Data engineer (H/F)

Publiée le
Dataiku
ELK

1 an
400-460 €
Châtillon, Île-de-France
Télétravail partiel
Infrastructures de données : - Cartographie et documente les sources de données. - Assure la maintenance des différentes applications données (Data) déployées en production et des infrastructures. - Conçoit les solutions permettant le traitement de volumes importants de flux de données et ceci en toute sécurité. - Structure les bases de données (sémantique, format, etc.). - Contribue à la gestion des référentiels de données. Intégration des données : - Capte et stocke, en toute sécurité, les données (structurées ou non) produites dans les différentes applications ou venant de l'extérieur de l'entreprise. - Assure la supervision et l'intégration des données de diverses nature qui proviennent de sources multiples. - Vérifie la qualité des données qui entrent dans le Data Lake et s'assure de leur sécurité. - Nettoie la donnée (élimination des doublons) et la valide pour une utilisation aval. Animation des communautés : - Anime la communauté technique qui met en œuvre les dispositifs prévus ou nécessaires à l'application de la politique de la donnée de l'entreprise. Veille technologique : - Reste en alerte sur les technologies liées au traitement de la manipulation de la donnée et identifie les solutions utilisables. - Propose des évolutions pour les infrastructures et solutions de données en place Exemple de livrables - Dossier d'architecture (ou cadre technique) des solutions (plateformes) de traitement des données. - Un data lake adapté aux besoins actuels et futurs de l'entreprise. - Une cartographie des données. - Les éléments permettant de garantir la qualité de la donnée.
CDI
Freelance

Offre d'emploi
Expert migration SAS vers Dataiku

Publiée le
Dataiku
Méthode Agile
SAS

2 ans
40k-65k €
400-550 €
Tours, Centre-Val de Loire
Télétravail partiel
Notre client souhaite migrer ses solutions analytiques et ses processus de traitement de données de l’environnement SAS vers la plateforme Dataiku . Dans ce cadre, vous interviendrez en tant qu’expert pour accompagner cette transformation, en garantissant la continuité des processus métiers et l’optimisation des performances. Missions principales : Analyser les processus existants sous SAS (scripts, macros, workflows) et identifier les dépendances. Concevoir des solutions équivalentes ou optimisées sur Dataiku, en collaboration avec les équipes métiers et techniques. Développer et tester les nouveaux workflows Dataiku, en assurant la compatibilité avec les systèmes existants. Former les équipes internes à l’utilisation de Dataiku et documenter les bonnes pratiques. Accompagner le déploiement progressif des solutions et assurer le support post-migration. Optimiser les performances des nouveaux processus et proposer des améliorations continues. Compétences techniques : Expertise confirmée en développement SAS (Base SAS, SAS Macro, SAS SQL, SAS DI Studio, etc.). Maîtrise avancée de Dataiku (création de workflows, utilisation des recettes, intégration avec d’autres outils, etc.). Connaissance des bonnes pratiques en migration de données et en gestion de projets data. Expérience avec les bases de données (SQL, Oracle, PostgreSQL, etc.) et les environnements Big Data . Familiarité avec les outils de versioning (Git) et les méthodologies Agile/DevOps . Compétences transverses : Capacité à travailler en équipe pluridisciplinaire (métiers, IT, data scientists). Pédagogie pour former et accompagner les utilisateurs finaux. Autonomie , rigueur et sens de l’organisation pour gérer des projets complexes. Excellente communication écrite et orale pour documenter et présenter les avancées.
Freelance

Mission freelance
Data Engineer (H/F)

Publiée le
Dataiku

1 an
350 €
Clermont-Ferrand, Auvergne-Rhône-Alpes
Télétravail partiel
📌 Data Engineer (H/F) – Poste basé à Clermont-Ferrand 3 jours de présentiel / 2 jours de télétravail 📢 Pas de portage ni de sous-traitance Nous recherchons un Data Engineer autonome , pour accompagner la transformation data de l’entreprise et soutenir les équipes métier dans leurs analyses, pilotages et initiatives de création de valeur. 🎯 Missions principales Collecter, analyser et exploiter les données pertinentes pour optimiser le pilotage des activités. Accompagner les équipes métier dans le développement, le déploiement et l’opération des solutions data. Concevoir des modèles de données (relationnel, dimensionnel, Data Vault). Développer et optimiser des pipelines ETL/ELT robustes et maintenables. Garantir la qualité et la gouvernance des données (lineage, métadonnées, quality checks…). Participer à l’évolution de l’ architecture data (Data Lakehouse, Data Mesh). Produire des visualisations et analyses accessibles (Power BI). Maintenir le catalogue de datasets à jour. Réaliser les tests selon la stratégie définie. Fournir des kits de formation et accompagner les utilisateurs dans la prise en main des solutions. 📈 Résultats attendus Données pertinentes identifiées, capturées et valorisées. Optimisation du temps, des outils et des ressources liés à la gestion data. Analyses et visualisations lisibles et exploitables par les métiers. Recommandations permettant la création de valeur opérationnelle. Amélioration continue des services et processus grâce aux insights data. Respect des normes éthiques et de gouvernance du groupe. Promotion et documentation des produits data pour faciliter leur maintien dans le temps. 🧠 Compétences requises Data Engineering Modélisation : relationnelle, dimensionnelle, Data Vault Pipelines ETL / ELT Gouvernance : data lineage, qualité, catalogage Architectures data modernes : Data Lakehouse, Data Mesh Langages SQL avancé Python / PySpark avancé Technologies Dataiku Power BI Databricks Azure Data Factory Azure Logic Apps 📍 Conditions Poste basé à Clermont-Ferrand 3 jours de présentiel / 2 jours de télétravail Pas de portage, ni de sous-traitance
Freelance
CDD

Offre d'emploi
Data Engineer – Data Analyste spécialiste DATAIKU

Publiée le
CI/CD
Cloudera
Git

1 an
40k-45k €
400-550 €
Île-de-France, France
Télétravail partiel
La mission proposée sera d’accompagner les métiers dans la cadre du projet de sortie du progiciel SAS vers le progiciel DATAIKU. Dans ce cadre, les activités principales sont : • Accompagner les utilisateurs dans la prise en main de Dataiku et le déploiement des solutions pour leurs cas d’usage. Cela passe par la compréhension de leurs besoins et contraintes opérationnelles, l’étude des solutions potentielles basées sur le progiciel, et l’aide et support à la réalisation. • Appliquer et diffuser les bonnes pratiques Dataiku ainsi que du processus MLOPS. • Assurer le Support et RUN post déploiement : surveillance, maintenance et optimisation des traitements DATAIKU. Dans le cadre de cette mission, il y a de fortes exigences sur : • Le sens de service. • La pédagogie pour accompagner efficacement les utilisateurs SAS. • L’échange et la communication avec le reste de l’équipe SOD/IA Factory ainsi que les différents interlocuteurs sur ce sujet. A savoir, l’architecte SOD/SAS, l’architecte technique SOD, les architectes DATA ainsi que les interlocuteurs CAGIP. Le critère d’expérience doit s’appliquer à tous ces éléments pour garantir l’adéquation du profil à la demande. Expertise DATAIKU DSS avec certifications : • Core Designer • Advanced Designer • ML Practitioner • MLOps Practitioner • Developer • Generative AI Practitioner
Freelance

Mission freelance
Data Engineer DENODO

Publiée le
Dataiku

1 an
Île-de-France, France
Télétravail partiel
Nous recherchons un(e) Data Engineer maîtrisant Denodo , capable d’assurer à la fois le MCO/MCS de la plateforme et la création de vues pour les équipes projets. ✅ Assurer le MCO / MCS de la plateforme Denodo ✅ Optimiser les performances et l’architecture de la plateforme ✅ Administrer Denodo : monitoring, tuning, gestion des connexions, sécurité ✅ Créer et optimiser des vues Denodo pour les projets métiers ✅ Accompagner les équipes n’ayant pas de compétences Denodo internes ✅ Contribuer à améliorer la virtualisation de données et la qualité de service ✅ Participer au support central et garantir une plateforme fiable et performante
Freelance

Mission freelance
Architecte sécurité SI

Publiée le
PCI DSS
Qualys

1 an
500-700 €
Île-de-France, France
Télétravail partiel
Contexte / Objectifs : Dans le cadre de la création d'une ligne de défense sécurité (LOD1), accompagnement par un architecte sécurité, autour des priorités suivantes : + accompagner les projets en relation avec la sécurité métier (Processus ISP – Instruction Sécurité Projet) + S’approprier la gouvernance sécurité existante (Groupe) pour la documenter + Construire une vision de la maturité sécurité par domaine métier + Outillage sécurité (Qualys, Checkmarx, etc.) + Sujets « sec for IT » (ex : création d’un IDP ) + Autres - à identifier Expertises spécifiques : - Architecture sécurité - PCI-DSS - Outils sécurité type Qualys ou CheckMarx Description : • Conception de l’architecture générale des solutions d'infrastructure sécurité : • Orientation sur les choix logiciels et d'architecture • Définition de plan d’intégration et de transition avec l’ancien système • Proposition de solutions innovantes pour améliorer la sécurité, la qualité, les performances et les coûts d’exploitation • Revues d’architecture pour urbaniser, simplifier, harmoniser • Rédaction de guides et standards de sécurité • Assure la veille technologique
CDI
Freelance

Offre d'emploi
Ingénieur Devops / Dataiku

Publiée le
Dataiku
IBM Cloud

1 an
40k-45k €
400-500 €
Île-de-France, France
Télétravail partiel
Ingénieur DevOps / DataikuDescriptif du poste Dans le cadre d'une approche Agile / DevOps, au sein de l'équipe Application Production Support en lien avec le Domaine Data de la DSI, la prestation requise doit apporter le support technique aux projets Data utilisant le produit Dataiku. Vous êtes le relais et garant de la Production tout au long du cycle des produits. Responsabilités principales Gestion technique et support Dataiku Maîtriser et supporter le produit Dataiku Contribuer dans les projets Cloud et dans la prise en compte des exigences de production Participer à la définition des solutions techniques Assurer la veille de la stabilité des environnements techniques (Production / hors Production) via le monitoring et la supervision des solutions techniques Coordination et gestion des incidents Coordonner les actions des autres équipes de la Production sur les tâches projets Coordonner et suivre les actions lors des incidents Mobiliser les personnes nécessaires à leurs résolutions Rédiger les comptes-rendus Participation aux projets Participer aux réunions de l'équipe projet Être partie prenante des activités et des décisions collectives (évaluation de la complexité, des risques, etc.) tout au long du projet Partager largement les bonnes pratiques de production applicative en collaboration avec les Service Reliability Engineer (SRE) et Application Production Support (APS) Collaboration Cloud et automatisation Maintenir une relation étroite avec la Cloud Core Team Leasing afin de s'acculturer de la mise en place du Cloud, notamment pour les pipelines de livraison Assurer le suivi de la mise en place à chaque fois des solutions les plus automatisées possible pour le provisionnement et le déploiement afin de limiter au maximum les tâches manuelles Suivi opérationnel Suivre la MCO, les évolutions des applications, des middlewares et des services de son périmètre de responsabilité Définition de la solution technique Participer à la définition de la solution technique Anticiper les problématiques de conformité Intégrer les exigences de la Production et d'infrastructure Suivre l'ajout des exigences d'infrastructures dans le backlog Produit ainsi que les user stories techniques jugées nécessaires Supporter les équipes de développement Implémenter les user stories techniques Montée en compétence et bonnes pratiques Suivre la montée en compétence de l'équipe sur les bonnes pratiques de production applicative Sensibiliser et propager les bonnes pratiques Former et accompagner les membres dans l'adoption des outils Gestion des ressources et déploiement Suivre et mettre à disposition les ressources de Production et d'infrastructure en facilitant le déploiement des solutions Mettre à disposition de l'équipe les services et ressources de Production en mobilisant les bonnes expertises et en utilisant les solutions d'automatisation Faciliter le déploiement des solutions en utilisant les pipelines d'automatisation Vérifier l'exploitabilité des environnements techniques Contribuer aux revues de sécurité Identifier les points de blocage d'exploitation et proposer des plans d'actions Maintien en conditions opérationnelles Contribuer à la définition des niveaux de services et au Maintien en conditions opérationnelles Mettre en place la surveillance en lien avec les SRE Suivre la disponibilité d'une documentation à jour Suivre l'existence d'un plan de bascule pour la continuité Supporter en cas de blocage ou d'incident sur les livraisons de versions, en escalade des SRE Amélioration continue Contribuer à l'amélioration continue de la production avec les SRE Contribuer à la revue de patrimoine et la gestion de l'obsolescence Profil recherché
Freelance

Mission freelance
Data Automation Engineer Confirmé

Publiée le
CI/CD
Dataiku
DevOps

6 mois
470-550 €
Île-de-France, France
Télétravail partiel
Dans le cadre de notre croissance stratégique, nous recherchons un Data / AI Engineer senior (Dataiku) pour rejoindre l’équipe Group Data Office , au service des métiers. Le consultant jouera un rôle clé dans l’accélération de la création de nouveaux produits data-driven, l’automatisation des processus métiers via l’automatisation agentique des processus, et l’aide à la prise de décisions stratégiques. Sa contribution apportera à la fois rapidité et robustesse à nos pipelines de données et à nos solutions. En collaboration étroite avec les parties prenantes métiers, il interviendra sur l’ensemble du cycle projet — de l’idéation et du prototypage rapide jusqu’au déploiement en production. Objectifs et livrables Collaborer avec les équipes métiers, opérationnelles et IT afin de recueillir les besoins et concevoir des solutions data adaptées. Développer et optimiser des pipelines de données robustes, scalables et performants, supportant des workflows métiers critiques. Co-construire des prototypes rapides avec les utilisateurs métiers pour valider les hypothèses et accélérer la création de valeur. Industrialiser ces prototypes en solutions prêtes pour la production, avec un fort accent sur la qualité des données, la maintenabilité et la performance. Contribuer aux processus de livraison et de déploiement continus en appliquant les bonnes pratiques de l’ingénierie logicielle et du DevOps. Participer à l’évolution de la stack data et promouvoir les bonnes pratiques au sein de l’équipe. Compétences techniques Expérience confirmée dans la manipulation de grands volumes de données en Python , avec des bibliothèques telles que Pandas ou Polars . Solide compréhension des principes de l’ingénierie logicielle : code propre, gestion de versions, tests et automatisation. Expérience avec les frameworks LLM et les outils d’orchestration d’agents IA. Maîtrise du prompt engineering , de la génération augmentée par la recherche (RAG) et de l’utilisation des modèles de fondation. Compréhension des architectures d’agents IA : boucles de raisonnement, utilisation d’outils, systèmes de mémoire et collaboration multi-agents. Expérience de l’intégration d’agents IA avec des bases de données vectorielles et des bases de connaissances. Connaissance des outils d’observabilité et d’évaluation de l’IA pour le suivi du comportement et des résultats des agents. Expérience des outils d’orchestration de pipelines de données, notamment Dataiku . Familiarité avec le DevOps , les pipelines CI/CD et les déploiements en environnement de production.
Freelance
CDI

Offre d'emploi
Consultant en solutions Cloud, Réseau et Datacenter Bilingue sur Puteaux (92)

Publiée le
Architecture
Azure
ISO 27001

3 mois
Puteaux, Île-de-France
Télétravail partiel
Je recherche pour un de mes clients un Consultant en solutions Cloud, Réseau et Datacenter sur Puteaux (92) Summary of the role Provide expert oversight of direct and hybrid datacentre and cloud-based platform and networking solutions and associated infrastructures through sound engineering support and technical direction. This role ensures technology platforms support regulatory compliance, data security, and operational efficiency while enabling scalable innovation and reliable services in support of the business and their customers. This is a great opportunity to work on in country needs as part of a global team, supporting the breadth of the organization. We are looking for an individual with strong technical skills who is organized, thorough and has the desire to work in a challenging environment. The role • Assess current IT infrastructure and recommend cloud and datacenter strategies aligned with financial industry regulations (e.g., FCA, PRA, GDPR). • Design, engineer, and implement solutions that align to the regional technology strategy while also meeting business requirements and processes. • Collaborate with Leadership team on roadmap and strategic initiatives. • Advise on cost optimisation, risk mitigation, and resilience planning for critical financial systems. • Architect secure, scalable solutions across public cloud platforms (Azure) and on-premises datacenters. • Collaborate with peers across the portfolio to manage dependencies, priorities, integrations and change impacts on people, processes and/or technology. • Partner with technical teams (Architects, Platforms, Cyber, Cloud Operations, etc.) to assist in creating solutions that balance business requirements with information and cybersecurity requirements in alignment with company's standards and risk appetite. • Implement hybrid cloud strategies to support sensitive workloads and regulatory requirements. • Lead migrations of core applications to cloud environments • Help in the creation of process documents, guides and procedures, appropriate tools, templates, that will help create efficiencies and support cloud adoption. • Ensure adherence to financial compliance frameworks (ISO 27001, PCI DSS, SOC 2). • Implement advanced security controls, encryption, and identity management for sensitive financial data. • Support audits and provide documentation for regulatory reporting. • Monitor performance and availability of mission-critical systems. • Optimise infrastructure for high availability, disaster recovery, and business continuity. • Partner with risk, compliance, and security teams to align technology with governance standards. The requirements • Qualified to degree level, preferably in a business, IT or security related subject • Proven experience in cloud architecture and datacentre solutions within financial services • Expertise in Microsoft Azure, HyperV with strong knowledge of hybrid cloud models • Understanding of financial compliance and regulatory frameworks • Strong networking, virtualisation, and storage knowledge • Certifications such as Azure Solutions Architect Expert or similar • Minimum 10 years’ experience in above areas • Leadership ability • Strong analytical skills with an eye for detail • Exceptional communication skills both written and verbal (French and English essential) • Ability to clearly communicate messages to a variety of audiences • Experience in technology consulting • Resilience and adaptability • Excellent listening skills Desirable Skills: • Experience with financial transaction systems and high-volume data processing • Strong foundation across Microsoft Azure technology stack • Experience using architecture methodologies • Experience in Azure application security architecture and deployments • Familiarity with DevOps and Infrastructure as Code • Standardizing Azure Security best practices, processes, and procedures • Ability to prioritize multiple requests and clearly communicate the priorities to the team and management. • Effectively handles difficult requests, builds trusting, long-term relationships with Internal stakeholders and manage client/business expectations Démarrage: ASAP
Freelance

Mission freelance
Lead Tech API & Archi Intégration

Publiée le
API
API Platform
API REST

12 mois
550-600 €
Joinville-le-Pont, Île-de-France
Télétravail partiel
Afin d’accompagner ce plan de transformation ambitieux, une institution bancaire recherche un Implementation Lead Tech – Professional Services , capable d’assurer le succès des projets d’intégration et de migration clients, en lien étroit avec les équipes internes et les clients. Rôle et responsabilités Rattaché(e) au Directeur en charge de l’arrimage à la nouvelle plateforme, l’Implementation Lead Tech joue un rôle clé dans le bon déroulement des projets d’intégration. En interaction constante avec les équipes techniques, software engineering et sécurité, il/elle accompagne les clients tout au long du cycle projet. Il/elle est le/la garant(e) de la satisfaction client, de la qualité des livrables et de la conformité technique et réglementaire des solutions mises en œuvre, dans le respect de la stratégie de l’institution. Missions principales1. Cadrage et intégration technique Analyser les besoins clients et identifier les écarts avec les prérequis techniques d’intégration de la plateforme. Proposer, construire et piloter le planning d’intégration technique. Conseiller les clients sur les scénarios d’intégration et leurs impacts techniques et organisationnels. Animer les ateliers techniques et sessions de questions/réponses avec les clients, en lien avec les équipes techniques. Mettre à disposition les spécifications techniques et accompagner les clients dans leur compréhension et leur mise en œuvre. Produire et maintenir la documentation d’intégration technique, incluant les paramètres spécifiques clients. Gérer les connexions aux environnements projet et production. 2. Architecture, API et sécurité Accompagner et conseiller les clients sur les choix d’architecture technique de raccordement à la plateforme. Instruire les dossiers de sécurité liés à l’intégration : Chiffrement des échanges, Mécanismes d’authentification (API et fichiers), Mécanismes d’échange et de protection des données. Accompagner les clients dans les analyses de sécurité et de conformité des données. Coordonner l’instruction des demandes d’avis de sécurité clients avec le Comité d’Architecture et de Sécurité (CAS). Rédiger la documentation de sécurité et contribuer à la constitution des dossiers d’homologation (DAT, PES, dossiers de recette sécurité, etc.). Gérer et coordonner les audits de conformité et de certification demandés par les clients, ainsi que le suivi des plans de remédiation. Traiter les demandes liées à la sécurité et à la conformité des données. 3. Migration et transformation Participer à la définition et à la mise en œuvre de la stratégie de migration vers la nouvelle plateforme. Accompagner les clients dans les phases de transition et de montée en charge. 4. Coordination et communication Assurer la communication et la coordination entre l’ensemble des parties prenantes : clients, direction, équipes produit, équipes techniques et sécurité. Garantir une information claire, structurée et proactive tout au long du projet. 5. Gestion des risques, qualité et amélioration continue Identifier, évaluer et suivre les risques projets (techniques, sécurité, planning, qualité). Mettre en œuvre des actions correctives et préventives adaptées. Veiller à la qualité des livrables et au respect des normes, standards et bonnes pratiques en vigueur. Participer aux rétrospectives projets et proposer de manière proactive des actions d’amélioration continue. Compétences requisesCompétences techniques Solide connaissance des systèmes de paiement et de la monétique, sur au moins un des domaines suivants : Émission, Acquisition, Contestation et gestion des impayés. Maîtrise des concepts d’API, d’architecture d’intégration et de gestion des accès. Solides connaissances en architecture des systèmes d’information et en développement logiciel. Expertise en sécurité des systèmes d’information, gestion des risques et conformité réglementaire. Connaissance approfondie des normes et standards de sécurité (ISO 27001, PCI-DSS, etc.). Bonne maîtrise des réglementations liées à la protection des données (RGPD, etc.).
Freelance

Mission freelance
Développeur Dataiku (Tours)

Publiée le
Dataiku

12 mois
420-460 €
Tours, Centre-Val de Loire
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un Développeur Dataiku(H/F) , pour le compte de l'un de ses clients qui opère dans le domaine d'Assurance. Description 🌍 Contexte de la mission Dans le cadre d’une stratégie globale de modernisation du SI et d’optimisation des processus analytiques, une mission est ouverte pour accompagner la migration d’un patrimoine applicatif historique développé sous SAS vers une plateforme Dataiku . L’objectif est d’améliorer les capacités d’analyse, d’intégrer de nouvelles fonctionnalités data, et de réduire les coûts opérationnels. Le consultant interviendra à la fois en suivi de projet et en réalisation opérationnelle , au sein d’équipes Data & IT déjà structurées. La mission débute à 100% sur site lors du lancement. 🎯 Objectifs de la mission Assurer le suivi et le pilotage de différents projets data. Accompagner et exécuter la migration des programmes SAS vers Dataiku. Garantir la qualité des programmes migrés par des tests rigoureux. Fiabiliser et moderniser l’écosystème analytique. 🧩 Missions principales et rôle 🔎 Analyse & préparation Auditer les programmes SAS existants pour comprendre le fonctionnement, les dépendances et les cas particuliers. Établir un plan de migration détaillé : étapes, ressources requises, planning prévisionnel. 🔁 Migration & développement Réécrire ou adapter les programmes SAS dans Dataiku. Intégrer les bonnes pratiques de développement et les fonctionnalités natives de la plateforme. ✅ Tests & validation Définir un processus de test complet pour garantir la conformité fonctionnelle et technique. Vérifier la cohérence des résultats entre SAS et Dataiku. 📊 Suivi de projet & coordination Suivre l'avancement des travaux et produire les reportings associés. Participer au support projet et à la résolution des blocages. Utiliser les outils de pilotage (Jira). 💼 Livrables attendus Audit des programmes SAS existants. Plan de migration détaillé. Programmes migrés et documentés sous Dataiku. Jeux de tests et rapports de validation. Suivi projet + reportings réguliers.
Freelance
CDI

Offre d'emploi
Chef de projet sécurité - (H/F)

Publiée le
Cybersécurité
DORA
PCI DSS

1 an
Île-de-France, France
Télétravail partiel
Contexte de la mission : Nous recherchons pour notre client Grand-Compte un Chef de Projet Sécurité pour piloter et coordonner des projets stratégiques dans un environnement exigeant et fortement réglementé. Missions principales : Piloter et coordonner les projets sécurité en lien avec les parties prenantes. Assurer la communication et la comitologie auprès de la direction et des entités clientes. Suivre le planning, le budget et la qualité des projets/programmes. Produire les livrables obligatoires selon la méthodologie interne. Suivre les dimensions du projet dans l’outil de gestion (Triskell). Organiser et animer les comités, rédiger les comptes rendus et assurer le suivi des actions. Préparer et accompagner le passage du Build to Run.
Freelance
CDI

Offre d'emploi
Product Owner Data – Expertise Power BI, Dataiku & Tableau

Publiée le
Data analysis
Dataiku
Product management

2 ans
40k-70k €
400-550 €
Île-de-France, France
Missions principales Définir la vision produit et la roadmap Data en lien avec les métiers. Prioriser le backlog et rédiger les user stories (méthodologie Agile). Superviser la préparation, la transformation et la qualité des données dans Dataiku. Piloter la production de dashboards et rapports dans Power BI et Tableau. Garantir la gouvernance et la cohérence des modèles de données. Collaborer avec data engineers, data scientists et équipes métier. Suivre les KPI, mesurer la valeur et assurer l’amélioration continue du produit. Compétences requises Excellente maîtrise : Power BI : Modèle tabulaire, DAX, dataprep, publication & sécurité Dataiku : Data pipelines, recipes, automation Tableau : Visualisation avancée, storytelling, calculs Solides compétences en modélisation de données (SQL, Star/Snowflake schema). Très bonne compréhension des enjeux Data et BI.
Freelance
CDI

Offre d'emploi
DATA ENGINEER PYPARK / DATABRICKS / POWER BI / DATAIKU

Publiée le
Azure
Databricks
Dataiku

3 ans
40k-45k €
400-570 €
Paris, France
Bonjour, Pour le compte de mon client, nous recherchons un data engineer. L’équipe de BUILD (qui gère les données du socle relation client et du socle connaissance client. Cette équipe est en charge de mettre à disposition des données en fraicheur pour deux équipes business. Le Data Ingénieur sera intégré dans une équipe Marketing d’une dizaine de personnes. La ressource doit accompagner la direction dans la réalisation des outils BI et analyses ad hoc pour leur permettre la réalisation de leurs usages. La mission se décompose en deux volets : 1. DIR DATA : Apporter un appui à la capacité à faire de l’équipe BUILD du projet et d’épauler la capacité à faire des métiers sur des montées de versions de leurs produits data métiers. Contexte de migration des projets métiers data basé actuellement sur Synapse vers Unity Catalog (Databricks). 2. DIR MKT : L'objectif de la mission est de permettre à la direction de piloter les offres par la réalisation d'analyse et la construction de tableaux de bord. Les indicateurs mis en visibilité permettront à la direction de suivre l'adoption des offres et services et de prendre les décisions stratégiques. Actiivités du poste : Partie direction Data Participation active à l’appui des équipes métiers lors de la migration vers Unity Catalog / suppression de synapse. Appui aux métiers pour assurer la MCO de leurs produits data métiers Participation active à l’équipe de développement BUILD du projet et aux phases de recette et de validation sur les différentes livraisons des traitements de données en lien avec l’équipe de build projet. - Participation ponctuelle aux analyses d’écarts et à l’identification des causes racines sur des problèmes de qualité et incohérences de données remontées via les clients auprès de la Relation Client, l’équipe RGPD ou par d’autres canaux internes (ex : incohérences sur les dates de naissance, doublons de clients, de segments de voyages, problèmes de référentiels, etc.) - Participation ponctuelle à la construction et évolutions sur des tableaux de bord Power BI en lien avec les besoins de monitoring de la donnée des socles sous responsabilité de la direction Data . Partie Direction MKT : Construction et maintien de tableaux de bord : Élaboration et implémentation de modèles de données optimisés pour les tableaux de bord Construction du tableau de bord Validation de la conformité et de la fiabilité des données présentées dans les tableaux de bord Traitements de données Développement et maintien d’indicateurs Optimisation des performances des traitements de données Interne Automatisation de la chaine de traitements des données depuis le socle Data TGV-IC ou d'autres sources Supervision de la chaine de traitements Réalisation d’analyse Réalisation d'extractions et analyses data ad hoc pour répondre aux besoins spécifiques des métiers Actions de gouvernance de la donnée Catalogage de la donnée : Documentation des dictionnaires de données, du lineage et des produits data business Suivi de la qualité des données Mise en place d’un outil de supervision de la qualité des données Identification des anomalies et investigations
Freelance
CDI

Offre d'emploi
Data Manager

Publiée le
Dataiku
Microsoft SQL Server
Sass

1 an
40k-45k €
330-540 €
Paris, France
Télétravail partiel
Contexte de la mission Cette mission s'inscrit dans le contexte actuel de l'augmentation de la surveillance réglementaire sur les activités de financement associées aux Private Equity (PE) et Private Crédit (PC). Au sein du département RISK, l'équipe Data Management a pour rôle d'accompagner les équipes RISK dans leurs activités quotidiennes en mettant en œuvre des solutions agiles et innovantes en termes de traitement, d'automatisation et de visualisation des données ; et contribue aux demandes réglementaires complexes à l'échelle du Groupe nécessitant une forte expertise technique et fonctionnelle des données. Sur le périmètre crédit, la production d'analyses de portefeuilles et d'exercices réglementaires s'effectue dans l'environnement UDS (Unified Data Set), une solution SAS pour la collecte et la préparation des données et SQL Server / Tableau Server pour la visualisation des données. Une migration de la plateforme de collecte et de préparation des données de SAS vers Dataïku est en cours de finalisation dans le cadre d'un projet Risk Data Services. La mise en service de la nouvelle plateforme est prévue début 2026. Sur cette nouvelle plateforme, l'UDS devra évoluer pour intégrer un nouveau besoin permettant à la banque de mieux monitorer ses risques face à des contreparties financées par des Private Equity ou des Private Credit. Cette mission consistera à implémenter une solution pour couvrir ce besoin au niveau de l'UDS, d'abord en mode tactique puis en mode cible. Dans le cadre de cette mission, de nouvelles données devront être collectées, contrôlées, agrégées et restituées dans des dashboards. Cette mission s'inscrit dans un projet plus global qui vise à faire évoluer l'ensemble du dispositif IT RISK/Finance pour couvrir ce besoin d'une manière globale.
53 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous