Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 780 résultats.
Mission freelance
Consultant KELIA Actuariat / Data – Validation des calculs et migration SI Épargne / Retraite
CAT-AMANIA
Publiée le
kelia
Python
2 ans
400-700 €
Île-de-France, France
Dans le cadre d’un programme stratégique de transformation du système d’information Épargne, nous recherchons un Consultant Actuariat / Data pour intervenir sur la validation et la certification des calculs actuariels dans un contexte de migration vers un nouvel outil de gestion. Ce programme vise à moderniser l’écosystème Épargne, notamment à travers le lancement de nouvelles offres et la convergence des systèmes existants vers une plateforme cible. Vous interviendrez au sein du programme de migration, en lien étroit avec les équipes actuariat, data et IT. Vos missions Vous aurez un rôle clé dans la fiabilisation et la validation des calculs actuariels et financiers : Analyser et comparer les résultats calculatoires entre les systèmes existants et la nouvelle plateforme cible Réaliser les recettes calculatoires et valider la cohérence des résultats Identifier, analyser et documenter les écarts observés Proposer des solutions pour corriger ou minimiser les impacts techniques et fonctionnels Participer à la certification des données migrées Produire des rapports d’analyse et des supports de suivi (tableaux de bord, synthèses, indicateurs) Contribuer à la fiabilisation des données et à la sécurisation du processus de migration Vous interviendrez sur des sujets tels que : tables de mortalité provisionnement calculs actuariels validation de modèles et de paramètres Environnement technique et métier Environnement métier : Assurance Épargne et Retraite Migration de systèmes d’information Validation actuarielle et certification des données Environnement technique : Python, R ou SAS Analyse statistique et modélisation Outils analytiques et data Outil de gestion Kelia (un plus)
Mission freelance
Service Owner Data Platforms (Braincube / Dataiku)
Signe +
Publiée le
Dataiku
12 mois
500-550 €
Malakoff, Île-de-France
Objectif de la mission Garantir le niveau de service, la gouvernance et le pilotage opérationnel (run) des plateformes Braincube et Dataiku, en assurant la performance, la conformité et l’amélioration continue du service. Responsabilités principales Maintenir les standards de service, assurer la conformité licences et suivre les usages via des KPIs Gérer incidents, demandes et changements, assurer la communication interne et utilisateurs Définir et suivre les SLA, piloter la performance du service et les indicateurs associés Structurer la roadmap, identifier les améliorations continues et piloter le plan de charge Garantir la résilience des plateformes (évolutions, obsolescences) et la sécurité des données Piloter les activités opérationnelles multi-sites (France / Inde / éditeurs / prestataires) Assurer l’interface avec les équipes IT et data pour faciliter l’exploitation du service Produire la documentation de service (guides, onboarding, bonnes pratiques) Environnement technique Braincube, Dataiku AWS (S3, EC2, EKS), déploiements sécurisés Connaissances ML Ops / Data Science / IA / IA générative Architecture SI / data, gouvernance data, exploitation et performance Sécurité et conformité (RBAC, chiffrement, logging, RGPD) Livrables attendus Reporting KPI et suivi des SLA Guides de bonnes pratiques et supports de formation Documentation de service et onboarding Plan de montée en compétences et roadmap d’amélioration Profil recherché Service Owner / Service Manager senior (8+ ans) Expérience pilotage run et gouvernance de plateformes data / analytics Solide compréhension des environnements cloud AWS et des enjeux data
Offre d'emploi
Data Scientist spécialisé dans les enquêtes/sondages - F/H - Système, réseaux, données (H/F)
█ █ █ █ █ █ █
Publiée le
Paris, France
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Offre d'emploi
Pilote de la Feuille de Route Sécurité Data
CAT-AMANIA
Publiée le
Agile Scrum
12 mois
40k-45k €
400-550 €
Niort, Nouvelle-Aquitaine
Nous recherchons un Pilote de la Feuille de Route Sécurité Data pour le compte de notre client, acteur majeur dans le secteur des assurances. Au sein du Data Office , vous intervenez sur une mission stratégique visant à renforcer durablement la sécurité du patrimoine data, aussi bien sur les environnements On-Premise que Cloud . Dans un contexte de transformation et de forte exigence réglementaire, vous êtes garant(e) du pilotage global de la feuille de route Sécurité Data Office 2025–2026 . Vos principales responsabilités portent sur la coordination, le pilotage et l’amélioration continue de la posture de sécurité data, avec une approche à la fois opérationnelle, structurante et proactive. À ce titre, vous assurez notamment : Le pilotage opérationnel de la feuille de route sécurité (jalons, budgets, qualité des livrables) L’animation de la gouvernance sécurité data (comités, coordination RSSI, DDSI, Data Managers) La production de reportings et tableaux de bord de suivi (KPIs sécurité, avancement des recommandations d’audit) L’identification des risques, points de blocage et la proposition de plans de remédiation Vous pilotez également les chantiers structurants issus de la roadmap, notamment : Les stratégies de sauvegarde et de résilience des données La gestion des accès et des habilitations L’application des règles de sécurité et de conformité (PSSI, RGPD) sur les domaines Data Au-delà de l’exécution, vous jouez un rôle de conseil en évaluant la pertinence de la feuille de route existante face aux nouveaux enjeux (IA générative, nouveaux usages data, data virtualisation) et en proposant des actions complémentaires. Enfin, vous contribuez à la mise en place d’un processus d’amélioration continue de la sécurité data, en sortant d’une logique purement réactive post-audit : Standardisation des pratiques “Security by Design” Sensibilisation et montée en compétence des équipes data Mise en place de dispositifs d’auto-évaluation et d’audits flasht personnel.
Mission freelance
Chef de projet data migration (H/F)
Cherry Pick
Publiée le
Coupa
Gestion de projet
Migration
9 mois
600-650 €
Paris, France
En quelques mots Cherry Pick est à la recherche d'un Chef de projet data migration(H/F) , pour le compte de l'un de ses clients qui opère dans le domaine pharmaceutique. Description 🏢 Le Contexte : Programme de Transformation "Nexus" Vous rejoignez le programme international, au sein de l'équipe Performance Opérationnelle Finance . Ce programme vise à harmoniser les outils et processus sur l'ensemble du cycle Source-to-Pay (S2P) et Source-to-Settle à l'échelle mondiale. Après le déploiement en France, le projet s'attaque à un morceau d'envergure : le déploiement aux États-Unis , incluant une transition vers SAP S/4HANA et l'harmonisation des outils de CLM ( Sirion ) et d'e-Procurement ( Coupa ). 🎯 Vos Missions : Pilotage et Coordination de la Migration Sous la responsabilité du responsable Data Model et Data Migration, vous portez une stratégie de migration spécifique basée sur l'agilité et l'ajustement tardif des données. Définition du Scope : Mettre autour de la table des acteurs internes ultra-challengeants pour arrêter le périmètre de reprise (attributs, historique, périmètres géographiques). Stratégie de Migration par "Templates" : Contrairement à une migration technique classique, vous pilotez une approche par gabarits permettant d'ajuster et de transformer la donnée manuellement jusqu'au dernier moment pour garantir une fiabilité maximale au Go-Live. Intégration MDM : Assurer la mise en conformité et l'entrée des données dispersées dans le référentiel maître ( Master Data Management ) du groupe. Coordination Internationale : Aligner les besoins de la France et les spécificités du déploiement américain. Gouvernance et Documentation : Documenter les processus de transition pour assurer la continuité du "Run" après la migration.
Offre d'emploi
Data Engineer Senior – Plateforme Data Cloud
VISIAN
Publiée le
AWS Cloud
Databricks
PySpark
3 ans
40k-50k €
500-540 €
Lyon, Auvergne-Rhône-Alpes
Data Engineer Senior – Plateforme Data Cloud (H/F) Lyon – Mission longue durée – Temps plein Nous recherchons un Data Engineer senior pour intervenir sur une plateforme data stratégique au sein d’un grand environnement industriel en transformation. La mission s’inscrit dans une équipe dédiée à l’industrialisation et à la performance des pipelines data, sur une architecture cloud moderne à forte volumétrie. Missions • Concevoir et optimiser des pipelines d’ingestion et de transformation de données • Garantir la performance, la fiabilité et la scalabilité de la plateforme • Mettre en place des mécanismes de contrôle qualité des données • Automatiser et superviser les traitements data • Participer à la gouvernance et au cycle de vie de la donnée • Contribuer à l’optimisation des infrastructures cloud • Supporter les utilisateurs de la plateforme • Participer à la veille technologique Environnement technique Databricks sur AWS PySpark, Python, SQL avancé Architecture Data Lake et pipelines industriels Outils DevOps / DataOps (Git, CI/CD, ticketing) Méthodologie Agile à l’échelle (SAFe) Profil recherché Minimum 5 ans d’expérience en data engineering Expertise Databricks, AWS et PySpark Expérience en industrialisation de pipelines data Rigueur technique et autonomie Bon esprit d’équipe Anglais professionnel Connaissance du secteur industriel ou énergie appréciée. Conditions Mission longue durée avec visibilité Projet à fort impact Équipe technique experte Environnement cloud avancé
Offre d'emploi
Data Steward F/H
Karma Partners
Publiée le
PowerBI
Python
SQL
6 mois
40k-49k €
400-500 €
Croix, Hauts-de-France
POSTE EN PRE-EMBAUCHE : 6/7 mois en presta suivi d'un CDI Accompagnement des Référents Métiers : Vous serez le point de référence pour guider les Data Owners dans la mise en qualité de leurs données métier, en animant les processus de gouvernance et en favorisant une collaboration efficace entre les équipes. Responsabilité de la gouvernance des données : Vous participerez activement à la gouvernance d'un périmètre applicatif Data, en analysant les anomalies détectées et en proposant des solutions. Gestion et enrichissement du Data Catalog : Vous serez en charge de la mise à jour et de l'enrichissement de notre Data Catalog, en veillant à ce que les données soient bien documentées et facilement accessibles pour les utilisateurs. Vous animerez les sessions de formation et de sensibilisation sur l'utilisation du Data Catalog. Création et suivi des indicateurs de qualité des données : Vous serez responsable de la création, de la mise en œuvre et du suivi des indicateurs de qualité des données. Vous présenterez les résultats aux métiers et vous vous assurerez que les données restent conformes aux exigences et aux évolutions des processus et outils. Transformation des outils de Data Quality : Vous contribuerez à la transformation de nos outils de Data Quality, en jouant un rôle clé dans l'optimisation de la mise en oeuvre des sondes ainsi que des outils de décision et de visualisation.
Mission freelance
Senior Google Workspace, Data & IA
OPTIPARK
Publiée le
BigQuery
Google Cloud Platform (GCP)
Google Sheets
1 an
100-470 €
Niort, Nouvelle-Aquitaine
Dans le cadre d’un programme stratégique de transformation digitale, nous recherchons un Expert Senior Google Workspace / Data & IA capable d’assurer l’interface entre l’expertise technique et les enjeux métiers. Il s’agit d’un rôle hybride à forte valeur ajoutée, combinant : Administration avancée de l’environnement Google Workspace Exploitation et analyse des données d’usage (BigQuery / Looker) Développement de solutions d’automatisation (AppSheet / Apps Script) Pilotage et diffusion des usages IA (Gemini, adoption, innovation) Accompagnement des directions métiers dans la transformation numérique Vos missions 🔹 Volet Data & Analytics Concevoir et maintenir des modèles LookML complexes Développer des dashboards stratégiques (adoption, performance, indicateurs RSE) Exploiter les données via BigQuery (SQL avancé) Structurer les tables et optimiser les coûts de calcul et stockage Définir des indicateurs liés à la sobriété numérique et à la qualité de vie au travail 🔹 Volet IA Générative & Innovation Contribuer à la structuration d’un Centre d’Expertise IA Être référent technique et fonctionnel sur les solutions IA (Gemini) Animer une communauté d’ambassadeurs IA Identifier et déployer des cas d’usage métiers à forte valeur ajoutée Concevoir supports de formation et référentiels de prompts 🔹 Volet Google Workspace (Technique & Fonctionnel) Administrer et sécuriser l’environnement Google Workspace (DLP, Context-Aware Access) Développer des applications métiers via AppSheet Créer des automatisations via Google Apps Script Accompagner la migration d’Excel/VBA vers Google Sheets / BigQuery Assister le Product Owner dans la roadmap, les User Stories et la conduite du changement
Offre d'emploi
DevOps streaming Data - (H/F)
SWING-ONE
Publiée le
Ansible
Apache Kafka
DevOps
1 an
Île-de-France, France
CONTEXTE DU POSTE : Nous recherchons pour notre client Grand-Compte un DevOps streaming Data. Vous intégrerez le pôle technologique en charge de concevoir et d’opérer des plateformes « as a service » permettant le déploiement d’architectures modernes, distribuées et hautement résilientes pour l’ensemble des entités du Groupe. MISSIONS PRINCIPALES : Industrialiser et automatiser les déploiements (Ansible) Mettre en production de nouveaux clusters Kafka et faire évoluer les clusters existants (scale horizontal & vertical) Participer à la définition des architectures des futures briques de la plateforme Streaming Apporter une expertise technique aux utilisateurs de la plateforme Développer des prototypes en lien avec les cas d’usage métiers Documenter les offres et démontrer la valeur des solutions Data
Offre d'emploi
Data Engineer DBT/Snowflake/Tableau/Airflow
OBJECTWARE
Publiée le
Apache Airflow
DBT
Snowflake
3 ans
40k-66k €
270-500 €
Île-de-France, France
Objectif de la mission Objectif global : Construire et maintenir les produits DATA Loyalty Présentiel 2j / semaine au siège SQL / Snowflake - Confirmé - Impératif DBT / Airflow / Astronomer - Confirmé - Impératif Data modeling / Data Quality - Confirmé - Important Tableau / Data Viz - Junior - Souhaitable Français Courant (Impératif) Anglais Professionnel (Impératif) Prestations demandées Sous la responsabilité du Tech Lead, vous êtes l'acteur clé en charge des chaînes d'approvisionnement, de transformation et de mise en valeur des données, participant à la conception et modélisation des produits, assurant la conformité et la maintenabilité des solutions développées, et relevant les défis techniques liés à la volumétrie et à la qualité du patrimoine de données. Au quotidien, vos missions sont de : - Concevoir, développer et déployer les solutions de gestion des données "Cloud-Native" - Assurer la conformité et la maintenabilité du code (TDD, commentaires, etc.) - Détecter, analyser et résoudre les incidents ou anomalies survenant sur les produits de l'équipe - Contribuer aux chantiers transverses (usine logicielle-CI/CD, supervision, catalogue, etc.) - Comprendre la finalité métiers des produits, et surtout la complexité fonctionnelle des données manipulées - Assurer la cohérence de la modélisation des données du patrimoine avec l'aide des Data Managers - Accompagner les profils Produit ou Data Science dans le cadrage des besoins de données métiers (disponibilité, qualité, etc.) - Participer à l'animation de la communauté "Data Tech" (diffusion bonnes pratiques, capitalisation code, veille techno, etc.) - Sensibiliser nos différents interlocuteurs aux enjeux et bénéfices 'data' Qualifications Compétences Data & Analytics requises : - Utilisation de la « Modern Data Stack » (Snowflake, dbt, Tableau, Airflow, etc.) - Intégration & manipulation de données massives (SQL, Python, etc.) - Connaissances des architectures « Data » opérationnelles ou analytiques - Mise en place de supervision de données (contrôle qualité, rejets, alertes) - Connaissances des réglementations sur les données, notamment personnelles (ex : RGPD) Compétences générales attendues : - Connaissances et mise en œuvre des méthodologies Agile : Scrum & Kanban - Culture & techniques DevOps - Collaboration et travail en équipe - Bonne communication orale et écrite - Autonomie et proactivité - Gestion des priorités, risques et alertes - La connaissance du monde de l’hôtellerie est un plus. - Anglais opérationnel requis.
Mission freelance
Expert Senior Google Workspace, Data & IA/Looker Studio / Big Query /GEMINI (H/F)
Octopus Group
Publiée le
BigQuery
Google Workspace
IA Générative
6 mois
570-750 €
Niort, Nouvelle-Aquitaine
Nous recherchons pour le compte de notre client dans le secteur de l'assurance, un Expert Senior Google Workspace, Data & IA capable d'assurer l'interface entre l'expertise technique et les enjeux métiers sur l'ensemble de l'écosystème Google Workspace et ses extensions Data & IA. Le profil recherché est un consultant hybride à haute valeur ajoutée, capable d'administrer l'environnement collaboratif, d'analyser la donnée d'usage (BigQuery/Looker), de développer des solutions d'automatisation (AppSheet) et de porter la vision fonctionnelle (RSE, Adoption, IA) auprès des directions métiers. Description des missions : Volet Data & Analystics (Expertise Looker et BigQuery) Business Intelligence (Looker) : Conception et maintenance de modèles LookML complexes Élaboration de dashboards de pilotage stratégique pour mesurer l'adoption des outils et la performance des processus métiers. Data Analysis (BigQuery) : Exploitation avancée des données (logs d'audit GWS, données métiers) via requêtage SQL optimisé. Structuration des tables et gestion des coûts de stockage/calcul. Pilotage RSE & Usages : Définition et mise en place d'indicateurs de suivi sur l'infobésité et l'hyperconnexion, en support de la politique de Qualité de Vie au Travail (QVT) et de Sobriété Numérique. Volet IA Générative (Gemini) & Innovation : Centre d'Expertise IA : Contribution majeure à la structuration du Centre d'Expertise. Rôle de référent technique et fonctionnel sur la solution Gemini. Acculturation & Animation : Pilotage de la communauté d'ambassadeurs IA. Organisation de webinars, rédaction de guides de bonnes pratiques et identification de cas d'usage à forte valeur ajoutée. Intégration Métier : Déploiement opérationnel de solutions IA (assistance rédactionnelle, synthèse documentaire, assistants virtuels) adaptées aux besoins spécifiques des métiers. Volet Google Workspace : Technique & Fonctionnel : Expertise Admin & Sécurité : Administration avancée de la console Google Workspace. Audit et optimisation des configurations de sécurité (DLP, Context-Aware Access) en collaboration avec les équipes Cyber. Automatisation des Processus : Développement d'applications métiers via AppSheet (Low-code) et Google Apps Script pour la digitalisation des tâches manuelles et le remplacement de fichiers Excel complexes. Transition Office vers Google : Accompagnement technique et méthodologique pour la migration des utilisateurs et de leurs outils (Excel/VBA) vers l'écosystème Google (Sheets/Apps Script/BigQuery). Posture AMOA/PO : Assistance au Product Owner dans la définition de la roadmap produit, la rédaction de User Stories et la conduite du changement.
Mission freelance
Analytics Engineer – Migration DataBoost (SAP BO → Power BI)
SKILLWISE
Publiée le
Azure Data Factory
Azure DevOps
Databricks
3 mois
230-680 €
Paris, France
Dans le cadre du projet DataBoost , nous recherchons un Analytics Engineer pour participer à la migration des rapports SAP Business Objects vers Power BI . Ce projet vise à décommissionner SAP BO en industrialisant l’intégration des données dans une architecture lakehouse moderne (Bronze → Silver → Gold), et à construire un référentiel analytics centralisé pour l’ensemble des datamarts. Vos missions consisteront à : Concevoir et développer des pipelines d’ingestion de données via Azure Data Factory (POC avec Airflow). Développer des pipelines d’intégration de données en PySpark (Spark Declarative Pipeline). Transformer et optimiser les flux de données en SQL avec le framework DBT . Développer de nouveaux indicateurs de qualité de données sur DBT. Garantir la qualité du code et le respect des normes de développement. Implémenter des tests unitaires pour assurer la fiabilité des solutions. Maintenir les outils de monitoring pour suivre les performances. Ce poste est idéal pour un professionnel souhaitant contribuer à une transformation majeure des outils BI et travailler sur une architecture data moderne .
Mission freelance
Business Analyst - expérience Data sur des données Clinique - Anglais courant exigé
WorldWide People
Publiée le
Business Analyst
6 mois
400-550 €
France
Business Analyst données cliniques/de santé client dans la pharmaceutique parler couramment anglais nous recherchons un Business Analyst expérimenté (au moins 5 ans d'expérience). Compétences requises : Solide expérience des normes en matière de données cliniques/de santé (HL7, FHIR, CIM-10, LOINC, etc.). Bonne compréhension des plateformes et des pipelines de données (Snowflake, dbt, IICS est un plus). Capacité à rédiger des documents fonctionnels clairs, des récits d'utilisateurs et des critères d'acceptation. Solides compétences en communication et expérience de travail dans des environnements Agile. 3 à 6 ans ou plus en tant que Business Analyst dans les domaines des données, de la santé et de la réglementation. Prérequis obligatoire , il faut absolument une expérience réelle dans le domaine de la Data sur des données cliniques et parler couramment anglais. Durée : 1 an Démarrage : ASAP Localisation : France Nous recherchons un Business Analyst pour soutenir les initiatives liées aux données opérationnelles cliniques (MDM, SSU, CTMS, Site connect, CRM, chaîne d'approvisionnement, finances, ERP). Le consultant servira de pont entre les parties prenantes commerciales, les équipes cliniques et l'ingénierie des données afin de traduire les besoins en exigences de données exploitables. Responsabilités principales : Recueillir, analyser et documenter les exigences commerciales pour les cas d'utilisation des données cliniques et opérationnelles. Traduire les besoins fonctionnels en spécifications claires pour les équipes d'ingénierie et d'analyse des données. Soutenir les activités liées à la qualité, à la traçabilité et à la gouvernance des données (définitions, dictionnaires de données, règles de validation). Animer des ateliers avec les parties prenantes cliniques/opérationnelles et assurer la coordination entre les équipes. Contribuer à la gestion du backlog et à la planification des sprints à l'aide de Jira ; documenter les processus dans Confluence. Compétences requises : Solide expérience des normes en matière de données cliniques/de santé (HL7, FHIR, CIM-10, LOINC, etc.). Bonne compréhension des plateformes et des pipelines de données (Snowflake, dbt, IICS est un plus). Capacité à rédiger des documents fonctionnels clairs, des récits d'utilisateurs et des critères d'acceptation. Solides compétences en communication et expérience de travail dans des environnements Agile. 3 à 6 ans ou plus en tant que Business Analyst dans les domaines des données, de la santé et de la réglementation.
Mission freelance
Data domain lead
Codezys
Publiée le
Python
SQL
6 mois
450-550 €
Aubervilliers, Île-de-France
Aligner et renforcer les capacités des équipes IS&T, Data & Digital en coordination avec les parties prenantes du groupe. Accélérer, industrialiser et déployer des services numériques et de la valorisation des données, en s'appuyant sur des modèles de livraison basés sur les services, expertises métiers et logiciels. Développer, maintenir et soutenir des offres technologiques, data et digital pour créer de la valeur, en interne comme en externe. Chaque département doit se concentrer sur ses compétences clés tout en créant des synergies et en optimisant les interactions. Rôle du département DATA : Valoriser le potentiel des données en en faisant un actif stratégique pour renforcer la prise de décision basée sur les données. Renforcer la chaîne de valeur Data, en appliquant une stratégie de source unique de vérité, simplifier l’écosystème data et favoriser une approche centrée sur les données dans la stratégie applicative. Devenir un leader en Ecological AI en co-concevant un portefeuille de solutions Data. Équipe Data Transformation : Créer et dispenser des formations sur la data aux différents segments du personnel data. Réaliser des projets data avec les départements et Business Units (BU), notamment en automatisant les processus de reporting (projet KISS). Mettre en place une organisation Data à l’échelle du groupe et des BU pour améliorer la gouvernance et le reporting, en animant une communauté de responsables de la transformation data. Objectifs et livrables : En tant que responsable du domaine Data, vous gérez des missions de transformation, construisez des cas d’usage en analytics, supportez les initiatives d’automatisation et de changement, et garantissez l’alignement stratégique des produits data. Responsabilités clés : Vision et stratégie produit : Définir la vision et la feuille de route des produits data, agir comme point de contact unique pour les besoins métiers et aligner les solutions sur les objectifs opérationnels. Mise en œuvre & standards : Développer des solutions data (pipelines, datamarts, visualisations) conformes aux standards architecturaux, avec une expertise en modélisation sémantique et gestion des Master Data. Analyse & insights : Identifier des tendances via l’analyse de données, créer des dashboards et rapports stratégiques, soutenir les analystes citoyens en identifiant des opportunités à forte valeur ajoutée. Transformation et autonomisation : Promouvoir la maturité data par la formation (ex. Data Passport), faire évoluer la culture data et animer une communauté de Data Owners. Partenariats et adoption : Gérer attentes et besoins des parties prenantes, promouvoir et faciliter l’adoption des solutions data par les BU, en soutenant leur connexion à la plateforme.
Mission freelance
Data Engineer Azure
Cherry Pick
Publiée le
Azure
Azure Data Factory
Python
12 mois
500-550 €
Paris, France
En quelques mots Cherry Pick est à la recherche d'un "Data Engineer" pour un client dans le secteur de l'assurance Description 📊 Le Contexte : La Data au service de l'Investissement Vous rejoignez le Datahub d'un acteur majeur de l'épargne, une plateforme critique au cœur du système d'information. Ce hub centralise et normalise l'ensemble des données du groupe pour alimenter des processus business à fort impact : calcul des commissions , génération de documents réglementaires, marketing prédictif et pilotage financier. L'enjeu est de transformer une masse de données brutes en informations fiables et exploitables pour l'ensemble de l'écosystème (partenaires, clients, directions métiers). 🎯 Vos Missions : Ingénierie & Industrialisation Intégré(e) à l'équipe Data, vous êtes le garant de la robustesse des flux de données. Design & Delivery : Concevoir, développer et maintenir des pipelines d’intégration complexes via Azure Data Factory (ADF) . Cycle de vie de la donnée : Assurer l'ingestion, la transformation, la normalisation et la mise à disposition des données pour les services consommateurs. Expertise SQL : Réaliser des agrégations et des transformations avancées, avec un souci constant de performance et de qualité. Infrastructure as Code (IaC) : Participer au déploiement et à la gestion des infrastructures via Terraform . Collaboration Métier : Agir en tant que partenaire des équipes finance et marketing pour traduire leurs besoins en solutions techniques robustes. Qualité & CI/CD : Contribuer à l'automatisation des tests et des déploiements (Azure DevOps, SonarCloud).
Mission freelance
Data Engineer Talend (habilitation requise)
Signe +
Publiée le
Talend
12 mois
400-610 €
Paris, France
Contexte Dans le cadre du développement du DataLab, le Data Office souhaite renforcer ses équipes afin d’accélérer les projets BI, Data Analytics et Data Management et soutenir les initiatives de valorisation des données métiers. Besoin consultant Talend pour T… Objectifs de la mission Concevoir et développer des pipelines de données performants et évolutifs Participer à l’industrialisation et à l’optimisation des flux data Contribuer à la qualité, la fiabilité et la valorisation des données Responsabilités principales Concevoir, développer et optimiser des flux de données sous Talend Collaborer avec les équipes métiers, Data Analysts et Data Architects pour traduire les besoins fonctionnels en solutions techniques Garantir la qualité et la performance des traitements de données Mettre en place des processus de validation, nettoyage et fiabilisation des données Participer aux revues de code et au partage de compétences avec l’équipe Data Engineering Proposer des améliorations continues des outils, méthodes et processus Compétences requises Maîtrise de Talend (développement de pipelines, intégration de données) Bonne compréhension des architectures Data et des bonnes pratiques de traitement des données Expérience en collaboration avec équipes data et métiers Sens de la qualité de données, performance et industrialisation des flux Contraintes spécifiques Mission basée à Vélizy avec déplacements ponctuels Nationalité française requise (accès site)
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
1780 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois