Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 1 169 résultats.
Freelance

Mission freelance
Data Architect (Le Mans)

Publiée le
Architecture

6 mois
400-550 €
Le Mans, Pays de la Loire
Télétravail partiel
L'architecte de domaine a pour missions principales - d'être l'interlocuteur architecte auprès de son domaine, pour accompagner la transformation de son domaine - accompagner les projets portés par le domaine, dans les phases étude de faisabilité pour proposer les scénarios IT - contribuer à la connaissance du domaine , sur la modélisation / cartographie du domaine, et s'assurer de la qualité des référentiels. Dans le cadre des accompagnements EF/Projets, l'architecte doit travailler sur la modélisation sur les différents plan d'architecture : métier, fonctionnel, applicatifs et techniques, doit rédiger des dossiers d'architecture pour éclairer les choix, présenter les dossiers dans des comités, et décliner l'architecture en phase projet en lien avec les différentes parties prenantes, domaines, sécurité, intégration en production. Dans le cadre de son rôle vis à vis des domaines sur lesquels il intervient, il devra produire les cartographies de son domaine sur les différents plans architecture et assurer la qualité de la documentation dans les différents référentiels entreprises, la connaissance des différents domaines de l'assurance et des métiers supports (finances, comptabilité, conformité ...) seraient donc un plus. Connaissance cadre d'architecture TOGAF, qualité rédactionnelle et de synthèse pour la rédaction des dossiers d'architecture, Capacité à travailler en collaboratif, Qualité pour présentation des dossiers Cette demande concerne le domaine Cette demande concerne le domaine DATA. Des connaissances de la Gouvernance Data et des architectures Data sont demandés : Data Product, Hub de données, SID, API, EDA....
Freelance
CDI

Offre d'emploi
Data Quality Analyst

Publiée le
Data governance
Data quality

1 an
40k-45k €
400-610 €
Paris, France
Télétravail partiel
Mission La mission du Data Office s'est fortement enrichie avec la promotion de l'utilisation de la DATA par l'ensemble des projets des Métiers / Fonctions (Risque/Finance/ IT) de l'organisation et du Groupe. L'objectif est de développer l'activité commerciale, de diminuer les couts, d'améliorer l'efficacité opérationnelle et de répondre à la dimension règlementaire. La mission est au sein de l'équipe Data Office Data Quality. L'activité de cette équipe porte sur le développement, l'amélioration et le déploiement du Dispositif Data Quality (contrôle, dimension, labélisation, coordination des remédiations) dans l'écosystème de l'organisation et sur l'accompagnement Data sur les projets réglementaires (définition, cadrage, flowcharts, règle de gestion..)
Freelance

Mission freelance
Data engineer

Publiée le
Azure Data Factory
Databricks
Scala

12 mois
400-560 €
Île-de-France, France
Télétravail partiel
Les livrables sont : Code Source Documentation KPI qualité Compétences techniques : Databricks - Expert - Impératif Spark SQL - Expert - Impératif Azure Data Factory - Confirmé - Important Scala - Confirmé - Souhaitable Description détaillée Contexte : Le projet Data PUB - Digital vise à centraliser et harmoniser l'ensemble des données relatives à la diffusion publicitaire digital (impressions, chiffre d'affaire etc) pour permettre un reporting fiable selon différentes dimensions (canal de vente, origine, équipes commerciales, annonceurs etc) et garantir une vision unifiée de la performance digitale. Environnement technique : Azure Data Factory, Databricks, Spark Scala, SQL, Azure DevOps et Power BI. Missions : - Concevoir et développer des pipelines d’ingestion de données via Azure Data Factory. - Développer et optimiser des flux de transformation de données en Spark SQL. - Maintenir des pipelines de traitement de données en Scala (faible part) - Maintenir et développer de nouveaux indicateur de qualité de données - Participer au refactoring du code existant pour améliorer sa performance et sa maintenabilité (réécriture en DBT) - Garantir la qualité du code et veiller au respect des normes de développement au sein de l’équipe. - Implémenter des tests unitaires et assurer la fiabilité des solutions. - Maintenir les solutions de monitoring de l’application Digital. Profil recherché : - Profil orienté Analytics Engineer - Maîtrise avérée de Spark SQL - Bonne connaissance en modélisation BI - Expérience confirmée sur l’écosystème Microsoft Azure (Data Factory, Databricks, Azure DevOps). - Bonne connaissance de Git et des pratiques DevOps. - Sens de la communication, force de proposition et capacité à travailler en équipe. - Rigoureux, attaché aux bonnes pratiques de développement et à la qualité du code Le profil est garant du bon fonctionnement et de la disponibilité des données dont il a la responsabilité. Il assure la prévention des dysfonctionnements des données et contribue à la bonne utilisation de celles-ci
CDI

Offre d'emploi
Responsable d'Equipe Data H/F

Publiée le
Architecture
Talend

50k-60k €
Nantes, Pays de la Loire
Télétravail partiel
🌟 Quel sera ton poste ? 🌟 📍Lieu : Nantes (44) 🏠 Télétravail : 1 jour par semaine ✔ Démarrage ASAP ou sous 3 mois ✏ CDI client final (pré-embauche) 👉 Contexte client : Dans le cadre de notre développement, nous recherchons un Responsable d'Equipe Data H/F afin de rejoindre la DSI de notre client. Tes missions sont : Manager hiérarchiquement une équipe de 4 développeurs Talend et autres technos Animer l'équipe et coordonner l'activité Gérer les projets orientés data et décisionnel Intervenir en renfort de l'équipe sur le développement de flux Talend selon l'activité
CDI
CDD

Offre d'emploi
DevOps (Projet Data)

Publiée le
Helm
JIRA
Scrum

18 mois
20k-60k €
Paris, France
Télétravail partiel
CONTEXTE Experience : 5 ans et plus Métiers Fonctions : Etudes & Développement, Consultant DevOps Spécialités technologiques : Big Data, gitOps, API Nous recherchons un profil orienté DevOps afin d’intégrer le projet Data de notre client. MISSIONS - Participer au déploiement et à l’exploitation des composants applicatifs sur des environnements Kubernetes / OpenShift - Mettre en œuvre et maintenir les déploiements via Helm, dans une logique GitOps à l’aide de ArgoCD - Développer et maintenir des scripts d’automatisation en Python - Intervenir sur les environnements liés aux stacks Data (Spark, DigDash, Dremio, Airflow, NiFi) en support des besoins du projet Expertise souhaitée Environnements et outils DevOps : - Bonne connaissance de Kubernetes / OpenShift - Maîtrise de Helm - Compréhension et mise en œuvre des principes GitOps - Utilisation de ArgoCD Automatisation : - Connaissance de Python pour l’implémentation de scripts d’automatisation Écosystème Data (premier niveau) : - Spark - DigDash - Dremio - Airflow - NiFi Méthodologie et outils : - Maîtrise des pratiques Agiles (Scrum) - Utilisation de l’outil Jira
Freelance

Mission freelance
Architecte DATA

Publiée le
AWS Cloud
Snowflake

3 mois
400-550 €
Roubaix, Hauts-de-France
CONTEXTE DE LA MISSION Dans le cadre de la synergie IT et du développement de l’IA GEN au sein de ces applications, le chapitre DATA Entrepôt de données a en charge de porter les évolutions de pattern liés à la plateforme Data SNOWFLAKE dont il a la responsabilité. Au sein d’une équipe composée d’experts dans le domaine de l’IT, vous aurez pour missions principales de : - Concevoir les nouveaux PATTERN nécessaires demandés, sur les périmètres ingestion de données, manipulation de données et restitution, que les données soient structurées ou non structurées. - Les mettre en œuvre sur la plateforme France ou à l’international - Accompagner les différents équipes IT et métier France ou des Business Units dans le déploiement et la prise en main de la plateforme Dans ce contexte, les principales activités : - Contribuer aux cadrages des nouveaux besoins métier liés à la plateforme SNOWFLAKE - Participer à l’évolution de la plateforme Data (gouvernance, contrôles, automatisation, etc) - Participer aux choix technologiques de l’offre à mettre en place - Analyser les documents d’architecture des assets à faire évoluer et définir les nouveaux PATTERN (architecture fonctionnelle, applicative, technique) - Analyser, définir et cadrer les adaptations nécessaires de l’offre proposée - Documenter les PATTERN retenus à un niveau plus détaillé, de sorte à la rendre exécutable pour les autres Business Units - Être l’interlocuteur privilégié des équipes portant les besoins d’agent/usages IAGEN au sein du pôle DATA - Accompagner au déploiement de la solution définie auprès de la BU SOFINCO et des autres Business Units - Accompagner à la prise en main de la plateforme Data COMPETENCES SPECIFIQUES REQUISES Connaissances techniques Les principales technologies à connaître : - Architectures Data et leur écosystème (Snowflake, Bedrock) - Architectures et services du cloud (AWS en priorité , Terraform) - Kubernetes/EKS, Airflow/MLFlow/Jupyter, CICD (Gitlab/Artifactory/SonarQube), IDC, - Languages : Shell, Python, SQL - Sensibilité aux problématiques de sécurité et normes associées - Maitrise des architectures des flux Autres : - Capacité à mobiliser, fédérer et créer une vision commune - Capacité à travailler dans un contexte multi-site, multi-entité et international - Bonne communication écrite et orale Langues : Anglais lu et parlé de manière professio
Freelance

Mission freelance
Consultant BI – Azure Data Factory & Power BI

Publiée le
Azure Data Factory
Microsoft Power BI

1 an
400-500 €
Paris, France
Télétravail partiel
Dans le cadre de la modernisation de sa plateforme décisionnelle, notre client recherche un Consultant BI pour concevoir, déployer et maintenir des solutions de reporting et de data integration basées sur Azure Data Factory et Power BI . Mission : Le consultant interviendra sur toute la chaîne BI : ingestion, transformation, modélisation et restitution. Il participera à la structuration du datawarehouse, à l’industrialisation des flux via Azure Data Factory et à la création de tableaux de bord Power BI pour les directions métiers. Responsabilités principales : Développement et maintenance des pipelines Azure Data Factory Modélisation des données (datawarehouse, datamarts) Création et optimisation de rapports Power BI Mise en place des bonnes pratiques de performance, sécurité et gouvernance Support et évolutions des solutions BI en production Interaction avec les équipes métiers et IT Profil recherché : Consultant BI confirmé Expérience sur Azure Data Factory et Power BI Maîtrise des environnements de production Capacité à comprendre les besoins métiers et à les traduire en indicateurs Environnement : Azure, Azure Data Factory, Power BI, SQL, Datawarehouse, Reporting, Cloud
CDI

Offre d'emploi
Data Engineer H/F

Publiée le

45k-55k €
Levallois-Perret, Île-de-France
Télétravail partiel
Nous recherchons un(e) data engineer capable de trouver des solutions innovantes et robustes à l'ensemble des problématiques Data. Vous aurez la charge de : • Participer à la conception et réalisation d'une solution Data depuis l'acquisition jusqu'à l'exploitation de la donnée en accompagnant la réflexion des directions métiers • Identifier, collecter et intégrer les données nécessaires à la résolution de problématiques métier et opérationnelles • Garantir la qualité des données en mettant en place les outils de mesure et de suivi adéquats en appliquant les règles de Data Gouvernance et de Data Management • Transcrire des besoins métier en règles de gestion data • Industrialiser le déploiement de vos réalisations à travers l'implémentation de tests unitaires, d'intégration et de non-régression Référence de l'offre : mowzc8bs1s
Freelance

Mission freelance
Mission Freelance – Analytics Engineer / Data Engineer (H/F)

Publiée le
Azure Data Factory
Databricks
Scala

3 mois
100-550 €
Paris, France
Télétravail partiel
Nous recherchons un freelance Analytics Engineer / Data Engineer pour intervenir sur un projet Data transverse d’envergure , au sein d’un grand groupe français du secteur médias & digital . Le projet vise à centraliser, harmoniser et fiabiliser les données de diffusion publicitaire digitale (impressions, chiffre d’affaires, performance, etc.) afin de fournir un reporting unifié et fiable selon différentes dimensions métiers (canaux de vente, équipes commerciales, annonceurs, origines des revenus…). Au sein d’une équipe Data expérimentée, vous interviendrez sur les missions suivantes : Concevoir et développer des pipelines d’ingestion de données via Azure Data Factory Développer et optimiser des flux de transformation de données en Spark SQL Maintenir et faire évoluer des pipelines de traitement en Scala (part marginale) Développer et maintenir des indicateurs de qualité de données (KPI data) Participer au refactoring du code existant afin d’améliorer performance et maintenabilité (réécriture en DBT ) Garantir la qualité du code et le respect des standards de développement Mettre en place des tests unitaires et contribuer à la fiabilité des traitements Participer au monitoring des solutions Data Digital Produire les livrables attendus : code source, documentation et indicateurs qualité
Freelance

Mission freelance
Data Product Manager

Publiée le
SQL

6 mois
500-600 €
Rennes, Bretagne
Télétravail partiel
Dans le cadre du renforcement de son Data Lab , un grand groupe souhaite s’appuyer sur un Data Product Manager freelance afin d’accompagner la conception, le cadrage et la mise en œuvre de produits data à forte valeur métier. La mission s’inscrit dans un environnement data transverse et innovant , couvrant des sujets variés tels que la Data Science, la modélisation de données, les tableaux de bord décisionnels, l’IA générative et l’automatisation de processus métier . L’enjeu central de la mission consiste à jouer un rôle pivot entre les métiers et les équipes techniques , en traduisant des besoins business parfois complexes en solutions data concrètes, rapidement testables et industrialisables. Le poste dépasse le simple pilotage de planning : il requiert une compréhension fine des problématiques data et techniques , ainsi qu’une capacité à contribuer opérationnellement aux livrables. Responsabilités Cadrage & spécifications (cœur de mission) Recueillir et analyser les besoins métiers, puis les traduire en spécifications fonctionnelles claires et structurées . Rédiger les spécifications techniques à destination des équipes Data (modélisation, règles de gestion, hypothèses de calcul). S’assurer de la viabilité technique des demandes au regard de la stack data existante. Pilotage & contribution opérationnelle Gérer et prioriser le backlog produit en fonction de la valeur business. Travailler en mode itératif / MVP , avec une logique de test rapide et d’amélioration continue. Réaliser les recettes fonctionnelles et techniques , notamment via des requêtes SQL pour valider les livrables avant restitution aux métiers. Prototyper des dashboards simples afin de matérialiser rapidement les usages. Participer activement à la structuration et à l’amélioration des pratiques du Data Lab .
Freelance

Mission freelance
Data Analyst BI (H/F)

Publiée le
Azure
BI

3 ans
400-500 €
Nantes, Pays de la Loire
Télétravail partiel
Type de prestation : Expert BI / Data Analyst Lieu de la mission : Nantes (Le consultant doit obligatoirement résider à Nantes) TJM : 5 à 7 ans d’expérience : 430 – 465 € (soumis à grilles, d’où l’écart) 7 à 10 ans d’expérience : 515 – 555 € Expérience requise : 5 à 10 ans Date de démarrage : ASAP Statut : Freelance / Partenaire Télétravail : 2 jours / semaine Langue : Anglais courant apprécié Description et livrables de la prestation En tant qu’ Expert(e) BI Entreprise au sein d’une DSI d’envergure, vous serez au cœur des enjeux data. Votre mission consistera à prendre en charge les nouveaux besoins des interlocuteurs métiers et à intervenir sur l’ensemble des phases d’un projet d’ingénierie DATA. Vos responsabilités Solution BI Entreprise : Vous serez le/la référent(e) des solutions BI pour les métiers Finance, Administration des ventes, Comptabilité, RH, Recrutement, Services généraux et Commerce. Intégration des données et création de mesures Conception d’architectures décisionnelles complètes Élaboration d’états de reporting, tableaux de bord et modèles sémantiques Rédaction de la documentation Maintien en condition opérationnelle de l’existant Optimisation continue des livrables Solution BI Opérationnelle Client : De manière ponctuelle, vous interviendrez sur la BI opérationnelle orientée client, avec l’analyse de KPI liés aux centres de relation clients (téléphonie, ticketing, etc.).
CDI

Offre d'emploi
Data Engineer (4+ ans d'exp)

Publiée le
Google Cloud Platform (GCP)

40k-54k €
Lille, Hauts-de-France
Télétravail partiel
Bonjour et merci d'avoir cliqué sur cette offre 😊 Nous recherchons un.e Data Engineer confirmé.e ! 🚀 Ce poste est fait pour toi si : Tu as 5 ans d'expérience professionnelle en tant que Data Engineer . Tu as de l'expérience professionnelle avec AWS ou GCP . Tu parles anglais à un niveau professionnel. Tu as déjà travaillé avec Airflow et Spark . Missions: Concevoir, développer et maintenir des pipelines de données robustes, scalables et sécurisés Collecter, transformer et intégrer des données issues de sources hétérogènes (APIs, bases SQL/NoSQL, fichiers, etc.) Mettre en place des architectures data (data lake, data warehouse, data mesh) adaptées aux besoins métiers Optimiser les performances des traitements et garantir la qualité, la traçabilité et la gouvernance des données Collaborer avec les Data Scientists, Analysts et Product Managers pour répondre aux cas d’usage data Industrialiser les modèles et les flux de données dans des environnements cloud ou on-premise Assurer la surveillance, le monitoring et le support des plateformes data Participer à la veille technologique et à l’amélioration continue des outils et pratiques data engineering Contrat: CDI, statut cadre. Démarrage: fin avril 2026. 👉 Tu as envie d’un nouveau défi, entouré(e), valorisé(e), écouté(e) ? Postule et parlons-en. Même si ce n’est pas pour cette mission, on trouvera peut-être celle qui te correspond parfaitement. Les étapes à venir après avoir postulé : nous étudierons ta candidature avec attention. si elle nous intéresse, tu recevras un appel pour un premier échange de préqualification. On t’enverra un mail si on n’arrivera pas à te joindre. Si elle ne nous intéressera pas (ça sera certainement pour une autre mission 😉), on t’enverra un mail. Merci de ton attention et à très vite pour une aventure épanouissante chez Winside 🙂
CDI

Offre d'emploi
Ingénieur Data - Média

Publiée le
Apache Spark
Azure DevOps
Databricks

3 ans
40k-51k €
400-500 €
Boulogne-Billancourt, Île-de-France
Les livrables sont Code Source Documentation KPI qualité Compétences techniques Databricks - Expert - Impératif Spark SQL - Expert - Impératif Azure Data Factory - Confirmé - Important Scala - Confirmé - Souhaitable Connaissances linguistiques Français Courant (Impératif) Description détaillée Contexte : Le projet Data PUB - Digital vise à centraliser et harmoniser l'ensemble des données relatives à la diffusion publicitaire digital (impressions, chiffre d'affaire etc) pour permettre un reporting fiable selon différentes dimensions (canal de vente, origine, équipes commerciales, annonceurs etc) et garantir une vision unifiée de la performance digitale. Environnement technique : Azure Data Factory, Databricks, Spark Scala, SQL, Azure DevOps et Power BI. Missions : - Concevoir et développer des pipelines d’ingestion de données via Azure Data Factory. - Développer et optimiser des flux de transformation de données en Spark SQL. - Maintenir des pipelines de traitement de données en Scala (faible part) - Maintenir et développer de nouveaux indicateur de qualité de données - Participer au refactoring du code existant pour améliorer sa performance et sa maintenabilité (réécriture en DBT) - Garantir la qualité du code et veiller au respect des normes de développement au sein de l’équipe. - Implémenter des tests unitaires et assurer la fiabilité des solutions. - Maintenir les solutions de monitoring de l’application Digital.
Freelance

Mission freelance
Architecte Data Gouvernance - (H/F)

Publiée le
Architecture
Data governance
Data integrity

12 mois
550-650 €
Île-de-France, France
Télétravail partiel
Le ou la Responsable opérationnel(le) Data Gouvernance joue un rôle central dans l’animation, la mise en œuvre et le pilotage opérationnel de cette gouvernance, en lien étroit avec les métiers, la DSI et les acteurs data. Objectifs de la mission Assurer la mise en œuvre et le pilotage de la gouvernance des données au sein de l’organisation, en garantissant la qualité, la conformité réglementaire et la cohérence des référentiels et des flux de données. Missions principales1. Animation de la gouvernance des données Assurer le rôle de référent(e) opérationnel(le) en matière de gouvernance des données. Planifier, préparer et animer le Comité de Gouvernance Data. Contribuer à la construction, au pilotage et au suivi de la feuille de route Data. Organiser et animer les comités Qualité des Données (QDD) avec les entités concernées. Garantir l’alignement des actions entre les équipes métiers, les équipes IT et les différents rôles data. 2. Gestion des responsabilités et des rôles data Maintenir et faire évoluer la cartographie des responsabilités data (Data Owners, Data Stewards, référents IT). Coordonner les acteurs afin d’assurer la cohérence, la continuité et l’efficacité de la gouvernance des données. Accompagner la montée en maturité des rôles data au sein de l’organisation. 3. Gestion du Catalogue de Données Piloter la mise à jour, l’enrichissement et la validation du Catalogue de Données. Garantir l’accessibilité, la lisibilité et la cohérence des métadonnées. Promouvoir l’usage du catalogue auprès des équipes métiers et IT. 4. Qualité, conformité et audit des données Participer à la validation des tableaux de bord Qualité des Données (QDD). Identifier les écarts entre la modélisation logique et les implémentations physiques. Piloter les audits de conformité des référentiels de données. Contribuer à la définition, au suivi et à la priorisation des plans de remédiation. 5. Contribution à l’architecture d’entreprise Évaluer les impacts data, référentiels et flux lors des phases de cadrage fonctionnel des projets. Contribuer à la définition des architectures fonctionnelles et applicatives en cohérence avec les principes de gouvernance des données. Participer aux travaux de cartographie (domaines de données, objets métiers, dépendances entre systèmes). Modéliser ou contribuer à la modélisation des flux de données (fonctionnels, logiques et applicatifs). Appuyer les décisions d’urbanisation visant à simplifier, rationaliser et pérenniser le système d’information. Compétences requisesCompétences techniques et fonctionnelles Gouvernance des données (prioritaire) Expertise en data governance, data management et qualité des données. Maîtrise des référentiels de données, outils de catalogage, gestion des métadonnées et indicateurs QDD. Bonne connaissance des enjeux réglementaires et de conformité, notamment le RGPD. Architecture d’entreprise (complémentaire) Compréhension des principes d’architecture d’entreprise et d’urbanisation des SI (TOGAF ou équivalent apprécié). Capacité à analyser, challenger et formaliser des architectures fonctionnelles, applicatives et data. Compétences en modélisation des données, des processus métiers et des flux inter-applicatifs. Compétences comportementales Excellentes capacités de communication, avec un sens pédagogique affirmé. Aptitude à fédérer et coordonner des acteurs métiers et techniques aux enjeux variés. Rigueur, organisation, autonomie et sens du travail transverse. Capacité à vulgariser des sujets techniques auprès de publics non experts. Expérience Minimum 5 ans d’expérience en Data Governance, Data Management ou pilotage de projets data. Expérience en architecture fonctionnelle ou urbanisation du SI fortement appréciée. Expérience confirmée dans l’animation de comités et la coordination d’acteurs multiples. Rattachement et interactions Rattachement hiérarchique : SDG – Stratégie Digitale et Gouvernance. Interactions principales : équipes métiers, DSI, Data Stewards, Data Owners, architectes d’entreprise, équipes projets. Profil recherché Nous recherchons un(e) professionnel(le) senior de la data, reconnu(e) pour sa capacité à structurer, piloter et faire vivre une gouvernance des données à l’échelle d’une organisation complexe. Le ou la candidat(e) idéal(e) dispose d’une solide expertise en data governance et data management, complétée par une bonne compréhension des enjeux d’architecture d’entreprise et d’urbanisation du système d’information. Il ou elle sait évoluer dans des environnements transverses, multi-acteurs et réglementés, et jouer un rôle de facilitateur entre les métiers et l’IT. Doté(e) d’un excellent sens relationnel, le ou la Responsable opérationnel(le) Data Gouvernance est capable d’animer des instances de gouvernance, de structurer des décisions collectives et d’accompagner le changement avec pédagogie et pragmatisme. À l’aise aussi bien sur des sujets stratégiques que très opérationnels, il ou elle sait prioriser, structurer et sécuriser les enjeux data à fort impact business. Mots-clés Data Governance Gouvernance des données Data Management Qualité des données (Data Quality, QDD) Catalogue de données Métadonnées Référentiels de données RGPD / Conformité réglementaire Data Owners / Data Stewards Pilotage transverse Animation de comités Architecture d’entreprise Urbanisation du SI Modélisation des données Flux de données Architecture fonctionnelle et applicative Transformation data Environnement complexe Coordination métiers / IT
Freelance

Mission freelance
Data Engineer Azure Synapse / (Intégration Data - Référentiel )

Publiée le

12 mois
500 €
France
Data Engineer Azure Synapse / PySpark (Intégration Data - Référentiel Corporate) Secteur : Financial Services / Asset Management Contrat : Mission freelance - 6 mois renouvelables Localisation : France / Hybride 🔍 Contexte Un groupe international de gestion d'actifs recherche un Data Engineer confirmé pour participer à la modernisation et à la consolidation de son référentiel data interne , dans un programme stratégique d'intégration multi‑sources. 🎯 Votre rôle Développer de nouveaux flux d'intégration via Azure Synapse / PySpark Assurer la qualité, la cohérence et la traçabilité des données Contribuer à la mise en place du monitoring Data sur l'ensemble des pipelines Collaborer étroitement avec les Business Analysts et l'équipe Data Analytics Participer aux évolutions continues de la plateforme Data Azure 🧱 Compétences techniques clés Azure Synapse PySpark Azure DevOps SonarCloud Micro‑services API Management Microsoft Playwright Azure Data Factory SQL Server (RDBMS) 👤 Profil recherché Bac+5 (ingénieur ou équivalent) Min. 3 ans d'expérience en développement Data sur Azure Bonne maîtrise des pratiques DevOps & automatisation des tests Connaissance du secteur financier / Asset Management appréciée Excellent niveau FR & EN 📅 Démarrage : 2 février 2026
CDI

Offre d'emploi
Architecte Data H/F

Publiée le

75k-85k €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Nous recherchons un(e) Architecte Expérimenté(e), passionné(e) par la technologie, pour travailler soit en interne, en collaborant de manière transversale sur divers projets passionnants, soit directement chez nos clients, en étant au cœur de leurs défis numériques. Si vous souhaitez participer à des projets d'envergure, continuer à apprendre et évoluer dans votre carrière, c'est l'occasion rêvée ! Vous aurez la charge de : • Concevoir, modéliser et évaluer la charge d'implémentation des architectures sécurisées, évolutives, fiables et performantes dans les domaines de la Data et/ou du Digital en situation projet et avant-vente • Réaliser des études comparatives de solutions afin de sélectionner les plus innovantes et adaptées au contexte du projet • Réaliser ou conduire les PoV (Proof of Value) et les PoC (Proof of Concept) • Rédiger le dossier d'architecture technique à travers le High et Low Level Design • Assurer le suivi de la conformité des réalisations projets relatives au dossier d'architecture technique • Veiller au suivi des bonnes pratiques sur l'ensemble du périmètre des réalisations techniques • Mener une démarche d'optimisation des coûts afin de garantir que l'architecture soit à la fois efficace et économique Référence de l'offre : yf506vn9q0
1169 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

France

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous