L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 834 résultats.
Offre d'emploi
DATA ENGINEER PYSPARK / PALANTIR / DATABRICKS
Publiée le
PySpark
3 ans
40k-60k €
400-550 €
Paris, France
Télétravail partiel
Bonjour, Nous recherchons un data engineer pyspark / Palantir pour le compte de notre client. L’organisation Tech & Data est une organisation matricielle Agile reposant sur 4 piliers : Data and System Engineering, composée des équipes suivantes : Data Center of Excellence, Products and Systems Engineering et Enterprise Architecture La société est composée des équipes supportant les Crews et les domaines fonctionnels transverses : Gouvernance, Mise en œuvre du modèle opérationnel T&D, Sécurité & Conformité, Contrôle financier, Sourcing & Vendor Management, Gouvernance et Processus. Technical, composée des équipes dédiées aux IT Operations, Réseau, Cloud, Services Workplace & Cloud Productivity Crews et domaines fonctionnels transverses Contrainte forte du projet : Palantir Foundry. Livrable : Data Pipeline Risk Compétences techniques : Palantir Foundry – Confirmé – Impératif Python / Pyspark – Confirmé – Impératif Connaissances linguistiques : Français courant (impératif) Anglais courant (impératif) Description détaillée : Nous recherchons un Data Engineer pour développer des pipelines de données pour nos fondations Risk dans Palantir Foundry. Le Data Engineer devra construire, livrer, maintenir et documenter les pipelines de données dans le périmètre des fondations Risk. Il devra notamment livrer les données dans notre Risk Analytical Data Model (représentation medallion de nos données Risk) selon une approche moderne et performante. Livrables attendus : Pipelines de données pour les fondations Risk, livrés dans les délais Code documenté et testé unitairement Contrôles qualité et santé des données implémentés Expérience et compétences attendues : +5 ans en tant que Data Engineer Expérience solide sur Palantir Foundry, principalement sur les modules orientés Data Engineer (code repository, ontologie…) Maîtrise de Python et Pyspark Bonnes pratiques de développement (gitflow, tests unitaires, documentation) Bonne compréhension de l’architecture data mesh et medallion architecture Expérience sur Databricks un atout Expérience en (ré)assurance ou dans le domaine du risque financier un atout Esprit d’équipe Curiosité et goût du challenge Capacité à communiquer avec différents interlocuteurs Rigueur et sens analytique Définition du profil : Le Data Engineer assure la maîtrise de la donnée et est garant de la qualité de son utilisation afin d’en faciliter l’exploitation par les équipes. Son périmètre d’intervention est axé sur les systèmes applicatifs autour de la gestion et du traitement des données, ainsi que sur les plateformes Big Data, IoT, etc. Il assure la supervision et l’intégration des données provenant de sources multiples et vérifie la qualité des données entrant dans le Data Lake (recette des données, suppression des doublons, etc.).
Offre d'emploi
Data Engineer
Publiée le
Apache Airflow
ETL (Extract-transform-load)
Python
1 an
40k-45k €
100-550 €
Montreuil, Île-de-France
Télétravail partiel
Contexte Dans le cadre du chantier Knowledge Management (KM), une base de connaissance doit être constituée à partir de documents non structurés (PDF, Word, HTML). Cette base servira à formaliser la connaissance sous une forme agnostique des usages, en vue d'une réutilisation large et durable. Un pipeline initiale de structuration des connaissances a été établi, mais doit maintenant être industrialisé pour une exécution fiable, scalable et maintenable. Objectif de la mission Development des pipelines d'ingestion, transformation et alimentation de la base de connaissance, tout en assurant le versioning et la traçabilité des traitements.
Mission freelance
Data Analyst Azure Data Factory
Publiée le
Azure
18 mois
100-500 €
Paris, France
Télétravail partiel
CONTEXTE Experience : 5 ans et plus Métiers Fonctions : Data Management, Data Analyst Spécialités technologiques ERP, SI Financier, Progiciels Dans le cadre du renforcement de l’équipe Data Factory de notre client, au service des équipes Finance & Procurement, la mission vise à transformer les données issues de l’ERP Oracle Cloud en indicateurs fiables et tableaux de bord Power BI permettant le pilotage opérationnel et financier. Les travaux s’inscrivent dans l’environnement Azure (Azure Data Factory, Azure Databricks, Power BI) et suivent les bonnes pratiques de qualité, de performance et de gouvernance des données. MISSIONS Objectifs de la mission : - Analyse des besoins Finance / Procurement et formalisation des exigences fonctionnelles (KPI, règles de gestion, périmètres analytiques). - Mapping des données depuis la source Oracle vers les modèles analytiques Power BI (modèle en étoile, dictionnaire de données, règles de transformation). - Développement et industrialisation des data pipelines dans Azure . - Conception et développement des tableaux de bord Power BI (datasets, DAX, RLS, UX) prêts à être déployés et adoptés par les métiers. Responsabilités principales : 1) Analyse de besoins et cadrage - Conduire des ateliers avec les key users Finance (Comptabilité générale, Fournisseurs/AP, Clients/AR, Contrôle de gestion) et Achats. - Produire les spécifications fonctionnelles et le backlog associé. 2) Cartographie & modélisation des données (Oracle → Power BI) - Identifier tables, vues et colonnes Oracle pertinentes ; définir la granularité et les jointures. - Rédiger le document de mapping et le dictionnaire de données (définitions, sources, règles de calcul). - Concevoir le modèle sémantique (étoile) pour Power BI, avec dimensions conformes et mesures DAX documentées. 3) Développement des pipelines (Azure Databricks / ADF) - Développer notebooks et jobs (PySpark/SQL) pour ingestion, nettoyage, transformations et calculs d’indicateurs. - Mettre en place des contrôles qualité (règles, reconciliations, gestion des écarts) et optimiser coûts/performance. 4) Développement des dashboards Power BI - Créer les datasets (mesures DAX, hiérarchies, rôles RLS) et les rapports (navigation, filtres, drill, bookmarks). - Réaliser la recette avec les utilisateurs, intégrer les retours, publier et organiser le partage (Apps, workspaces). 5) Documentation, gouvernance & transfert - Tenir à jour la documentation (spécifications, mapping, checklist de qualité). - Contribuer aux bonnes pratiques (naming, versioning Git/Azure DevOps, sécurité & conformité). Domaines de données concernés : - Finance : Comptabilité générale (GL), Comptabilité fournisseurs (AP), Comptabilité clients (AR), Contrôle de gestion (actuals, budget, forecast). - Achats / Procurement : données fournisseurs, familles d’achat, contrats, engagements, réceptions, paiements. Expertise souhaitée - Expérience avérée d’au moins une mission de reporting financier incluant : Comptabilité générale, AP, AR, Contrôle de gestion, Achats. - Maîtrise d’Azure Data Factory, Azure Databricks et Power BI (datasets, DAX, RLS, publication). - Compétences en modélisation décisionnelle (modèle en étoile, granularité, dimensions conformes) et qualité des données. - Capacité à animer des ateliers, rédiger des spécifications claires et collaborer avec des profils métiers et techniques. - Anglais courant indispensable (ateliers, documentation, échanges avec parties prenantes).
Mission freelance
Développeur Big Data
Publiée le
autonomie
18 mois
100-400 €
Vanves, Île-de-France
Télétravail partiel
CONTEXTE Experience : 5 ans et plus Métiers Fonctions : Data Management, Développeur Big Data Spécialités technologiques : Big Data Au sein du chapitre DATA, entité transverse au service des différentes tribus métiers, vous interviendrez dans un environnement stimulant où la donnée est au cœur des réflexions stratégiques. Votre rôle consistera à accompagner les équipes métiers dans la conception et l’industrialisation des solutions DATA, notamment autour de problématiques d’analyse de risque dans le cadre d’investissements et d’accords de prêt aux professionnels. MISSIONS Vous serez un référent technique et méthodologique, garant de la qualité, de la cohérence et de la performance des solutions Big Data déployées sur les plateformes SPARK et CLOUDERA. Missions principales - Intervenir en appui des équipes métiers pour les aider à formaliser et concevoir des solutions DATA robustes et évolutives. - Participer à la construction de pipelines de données performants et scalables (traitement, transformation, ingestion, qualité). - Assurer la mise en œuvre technique des projets sur l’écosystème Big Data (SPARK, CLOUDERA, HADOOP). - Challenger les besoins métiers pour garantir la pertinence et la faisabilité des solutions. - Promouvoir les bonnes pratiques de développement et d’architecture DATA au sein des équipes. - Contribuer à la maturité data globale de l’organisation, en accompagnant les équipes vers plus d’autonomie et de rigueur dans la manipulation des données. Expertise souhaitée Compétences techniques - Solide maîtrise des environnements SPARK, CLOUDERA, HADOOP. - Bonnes connaissances de Hive et Java (BONUS). Soft skills et posture - Capacité à prendre du recul et à aborder les sujets sous un angle global et critique. - Aisance dans la communication transverse et l’interaction avec des interlocuteurs non techniques. - Esprit de leadership intellectuel : savoir challenger, convaincre, faire réfléchir les équipes métiers. - Autonomie, curiosité et sens du collectif. - Goût pour la pédagogie technique et l’accompagnement au changement.
Offre d'emploi
Consultant Neoxam DATA HUB - Asset Management - BRUXELLES
Publiée le
Data management
Finance
24 mois
80k-100k €
650-800 €
Bruxelles, Bruxelles-Capitale, Belgique
Objet mission : Référent Technique DataHub au sein de l’équipe Data Management Objectifs : Participation à tous les projets liés à DataHub Supervision : garantir que la plateforme DataHub et son écosystème sont up & running tout au long de la journée et permet d’assurer l’activité Gestion des incidents Maintenance corrective et évolutive En tant qu'expert de l'outil, vous serez le référent technique de l'outil. Vous serez le garant du bon fonctionnement et de l'optimisation de l’utilisation de l’outil
Mission freelance
Data Analyst / Lead Dataiku
Publiée le
Dataiku
Microsoft Power BI
Python
1 an
100-600 €
Paris, France
Télétravail partiel
Pour le compte d'un de nos clients bancaire / financier, nous sommes à la recherche d'un consultant Data Analyst ayant une expertise sur l'outil Dataiku. Le demandeur est une équipe transverse hébergeant des applications en Java du groupe. L'objectif est de mettre en place un datahub venant ingérer des données issues de ces applications, pour par la suite mettre en place une stratégie de reporting pertinente à destination du top management. L'attente principale sur ce poste est d'apporter une expertise sur l'outil Dataiku afin de mettre en place les flux avec cette outil, et de gérer l'administration et l'accès aux données. Les différents utilisateurs des applications peuvent être à l'étranger (Europe, Inde, places financières internationales). Une maitrise de l'anglais est obligatoire.
Offre d'emploi
Data Scientist
Publiée le
CI/CD
Databricks
Deep Learning
1 an
40k-45k €
400-550 €
Paris, France
Contexte de la mission Projets innovants depuis la R&D jusqu’au packaging pour industrialisation de modèles de ML appliquées aux problématiques de maîtrise de la charge de sinistres, de lutte anti-fraude et de maîtrise des risques climatiques. Un environnement de travail dans le DataLab Groupe sous Databricks et données puisées dans le DataLake Groupe et mises à disposition dans le DataLab. Objectifs et livrables Objet de la mission Le portefeuille projets de l’équipe est constitué de plusieurs projets de Data Science sur les sujets suivants : - Lutte contre la fraude - Analyse et réaction post-event sinistres, en particulier sur les périls climatiques - Prévention des sinistres graves Le consultant sera responsable de la cohérence technique des développements sur les projets de Data Science de l'équipe, du cadrage au déploiement en production. Principaux volets de la mission : - Superviser techniquement les travaux des Data Scientist junior et stagiaires de l'équipe (cadrage technique, challenge et optimisation du code, méthodologie modélisation) - Être le référent technique de l'équipe concernant les travaux d'industrialisation des modèles effectués par l'IT de L'organisation, en challengeant notamment leurs approches - Contribuer ponctuellement sur quelques projets de Data Science - Rédiger et/ou superviser la documentation en conformité avec les normes et standards de l'équipe - Proposer des nouveaux outils, méthodes pour faire monter en compétence l'équipe - Apporter un œil nouveau dans l'amélioration continue des modèles développés par l'équipe (utilisation de données non structurées, données externes…) En fonction des projets, les travaux vont du cadrage des sujets, préparation des bases de données, engineering des features, écritures et tuning des modèles de ML, préparation à l’industrialisation sous forme de projets.
Mission freelance
Data Engineer Expert - Finance - Assurance)
Publiée le
Data management
12 mois
600-950 €
Paris, France
Télétravail partiel
Data Engineer Expert pour la Modernisation du Système Finance (Assurance) Nous recherchons un Data Engineer Expert pour le compte d’un de nos clients assurance dans le cadre d’un projet de modernisation, de standardisation et d'harmonisation de son système Finance. Contexte Notre client, un acteur majeur du secteur de l' assurance , est engagé dans un projet stratégique visant à transformer son système d'information Finance. Ce programme a pour objectif la modernisation, la standardisation et l'harmonisation des processus et des outils Finance. Dans ce cadre, nous recherchons un profil de Data Engineer Expert pour jouer un rôle clé dans l'ingénierie des données de ce nouveau système. Rôles et Responsabilités Le consultant Data Engineer aura pour principales responsabilités : Concevoir et mettre en œuvre des solutions d'ingénierie des données pour le nouveau système Finance. Participer activement à la modernisation et à la standardisation des flux de données Finance. Assurer l'intégration, le traitement et la qualité des données provenant de diverses sources. Travailler en étroite collaboration avec les équipes métier Finance et les architectes pour garantir l'harmonisation des données. Compétences Clés & Techniques Une expertise de niveau Expert est exigée sur les points suivants : Expertise Technique : Maîtrise des technologies de Big Data et des environnements Cloud. Langages et Frameworks : JAVA (WEB), Spark, Angular, COBOL. Systèmes et Outils : MAINFRAME, VTOM. Visualisation et Reporting : Compétences sur Power BI. Domaine d'Application : Une connaissance approfondie du secteur Finance (idéalement en assurance ou banque) est un atout majeur. Anglais : Capacité à travailler dans un environnement technique et potentiellement international. Détails de la Mission Profil Recherché : Data Engineer Niveau d'Expérience : Expert Localisation : Paris Date de Démarrage : ASAP Durée : 12 mois. Taux Journalier Cible (TJM) : <950€.
Mission freelance
Développeur / Intégrateur Data Semarchy xDI – Nantes (H/F)
Publiée le
Développement
Intégration
6 mois
480-510 €
Nantes, Pays de la Loire
Télétravail partiel
Nous recherchons un développeur Semarchy xDI passionné par la data et l’intégration pour rejoindre une équipe dynamique au cœur de projets de transformation digitale. Vous participerez à la mise en place et l’industrialisation de flux de données stratégiques, dans un environnement moderne, agile et stimulant. Vos missions Concevoir, développer et maintenir des flux d’intégration avec Semarchy xDI Participer à la modélisation et optimisation des bases de données (SQL, PostgreSQL, Oracle…) Mettre en place des processus robustes d’ ETL/ELT et d’industrialisation (tests, CI/CD, supervision) Collaborer avec les équipes DataOps, BI et MDM (Semarchy xDM) pour garantir la qualité et la fiabilité des données Contribuer à la documentation, au support et à l’amélioration continue Hard Skills Semarchy xDI (ou Stambia) : conception et développement de flux d’intégration SQL avancé : optimisation, tuning, modélisation de données Bases de données : PostgreSQL, Oracle, SQL Server Architecture data : ETL/ELT, batch & streaming Intégration & API : Kafka, Kafka Connect, REST, XML/JSON Outils & environnements : Git, Gitlab CI/CD, Docker/Kubernetes Bonne connaissance des environnements Agile / Scrum Soft Skills (comportementaux) Esprit analytique et rigueur technique Capacité à travailler en équipe multidisciplinaire (Data, Infra, Métiers) Autonomie et proactivité dans la résolution de problèmes Bonnes qualités de communication (écrit & oral) Curiosité technologique, envie de monter en compétences Orientation qualité et amélioration continue
Offre d'emploi
Data Engineer Azure Data Factory
Publiée le
Azure Data Factory
Azure DevOps
DAX
1 an
45k-55k €
550-650 €
Île-de-France, France
Télétravail partiel
Intitulé du poste : Data Engineer Azure Contexte du poste Au sein du Centre de Compétences Data, le Data Engineer participe activement aux différents projets de transformation digitale du groupe. Il conçoit, développe et déploie des solutions data et reporting permettant aux utilisateurs métiers d’analyser efficacement leurs activités à travers des tableaux de bord et indicateurs de performance. Missions principales Participer à la conception et à la mise en œuvre des architectures Data (Data Lake, Data Warehouse, Data Marts, Cubes). Concevoir et développer des processus ETL/ELT performants et automatisés avec Azure Data Factory , SQL Server Integration Services et Azure SQL Database . Garantir la qualité, la disponibilité et la performance des données. Modéliser les données (dimensionnelles et relationnelles) selon les besoins métiers. Maintenir en conditions opérationnelles les flux ETL et les environnements de données. Participer à l’industrialisation et à l’automatisation des pipelines via CI/CD Azure DevOps . Collaborer étroitement avec les équipes DevOps , Product , Design , Data et Management pour assurer la cohérence technique et fonctionnelle des solutions. Documenter les réalisations techniques, rédiger les spécifications et enrichir le catalogue de composants réutilisables. Fournir un support technique et fonctionnel aux utilisateurs finaux. Responsabilités complémentaires Réaliser des études de faisabilité et des cadrages techniques. Optimiser les performances des requêtes SQL, DAX et MDX. Mettre en œuvre la sécurité des données (Row Level Security sur toute la chaîne). Gérer la supervision, le debugging et le monitoring des flux BI. Contribuer à l’amélioration continue et à la standardisation des pratiques Data au sein du Centre de compétences Data. Compétences techniques requises Langages / Outils : T-SQL, DAX, MDX Technologies : Azure Data Factory, Azure SQL Database, Azure Analysis Services, Azure Data Lake Gen2, Power BI, SSIS Environnements : GitLab / Azure DevOps, Visual Studio, SQL Server Management Studio, Tabular Editor, DAX Studio Méthodologies : Agile, CI/CD, DataOps Compétences clés : Data Modeling, Data Warehousing, ETL, Data Visualization, Performance Tuning Profil recherché Diplôme Bac+5 (Master) en Informatique , Statistiques ou Mathématiques appliquées . Expérience significative en développement et maintenance de solutions BI/Data sur environnement Microsoft Azure . Maîtrise des concepts de Data Warehouse et de modélisation dimensionnelle. Excellente capacité d’analyse et rigueur technique. Aisance relationnelle, sens du travail en équipe et esprit collaboratif. Niveau d’anglais professionnel (écrit et oral). Goût pour la transformation digitale et l’innovation. Qualités attendues Sens du service et orientation client. Capacité à gérer plusieurs interfaces dans un contexte international. Esprit d’initiative et autonomie. Curiosité technologique et volonté d’amélioration continue. Outils et technologies principales Azure Data Factory – Azure SQL Database – Azure Analysis Services – Power BI – ADLS Gen2 – GitLab – Azure DevOps – Visual Studio – SSMS – DAX Studio – Tabular Editor
Mission freelance
Data Engineer AWS
Publiée le
AWS Cloud
Big Data
CI/CD
12 mois
450-550 €
Île-de-France, France
Télétravail partiel
Missions principales : Développer et industrialiser des pipelines de données et microservices sur AWS. Assurer la qualité, la fiabilité et l’accessibilité des données. Collaborer avec les équipes Data Science pour répondre aux besoins métiers. Maintenir et optimiser les systèmes existants. Participer à la collecte des besoins et à la documentation technique. Minimum 4 ans d’expérience en Data Engineering et big data. Maîtrise de Python, programmation orientée objet et design patterns. Expérience sur bases de données SQL et Graph. Connaissance des architectures microservices et APIs externes. Expertise conteneurisation (Docker, Kubernetes, Helm) et CI/CD (GitFlow, GitOps, Terraform). Bonne communication, autonomie, rigueur et capacité à gérer plusieurs tâches. Expérience des services AWS : S3, Lambda, IAM....
Offre d'emploi
Data Engineer
Publiée le
DAX
Microsoft Power BI
MySQL
6 mois
37k-45k €
320-420 €
Tours, Centre-Val de Loire
Dans le cadre d’un projet industriel d’envergure nationale, nous recherchons un Data Engineer / Data Manager pour accompagner la mise en place et le suivi des processus de production de données au sein d’équipes techniques et métiers. La mission allie coordination, support utilisateur, data management et reporting opérationnel dans un environnement à forte exigence qualité. Vos missions principales : Animation & coordination : • Appuyer le Data Manager projet dans la coordination des contributeurs métiers • Suivre la qualité et la complétude des données d’entrée nécessaires aux traitements • Produire des KPI d’avancement et des reportings réguliers • Participer à l’animation du processus de production et aux réunions de suivi Administration & exploitation de l’application métier : • Paramétrer, administrer et superviser l’application • Exécuter les traitements, injections et extractions de données • Gérer les habilitations, l’archivage et les accès utilisateurs Support & accompagnement : • Assurer le support fonctionnel niveau 1 & 2 et le suivi des incidents • Contribuer au plan de contrôle interne des habilitations • Participer à la recette fonctionnelle : planification, organisation, PV de validation Documentation & capitalisation : • Rédiger et maintenir la documentation technique et fonctionnelle • Créer des fiches d’assistance, manuels utilisateurs et procédures • Participer à l’accompagnement au changement et à la diffusion des bonnes pratiques Profil recherché : • Expérience confirmée en Data Management, Data Engineering ou MCO applicatif • Bonne maîtrise des outils : Power BI, Jira, ServiceNow, Excel, Office 365, Netvibes • Langages : SQL, Python, PowerQuery, DAX, JSON, XML • Connaissance des environnements industriels ou projets techniques complexes • Compétences en recette, support, reporting et coordination multi-acteurs Soft skills : • Leadership naturel, rigueur, pédagogie • Esprit d’analyse et de synthèse • Excellent relationnel, diplomatie et sens du service Les + de la mission : • Projet structurant dans un contexte industriel stratégique • Équilibre entre technique, coordination et accompagnement métier • Équipe collaborative et dynamique
Mission freelance
EXPERT DATA BI SSIS SQL SERVER AZURE DEVOPS
Publiée le
Azure
BI
DevOps
24 mois
325-650 €
La Défense, Île-de-France
Télétravail partiel
Pour l'un de nos client basé à La Defense, nous recherchons un expert Microsoft BI très orienté Data sur l'ETL SSIS et T/SQL pour une mission très orientée optimisation et Run avec cependant quelques projets en parallèle : Consultant MOE BI / Domaine Socle Data / Domaine : Etudes et Intégration / Ingénierie d'Etude / Conception ▪ Descriptif détaillé de la mission : ➢ Assurer le RUN des applications existantes (ETL, Bases de données, support niveau 3) ➢ Comprendre les enjeux métier, problématiques à résoudre et opportunités à concrétiser. ➢ Echanger et challenger les besoins métiers avec les équipes AMOA BI en tenant compte des contraintes techniques. ➢ Proposer, concevoir et spécifier des solutions techniques viables, évolutives et tenant compte de l'existant. ➢ Rédaction des documents techniques (spécification techniques, document d'exploitation…etc). ➢ Conseiller, proposer des axes d'amélioration, alerter si besoin. ▪ Environnement technique de la mission : ➢ Socle Data : SSIS, SQLServer (2016), procédures stockées, Azure DevOps (Git, Board Agile, Pipeline de déploiement CI/CD) ➢ Reporting : COGNOS BI 10.2 et 11 & Tableau
Offre d'emploi
Chef de projet data
Publiée le
Azure
Data Lake
Databricks
3 ans
40k-45k €
400-550 €
Île-de-France, France
Bonjour, Afin que votre candidature soit prise en compte merci d'envoyer votre CV sous format Word directement à l'adresse suivante : et non via le site par lequel vous avez consulté cette annonce : Nous recherchons pour notre client basé à Paris, un CHEF(FE) DE PROJET MAITRISE D'OUVRAGE – MOE - Confirmé (4-10 ans d’exp) azure - Confirmé - Impératif modelisation data - Confirmé - Impératif databricks - Junior - Important méthodo agile - Junior - Important - Coordonner des projets d’ingestion de données depuis les sources (internes ou externes), jusqu’à la plateforme de traitement Data, sous Cloud Microsoft Azure - Coordonner des projets d'exposition de données vers des partenaires (internes ou externes) - Assurer la qualité, la traçabilité et la conformité des données ingérées. - Collaborer avec les équipes techniques (responsables d’application ; Data Engineers ; System Architect ; DevOps), ainsi qu'avec les PO et PM métiers - Garantir le respect des délais, des coûts et de la qualité des livrables. - Participer à l’amélioration continue des processus d’ingestion - Gestion de projet : méthodologie Agile/Scrum/Kanban ; Outils Jira, Confluence - Bonnes connaissances des architectures Data : Data Lake, APIs, batch & streaming. - Expérience confirmée sur des projets Data : pilotage ; conception ; modélisation - Suivi de la mise à jour des livrables de documentations : Contrats d’interface ; Inventaire des flux - Maîtrise des outils d’ingestion : Azure Data Factory - Bonnes connaissances des environnements Cloud - Notions de gouvernance des données : qualité, catalogage, sécurité, RGPD. - Expérience dans le secteur du retail serait un plus Peut contribuer à l'Etude d'Opportunité (EO) pour le lancement d'un projet Est responsable de l'Etude de Faisabilité (EF) des projets qui lui sont confiés et prend en compte l'ensemble des éléments fonctionnels et techniques S'assure de l'adéquation des ressources avec les besoins du projet S'assure de l'application des directives définies en DAG (Dossier d'Architecture Général) pour structurer le projet et mobiliser les ressources nécessaires à sa bonne réalisation Contribue à la revue et à la négociation des contrats, en lien avec la Direction Juridique, les Achats Non Marchands et la Direction porteuse du projet Met en application les procédures internes ou externes Est responsable de la bonne mise en œuvre de la gouvernance du projet Pilote les actions nécessaires au respect du budget du projet Pilote et coordonne les partenaires et sous-traitants Gère et anime la communication auprès des équipes et des différentes instances Contribue à la préparation et mise en œuvre de la conduite du changement avec les métiers Dans le cas où vous êtes intéressé par ce poste, pourriez-vous m'envoyer votre CV au format word à en indiquant, votre disponibilité ainsi que vos prétentions salariales ou votre tarification journalière si vous êtes indépendant.
Mission freelance
Data modeling expert - H/F - 75 + remote
Publiée le
AWS Cloud
Collibra
DataGalaxy
3 mois
320-590 €
Paris, France
Télétravail partiel
Notre client recherche un expert en data modeling et gouvernance pour renforcer la cohérence, la qualité et la documentation des modèles de données au sein de la plateforme. Mission * Concevoir et maintenir les modèles conceptuels, logiques et physiques des différents domaines de données * Définir et documenter les standards de modélisation (naming conventions, relations, typologies, clés) * Garantir la cohérence et la traçabilité des données entre les couches Bronze / Silver / Gold * Collaborer avec les équipes Data Engineering, Data Science et Métiers pour assurer l’alignement fonctionnel et technique * Enrichir et maintenir le Data Catalog (DataGalaxy) : dictionnaire de données, business glossary, data lineage * Définir et suivre les indicateurs de qualité de la donnée (completude, cohérence, fraicheur) * Promouvoir les bonnes pratiques de gouvernance et documentation au sein de l’équipe
Mission freelance
Data engineering GCP
Publiée le
Gitlab
18 mois
100-450 €
Paris, France
Télétravail partiel
CONTEXTE Au sein de l’équipe Silver, la prestation se déroulera en collaboration avec les autres équipes de la Data, au cœur de la plateforme Data. Cette équipe est composée d’un product owner, d’un data steward et d’un data ingénieur. Notre stack technique est principalement constitué de Python, Spark, SQL, dbt, BigQuery, Airflow pour l’orchestration des traitements et Terraform ainsi que Terragrunt pour l’industrialisation. La stack inclut aussi d’autres services de la Google Cloud Platform. MISSIONS : En interaction avec les membres de l’équipe, la prestation consiste à : • Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l’équipe • Construire et maintenir des pipelines data robustes et scalables • Accompagner les membres de l’équipe dans l’exploitation et le requêtage des données • Organiser et structurer le stockage des données • Mettre en place et maintenir des infrastructures scalables capable de répondre aux besoins et à l’accroissement rapide du volume de données • Participer aux initiatives de gouvernance des données en assurant la qualité, la fiabilité et l’intégrité des données • Construire et maintenir les workflows de la CI/CD • Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur • Assurer l’évolutivité, la sécurité, la stabilité des environnements • Participer aux différentes instances des data ingénieurs • Contribuer et veiller à la mise à jour de la documentation • Faire de la veille technologique active dans le domaine
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Le marché de l'IT est complètement déréglé ! STOP à cette mascarade ! Il faut s'unir et résister !
- Catégorisation Activité sur INPi - Micro Entrprise
- Activités à choisir
- Stratégie épuisement des fonds jusqu'à la retraite
- Identifier les partenaires directs des Grands Groupes (sans intermédiaires)
- CHEQUES VACANCES / CADEAUX / CAGNOTTES PELE MELE
1834 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois