Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 2 325 résultats.
Freelance
CDI

Offre d'emploi
Recetteur

MSI Experts
Publiée le
Business Object
Data quality
Migration

3 mois
Lyon, Auvergne-Rhône-Alpes
Dans le cadre d’un projet de transformation d’un système de gestion, nous recherchons un(e) Consultant(e) Data / Recette & Qualité des Données pour sécuriser une phase clé de migration. Vous interviendrez sur la validation des données issues d’un nouveau système, avec un objectif central : garantir la fiabilité, la cohérence et l’exploitabilité des données , tout en assurant la continuité des reportings métiers. La mission s’inscrit dans un environnement exigeant, impliquant plusieurs équipes (IT, éditeur, métiers) et des délais structurants, avec des éléments fonctionnels et techniques susceptibles d’évoluer en cours de projet. Objectifs principaux Vérifier l’exhaustivité et la cohérence des données migrées depuis l’ancien système Contrôler la qualité des données produites par la nouvelle solution Sécuriser les usages métiers (pilotage, reporting, analyses) après mise en production Vos missions Stratégie de test & qualité des données Définir une stratégie de recette adaptée au contexte de migration Concevoir des scénarios de test et les jeux de données associés Formaliser des règles de contrôle couvrant : les volumes de données, la cohérence entre sources, la qualité fonctionnelle des données restituées Mise en œuvre et exécution de la recette Mettre en place et automatiser les contrôles de données lorsque cela est pertinent Réaliser les tests de validation (techniques et fonctionnels) Analyser, qualifier et documenter les anomalies détectées Évaluer les impacts et risques métier associés aux écarts constatés Coordination & pilotage Organiser et piloter la phase de recette en lien avec les équipes IT, les métiers et l’éditeur de la solution Assurer un suivi régulier de l’avancement via des indicateurs clairs (KPI) Produire un reporting hebdomadaire incluant alertes, risques et points nécessitant arbitrage Documenter l’ensemble des travaux (plans de test, règles de contrôle, constats, risques)
Freelance

Mission freelance
Data Engineer Azure

Cherry Pick
Publiée le
Azure
Azure Data Factory
Python

12 mois
500-550 €
Paris, France
En quelques mots Cherry Pick est à la recherche d'un "Data Engineer" pour un client dans le secteur de l'assurance Description 📊 Le Contexte : La Data au service de l'Investissement Vous rejoignez le Datahub d'un acteur majeur de l'épargne, une plateforme critique au cœur du système d'information. Ce hub centralise et normalise l'ensemble des données du groupe pour alimenter des processus business à fort impact : calcul des commissions , génération de documents réglementaires, marketing prédictif et pilotage financier. L'enjeu est de transformer une masse de données brutes en informations fiables et exploitables pour l'ensemble de l'écosystème (partenaires, clients, directions métiers). 🎯 Vos Missions : Ingénierie & Industrialisation Intégré(e) à l'équipe Data, vous êtes le garant de la robustesse des flux de données. Design & Delivery : Concevoir, développer et maintenir des pipelines d’intégration complexes via Azure Data Factory (ADF) . Cycle de vie de la donnée : Assurer l'ingestion, la transformation, la normalisation et la mise à disposition des données pour les services consommateurs. Expertise SQL : Réaliser des agrégations et des transformations avancées, avec un souci constant de performance et de qualité. Infrastructure as Code (IaC) : Participer au déploiement et à la gestion des infrastructures via Terraform . Collaboration Métier : Agir en tant que partenaire des équipes finance et marketing pour traduire leurs besoins en solutions techniques robustes. Qualité & CI/CD : Contribuer à l'automatisation des tests et des déploiements (Azure DevOps, SonarCloud).
Freelance
CDI

Offre d'emploi
SENIOR Data engineer MSBI Python Azure (7-8 ans minimum)

Digistrat consulting
Publiée le
Azure Data Factory
Azure DevOps
Microsoft SSIS

3 ans
50k-65k €
500-580 €
Paris, France
🏭 Secteurs stratégiques : Asset management 🗓 Démarrage : ASAP PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 💡 Contexte /Objectifs : Dans le cadre d'un projet au sein d'un client grand compte, nous sommes à la recherche d'un Data engineer avec une expertise sur la suite MSBI. Le profil recherché, Bac + 4/5 idéalement issu d’une école d’ingénieur, aura une expérience au minimum de 7/8 ans. Passionné par le développement, il aura la capacité de travailler en équipe et saura apporter une vraie valeur ajoutée par ses compétences techniques et humaines
Freelance

Mission freelance
Data Engineer / Développeur PL/SQL (Exprert)

Keypeople Consulting
Publiée le
Oracle
PL/SQL

6 mois
400-450 €
Île-de-France, France
Nous cherchons : Data Engineer / Développeur PL/SQL Projet stratégique Data & IA Dans le cadre de la mise en place d’un DataHub IA pour une plateforme de consolidation de données à l’échelle Groupe, nous recherchons un Ingénieur Data disposant d’une solide expertise Oracle & PL/SQL . Vous interviendrez dans un environnement Data à forts volumes , avec des enjeux majeurs de performance , de fiabilité des calculs et d’ alimentation d’un moteur IA . Contexte La plateforme permet de collecter, consolider et traiter des données critiques servant au calcul d’indicateurs de pilotage stratégiques. Le DataHub joue un rôle central dans la préparation, la transformation et l’optimisation de ces données. Vos missions 🔹 Data & Performance Mise en place de la collecte de données Création et modélisation des modèles de données Optimisation des traitements et des performances Réalisation de tests de performance Analyse et résolution des problèmes de performance Oracle Revue et optimisation des calculs statistiques 🔹 Développement Développement de procédures PL/SQL (collecte, calcul, agrégation) Mise en place des processus de préparation de données en respectant les cas d’usage 🔹 Conception Conception de solutions basées sur les outils standards disponibles Rédaction des cas d’usage et des exigences fonctionnelles Rédaction des dossiers d’analyse et de conception Modélisation des différents modèles de données identifiés 🛠️ Compétences requises Excellente maîtrise Oracle Très bonne expertise PL/SQL Expérience en optimisation de performance base de données Conception et modélisation de données Contexte forts volumes de données Connaissances Exadata / ExaCC fortement appréciées Abglais courant. 💡Profil recherché : rigoureux, orienté performance, à l’aise dans des environnements
Freelance

Mission freelance
Data Engineer (H/F) - 63

Mindquest
Publiée le
Azure Data Factory
Azure Logic Apps
Databricks

6 mois
Clermont-Ferrand, Auvergne-Rhône-Alpes
Context Démarrage ASAP pour une mission de Data Engineer au sein d’une grande équipe data industrielle. La mission s’inscrit dans le remplacement d’un congé maternité, avec une forte probabilité de continuité sur une autre équipe à l’issue de cette période. Environnement structuré, déjà composé de plusieurs freelances intégrés. Mission Collecter, analyser et exploiter les données pertinentes afin d’améliorer le pilotage des activités et la création de valeur. Accompagner les équipes métier dans le développement, le déploiement et l’exploitation de solutions data. Être le référent data pour les sujets d’exposition et d’exploitation des données industrielles. Concevoir et maintenir des pipelines data robustes et optimisés. Produire des analyses et visualisations accessibles aux équipes métiers. Garantir la qualité, la gouvernance et l’éthique des données. Maintenir à jour le catalogue des datasets et la documentation associée. Participer aux tests, à la mise en production et à la formation des utilisateurs.
Freelance
CDI

Offre d'emploi
Architecte Data – Gouvernance & GCP

SYNAPSYS IT
Publiée le
Big Data
Google Cloud Platform (GCP)

3 ans
50k-60k €
450-520 €
Saint-Ouen-sur-Seine, Île-de-France
Nous renforçons notre pôle Data et recherchons un Architecte Data orienté Gouvernance, maîtrisant l’écosystème Google Cloud Platform (GCP) et capable de structurer, sécuriser et valoriser les données au sein d’organisations en transformation. Vous interviendrez au cœur des enjeux Data : architecture, gouvernance, qualité, conformité, modélisation et bonnes pratiques, en lien direct avec les équipes Data Engineering, Sécurité et Métiers. Vos missions En tant qu’Architecte Data spécialisé Gouvernance & GCP, vous serez amené à : Concevoir et faire évoluer les architectures data sur GCP (BigQuery, Cloud Storage, Pub/Sub, Dataflow…). Définir et mettre en œuvre les standards de gouvernance : glossaire, dictionnaire de données, lineage, qualité, sécurité. Accompagner les Data Owners et Data Stewards dans la structuration des domaines de données. Garantir la qualité, la cohérence et la conformité des données (RGPD, IAM, politiques de sécurité). Participer à la modélisation des données (conceptuel, logique, physique) et aux bonnes pratiques de Data Management. Collaborer avec les équipes Data Engineering pour la mise en œuvre des pipelines et modèles. Contribuer à la documentation, aux référentiels et au partage de connaissances. Intervenir dans les comités Data et accompagner les métiers dans la compréhension des enjeux Data. Compétences techniques recherchées Obligatoires GCP (Google Cloud Platform) BigQuery, Cloud Storage, Pub/Sub, Dataflow, Composer IAM, gestion des accès, sécurité des données Architecture data cloud & bonnes pratiques GCP. Gouvernance & Data Management Data catalog, dictionnaire de données, lineage Qualité des données, règles de gestion, conformité Modélisation (relationnel, data warehouse, data mart). Culture Data & Engineering Compréhension des pipelines ETL/ELT Collaboration avec Data Engineers Documentation, standards, référentiels. Bonus appréciés Connaissance de Collibra, Alation, Talend DQ ou équivalents Notions de Data Mesh ou Data Vault Certifications GCP (Data Engineer, Cloud Architect).
Freelance
CDI

Offre d'emploi
Tech Lead Data Engineer

ANDEMA
Publiée le
Apache Kafka
Apache Spark
Hadoop

12 mois
50k-60k €
450-500 €
Lille, Hauts-de-France
Dans le cadre d'un dispositif Data Factory , nous recherchons un(e) Tech Lead Data Ingénieur(e) expérimenté pour intervenir sur une plateforme Big Data au cœur d’un projet critique en cours de déploiement . Vous jouerez un rôle clé dans la montée en puissance de la plateforme et dans la montée en compétences du client sur la stack data, dans un contexte présentant plusieurs points de fragilité nécessitant robustesse, leadership technique et sens des responsabilités . Missions : Réaliser les développements permettant d’ accélérer la mise à disposition des données sur la plateforme Big Data, dans le cadre d’un projet critique. Encadrer techniquement l’équipe de développement : - Suivi technique - Garantie des bonnes pratiques de développement - Qualité, performance et robustesse des livrables Faire monter en compétences l’équipe technique et le client sur la stack data (accompagnement, transmission, pédagogie). Environnement & conditions : Langue française obligatoire, anglaise apprécié Localisation : Hauts-de-France, proximité Lille Présence : 3 jours par semaine sur site Démarrage : ASAP
CDI

Offre d'emploi
Data Engineer

CAT-AMANIA
Publiée le
Ansible
Apache Airflow
Apache Kafka

Île-de-France, France
ntégration au sein de l'équipe Data event Management qui gère les trois offres de services suivantes : - Offre Infra. Kafka sur ITCloud OnPremise - Offre Infra. Kafka sur IBMCloud/dMZR. Activités principales - Construction/Déploiement/Support/MCO des offres autour de la technologie de messaging kafka Méthodologie de Travail - ITIL - Agile/Scrum à l'échelle - Product Based Projets principaux en cours - Transition vers un Nouvel Orchestrateur sur l'Offre Infra Kafka IBMCloud/dMZR basé sur Python et Airflow, Terraform - Extension de l'offre Kafka sur IBMCloud/dMZR avec l'intégration du produit Lenses - Migration du monitoring de l'infrastructure OnPremise de Splunk vers une solution Dynatrace combinée avec ELK. Technologies Utilisées - Outils administratifs: ServiceNow, Jira, Confluence - Infrastructure as Code: Ansible, Terraform - Langages: Bash, java (spring/jhipster), python - Repository: Artifactory - Database: SQL Server, PostgreSQL - Contenairsation: Docker/Kubernetes - Provider Cloud: ITCloud, IBMCloud - Orchestration: Airflow, Autosys, BPM - Versionning: Git - Messaging: kafka - CI/CD: GitLab CI - Operating system: Redhat - Monitoring: ELK, Dynatrace, LogDNA, Sysdig - Sécurité: HashiCorp Vault, Cyberarc
CDI
Freelance
CDD

Offre d'emploi
Développeur Camunda & Sécurité Applicative

RIDCHA DATA
Publiée le
Apache Kafka
Camunda
LDAP

1 an
Ivry-sur-Seine, Île-de-France
📌 Contexte de la mission Dans le cadre du développement et de l’automatisation de processus métiers complexes, la mission consiste à concevoir et implémenter des workflows sur la plateforme Camunda, tout en garantissant un haut niveau de sécurité applicative. Le consultant interviendra sur des architectures microservices et participera au développement d’API sécurisées. 🎯 Missions principales • Modéliser et automatiser les workflows métiers avec Camunda (BPMN) • Concevoir et développer des API REST (et SOAP si nécessaire) • Développer des microservices en environnement Java / Spring Boot • Réaliser des revues de code (code review) • Mettre en place la sécurité applicative : Authentification et autorisation (OAuth2, OpenID Connect, JWT, Keycloak, RBAC, MFA) Chiffrement des données (TLS, AES) Protection contre les failles (SQL Injection, XSS, XXE) • Rédiger les spécifications techniques et la documentation associée 🧰 Livrables attendus • Modélisation des workflows Camunda • Code source des applications et services • Spécifications techniques • Documentation sécurité applicative ⚙️ Compétences techniques (impératives) ✔ Camunda BPM ✔ LDAP ✔ Spring Boot ✔ Kafka ✔ Architecture microservices ✔ Keycloak ✔ Sécurité applicative avancée
Freelance

Mission freelance
Product Owner IA / Data

LeHibou
Publiée le
Data science
IA
IA Générative

12 mois
400-550 €
Croix, Hauts-de-France
Missions principales 2.1 Vision & stratégie produit IA - Porter la vision produit des solutions d’IA en lien avec les équipes métier. - Identifier les opportunités d’usage de l’IA au service du Risque, du Paiement, du Digital et des autres lignes métiers. - Prioriser les projets en fonction de la valeur business et de la faisabilité (technique, réglementaire, ROI). 2.2 Gestion du backlog & priorisation - Être garant de la priorisation des initiatives Data Science/IA. - Traduire les besoins métier en features et user stories. - Alimenter, structurer et maintenir le backlog produit. - Arbitrer les priorités selon la valeur ajoutée attendue, le feedback utilisateur et les contraintes (réglementaires, techniques, ROI). - Maximiser l’impact business de chaque sprint livré. 2.3 Pilotage du delivery agile - Piloter la delivery des projets IA en méthodologie agile. - Organiser et animer les cérémonies Scrum/Kanban (planification, revues, démonstrations, rétrospectives). - Suivre l’avancement des développements et lever les obstacles en coordination avec les autres départements. - Veiller au respect des engagements de qualité, budget et délais. - Communiquer de manière proactive sur l’avancement auprès des sponsors et du management. 2.4 Coordination Métiers–Data–IT - Jouer le rôle d’interface et de facilitateur entre les équipes Data Science, les équipes IT (architectes, MLOps, sécurité…) et les métiers sponsors. - Co-construire les solutions avec les experts métier et favoriser leur adoption. - Intégrer les contraintes techniques avec les équipes Data/IT pour une implémentation fluide des solutions IA. 2.5 Crédit & Risque (Scoring) – Use cases Machine Learning - Piloter les évolutions des modèles de scoring crédit (scoring d’octroi, scores comportementaux). - En lien avec les équipes Risque et Validation, concevoir et suivre les projets d’optimisation des scores existants et le développement de nouveaux modèles. - Explorer des approches innovantes (nouvelles données, algorithmes avancés). - S’assurer que les modèles contribuent à la maîtrise/stabilité du coût du risque (suivi des KPIs de performance) et respectent les exigences réglementaires. - Veiller à la mise en production et au monitoring des modèles (détection de dérive, recalibrage) en collaboration avec les Data Scientists et Analystes Risque. 2.6 IA générative & agents - Explorer et déployer les cas d’usage liés à l’IA générative pour transformer les processus internes et la relation client. - Piloter des projets d’agents IA (chatbots avancés, assistants cognitifs, systèmes à base de LLM, approches RAG – Retrieval-Augmented Generation). - Lancer des MVP d’agents pour : • Automatiser l’analyse de documents complexes. • Assister les équipes internes (Audit, Marketing, etc.). • Enrichir le support client. - Définir les objectifs et indicateurs de succès de ces projets. - Superviser les étapes de prototypage et de déploiement en production. - Mettre en place des architectures agentiques robustes pour ces solutions. - Évaluer et optimiser les performances des agents (cohérence, pertinence, diversité des réponses), en s’appuyant sur des méthodologies de pointe (par ex. LLM as a Judge pour la qualité des réponses). - Garantir un usage responsable, sécurisé et efficace de l’IA générative pour l’entreprise. Missions génériques associées au rôle : - Mener la livraison d’un produit de qualité répondant aux attentes des clients et équipes métiers. - Élaborer la vision produit avec les utilisateurs et les équipes techniques (UX, marketing) et être responsable de la conception du produit. - À chaque sprint, vérifier que la direction prise est la bonne, que les priorités métier sont respectées et que la qualité des livrables est adéquate. - Identifier les attentes des utilisateurs et les bénéfices attendus du produit. - Réaliser des benchmarks des solutions du marché, notamment chez les concurrents. - Élaborer les fonctionnalités attendues et les prioriser dans le backlog produit. - Travailler en collaboration avec l’UX sur le parcours client cible et sa déclinaison en trajectoire (MVP). - Partager la vision produit avec les équipes de développement agile. - Définir et planifier les releases/versions du produit. - Créer chaque fonctionnalité retenue sous forme de user story suffisamment petite pour être implémentée en une itération, avec critères d’acceptation clairs. - Comprendre les "Technical Stories" (besoins non fonctionnels) et les "Defect Stories" proposées par les équipes de développement. - Répondre aux demandes de clarification des équipes de développement sur les stories en cours. - Contribuer aux réunions agiles avec les équipes de développement et le Scrum Master. - Faciliter la communication et la collaboration entre l’ensemble des parties prenantes et porter la voix métier avec persuasion. - Accepter ou refuser les stories implémentées par les équipes de développement. - Réaliser ou organiser les tests utilisateurs/métiers des versions (avec une équipe de recette si projet complexe). - Le cas échéant, animer une équipe de Business Analysts, rédacteurs et testeurs métier lorsque le backlog le nécessite. - Récolter les feedbacks utilisateurs et évaluer le fonctionnement des versions précédentes en production. - Assurer la non-régression des nouvelles versions. - Manager des équipes de rédaction et de recette de user stories pour des projets agiles d’envergure. - Co-construire et animer le dispositif de conduite du changement avec un PMO Deploy. - Communiquer sur l’avancement de la réalisation du produit auprès du management et des utilisateurs.
Freelance

Mission freelance
Data Engineer Spark/Scala

CAT-AMANIA
Publiée le
Apache Spark
Scala

12 mois
400-550 €
Hauts-de-Seine, France
Au sein de l'équipe Data, vos fonctions consisteront notamment à : Participer à l'estimation de la complexité des chantiers techniques liés à la montée de version SPARK (3.4) Concevoir et développer les traitements applicatifs en collaboration avec les intervenants internes à l'équipe, ou externes à celle-ci (architectes techniques, architectes data, experts sur des technologies liées...) Rédiger les dossiers de conception et documentations techniques nécessaires Concevoir et exécuter les cas de tests unitaires / d'intégration Faire des revues de code croisées avec les collègues de l'équipe Contribuer à l'installation et au déploiement des composants Participer activement aux rétrospectives afin de garantir le process d’amélioration continue Assurer la qualité et le suivi des développements, en participant à la correction des problèmes de production
Freelance
CDI

Offre d'emploi
Tech Lead Data Engineer - Databricks

VISIAN
Publiée le
AWS Cloud
Databricks
PostgreSQL

1 an
40k-70k €
400-700 €
Paris, France
Le data engineer/Tech Lead intègre une équipe en charge du lakehouse pour le client. De nombreuses challenges techniques sont attendus. Focus sur ses activités : -Contribue à la conception de outils de traitement BigData (Ingestion / Traitement / Analyse) -Cadrage technique des besoins émis par les consommateurs de la plateforme Data -Est garant de la mise en production des traitements au sein de la plateforme -Optimisation du code et de la capacité des VMs mise en œuvre pour chaque traitement -Garantit la disponibilité et l'outillage pour les équipes métier, ainsi qu'aux utilisateurs de la plateforme (data scientists / data analystes / data engineer)
Freelance

Mission freelance
MLOps / Tech Lead Plateforme IA

Cherry Pick
Publiée le
CI/CD
Data governance
Data Lake

12 mois
550-610 €
Paris, France
Contexte et enjeux Notre client en assurance s’est engagé dans un projet stratégique majeur visant à accélérer et industrialiser le déploiement des cas d’usage de la Data Science et de l’Intelligence Artificielle (Machine Learning et LLM). Ce programme ambitieux repose sur la mise en œuvre de socles technologiques robustes, sécurisés et scalables : MLOps LLMOps Environnements Python industrialisés L’objectif est de fournir une plateforme mutualisée et standardisée permettant le développement, l’entraînement, le déploiement et le monitoring des modèles d’IA, utilisable par l’ensemble des équipes Data & IA du client. Dans ce cadre, notre client en assurance recherche un Consultant expert pour prendre en charge la gestion et l’animation de l’équipe dédiée à la plateforme MLOps . Ce rôle est stratégique pour la réussite du projet et la pérennisation des socles en mode RUN. Responsabilités principales 1. Management et animation de l’équipe MLOps Structurer et encadrer l’équipe MLOps (MLOps Engineers, Data Engineers, etc.) Définir les rôles et responsabilités Organiser et planifier les activités, répartir les charges et suivre l’avancement Mettre en place et animer les rituels agiles (daily stand-ups, sprint reviews, rétrospectives) Favoriser la montée en compétences et la diffusion des bonnes pratiques 2. Pilotage technique de la plateforme MLOps / LLMOps Définir l’architecture technique de la plateforme en collaboration avec les architectes et les équipes Data & IA Sélectionner et intégrer les outils et technologies MLOps / LLMOps pertinents Garantir la disponibilité, la scalabilité, la sécurité et la performance de la plateforme Assurer la conformité aux normes de sécurité, de gouvernance des données et de réglementation (RGPD) Définir, suivre et analyser les KPIs de la plateforme et des modèles déployés 3. Delivery du socle MLOps et des cas d’usage Garantir le déploiement des composants du socle MLOps industriel , en lien avec l’ensemble des parties prenantes DSI Organiser la réintégration des cas d’usage déjà en production dans le nouveau socle (compatibilité ascendante) Piloter le déploiement et la gestion opérationnelle de la plateforme MLOps, en autonomie et en coordination avec la DSI Accompagner l’industrialisation et la mise en production des cas d’usage IA 4. Roadmap, gouvernance et pilotage Définir et mettre en œuvre la roadmap MLOps / LLMOps , en adéquation avec les besoins des équipes Data & IA Piloter un portefeuille de projets techniques Gérer les budgets et l’allocation des ressources Animer les instances de pilotage (Comité Projet, Comité de Pilotage) S’appuyer sur les outils de suivi : SCIFORMA (planning et suivi budgétaire), JIRA (suivi des tâches) 5. Communication et coordination Interagir avec les équipes Data Scientists, Data Analysts, Architectes, Sécurité et Opérations Présenter l’avancement et les résultats aux parties prenantes internes (direction, métiers) Animer des ateliers de partage de connaissances et de bonnes pratiques Accompagner l’adoption de la plateforme par les équipes Data & IA Livrables attendus Organisation cible et plan de charge de l’équipe MLOps Roadmap détaillée de la plateforme MLOps / LLMOps Documentation technique et fonctionnelle Rapports d’activité et tableaux de bord de suivi Propositions d’architecture et de choix technologiques Processus et procédures MLOps / LLMOps formalisés Supports de formation et de sensibilisation
Freelance

Mission freelance
Data Architect

Sapiens Group
Publiée le
Collibra

12 mois
540-550 €
Hauts-de-France, France
Mission principale Définir, maintenir et faire évoluer une architecture modulaire du système d’information, alignée avec la stratégie de l’entreprise. Construire, avec les équipes projets, une trajectoire cohérente de transformation métier et digitale, en garantissant la prise en compte des exigences business, techniques et de gouvernance, dans une vision globale et transverse du SI. Responsabilités clés Concevoir et maintenir l’architecture d’entreprise et l’architecture data par domaine métier. Définir les modèles conceptuels de données et les événements métier associés. Formaliser et gouverner les Business Terms , Business Attributes et Business Events dans Collibra. Définir les KPI métiers et les règles de qualité des données. Garantir la conformité des API et des jeux de données avec l’architecture cible. Mettre en œuvre et documenter le data lineage . Rédiger les dossiers d’architecture répondant aux besoins business exprimés dans les quarter plans . Porter et diffuser les principes et standards d’architecture auprès des équipes. Contribuer activement à la data governance et au Référentiel d’Architecture. Activités principales Recueillir et structurer les besoins de transformation. Formaliser l’architecture existante et concevoir l’architecture cible. Réaliser les analyses d’écarts et définir les trajectoires de transformation. Identifier et maîtriser les impacts sur l’architecture globale. Présenter, faire valider et ajuster les choix d’architecture avec les parties prenantes. Capitaliser et maintenir les artefacts d’architecture dans le référentiel dédié. Assurer une veille continue sur les pratiques et standards du marché. Livrables Dossiers d’architecture de référence (SI et Data). Standards et principes d’architecture d’entreprise. Modèles de données, référentiels métiers et règles de qualité associées. Trajectoires de transformation et scénarios d’évolution du SI.
Freelance
CDI

Offre d'emploi
Chargé de Revue Indépendante RDS

VISIAN
Publiée le
Data quality

1 an
40k-45k €
550-1k €
Paris, France
Tâches de la Mission : Des rapports de revue sont à réaliser selon les normes de l'équipe type pour un RDS de PD, de LGDS, de LGDD, ou d'EAD/CCF. Pour les RDS cela consiste à s'assurer que le RDS : Est exhaustif au regard du périmètre du nouveau modèle construit Comporte tous les cas de défaut enregistrés avec la bonne date de défaut et la bonne granularité Comporte une qualité de données satisfaisante, pour permettre de construire le modèle
Freelance

Mission freelance
Data Engineer AWS

Management Square
Publiée le
AWS Cloud
Docker
Python

1 an
450-500 €
Île-de-France, France
Nous sommes à la recherche d’un Data Engineer AWS pour : - Concevoir et maintenir des pipelines de données fiables et performants - Participer à l’évolution de la plateforme data sur AWS - Développer des traitements et services data en Python - Contribuer à l’orchestration des workflows avec Airflow - Participer à l’industrialisation (Docker, bonnes pratiques, automatisation) - Travailler en collaboration avec les équipes data et métiers - Concevoir et maintenir des pipelines de données fiables et performants
2325 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous