Trouvez votre prochaine offre d’emploi ou de mission freelance okta à Paris
Votre recherche renvoie 220 résultats.
Mission freelance
PO data/BI - xp Supply Chain
FF
Publiée le
Google Cloud Platform (GCP)
Microsoft Power BI
1 an
Paris, France
Bonjour à tous, Je suis à la recherche d’un Product Owner Data/BI orienté technique (background technique dans l'idéal) qui maitrise : Obligatoire : - L’environnement GCP – BigQuery - Expérience(s) côté Supply chain - Vous avez une bonne connaissance de Power BI. - Vous êtes rompus aux techniques de l’agilité. Démarrage : ASAP / fin juin Lieu : Paris Télétravail : 2 jours par semaine Durée de la mission : 1 an ou + Si votre profil correspond, n'hésitez pas à postuler ! A bientôt,
Offre d'emploi
Chef de Projet Assurance Retraite & Data (H/F)
FED SAS
Publiée le
60k-65k €
75001, Paris, Île-de-France
Fed IT, cabinet entièrement dédié aux recrutements spécialisés sur les métiers de l'informatique (Infra, Data, Développement, MOA, MOE, Management), recherche pour un de ses clients spécialisé dans le secteur de l'assurance retraite, un ou une : Chef de Projet Assurance Retraite & Data (H/F). Le poste est à pourvoir dans le cadre d'un CDI chez le client final. Au sein d'une DSI de 4 personnes, vous aurez la charge des projets des projets métiers de la structure, mais aussi des projets data et du reporting. Vous devrez fluidifier la relation entre la DSI et les métiers, de coordonner les projets, et répondre aux besoins des utilisateurs. A ce titre, vos principales missions seront : - Recueillir et formaliser les besoins des utilisateurs (Services Gestion, Analyse, Marketing, Communication, …) ; - Participer à la rédaction des cahiers des charges et des spécifications fonctionnelles & techniques ; - Etudier la faisabilité économique et technique des projets métiers & Data ; - Coordonner les parties prenantes (DSI, métiers, prestataires) ; - Suivre l'avancement des projets et assurer le reporting ; - Construire et maintenir les modèles de données ; - Développer les flux de données : extraction, transformation, chargement ; assurer la qualité des données : contrôles, corrections, cohérence, validation ; - Documenter les flux, modèles, règles et rapports sur les données ; - Créer des rapports et tableaux de bord (Power BI, Business Objects) ; - Accompagner les utilisateurs dans la conduite du changement ; - Participer à la priorisation des demandes et à la planification ; - Renforcer la qualité de service et l'efficacité opérationnelle notamment avec les projets IA ; - Assurer un support de qualité sur les solutions métiers & Data déployées…
Mission freelance
Architecte Data – Azure/Databrics
Hexagone Digitale
Publiée le
Azure
Azure Data Factory
BI
6 mois
450-550 €
Paris, France
Dans le cadre du renforcement de sa Data Factory, un grand groupe international accélère la structuration de sa plateforme data sur Microsoft Azure avec un usage central de Databricks pour le traitement, la transformation et la valorisation des données. L’environnement s’inscrit dans une logique Data Lake , organisation Bronze / Silver / Gold et montée en maturité data à l’échelle groupe. Mission L’Architecte Data interviendra sur la conception et l’industrialisation de la plateforme data Azure. Ses responsabilités principales : Concevoir et faire évoluer l’architecture data sur Azure Structurer et optimiser les pipelines data via Databricks (Spark) Mettre en place les traitements de transformation et d’agrégation Modéliser les données pour les usages analytiques Garantir performance, scalabilité et qualité des flux Participer aux ateliers de cadrage technique avec les équipes métiers et IT Contribuer aux standards d’architecture et aux bonnes pratiques data Compétences clés (Must Have) Databricks (obligatoire) Azure (Data Lake, Synapse, Data Factory) Spark / PySpark SQL avancé Architectures Data Lake – Bronze / Silver / Gold Conception de pipelines data industrialisés Modélisation Data Warehouse Compétences appréciées (Nice to Have) Power BI DAX MDM (Master Data Management) Data Quality / Gouvernance Data Mesh Azure DevOps / Git ERP (SAP) Profil recherché 5 à 10 ans d’expérience en Data Engineering / Architecture Data Expérience confirmée sur des environnements Azure + Databricks Capacité à intervenir sur des environnements data complexes Autonomie technique et posture structurante Bon relationnel et capacité à challenger les choix d’architecture Environnement de travail Cloud : Microsoft Azure Traitement data : Databricks, Spark Stockage : Azure Data Lake Gen2 Orchestration : Azure Data Factory BI (selon besoins) : Power BI Gouvernance (selon périmètre) : MDM / Data Quality Conditions de la mission Lieu de la mision : Paris Mission longue : 6 à 12 mois renouvelables Temps plein Télétravail partiel possible Démarrage rapide TJM : 450-550€
Mission freelance
Business Analyst / Data – AML Monitoring - Paris
Net technologie
Publiée le
AML (Anti-Money Laundering)
Business Analysis
Data governance
1 an
Paris, France
Dans le cadre du programme AML Monitoring , nous recherchons un(e) Business Analyst orienté Data pour accompagner les initiatives d’amélioration de la couverture des risques AML sur plusieurs lignes métier. 🎯 Enjeux : amélioration de la résolution d’entités et de la qualité / enrichissement des données au sein de la chaîne AML. 🚀 Missions Définition des Business Requirements et rédaction des spécifications fonctionnelles Définition et exécution de la stratégie de tests Coordination avec les équipes de développement Reporting d’avancement, gestion des risques et des incidents 📊 Sur les initiatives Data : Intégration des solutions de Entity Resolution dans la chaîne AML Mise en place du référentiel d’entités et suivi de la qualité des données Définition et implémentation de contrôles automatiques Analyse des incidents et rédaction de Production Incident Reports
Mission freelance
Consultant Azure Data Factory (H/F)
Webnet
Publiée le
Azure Data Factory
CI/CD
DevOps
6 mois
450-530 €
Paris, France
Dans le cadre du renforcement d’une équipe Data, nous recherchons un Consultant Azure Data Factory pour intervenir sur des projets décisionnels dans un environnement Microsoft Azure . Vous aurez pour missions : Au sein de l’équipe Data et en collaboration avec le chef de projet, vous interviendrez sur les activités suivantes : Créer et optimiser des bases de données (SQL Server principalement). Prendre en charge les développements de scripts SQL/Procédures. Prendre en charge les développements des pipelines Azure Data Factory. Participer à la mise en place de bonnes pratiques (CI/CD, DevOps Data, Data Quality). Être force de propositions sur les optimisations de traitement Rédaction de la documentation (spécifications techniques), recettes. Gestion du code source via Microsoft Devops et déploiement CI/CD. Préparation des livrables pour les mises en production
Mission freelance
Préparation des données industrielles (BOM, gammes, postes, articles) en vue de la bascule vers SAP
Mon Consultant Indépendant
Publiée le
Data management
Gestion de projet
6 mois
500-540 €
Paris, France
Finalité de la mission : Dans le cadre de la mise en place du projet SAP, recherche d'une expertise Méthodes / Logistiques / Data analyst afin de : • Supporter l’équipe dans la structuration et la migration des données de production, méthodes, et logistique usine, entre notre système actuel M3 et notre futur système SAP S/4HANA • Garantir la fiabilité, la cohérence et la qualité des données de production et des « Master Data » dans SAP Missions principales : Gestion & fiabilisation des Master Data Production : • Participer à la revue des Master Data de production (nomenclatures (BOM), gammes de production, postes de charge, fiches article et vues MRP). • Vérifier que les données techniques sont complètes pour permettre la création et l’exécution correcte des OF (BOM active, gamme active, UM cohérentes, conversions d’unité, stratégies MRP…). • Garantir l’intégrité des données utilisées par la planification (MRP) et la logistique interne (PSA, staging, stockage). • Vérification de la cohérence du paramétrage interne à SAP en lien avec les règles de gestion définies • Contribuer en appui du BPO et du Data Manager à l’homogénéisation sur le paramétrage des Data entre usines (exemple pour la sous-traitance de production) • Coordonner et être en soutien du nettoyage des données sources avec les usines et les méthodes • Vérifier la cohérence des données de production vis-à-vis des règles de gestion établies • Participer à la constitution des fichiers de création, de migration et de chargement des données en lien avec notre Data Manager • Proposer éventuellement des améliorations ou des ajustements dans nos choix métiers en cours de définition pour ensuite correction lors de la phase des tests Support & gouvernance data : • Aider à la rédaction des SIT en particulier sur les données de Production, des Méthodes et de la Logistique Usine • Participer à la définition du dictionnaire de données et des règles de gouvernance. • Formaliser pour la Production et les Méthodes, et la Logistique Usine les règles de création, modification des Master Data et des données production à l'aide de procédures
Mission freelance
Data Scientist – GenAI & RAG - Paris
Net technologie
Publiée le
AWS Cloud
Data science
GenAI
3 mois
Paris, France
Nous recherchons un Data Scientist pour renforcer un centre d’expertise IA dédié à des cas d’usage liés à la vente d’énergie , avec un fort focus sur l’ IA générative . 🎯 Objectif : concevoir, déployer et industrialiser des solutions data & IA à forte valeur métier. 🚀 Missions Cadrage des projets et proposition de solutions data-driven Traitement et exploitation de données structurées & non structurées Conception de modèles ML / Deep Learning / GenAI Développement de solutions basées sur LLM & architectures RAG Mise en place de pipelines (parsing, extraction, normalisation de données) Déploiement sur AWS (SageMaker, Bedrock, S3…) Évaluation des modèles (NLP, RAG, robustesse, hallucinations) Industrialisation (MLOps, monitoring, optimisation des coûts) Communication des résultats & accompagnement métier Mentoring de profils plus juniors
Mission freelance
Architecte Data
PROPULSE IT
Publiée le
24 mois
350-700 €
Paris, France
PROPULSE IT recherche un Architecte DATA. Pour soutenir la sélection et la mise en œuvre d'un nouveau système CRM et d'une plateforme d'automatisation marketing, le client recherche un expert capable de préparer l'avenir et de développer davantage le modèle de données client et consommateur, et d'établir un plan d'intégration et une feuille de route. - Conception de bases de données Traduire le modèle consommateur canonique existant en une base de données concrète. Définir et documenter les entités, attributs et relations dans un dictionnaire de données. Assurer de la qualité des données et de la cohérence sémantique. Intégration et cartographie fonctionnelle Cartographier fonctionnellement les données des consommateurs à travers les différents systèmes B2C. Développer des cartographies et des transformations à partir des CRM, e-commerce, POS (physique), fidélisation et automatisation marketing vers la base de données consommateurs. Définir les approches de transformation et de standardisation. - Architecture et feuille de route Finaliser l'architecture de l'application autour des données des consommateurs : systèmes, processus et dépendances. Ajuster le modèle de données lorsque cela est nécessaire, en tenant compte des limites des systèmes existants. Élaborer une feuille de route pour relier les différents systèmes par phases.
Offre d'emploi
Architecte Data Mesh
KLETA
Publiée le
Architecture
Data governance
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Architecte Data Mesh pour définir et piloter la mise en place d’une architecture data fédérée orientée domaines. Vous analyserez les organisations, les flux de données et les architectures existantes afin de proposer une trajectoire cible alignée avec les principes du Data Mesh (responsabilité par domaine, produits data, self-service, gouvernance fédérée). Vous guiderez la conception des plateformes de données par domaine en définissant des standards communs (contrats de données, qualité, observabilité, versioning, discoverabilité) et en structurant les mécanismes de partage et d’interopérabilité entre équipes. Vous serez responsable des choix structurants en matière de gouvernance, de sécurité, de catalogage et de propriété des données, tout en veillant à la scalabilité et à l’exploitabilité du modèle. Vous travaillerez étroitement avec les équipes Data Engineering, Cloud, DevOps et métiers pour accompagner le changement organisationnel et technique. Vous aurez également un rôle clé dans l’animation d’ateliers, la formalisation de patterns d’architecture et l’accompagnement des équipes dans l’adoption des pratiques Data Mesh et de la culture produit autour de la donnée.
Offre d'emploi
Product Owner Big Data
KLETA
Publiée le
Big Data
Product management
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Product Owner Big Data pour piloter la roadmap d’une plateforme data industrielle et maximiser la valeur des produits data. Vous analyserez les besoins métiers et techniques, structurerez le backlog produit et proposerez des trajectoires d’évolution alignées avec la stratégie data de l’entreprise. Vous travaillerez étroitement avec les équipes Data Engineering, Data Science, BI, Cloud et DevOps pour traduire les besoins en user stories claires, définir des critères d’acceptance et prioriser les fonctionnalités à forte valeur ajoutée. Vous accompagnerez la mise en place de produits data fiables, documentés et exploitables, en intégrant des enjeux de qualité, de gouvernance et de performance. Vous animerez des ateliers avec les parties prenantes, participerez aux cérémonies agiles et suivrez des indicateurs d’usage et de création de valeur. Vous aurez également un rôle clé dans la communication entre équipes techniques et métiers, en facilitant l’alignement stratégique et en promouvant une culture produit orientée données et impact business.
Mission freelance
DEVELOPPEUR SENIOR DYNAMICS 365
ARGANA CONSULTING CORP LLP
Publiée le
API
Azure Data Factory
C#
6 mois
500-550 €
Paris, France
🎯 Contexte de mission Dans le cadre de la digitalisation de ses processus métier et de l’évolution de sa plateforme CRM cloud, nous recherchons un Développeur Senior Dynamics 365 capable de concevoir, développer et maintenir des solutions robustes autour de Dynamics 365 et des services Azure. La mission s’inscrit dans un environnement international, exigeant et fortement orienté innovation, avec des enjeux autour de l’automatisation, de l’intégration des systèmes et de l’optimisation des parcours utilisateurs. 🛠️ Missions principales et rôle Développer et personnaliser les composants Dynamics 365 : formulaires, workflows, plugins, JavaScript/jQuery, traitements C# et SQL Concevoir et développer des Azure Functions (HTTP triggers, TimerTriggers, files d’attente, etc.) Intégrer des contrôles PCF et configurer les différents modules Dynamics 365, notamment Sales et Customer Service Automatiser les tâches utilisateurs, les notifications et certains traitements métiers Réaliser des analyses de bugs et assurer leur résolution Étudier la faisabilité des demandes métier et proposer des solutions techniques adaptées Concevoir des architectures fonctionnelles évolutives et documentées Mettre en place et maintenir les pipelines CI/CD ainsi que les processus de release Gérer les branches de code, les déploiements et les environnements Dev, UAT et Production Administrer les ressources Azure : Functions, Queues, Topics, Data Factory, Blob Storage Assurer les intégrations avec des systèmes tiers tels que des applications web, outils marketing, backoffice ou solutions de téléphonie Superviser la production et apporter un support aux utilisateurs Assurer la coordination avec les éditeurs et partenaires techniques pour la gestion des incidents Gérer les dépôts Git et garantir la qualité des livrables 🚀 Objectifs Faire évoluer et stabiliser la plateforme Dynamics 365 Optimiser les processus métiers grâce à l’automatisation et aux intégrations Garantir la fiabilité, la performance et la maintenabilité des développements Fluidifier les échanges entre Dynamics et les systèmes tiers Sécuriser les déploiements via des pratiques CI/CD robustes Accompagner les équipes métier dans leurs besoins d’évolution et d’amélioration continue 💡 Compétences requises Excellente maîtrise de Dynamics 365 CRM Expertise en développement C#, JavaScript et SQL Bonne connaissance des modules Sales et Customer Service Maîtrise des services Azure : Functions, Storage, Data Factory, Queues, Blob Storage Expérience confirmée sur les pipelines CI/CD et la gestion des environnements Solides compétences en architecture technique et documentation Maîtrise des outils de gestion de code source Git Expérience des intégrations avec des systèmes tiers et APIs Capacité à intervenir sur des problématiques de production et de support
Mission freelance
Data Engineer industriel
MLMCONSEIL
Publiée le
Dataiku
IBM Maximo
Microsoft Excel
6 mois
100-500 €
Paris, France
Profil Data senior orienté environnement industriel, capable de reprendre, structurer et fiabiliser des données complexes. Maîtrise de SQL, Python et Excel/VBA pour l’analyse, l’automatisation et le reporting. Expérience requise sur Dataiku et IBM Maximo pour l’ingestion, la normalisation et la gestion des données de maintenance. Capacité à comprendre les enjeux métiers (maintenance, référentiels) et à les traduire en modèles de données exploitables. . . . . . . . .
Offre d'emploi
Data Analyst expert Kibana & Dashboard - Reporting
ARDEMIS PARTNERS
Publiée le
Bitbucket
CI/CD
Elasticsearch
3 mois
40k-45k €
400-500 €
Paris, France
Description détaillée Nous recherchons un Expert Kibana et analyse de données avec une maîtrise exceptionnelle de la création de dashboards de suivi de bout en bout. Le candidat idéal excellera dans la transformation des données collectées et indexées dans Elasticsearch en visualisations claires, pertinentes et actionnables. Ce rôle se concentre sur l'exploitation poussée des capacités de Kibana et des données brutes pour fournir une observabilité complète, sans nécessiter une expertise approfondie en administration d'infrastructure Elasticsearch. Responsabilités Clés : Concevoir, construire et maintenir des dashboards Kibana complexes et performants, permettant une visibilité de bout en bout sur les flux de données, les performances des applications et les processus métier. Exploiter pleinement les capacités avancées de Kibana pour la création de visualisations diversifiées, de contrôles interactifs, de vues agrégées et de fonctions de drilling pour faciliter l'exploration des données. Traduire les besoins métiers et techniques en solutions de reporting et de monitoring efficaces dans Kibana. Collaborer avec l'équipe en charge de l'infrastructure Elasticsearch pour optimiser les requêtes, les index patterns et les performances de Kibana. Analyser les données collectées via des outils tels que THEIA et Filebeat, et définir les stratégies de structuration via des outils comme Logcraft pour maximiser leur utilité dans Kibana. Utiliser et tirer parti des fonctionnalités de Machine Learning avancées de Kibana pour la détection d'anomalies, la prédiction et l'identification de tendances dans les données. Garantir la pertinence et la qualité des données présentées dans les dashboards. Élaborer et implémenter des stratégies de suivi des actions et fournir des reporting clairs et concis sur l'état des systèmes, les performances et les alertes identifiées. Compétences Techniques Requises : Expertise approfondie et prouvée de Kibana particulièrement dans la conception et l'implémentation de dashboards complexes et de reporting. Bonne compréhension du fonctionnement d'Elasticsearch pour optimiser l'utilisation des données et les requêtes depuis Kibana. Maîtrise des outils internes et de leur intégration dans la chaîne de données : THEIA, Filebeat, logstash. Connaissance approfondie des fonctionnalités de Machine Learning avancées de Kibana. Solide expérience en programmation Python, Ruby pour l'automatisation des tâches liées à l'analyse ou à la génération de données pour Kibana, et potentiellement le développement de scripts d'aide. Expérience avec les outils de CI/CD et la gestion de versions : Jenkins, Bitbucket. Connaissance des outils de déploiement et d'orchestration : Openshift. Familiarité avec les outils de gestion des déploiements et des releases : XLD/XLR. Livrables Définition du profil Mettre en oeuvre des outils informatiques, des techniques et des méthodes statistiques pour permettre d'organiser, synthétiser et traduire efficacement des données Fournir un appui analytique à la conduite d'exploration et à l'analyse complexe de données Créer des algorithmes de recherche de données qui permettent d'explorer les données utiles Procèder aussi à l'industrialisation du procédé pour les données les plus intéressantes. Et organiser, synthétise et traduit les informations pour faciliter la prise de décision. Gèrer les opérations et l'administration, la modélisation et l'architecture des gisements de données. Et s'assurer que les bases de données existantes fonctionnent bien et en cohérence Donner un sens aux données à l'aide de ses connaissances analytiques (SQL, analytics/BI, statistiques basiques) Travailler en collaboration avec le management pour résoudre des questions business en se focalisant sur l'analyse du passé
Mission freelance
Project Manager (GRC IA CLOUD DATA)
Groupe Aptenia
Publiée le
Cloud
Data management
Gouvernance, gestion des risques et conformité (GRC)
6 mois
400-600 €
Paris, France
🎯𝐓𝐨𝐧 𝐭𝐞𝐫𝐫𝐚𝐢𝐧 𝐝𝐞 𝐣𝐞𝐮 : - Piloter les analyses de risques IT & cybersécurité sur des projets innovants (IA, Cloud, Data) - Accompagner les projets en apportant expertise sécurité et conseil (data protection, conformité, architecture) - Identifier, qualifier et suivre les risques, vulnérabilités et plans de remédiation - Assurer la conformité des projets IT (y compris third parties) et la résilience opérationnelle - Préparer et animer les comités de validation (risk, sécurité) 🛠️ Gouvernance & GRC - Intégrer les analyses dans l’outil GRC Groupe - Contribuer au programme cybersécurité (référentiel NIST CSF) - Produire le reporting (KPI, tableaux de bord, comités) - Maintenir et améliorer les politiques et procédures 🤝 Environnement - Collaboration avec équipes IT, métiers, sécurité, data, juridique et compliance - Contexte international et multi-sites
Offre d'emploi
Data Engineer Databricks
KOMEET TECHNOLOGIES
Publiée le
Apache Spark
Databricks
45k-60k €
Paris, France
En tant que Data Engineer, vous intervenez sur la conception, le développement et l’optimisation de pipelines de données robustes et scalables. Vous travaillez au cœur des plateformes Data afin de garantir la qualité, la disponibilité et la performance des données utilisées par les équipes métiers, BI et Data Science. Expérience attendue : 3 à 8+ ans en ingénierie Data. Vous correspondez au/à la Data Engineer que nous recherchons si : Vous évoluez efficacement au sein d’équipes agiles et pluridisciplinaires , en collaboration étroite avec les équipes Data, IT et métiers Vous faites preuve d’un fort esprit analytique et d’une grande rigueur Vous êtes autonome , proactif et doté d’un solide sens des responsabilités Vous êtes capable de communiquer clairement avec des interlocuteurs techniques comme non techniques Vous savez prioriser vos tâches , gérer les contraintes et respecter vos engagements Vous disposez d’un bon esprit de synthèse et êtes orienté résultats et valeur métier Vous avez une bonne connaissance des environnements Business Intelligence , Big Data et des architectures Lakehouse Vous avez déjà travaillé sur des plateformes Data modernes (Cloud) Vous maîtrisez SQL comme langage d’interrogation des données et avez des notions de modélisation de données (architecture médaillon, modèle en étoile …) Vous disposez d’un bagage en software engineering , vous permettant d’écrire un code robuste, lisible, maintenable et testable, notamment en Python Vous appliquez les bonnes pratiques de développement : structuration du code, modularité, gestion des dépendances, conventions de nommage Vous êtes sensibilisé aux principes de qualité logicielle (tests unitaires, tests d’intégration, revue de code) Vous êtes à l’aise avec les outils de versioning ( Git ) et les workflows collaboratifs associés Vous savez concevoir des pipelines Data comme de véritables produits logiciels, en tenant compte de la maintenabilité, de l’évolutivité et de l’observabilité
Offre d'emploi
SENIOR Data engineer MSBI Python Azure (7-8 ans minimum)
Digistrat consulting
Publiée le
Azure Data Factory
Azure DevOps
Microsoft SSIS
3 ans
50k-65k €
500-580 €
Paris, France
🏭 Secteurs stratégiques : Asset management 🗓 Démarrage : ASAP PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 💡 Contexte /Objectifs : Dans le cadre d'un projet au sein d'un client grand compte, nous sommes à la recherche d'un Data engineer avec une expertise sur la suite MSBI. Le profil recherché, Bac + 4/5 idéalement issu d’une école d’ingénieur, aura une expérience au minimum de 7/8 ans. Passionné par le développement, il aura la capacité de travailler en équipe et saura apporter une vraie valeur ajoutée par ses compétences techniques et humaines
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
220 résultats
Contrats
Lieu
1
1
Paris, France
0 Km
200 Km
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois