Trouvez votre prochaine offre d’emploi ou de mission freelance okta à Paris

Votre recherche renvoie 213 résultats.
Freelance

Mission freelance
Data Analyst Monétique

Signe +
Publiée le
Azure
Google Cloud Platform (GCP)
SQL

6 mois
400-480 €
Paris, France
Bonjour, Nous recherchons pour l'un de nos clients un Data Analyst Monétique. Contexte La squad data monétique au sein de la Datafactory a la charge de : • d’alimenter les équipes métiers ainsi que les autres squads data en données de paiement et données client permettant de mener tous types d'analyses, • de générer et diffuser des reportings et des états Power BI aux équipes métiers. • d'alimenter des systèmes opérationnels ou interfaces à destination de clients en données de paiements. • d’assister les équipes métiers dans leurs exploitations des données de paiement, Dans ce cadre, les missions sont : • Participer à la collecte, la transformation et la gestion des données pour en assurer l'intégrité, la sécurité et la qualité • Animer des groupes de travail avec les sponsors, les business analyst et les membres de la squad (data viz, data engineer, business analyst) • Rédaction des livrables : spécifications fonctionnelles et techniques / user story, cahiers de recette • Réaliser les recettes des traitements d'intégration et de transformation de données • Développer et documenter les user stories/spécifications et les cahiers de recette avec l’assistance du Product Owner • Formation et accompagnement des utilisateurs. Description • Maitrise du SQL • Compétences métiers en moyens de paiements fortement recommandées • Connaissances des outils de requêtage Data et de plateformes Big Data, idéalement Cloud (Azure, GCP) • Excellentes compétences relationnelles et grand sens de la communication (capacité à entrer dans le détail). • Autonomie et rigueur • Sens de l'initiative et du résultat • Maitrise des méthodes agiles et des rituels associés.
CDI
Freelance

Offre d'emploi
Architecte Big Data

KLETA
Publiée le
Apache Kafka
Apache Spark
ELK

3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Architecte Big Data pour définir et piloter l’évolution des plateformes de données à grande échelle. Vous analyserez les architectures existantes, identifierez les limites techniques et proposerez des trajectoires cibles adaptées aux enjeux métiers, techniques et opérationnels. Vous guiderez la conception de nouvelles architectures distribuées en intégrant des technologies telles que Hadoop, Spark, Kafka, Iceberg/Delta Lake ou équivalents, ainsi que des principes modernes de lakehouse et de data mesh lorsque pertinent. Vous serez responsable des choix structurants en matière de stockage, de traitement, de gouvernance et de sécurité des données, en veillant à la performance, à la scalabilité et à la résilience des plateformes. Vous travaillerez étroitement avec les équipes Data Engineering, Cloud et DevOps pour garantir une mise en œuvre industrialisée, alignée avec les standards d’entreprise et les contraintes d’exploitation. Vous aurez également un rôle clé dans l’animation d’ateliers techniques, la formalisation de patterns d’architecture et l’accompagnement des équipes dans l’adoption des meilleures pratiques Big Data et data engineering.
Freelance
CDI

Offre d'emploi
📩 Azure Platform Engineer – Data & Analytics Platform

Gentis Recruitment SAS
Publiée le
Azure
Azure Kubernetes Service (AKS)
CI/CD

3 mois
40k-45k €
300-400 €
Paris, France
Contexte de la mission Dans le cadre du développement d’une plateforme data cloud à l’échelle groupe, notre client recherche un Azure Platform Engineer pour renforcer une équipe en charge de la conception, du déploiement et de l’exploitation de la plateforme. Les enjeux sont forts autour de : la scalabilité la gouvernance des données la sécurité la performance des traitements L’environnement est majoritairement Azure , avec une ouverture possible vers du multi-cloud. Vos missions Infrastructure & Cloud (Azure) Développement et maintenance d’infrastructures via Terraform / Bicep / ARM Gestion des ressources Azure : ADLS Gen2, Blob Storage Réseaux (VNet, NSG, Private Endpoints) Gestion des environnements DEV / TEST / PROD Data Platform Administration et exploitation d’un Data Lake Azure Mise en place des règles de gouvernance et sécurité : Azure AD / RBAC Policies / Purview Optimisation des performances et des coûts CI/CD & automatisation Mise en place et maintenance de pipelines CI/CD Automatisation des déploiements (infra + data + services) Environnements : Azure DevOps / GitHub Actions Développement & APIs Développement de microservices en Python Création d’APIs REST Intégration avec les services Azure (Functions, Event Hub…) Containers & orchestration Déploiement de services containerisés (Docker) Orchestration via AKS / Azure Container Apps Monitoring & fiabilité Mise en place de la supervision : Azure Monitor Log Analytics Application Insights Suivi des performances et de la disponibilité Collaboration Rédaction de documentation technique Interaction avec équipes data, dev et métiers Participation aux rituels Agile Stack technique Cloud : Azure Data : ADLS Gen2, Databricks, Synapse IaC : Terraform, Bicep, ARM CI/CD : Azure DevOps, GitHub Actions Containers : Docker, AKS Langage : Python Streaming : Event Hub, Service Bus
Freelance

Mission freelance
Business Analysts expérimentés sur Workday

Codezys
Publiée le
Business Analysis
Data management
Formation

12 mois
Paris, France
Contexte du projet : Dans le cadre du déploiement international de Workday, SAUR met en œuvre un programme de transformation de son SIRH couvrant environ 20 pays et 12 000 collaborateurs. Ce projet vise à harmoniser, sécuriser et optimiser les processus RH à l’échelle mondiale. Besoins en renfort : Renforcer l’équipe centrale SIRH en intégrant deux Business Analysts expérimentés sur Workday, capables d’intervenir sur les aspects fonctionnels, la configuration et la coordination avec les équipes RH locales. Assurer une assistance opérationnelle auprès de plusieurs filiales pour accompagner l’appropriation de Workday, garantir la qualité des données et des processus RH, et faire le lien entre les besoins métiers locaux et l’équipe centrale. Contexte organisationnel : L’équipe centrale SIRH se compose actuellement de trois personnes intervenant partiellement sur le sujet, ainsi que d’un lead change dédié à la communication. L’ajout de ces consultants est nécessaire pour accompagner efficacement le déploiement dans un contexte sensible et international. Objectifs et livrables : Coordination avec les équipes RH locales : identifier les rôles et responsabilités, comprendre les processus spécifiques à chaque pays, accompagner l’adoption de Workday, et soutenir la gestion des tickets pour assurer un support structuré et harmonisé. Support fonctionnel et optimisation : analyser les problématiques rencontrées, proposer des améliorations métier, et contribuer à la configuration des modules Workday, notamment sur le Core RH et les instances adaptées aux besoins locaux. Gestion de la qualité des données : vérifier, améliorer la cohérence et la fiabilité des informations RH intégrées dans Workday. Formation et accompagnement : former les équipes locales, identifier les points de blocage, et proposer des plans d’action pour faciliter l’utilisation de la plateforme, tout en diffusant efficacement les communications liées au programme.
Freelance

Mission freelance
Data scientist IA Générative

MLMCONSEIL
Publiée le
IA Générative
Python

1 an
100-480 €
Paris, France
Recherche d’un Data Scientist senior (5 à 10 ans d’expérience) avec une expertise confirmée en IA générative, notamment sur des cas d’usage basés sur RAG. Le profil devra maîtriser Python ainsi que les outils de l’écosystème GenAI tels que LangChain, Hugging Face et les bases vectorielles. . . . . . . . .. . . . . . . . .. . . . . .
Freelance
CDI

Offre d'emploi
Business Analyst MDM / Data

VISIAN
Publiée le
Big Data
Data governance
ETL (Extract-transform-load)

1 an
Paris, France
Descriptif du poste Au sein d'une équipe data qui a pour mission de définir la stratégie et la feuille de route Data du groupe, de développer et gérer l'écosystème de partenaires Data, de définir et déployer la gouvernance des données, de définir et piloter le plan d'acculturation Data, et d'accompagner le déploiement des produits et services Data. Le Global Data Office a en charge le développement et le maintien des données de référence du groupe, et a lancé un programme de refonte de la plateforme de Master Data Management
Freelance

Mission freelance
Consultant SAP PP QM Data Migration

SAP-HIRE
Publiée le
SAP
SAP PP
SAP QM

9 mois
Paris, France
Nous recherchons un profil SAP PP QM sur la Data Migration pour renforcer un projet de migration vers SAP S/4. La mission consiste à Identifier et analyser des données à migrer (matériaux, nomenclatures, gammes, données qualité), mapper et définitir les règles de transformation, préparer et charger les données (LSMW / Migration Cockpit), contrôles qualité des données et gestion des incidents, participer aux phases de tests (SIT/UAT) et aux répétitions de migration (cutover). Vous aurez une expérience confirmée en migration de données SAP, une bonne compréhension des données PP & QM, serait autonome, rigoureux et orienté qualité des données. La mission doit se réaliser 3 jours sur site en IDF.
Freelance

Mission freelance
Consultant Azure Data Factory/SQL Server

OAWJ CONSULTING
Publiée le
Azure Data Factory
Microsoft Power BI
Microsoft SQL Server

1 an
500-550 €
Paris, France
BESOIN URGENT!! Dans le cadre du renforcement de son équipe data, notre client recherche un consultant senior orienté data engineering avec une forte expertise bases de données. Secteur immobilier. Missions Conception et développement de pipelines avec Azure Data Factory Gestion et optimisation des bases de données Microsoft SQL Server Modélisation et structuration des données Optimisation des performances (requêtes, index, traitements) Mise en place de bonnes pratiques DevOps / CI-CD Collaboration avec les équipes techniques et métiers Profil recherché 7 à 10 ans d’expérience en Data Engineering Excellente maîtrise d’Azure Data Factory Forte expertise en Microsoft SQL Server Bonne connaissance des problématiques de performance et modélisation Culture DevOps appréciée Autonome, rigoureux et orienté résultats
Freelance

Mission freelance
Architecte Infrastructure - Reseau Datacenter

PROPULSE IT
Publiée le
Infrastructure

24 mois
350-700 €
Paris, France
PROPULSE IT recherche un consultant Senior - Architecte Réseau Datacenter Dans une équipe qui a pour missions principales l'élaboration de la stratégie, la conception, la mise en œuvre technique et le support des Infras en datacenter (Cloud privé on premise), en l'occurrence les infras de Virtualisation, Stockage et le socle Réseau datacenter Cette équipe souhaite renforcer son périmètre Réseau, avec un Expert Réseau Datacenter, afin de l'assister dans : - Etude et analyse des opportunités d'évolution des infras Réseau & Sécurité - mise en œuvre et industrialisation Infra réseau et sécurité au sein des datacenters. - Mise en œuvre de projets d'infras réseau & sécurité - Support technique N3 sur les technologies réseau & sécurité Les principales compétences attendues : - Expérience technique avancée en Proxy Web de ZScaler - Expérience technique avancée en Firewalling (Checkpoint, Fortinet et Palo Alto) - Expérience technique avancée en F5 (Loadbalancing, APM)
Freelance
CDI

Offre d'emploi
Data Engineer Snowflake

KLETA
Publiée le
DBT
Snowflake

3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Data Engineer Snowflake pour concevoir, optimiser et industrialiser des plateformes analytiques cloud modernes. Vous analyserez des architectures existantes, proposerez des trajectoires d’évolution (migration vers Snowflake, optimisation des modèles de données, amélioration des pipelines ELT) et guiderez leur mise en œuvre avec Snowflake, dbt et les outils d’orchestration associés. Vous serez responsable de la structuration des modèles de données, de l’optimisation des performances des requêtes et de la mise en place de mécanismes de gouvernance et de traçabilité. Vous travaillerez main dans la main avec les équipes Cloud, Data et DevOps pour intégrer les traitements dans des pipelines CI/CD fiables et adaptés aux contraintes d’exploitation. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes client sur les meilleures pratiques de data engineering moderne et d’usage avancé de Snowflake. Votre mission combinera expertise technique, rigueur méthodologique et capacité à structurer des solutions scalables et pérennes.
Freelance

Mission freelance
Product Owner Workplace - MDM

STHREE SAS pour HUXLEY
Publiée le

6 mois
480 €
75001, Paris, Île-de-France
Vous trouverez ci-dessous le descriptif de la mission : Un programme a été lancé en 2019, il s'agit un programme Digital Workplace appelé One Workplace Program . Ce programme a pour objectif de développer des produits modernes globaux, destinés à être déployés dans l'ensemble du groupe dans les années à venir. Dans le cadre de ce programme, la Devices Product Line définit une vision et une stratégie innovantes pour l'usage, la coordination et la mise en œuvre, dans toutes les entités, des appareils Modern Workplace (Windows, Mac, Mobile), incluant le Virtual Desktop, tout en assurant la transition des environnements legacy. Au sein de cette Product Line, nous avons créé un produit moderne managé, basé sur un Windows 10 à jour et géré dans le cloud (Microsoft Intune), appelé Windows Edition . Nous avons mis en place une Feature Team dont la mission est de construire le produit, d'assurer le Release Management, ainsi que de garantir le déploiement auprès de nos clients (les différentes entités du groupe) en configurant les setups associés. La Feature Team interagit avec plusieurs Product Owners : Un Product Owner en charge du Release Management pour les évolutions globales (nouvelles fonctionnalités, mises à jour, corrections de bugs). Des Integration Product Owners responsables du déploiement de Windows Edition dans les entités AXA (chaque PO couvrant un périmètre spécifique). Vous rejoindrez l'équipe en tant que « Integration Product Owner » . Objectifs principaux Vous devrez : agir comme le miroir du PM en suivant les activités de l'entité pour intégrer le produit ; construire le backlog de déploiement de Windows Edition pour chaque nouvelle entité rattachée au périmètre ; organiser des ateliers afin de collecter les besoins des entités ; créer les items de backlog pour la Feature Team, construire le planning des releases et communiquer l'avancement ; collaborer avec les autres Product Owners de Windows Edition et le PM pilotant la roadmap, dans une organisation de type scrum of scrums . Activités principales Vous ferez partie de l'organisation agile, fondée sur des livraisons itératives, incluant : la préparation du sprint planning pour définir le contenu du sprint backlog ; la préparation de la sprint review avec la Feature Team, incluant une démonstration des éléments du sprint ; la participation aux rétrospectives pour travailler sur les actions d'amélioration ; la participation aux Steering Committees avec les entités lors de l'onboarding ; la participation aux Steering Committees mensuels pilotés par le service PM avec le Senior Management Workplace.
Freelance
CDI

Offre d'emploi
Data Engineer Streaming

KLETA
Publiée le
Apache Kafka
Apache Spark

3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Data Engineer Streaming / Real-Time pour concevoir, optimiser et industrialiser des plateformes de traitement de données en temps réel. Vous analyserez des architectures existantes, proposerez des trajectoires d’évolution (modernisation des pipelines événementiels, optimisation des traitements stream, passage vers des architectures plus scalables et résilientes) et guiderez leur mise en œuvre avec Kafka, Flink, Spark Streaming ou équivalents. Vous serez responsable de la conception et de la fiabilisation des pipelines d’ingestion et de transformation en temps réel, de l’amélioration des performances et de l’intégration de mécanismes de tolérance aux pannes et d’observabilité des flux. Vous travaillerez main dans la main avec les équipes Cloud et DevOps pour intégrer les traitements dans des pipelines CI/CD robustes et adaptés aux contraintes d’exploitation. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes client sur les meilleures pratiques de streaming et d’event-driven architecture. Votre mission combinera expertise technique, rigueur méthodologique et capacité à structurer des solutions scalables et pérennes.
Freelance

Mission freelance
Expert SAS & data lake ( SAS & Teradata & GIT & Ansible & AWK & SQL & DDL)

WINSIDE Technology
Publiée le
SAS
Teradata

3 ans
400-550 €
Paris, France
Dans le cadre de ses activités, le client gère une infrastructure et une application nommée PUMP reposant sur le logiciel SAS adossé à une base de données Teradata. La prestation consiste à assurer la maintenance et le support aux utilisateurs de la plateforme PUMP existante ainsi qu'à s'assurer de la bonne alimentation des bases de données qui sont un prérequis à la réalisation des travaux réglementaires de back-testing. Le périmètre de l'application concerne aussi bien des utilisateurs métiers RISK en France que nos filiales à l'international (Anglais Obligatoire). Les missions sont: - Administration de la plateforme SAS : Ajout d'utilisateurs et configuration de nouveaux Authentication Domain et Logical Application Server (SMC) - Mise en place des scripts SAS et SHELL de load des données en base - Automatisation du chargement des scripts de chargement développés - Analyse des chargements en base de données - Vérification du bon chargement des sources en base de données conformément au MCD défini suivant une procédure de tests formalisée, Compétences et expertises requises - Connaissance approfondie du logiciel SAS - Capacité de développer des programmes SHELL d'ordonnancement de traitements SAS de chargement de base de données Teradata - L'environnement est très technique il faut une bonne capacité d'adaptation sur des technologies diverses (GIT, awk, SQL, DDL Teradata, Ansible, Agile SCRUM) Livrables - Mise en place des scripts de chargement des données en base et documentation des scripts - Automatisation des scripts de chargement des données en base et documentation des scripts - Automatisation des scripts de chargement développés (traitements batch)
CDI
Freelance

Offre d'emploi
Consultant Power BI / Azure Data Factory (H/F)

Webnet
Publiée le
Azure
Azure Data Factory
BI

12 mois
48k-55k €
480-550 €
Paris, France
Dans le cadre du renforcement d’une équipe Data, nous recherchons un Consultant Power BI / Azure Data Factory pour intervenir sur des projets décisionnels dans un environnement Microsoft Azure . Vous aurez pour missions : Au sein de l’équipe Data et en collaboration avec le chef de projet, vous interviendrez sur les activités suivantes : Développer et faire évoluer des rapports et tableaux de bord Power BI Concevoir et maintenir des pipelines de données avec Azure Data Factory Développer et optimiser des scripts SQL, vues et procédures stockées Participer à la modélisation des données Proposer des optimisations de performance et d’architecture Data Rédiger la documentation technique et les spécifications Gérer le versionning du code via Git / TFS Participer aux processus de déploiement CI/CD Préparer les livrables pour les mises en production
Freelance
CDI

Offre d'emploi
Data Engineer Kubernetes

KLETA
Publiée le
Helm
Kubernetes

3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Data Engineer Kubernetes pour concevoir, optimiser et industrialiser des plateformes de traitement de données déployées sur des environnements conteneurisés. Vous analyserez des architectures existantes, proposerez des trajectoires d’évolution (modernisation des pipelines, containerisation des traitements, optimisation de l’orchestration et de la scalabilité) et guiderez leur mise en œuvre avec Kubernetes et les outils associés (Helm, ArgoCD, Operators, Kubernetes Jobs). Vous serez responsable de la conception et de la fiabilisation des pipelines data exécutés sur Kubernetes, de l’amélioration des performances et de l’intégration de mécanismes de résilience, d’observabilité et de gestion des ressources. Vous travaillerez main dans la main avec les équipes Cloud et DevOps pour intégrer les traitements dans des pipelines CI/CD robustes et adaptés aux contraintes d’exploitation. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes client sur les meilleures pratiques de data engineering en environnement Kubernetes. Votre mission combinera expertise technique, rigueur méthodologique et capacité à structurer des solutions scalables et pérennes.
Offre premium
Freelance

Mission freelance
Data Analyst - Expert Excel VBA

Keros group
Publiée le
Microsoft Access
Microsoft Excel
VBA

12 mois
300-450 €
Paris, France
Secteur : immobilier Dans le cadre d’un programme stratégique d’intégration de sociétés récemment acquises, nous recrutons un(e) Analyste Préparation de Données & Migration . Intégré(e) à la direction en charge des projets d’intégration, vous jouez un rôle clé dans : L’analyse et la compréhension des données sources Leur normalisation et préparation Leur migration vers les systèmes internes cibles Vous intervenez en interaction étroite avec les équipes IT, comptables, chefs de projets et équipes locales. Rattachement hiérarchique Poste rattaché à la Direction des Projets d’Intégration. Vos missions 1️⃣ Analyse, structuration et préparation des données Analyse des exports issus des outils métiers des sociétés intégrées Identification des spécificités et cas particuliers propres à chaque environnement Nettoyage, normalisation et organisation des données selon les standards internes Vérification de la complétude et de la cohérence des jeux de données 2️⃣ Réalisation des opérations de migration Préparation des jeux de données destinés aux imports Constitution des fichiers structurés par lots fonctionnels Réalisation des transcodages et enrichissements nécessaires Génération des fichiers destinés aux outils/kits de migration Tenue d’un journal des corrections et ajustements Contrôles post-migration : Rapprochements volumétriques (lots, contrats, interventions…) Rapprochements comptables (budgets, quittancement…) Contrôle de cohérence des références métiers Établissement d’une check-list finale et recensement des écarts 3️⃣ Contrôle qualité & sécurisation des données Mise à jour des tableaux de bord de contrôle Suivi des indicateurs qualité (taux de complétude, erreurs, écarts avant/après mapping) Identification, correction et documentation des anomalies Tenue d’un registre des écarts et actions correctives 4️⃣ Collaboration transverse Coordination avec les équipes IT, comptabilité et chefs de projets Interaction avec les agences locales pour clarifier et collecter les données Accompagnement et vulgarisation des besoins data 5️⃣ Standardisation & amélioration continue Documentation des règles, processus et modèles utilisés Optimisation continue des méthodes de transformation Proposition d’améliorations pour réduire les délais et fiabiliser les traitements Participation aux retours d’expérience post-migration Mise à jour des guides et templates opérationnels 6️⃣ Partage & montée en compétence Transmission des bonnes pratiques Contribution à la montée en compétence des équipes Modalités Déplacements ponctuels en agence possibles (audit et migration)

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

213 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Paris, France
0 Km 200 Km

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous