Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 2 954 résultats.
Freelance

Mission freelance
Data Scientist IA

Tritux France
Publiée le
DevOps
GenAI
Google Cloud Platform (GCP)

1 an
120-490 €
Paris, France
Socle technique – Data Science & IA Maîtrise de Python et SQL/BigQuery ; packaging, gestion des dépendances, clean code Maîtrise des algorithmes de ML : classification, régression, clustering, deep learning Connaissance des frameworks ML : Scikit-learn, TensorFlow/Keras, PyTorch Compétences avancées en GenAI : LLM, RAG, fine-tuning, prompt engineering, évaluation et déploiement de modèles génératifs Connaissance des concepts clés : Generative AI, agents, assistants, hallucinations, biais, limites des modèles Expertise en agents intelligents : conception de workflows multi-agents, frameworks (ADK, Gemini Enterprise…) Maîtrise des méthodes d'évaluation des agents et pipelines RAG (RAGAS, Langfuse, LLM as a judge) Développement back-end & intégration Conception et développement d'API REST/JSON, architecture orientée objet Développement d'applications GenAI : intégration agents/RAG, gestion de prompts et templates, itération Tests automatisés, revue de code, observabilité (logs, métriques, traces), gestion des erreurs Industrialisation & DevOps Maîtrise des pratiques DevOps/MLOps : CI/CD, Docker, Kubernetes, Git Mise en place et maintenance de pipelines (tests, qualité, déploiement) et gestion des environnements (dev/recette/prod) Architectures Cloud (GCP, AWS, Azure) et outils MLOps associés Monitoring et optimisation des performances de solutions IA en production Collaboration & méthodes Capacité à cadrer un besoin, proposer une solution technique et estimer une charge Travail en mode Agile, interaction avec les parties prenantes produit Anglais courant (lecture de documentation, échanges techniques)
Freelance

Mission freelance
Consultant Data Analyst Marketing – Dataiku & Analytics

Deodis
Publiée le
Dataiku

1 an
600 €
Île-de-France, France
Ce poste consiste à piloter et analyser la performance marketing à l’échelle internationale en s’appuyant sur la donnée. Il implique d’accompagner les équipes marketing dans l’identification de leurs besoins, de concevoir et automatiser des solutions de reporting et d’analyse (tableaux de bord, extractions, KPIs), et de formuler des recommandations stratégiques basées sur les données. Le rôle inclut également la gestion et la structuration des données (data lineage, dictionnaire), le développement de flux data robustes et maintenables (notamment via Dataiku, SQL et Python), ainsi que la mise en place de modèles analytiques simples. En interaction constante avec des équipes métiers et IT dans plusieurs pays, il requiert une forte capacité de coordination transverse, un souci de la qualité des données et une communication efficace en environnement international.
Freelance

Mission freelance
Tech Lead Power App

CAT-AMANIA
Publiée le
Power Apps

12 mois
400-590 €
Charleville-Mézières, Grand Est
Dans le cadre du renforcement de notre équipe digitale, nous recherchons un Tech Lead Power Apps / Dataverse pour concevoir, structurer et faire évoluer des applications métier à forte valeur ajoutée au sein de l’écosystème Microsoft Power Platform . Le poste s’inscrit dans une vision long terme autour de l’IA Microsoft , avec l’intégration progressive de Copilot et des usages d’IA générative au cœur des processus métiers. 🧠 Tes missions : Concevoir l’architecture des solutions Power Apps (Canvas & Model-Driven) Définir et optimiser les modèles de données sous Dataverse Encadrer techniquement une équipe de développeurs Power Platform Garantir les bonnes pratiques (sécurité, performance, maintenabilité, gouvernance) Participer aux choix d’architecture et aux arbitrages techniques Concevoir et automatiser des workflows via Power Automate Être force de proposition sur l’usage de Copilot et de l’IA générative dans les applications métiers Accompagner les métiers dans l’adoption des solutions digitales augmentées par l’IA 🤖 IA & vision Microsoft (un vrai plus) Sans être obligatoire, une sensibilité forte à la vision IA de Microsoft est recherchée : Intérêt pour Copilot (Power Platform, Microsoft 365, Dataverse) Compréhension des enjeux d’ IA générative dans les applications métiers Capacité à identifier des cas d’usage concrets : aide à la saisie intelligente analyse de données automatisation avancée assistants métiers Vision responsable de l’IA (sécurité, gouvernance, sobriété des usages) 🔧 Stack & environnement Power Apps (Canvas, Model-Driven) Dataverse Power Automate Copilot / AI Builder / services IA Microsoft Intégrations via API / Connecteurs / Azure AD Environnement Microsoft 365 & Azure
Freelance
CDI

Offre d'emploi
Expert Power BI - Support Niveau 3

VISIAN
Publiée le
Microsoft Power BI

1 an
Paris, France
Missions Définition de l’architecture technique du ou des systèmes d’information : conception et préconisation des solutions techniques, veille technologique. Mise en œuvre des solutions et gestion des incidents et intervention dans le cadre de projets en support sur les problématiques applicatives. Participation aux études de conformité et contrôle l'implémentation de la politique groupe. Analyse des impacts techniques des nouvelles solutions et leur cohérence avec l'architecture existante. Définition et gestion des référentiels du système informatique (outils, procédures, normes, vocabulaire, sécurité…) et des standards techniques. L'évolution des offres de service Power BI Services et Power BI Report Server : Analyse et conception de l’architecture (impliquant tous les aspects : sécurité, authentification, confidentialité des données, scalabilité, industrialisation OPS, cloud Azure) Intégration, installation, configuration de la solution au système d’information d’un grand groupe bancaire Industrialisation et automatisation des déploiements DEVOPS Expertise sur le déploiement de la solution en online, onprem et hybrid (via gateway)
Freelance

Mission freelance
Data Product Manager (Business Analyst / Solution Architect)

Comet
Publiée le
Business Analysis
Business Intelligence

12 mois
400-660 €
Île-de-France, France
Contexte de la mission En tant que membre de l'équipe, vous dirigerez un programme comprenant plusieurs études visant à améliorer et à apporter davantage de valeur au programme d'analyse du département Cybersécurité du Groupe. Ce programme soutient l'objectif du Groupe consistant à renforcer la conformité aux normes de cybersécurité et à accélérer la correction des vulnérabilités. Dans un deuxième temps, vous piloterez la mise en œuvre des solutions recommandées dans les conclusions des études. Profil : Senior / Expert Compétences requises : Excellentes compétences en communication avec les dirigeants de niveau C en anglais et en français (écrit et oral) Planification stratégique (séquençage d’une série d’études et de mises en œuvre impliquant plusieurs contributeurs) Analyse des processus métier et informatiques Expérience dans le domaine des données, de l’analyse et de la BI, avec une connaissance des plateformes, des outils et des méthodes appliquées (par exemple, Agile, revue de code, CI/CD) Maîtrise des principes de gouvernance des données, de gestion des données de référence et d’architecture des données Orientation client (réalisation d’entretiens avec les clients, réactivité et concision) Objectifs et livrables Organiser l'étude en incluant tous les participants identifiés et recueillir les exigences de toutes les parties prenantes Comprendre l'ambition, les enjeux et les objectifs de l'entreprise Organiser et animer des ateliers avec les équipes métier Recueillir toutes les contributions métier nécessaires à l'étude Documenter l'architecture fonctionnelle et les recommandations Planifier les différentes phases de travail en s'appuyant sur la proposition du département Data & Analytics et les meilleures pratiques Coordonner les contributeurs Data-as-a-Service (architecte technique, ingénieurs Data & BI) Documenter la valeur de la solution Préparer le budget et le planning de développement et d'exploitation Formaliser les propositions finales de « lancement du projet » Compétences demandées English - Confirmé Business Intelligence - Expert Strategic Planning - Avancé Masterdata Management - Confirmé Communication Professionnelle - Expert Data Architecture - Confirmé Data Governance - Avancé Business Analysis - Expert
Freelance

Mission freelance
Data Product Manager (Business Analyst / Solution Architect)

emagine Consulting SARL
Publiée le
Business Intelligence
Master Data Management (MDM)

3 ans
Île-de-France, France
Objectifs et livrables Organiser les études en impliquant l’ensemble des parties prenantes identifiées et recueillir les besoins Comprendre les enjeux, objectifs et ambitions métiers Animer et conduire des ateliers avec les équipes métiers Collecter l’ensemble des inputs nécessaires aux études Documenter l’architecture fonctionnelle et formuler des recommandations Planifier les lots de travaux en s’appuyant sur les standards de la direction Data & Analytics Coordonner les contributeurs Data-as-a-Service (architectes techniques, data engineers, BI engineers) Documenter la valeur métier et la valeur apportée par la solution Préparer les budgets et le planning build/run Formaliser les propositions finales de type « Go to project »
Freelance
CDI

Offre d'emploi
Data & Platform Engineer – Microsoft Fabric

AEROW
Publiée le
Apache Spark
Azure
Azure Data Factory

1 an
40k-64k €
400-600 €
Gosselies, Hainaut, Belgique
2 JOURS NON NEGOCIABLES SUR SITE CLIENT A GOSSELIES (BEL) Dans le cadre du renforcement de sa Factory Data , CLIENT recherche un Data & Platform Engineer pour intervenir sur la gestion, l’évolution et l’industrialisation de sa plateforme data basée sur Microsoft Fabric . Le consultant rejoindra l’équipe Plateforme Data et interviendra à la fois sur les aspects Data Engineering (80%) et Platform Engineering Fabric (20%) . 🛠️ Data Engineer – 80% Développement des flux d’ingestion via Fabric Data Factory (et connaissance Azure Data Factory ) Développement des flux de transformation via Fabric Notebooks (Spark / PySpark) Optimisation des requêtes et des transformations (performance & coûts Azure) Modélisation du Lakehouse Conception et implémentation de l’ architecture médaillon (Silver / Gold) Rédaction du design technique Définition et exécution des tests unitaires (automatisables) Estimation des charges lors du cadrage des demandes Rédaction de la documentation technique Contribution aux guidelines et à l’amélioration continue Support, maintenance et gestion d’incidents en production ⚙️ Platform Engineer – 20% Administration et évolution de la plateforme Microsoft Fabric (workspaces, capacités, paramètres tenant, intégrations Azure) Suivi actif de la roadmap Microsoft Fabric (preview / GA) Gestion et optimisation des capacités Fabric (performance, priorisation, dimensionnement, coûts) Mise en place et évolution de l’ Infrastructure as Code (IaC) Monitoring et optimisation des coûts d’infrastructure Collaboration avec les équipes Infrastructure, Sécurité, IAM, FinOps Support plateforme, analyse d’incidents et fiabilisation du service
Freelance
CDI

Offre d'emploi
📩 Data Governance Specialist – Data Catalog & Integration

Gentis Recruitment SAS
Publiée le
Apache Airflow
Collibra
Data governance

6 mois
Paris, France
Contexte de la mission Dans le cadre du renforcement de son Center of Expertise Data Governance , notre client recherche un Data Governance Specialist pour intégrer l’équipe “Expertise”. Cette équipe joue un rôle transverse clé et intervient sur : la structuration des standards de gouvernance data l’industrialisation des pratiques la résolution des problématiques rencontrées par les équipes métiers et data (Digital Units) La mission s’inscrit dans un environnement data platform avancé , avec des enjeux forts autour de : Data Catalog Data Quality AI Governance Data Contracts Objectifs de la mission 1. Data Catalog (Collibra) – Configuration & amélioration produit Concevoir et implémenter des solutions dans Collibra Configurer l’outil (workflows, administration, évolutions spécifiques) Recueillir et prioriser les besoins utilisateurs Valider et implémenter les spécifications fonctionnelles 2. Intégration dans l’écosystème data Participer à l’intégration du Data Catalog avec la Data Platform Concevoir les flux d’échange de métadonnées Développer et maintenir les connecteurs (API, crawling, etc.) Collaborer avec les équipes architecture Gérer l’interaction avec le support éditeur 3. Gouvernance & transformation Contribution au programme Data Contracts Participation aux sujets stratégiques : AI Governance Framework Trust AI Data Quality by Design Environnement technique Data Catalog : Collibra Data Platform : Databricks Transformation : dbt Orchestration : Apache Airflow Intégration : APIs, connecteurs, metadata exchange Data Quality : Metrics Store / framework interne Compétences attendues Must have Data Governance (confirmé) Data Catalog (idéalement Collibra) Intégration data / metadata / APIs Databricks (avancé) dbt (avancé) Apache Airflow (avancé) Nice to have Expérience sur des programmes de Data Contracts Connaissance des enjeux AI Governance Expérience en environnement data platform à grande échelle Soft skills Capacité à travailler en transverse Bon relationnel avec équipes métiers et techniques Approche structurée / orientée solution Capacité à gérer des sujets complexes
CDI

Offre d'emploi
Data Engineer Adtech Big Query

ECONOCOM INFOGERANCE ET SYSTEME
Publiée le

45k-50k €
Rennes, Bretagne
Contexte de la mission : Le client a pour mission d'accompagner les agences médias nationales et locales, les annonceurs grands comptes et les acteurs publics au travers de plans média 360° (TV Segmentée, Streaming, display, programmatique, social...) permettant de communiquer de manière ciblée auprès des intentionnistes BtoC et BtoB au travers de différents formats publicitaires. La mission sera encadrée par le responsable datas & adtech, le product manager, et les parties prenantes (accounts managers et commerciaux). Objectifs et livrables : Finalités du poste : • Construire et maintenir les flux de données nécessaires à la Customer Data Platform (CDP). • Mettre la donnée à disposition des Account Managers pour répondre plus vite et mieux aux briefs. • Automatiser les traitements datas (datas propriétaires, datas des plateformes publicitaires) et mettre en place les outils internes en utilisant les capacités de l'IA (nouvelles activités au sein de l'entité). • Intégrer dans notre stack technique les outils publicitaires du marché pour la collecte, le ciblage et l'activation de données et la mise en place de campagnes publicitaires sur différent canaux. Missions principales : • Organiser, structurer, exploiter la donnée dans la CDP. • Maitriser les scripts d'ingestion (Python, SQL BigQuery) et en assurer le bon fonctionnement quotidien. • Intégrer toutes les données internes utiles à l'entreprise en collaborant avec les autres équipes (Développeurs, Data, Produit, IT et Juridique). • Construire les dashboards de l'entité pour piloter la pertinence de notre donnée, comprendre et améliorer la monétisation de nos médias, et le pilotage de l'entité (clients, briefs, campagnes, performances). • Développer les outils internes pour accélérer les opérations (réponse aux briefs, automatisation de mise en place de campagnes) en collaboration étroite en avec les Account Managers. • Intégrer les adtechs (alternatives IDs, dsp Equativ & The Trade Desk, pixels et audiences tracking, autres solutions du marché - metabase, mindmetrics) Technologies : • Développements web et back pour les outils internes • Pilotage activité et pilotage interne (BigQuery, Metabase) • Intégration de solutions marchés(DSP GAM, Equativ, TheTradeDesk, First-ID,...) Référence de l'offre : 1ocsrdgcap
Freelance

Mission freelance
Lead / Data Engineer senior

Comet
Publiée le
Apigee
Google Cloud Platform (GCP)
Python

5 mois
210-630 €
Île-de-France, France
Bonjour à tous, notamment aux Data Engineers Seniors ⚙️ spécialisés sur GCP / BigQuery 🔎 Je cherche un Data Engineer Senior avec une forte dimension expertise technique et expérience en rôle de lead, pour rejoindre une data platform stratégique en pleine montée en puissance. L’objectif de la plateforme est de centraliser, transformer et exposer la donnée à grande échelle afin de supporter des cas d’usage analytics, BI et IA dans un environnement data moderne. La plateforme est déjà en place et entre dans une phase clé d’optimisation, de scalabilité et d’enrichissement des usages (notamment autour de l’IA). 💻 Ce que tu vas faire : - Concevoir et faire évoluer des pipelines data robustes, scalables et sécurisés - Développer des traitements avancés sur BigQuery (CTE, window functions, optimisation performance & coûts) - Optimiser les requêtes à grande échelle via analyse des plans d’exécution - Concevoir des modèles de données (star / snowflake) pour des usages BI (PowerBI, Looker) - Intégrer des sources de données multiples (API, cloud, bases, fichiers…) - Industrialiser les workflows via CI/CD et Infrastructure as Code (Terraform, Cloud Build) - Contribuer à l’intégration de cas d’usage IA dans les pipelines data - Participer aux choix d’architecture et structurer les bonnes pratiques data 🎯 Stack & environnement : BigQuery / SQL / Python / GCP / Cloud Build / Cloud Workflows / Apigee / Terraform / GitHub / PowerBI / Looker ➕ Bonus : expérience sur des environnements media / digital data (Google Analytics, Salesforce, CRM, social media) 📍 IDF : 2 jours de TT 🏡 📅 Démarrage : ASAP Qu'en penses-tu ? Une belle journée,
CDD
CDI

Offre d'emploi
Business Analyst - AMOA - Aix-en-Provence

OCTOGONE
Publiée le
Agile Scrum
Confluence
JIRA

6 mois
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Contexte Intervention sur un programme stratégique, cœur métier critique, fortement intégré, avec des enjeux élevés de description fonctionnelle, de tenue de délai et de coordination multi-acteurs (métiers / IT). La mission est dédiée à la description du fonctionnement des simulations nucléaires via une modélisation CAO. Description - Recueil et analyse des besoins métiers - Animation d’ateliers - Rédaction des spécifications fonctionnelles - Suivi des développements - Contribuer à la fiabilité des livraisons (qualité, tests, conformité fonctionnelle, ..) Livrables CR Ateliers, Spécifications fonctionnelles, Stratégie de tests, Fichiers de tests ...
Freelance
CDI

Offre d'emploi
Architecte technique Sécurité AWS - Data (H/F)

AVA2I
Publiée le
Amazon S3
AWS Cloud
Data Lake

4 ans
Île-de-France, France
Dans le cadre de la mise en place et de la sécurisation d’une plateforme Data Cloud, vous intervenez sur des architectures basées sur AWS intégrant des composants Data Lake, Data Warehouse et des services de stockage type S3. L’objectif est de garantir la sécurité des accès, la protection des données et la conformité dans un environnement à forts enjeux. 🛠️ Environnement technique Cloud : AWS Stockage : Amazon S3 Data : Data Lake / Data Warehouse Sécurité : IAM (Identity & Access Management) Outils : CI/CD, Infrastructure as Code (Terraform/CloudFormation – souhaité 🚀 Missions 🔐 Sécurité Cloud Définir et appliquer les politiques de sécurité AWS Gérer les accès via IAM (rôles, policies, permissions) Mettre en œuvre les principes de least privilege ☁️ Architecture Participer à la conception d’architectures sécurisées Sécuriser les flux et le stockage de données (S3, Data Lake) Contribuer à la robustesse des plateformes Data 📊 Gouvernance Assurer la conformité (RGPD, normes internes) Mettre en place des contrôles et audits de sécurité Participer à la gouvernance des accès et des données ⚙️ Amélioration continue Automatiser les contrôles de sécurité Mettre en place du monitoring et des alertes Promouvoir les bonnes pratiques sécurité auprès des équipes
CDI
Freelance

Offre d'emploi
Ingénieur Data Expert Python & Kafka

Deodis
Publiée le
Apache Kafka
Python

1 an
40k-51k €
400-500 €
Île-de-France, France
Nous recherchons un(e) Ingénieur Data Senior expert Python pour concevoir, développer et maintenir une plateforme de données robuste et performante dans un environnement entièrement on-premise. Vous interviendrez sur la mise en place de pipelines batch et temps réel à grande échelle en vous appuyant sur des technologies telles qu’Apache Kafka, Flink, Airflow et la stack ELK. Vous serez responsable de la fiabilité, de la qualité et de la résilience des traitements de données, tout en collaborant étroitement avec les équipes Data et DevOps sur les sujets d’architecture, d’industrialisation et d’exploitation des infrastructures. Le poste requiert une forte expertise en développement Python en production, ainsi qu’une solide maîtrise des environnements distribués, du streaming et des problématiques de performance et d’observabilité.
Freelance

Mission freelance
Business Analyst Senior / UX Designer (H/F)

CELAD
Publiée le
Agile Scrum
Business Analyst
CSS

12 mois
500-550 €
Paris, France
🚀 Envie d’un nouveau challenge... CELAD vous attend ! Nous poursuivons notre développement et recherchons actuellement un.e Business Analyst Senior / UX Designer (H/F) pour intervenir chez un de nos clients dans le secteur bancaire. 💻💼 🎯 Voici un aperçu détaillé de vos missions Dans le cadre d’un projet stratégique de Portail Risque de Crédit , vous intervenez au sein du domaine Surveillance & Défaut afin de concevoir des parcours utilisateurs et interfaces centrés sur les besoins métiers. À ce titre, vos missions principales seront : Comprendre les usages existants et analyser les besoins métiers Animer des ateliers de co-conception avec les parties prenantes (Risques, métiers, IT) Concevoir les parcours utilisateurs (user journeys) et les écrans du portail Produire des maquettes et prototypes (Figma ou équivalent) Structurer et rendre lisible une information métier complexe et riche en données (tableaux, filtres, workflows) Itérer les conceptions à partir des retours utilisateurs Collaborer étroitement avec les Product Owner, développeurs et équipes projet Contribuer à l’intégration des écrans dans le cycle de delivery Agile Participer à la priorisation des besoins et au respect de la roadmap
Offre premium
Freelance
CDI

Offre d'emploi
Business Analyst GED/Editique

Calytis
Publiée le
Agile Scrum
bdoc

2 ans
50k-60k €
500-550 €
Niort, Nouvelle-Aquitaine
Nous recherchons un Business Analyst Editique pour remplacer un de nos collaborateurs (PLD) · Pilotage opérationnel d’une équipe de 4 développeurs sur un portefeuille de projets allant de 1 à 200 j/h, avec priorisation stratégique des sujets Mise en place et structuration du mode produit, favorisant la visibilité, la priorisation par la valeur et l’amélioration continue Animation des rituels agiles Instauration de REX pour renforcer la performance collective · Coordination transverse entre métiers, IT et parties prenantes pour fluidifier la prise de décision · Gestion et pilotage de plus de 80 sujets par an, avec amélioration de la visibilité et du suivi d’activité Conception et déploiement d’un outil de publipostage autonome, supprimant le besoin de développement technique pour les métiers Structuration et automatisation de JIRA, améliorant le pilotage, la traçabilité et la productivité de l’équipe Référent fonctionnel et Éditique (travaux de fin d’année / renouvellement), garantissant la fiabilité et la continuité des processus critiques Analyse et résolution d’incidents complexes, sécurisant les engagements et limitant les impacts métiers Contribution active à la cohésion et à la performance d’équipe (communication, séminaires, dynamique collective)
CDI

Offre d'emploi
Consultant AMOA Data / Recette fonctionnelle H/F

Mon Consultant Indépendant
Publiée le
AMOA
API
JSON

50k-60k €
Paris, France
Je recherche un(e) consultant(e) pour intervenir chez l'un des clients, acteur majeur du secteur assurance / protection sociale, engagé dans un programme de transformation Data structurant. Vous intervenez directement chez le client, intégré(e) à l'équipe projet de la direction métier concernée. Vous êtes le relais opérationnel entre les équipes métier, les équipes Data et la DSI sur l'ensemble des chantiers Data qui vous sont confiés. Ce que fait le client : Le client déploie une feuille de route Data ambitieuse : structuration des référentiels, fiabilisation des flux, consolidation d'une plateforme de données, montée en qualité de la donnée. Plusieurs dizaines de projets sont en cours simultanément, à différents stades d'avancement. La direction métier qui porte ces projets a besoin de renfort pour tenir la cadence sur le cadrage des besoins, la formalisation des spécifications, la documentation des flux et surtout la recette fonctionnelle. Ce que vous faites concrètement : Vous prenez en charge, en binôme avec l'équipe projet interne, plusieurs chantiers Data de bout en bout côté MOA. En phase de cadrage : vous animez les ateliers avec les métiers et la DSI, vous formalisez les expressions de besoin, vous documentez les flux de données (sources, transformations, règles de gestion, contrôles qualité, destinations), vous produisez les dossiers de cadrage et les cahiers des charges. En phase de recette — et c'est le cœur du poste — : vous concevez les plans de test, définissez les cas de test et les jeux de données, exécutez les campagnes UAT, qualifiez les anomalies, en assurez le suivi jusqu'à résolution, validez la conformité des livrables, produisez les PV de recette. En transverse : vous participez aux instances de pilotage, produisez le reporting d'avancement, identifiez les risques, facilitez la circulation de l'information entre métier, Data et IT. Ce qu'on attend de vous : Sur le plan technique : Vous savez manipuler et analyser des données. SQL est un outil quotidien pour vous, pas un mot-clé sur un CV. Vous comprenez les architectures de données, les flux d'échange (ETL, APIs, XML, JSON), les modèles de données et les schémas de flux. Vous savez les lire, les questionner, les documenter. Vous maîtrisez les concepts de qualité de données : contrôles, fiabilisation, réconciliation, cohérence entre référentiels. Sur le plan fonctionnel : Vous avez une expérience solide en rédaction de spécifications fonctionnelles et techniques. Vous avez déjà piloté et exécuté des recettes fonctionnelles complexes sur des projets Data. Pas survolé le sujet : réellement conçu les plans de test, joué les cas, qualifié les anomalies, tenu le suivi jusqu'au bout. Vous savez naviguer entre des interlocuteurs métier qui raisonnent en règles de gestion et des interlocuteurs techniques qui raisonnent en modèles et en flux. Vous faites le lien sans déformer. Sur le plan comportemental : Vous êtes rigoureux dans la production documentaire. La mission génère beaucoup de livrables : expressions de besoin, comptes-rendus, cahiers de recette, PV, reporting. Chacun doit être exploitable. Vous êtes autonome. Vous n'attendez pas qu'on vous dise quoi faire sur chaque sujet. Vous comprenez le contexte, vous avancez, vous alertez quand c'est nécessaire. Vous communiquez clairement, aussi bien en atelier qu'en comité de pilotage. Ce qui fait la différence : Une connaissance du secteur assurance, protection sociale ou d'un environnement réglementé comparable. Une expérience sur des projets de type DataPlatform ou impliquant des volumes importants de flux et de référentiels. Une familiarité avec des dispositifs comme la DSN, la MSA, le SNGI ou l'AGIRA. Cadre de la mission : Démarrage : mai 2026 Durée : jusqu'à fin décembre 2026 Charge : temps plein Localisation : Paris intra-muros, avec possibilité de distanciel partiel selon organisation convenue avec le client
2954 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous