Trouvez votre prochaine offre d’emploi ou de mission freelance Big Data

Ce qu’il faut savoir sur Big Data

Big Data désigne l’ensemble des données massives et complexes générées à grande vitesse par des sources variées, comme les réseaux sociaux, les capteurs IoT, les transactions en ligne, ou encore les applications mobiles. Ces données, souvent volumineuses, hétérogènes et en croissance continue, dépassent les capacités des outils traditionnels de gestion et d’analyse. Le Big Data repose sur les 3V : Volume (quantité de données), Vélocité (vitesse de génération et de traitement), et Variété (diversité des formats, structurés ou non). Il est souvent associé à un quatrième V : Véracité (fiabilité des données). Les technologies de Big Data, comme Hadoop, Spark, ou NoSQL, permettent de stocker, traiter et analyser ces données pour extraire des insights précieux. Ces analyses sont utilisées dans des domaines variés, comme le marketing personnalisé, la finance, la santé, ou encore l’optimisation industrielle. Le Big Data joue un rôle clé dans l’innovation, la prise de décision et la transformation numérique des entreprises.

Votre recherche renvoie 1 700 résultats.
CDI

Offre d'emploi
Data Engineer (F/H)

CELAD
Publiée le

Montpellier, Occitanie
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 3 jours de télétravail par semaine – Montpellier (34) – Expérience de 4/5 ans min Envie de rejoindre une équipe où la tech et les projets stimulants sont au rendez-vous ? Cette opportunité est faite pour vous ! Voici un aperçu détaillé de vos missions : Dans le cadre de l'industrialisation des migrations de données d'un ERP vers un autre, l'équipe Data renforce son pôle ETL / ELT. Le poste s'inscrit dans un environnement industriel, orienté delivery, avec des contraintes fortes de qualité, reproductibilité et traçabilité. Le Data Engineer interviendra au cœur de la plateforme de migration et travaillera en étroite collaboration avec : Le Tech Lead Data et un data engineer Les équipes produit Les équipes métier (migration / fonctionnel) Les équipes infra / DevOps 1. Modèles de données (dbt) Concevoir et maintenir des modèles dbt (RAW → REFINED → TRUSTED) Implémenter les règles métier de façon explicite et documentée Centraliser les règles communes (mapping, normalisation, référentiels) 2. Robustesse & fiabilité des pipelines Pipelines reproductibles, OS-agnostiques, déployables via CI/CD Tests dbt (schéma, unicité, volumétrie), contrôles de cohérence inter-modèles Alertes sur écarts ou régressions, optimisation des performances 3. Contributions applicatives Maintenir les endpoints API (FastAPI) et les interfaces (Vue.js 3 / Quasar) liés aux flux de migration et d'import Contribuer au système IA de suggestions en cascade (pattern matching, embeddings, LLM) Gérer les migrations de schéma (Alembic) et les connecteurs de données (ODBC / SQL Server) 4. Documentation & collaboration transverse Documenter modèles, règles de transformation, conventions de nommage Participer aux code reviews et aux ateliers de validation fonctionnelle post-migration Collaborer avec les équipes métier, produit et infra Transformation : dbt, SQL avancé, Python Bases de données : SQL Server, PostgreSQL (+ pgvector), Snowflake / équivalent Orchestration : Airflow (ou équivalent) Application : FastAPI, Vue.js + TypeScript + Quasar IA : scikit-learn, embeddings vectoriels, NLP, LLM Infra / CI/CD :Docker, AWS ECS , ECR, S3, Bitbucket & Azure Pipelines Data quality :Tests dbt, Pytest
Freelance

Mission freelance
Data Engineer (F/H)

CELAD
Publiée le

1 an
450-550 €
Montpellier, Occitanie
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 3 jours de télétravail par semaine – Montpellier (34) – Expérience de 4/5 ans min Envie de rejoindre une équipe où la tech et les projets stimulants sont au rendez-vous ? Cette opportunité est faite pour vous ! Voici un aperçu détaillé de vos missions : Dans le cadre de l'industrialisation des migrations de données d'un ERP vers un autre, l'équipe Data renforce son pôle ETL / ELT. Le poste s'inscrit dans un environnement industriel, orienté delivery, avec des contraintes fortes de qualité, reproductibilité et traçabilité. Le Data Engineer interviendra au cœur de la plateforme de migration et travaillera en étroite collaboration avec : Le Tech Lead Data et un data engineer Les équipes produit Les équipes métier (migration / fonctionnel) Les équipes infra / DevOps 1. Modèles de données (dbt) Concevoir et maintenir des modèles dbt (RAW → REFINED → TRUSTED) Implémenter les règles métier de façon explicite et documentée Centraliser les règles communes (mapping, normalisation, référentiels) 2. Robustesse & fiabilité des pipelines Pipelines reproductibles, OS-agnostiques, déployables via CI/CD Tests dbt (schéma, unicité, volumétrie), contrôles de cohérence inter-modèles Alertes sur écarts ou régressions, optimisation des performances 3. Contributions applicatives Maintenir les endpoints API (FastAPI) et les interfaces (Vue.js 3 / Quasar) liés aux flux de migration et d'import Contribuer au système IA de suggestions en cascade (pattern matching, embeddings, LLM) Gérer les migrations de schéma (Alembic) et les connecteurs de données (ODBC / SQL Server) 4. Documentation & collaboration transverse Documenter modèles, règles de transformation, conventions de nommage Participer aux code reviews et aux ateliers de validation fonctionnelle post-migration Collaborer avec les équipes métier, produit et infra Transformation : dbt, SQL avancé, Python Bases de données : SQL Server, PostgreSQL (+ pgvector), Snowflake / équivalent Orchestration : Airflow (ou équivalent) Application : FastAPI, Vue.js + TypeScript + Quasar IA : scikit-learn, embeddings vectoriels, NLP, LLM Infra / CI/CD :Docker, AWS ECS , ECR, S3, Bitbucket & Azure Pipelines Data quality :Tests dbt, Pytest
CDI

Offre d'emploi
Data Engineer (F/H)

CELAD
Publiée le

45k-55k €
Montpellier, Occitanie
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 3 jours de télétravail par semaine – Montpellier (34) – Expérience de 4/5 ans min Envie de rejoindre une équipe où la tech et les projets stimulants sont au rendez-vous ? Cette opportunité est faite pour vous ! Voici un aperçu détaillé de vos missions : Dans le cadre de l'industrialisation des migrations de données d'un ERP vers un autre, l'équipe Data renforce son pôle ETL / ELT. Le poste s'inscrit dans un environnement industriel, orienté delivery, avec des contraintes fortes de qualité, reproductibilité et traçabilité. Le Data Engineer interviendra au cœur de la plateforme de migration et travaillera en étroite collaboration avec : Le Tech Lead Data et un data engineer Les équipes produit Les équipes métier (migration / fonctionnel) Les équipes infra / DevOps 1. Modèles de données (dbt) Concevoir et maintenir des modèles dbt (RAW → REFINED → TRUSTED) Implémenter les règles métier de façon explicite et documentée Centraliser les règles communes (mapping, normalisation, référentiels) 2. Robustesse & fiabilité des pipelines Pipelines reproductibles, OS-agnostiques, déployables via CI/CD Tests dbt (schéma, unicité, volumétrie), contrôles de cohérence inter-modèles Alertes sur écarts ou régressions, optimisation des performances 3. Contributions applicatives Maintenir les endpoints API (FastAPI) et les interfaces (Vue.js 3 / Quasar) liés aux flux de migration et d'import Contribuer au système IA de suggestions en cascade (pattern matching, embeddings, LLM) Gérer les migrations de schéma (Alembic) et les connecteurs de données (ODBC / SQL Server) 4. Documentation & collaboration transverse Documenter modèles, règles de transformation, conventions de nommage Participer aux code reviews et aux ateliers de validation fonctionnelle post-migration Collaborer avec les équipes métier, produit et infra Transformation : dbt, SQL avancé, Python Bases de données : SQL Server, PostgreSQL (+ pgvector), Snowflake / équivalent Orchestration : Airflow (ou équivalent) Application : FastAPI, Vue.js + TypeScript + Quasar IA : scikit-learn, embeddings vectoriels, NLP, LLM Infra / CI/CD :Docker, AWS ECS , ECR, S3, Bitbucket & Azure Pipelines Data quality :Tests dbt, Pytest
Freelance

Mission freelance
Consultant SAP Datasphere

Nicholson SAS
Publiée le
Data visualisation
Gouvernance
Hortonworks Data Platform (HDP)

8 mois
680 €
Paris, France
Localisation : Paris / Remote Démarrage : ASAP Durée : Mission longue jusqu’au 31/12/2026 Contexte:Dans le cadre du développement d’une plateforme data basée sur SAP Datasphere , nous recherchons un consultant confirmé afin de contribuer à la conception, la modélisation et la gouvernance des données destinées aux équipes métiers (finance, supply chain, production, etc.). Vous interviendrez au sein d’une équipe data composée d’architectes, data engineers et experts SAP, sur des sujets d’intégration, de structuration et de valorisation des données. Missions: Analyse et cadrage Recueillir et analyser les besoins métiers. Identifier les indicateurs clés (KPI) et les besoins de reporting. Rédiger les spécifications fonctionnelles et techniques. Conception et modélisation Concevoir et structurer les modèles de données dans SAP Datasphere . Organiser les Spaces et structurer les modèles analytiques. Mettre en place des modèles dimensionnels (Star Schema / Snowflake). Intégration et transformation des données Configurer les connexions vers les différentes sources SAP et non-SAP. Mettre en place les Data Flows et Replication Flows . Réaliser les transformations, mappings et contrôles de qualité des données. Modèle sémantique et valorisation Définir les mesures, hiérarchies et relations entre les données. Structurer les datasets pour leur exploitation par les outils de reporting. Contribuer à la mise à disposition des données pour les équipes BI. Gouvernance et bonnes pratiques Participer à la gestion des métadonnées et à la documentation des modèles. Contribuer à la mise en place des bonnes pratiques de gouvernance et de qualité des données. Optimisation et amélioration continue Surveiller les performances des modèles et des flux de données. Optimiser les pipelines et la consommation des données. Participer aux évolutions fonctionnelles et techniques de la plateforme. Environnement technique: Data Platform SAP Datasphere SAP Business Technology Platform (BTP) Écosystème SAP SAP S/4HANA SAP BW / BW4HANA Data Engineering SQL (indispensable) ETL / ELT Modélisation dimensionnelle BI / Analytics SAP Analytics Cloud Power BI ou Tableau Profil recherché Expérience : 5 à 7 ans d’expérience sur des projets data / SAP. Compétences techniques Bonne maîtrise de SAP Datasphere . Solide connaissance de SQL et des concepts de transformation de données. Expérience en modélisation de données analytiques et dimensionnelles . Connaissance de l’écosystème SAP (S/4HANA, BW, BTP) . Expérience avec un outil de visualisation de données . Compétences fonctionnelles Capacité à traduire un besoin métier en modèle de données. Bonne compréhension des enjeux de qualité, structuration et gouvernance de la donnée . Soft skills Bon niveau de communication avec les équipes métiers et techniques. Esprit analytique et sens de la structuration. Autonomie et capacité à être force de proposition. Travail en équipe dans un environnement data.
Freelance

Mission freelance
Business Analyst Data (F/H)

CELAD
Publiée le

1 an
410-460 €
Nantes, Pays de la Loire
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ Freelance / Portage - 3 jours de télétravail / semaine - Nantes - Expérience de 4 ans minimum Nous poursuivons notre développement et recherchons actuellement un.e Business Analyst intervenir sur un projet d’un de nos clients, dans le secteur bancaire. Contexte : Dans le cadre d’un projet de migration, vous interviendrez sur des activités telles que la rédaction de spécifications, l’analyse des impacts liés à la migration du système ainsi que la participation aux processus de certifications dynamiques. Vos principales missions : En lien avec les équipes métier et techniques, vous serez le trait d’union qui transforme les idées en solutions concrètes. - Comprendre les besoins des utilisateurs : animation d’ateliers pour challenger et prioriser les besoins - Rédiger les fonctionnalités / spécifications et les règles de gestion - Anticiper les besoins en termes de migration : anticipation, préparation et déroulé optimal de recette - Former et accompagner : vous aidez les métiers à s’approprier les outils et les usages - Conseiller les managers métiers : vous les guidez dans l’évolution de leur organisation et de leurs process - Partager et convaincre : animation de comités, restitution des analyses, recommandations stratégiques Ce que vous apportez : - Vous comprenez le fonctionnement d’un ETL et êtes capable de lire et analyser un flux ou un programme idéalement sous Semarchy - Maîtrise du langage SQL (Requêtes complexes pour rentrer en base) - Vous êtes à l’aise dans les environnements agiles, avec une bonne maîtrise des rituels - Vous savez rédiger avec clarté, parler avec impact et surtout convaincre - Vous êtes capable de vous adapter à vos interlocuteurs
Freelance

Mission freelance
Chef de Projet DATA / IA – Innovation & Transformation

JobiStart
Publiée le
Data science
IA

1 an
400-550 €
Île-de-France, France
Cadrer le périmètre du POC (objectifs, hypothèses, livrables, KPIs) Analyser l’existant (architecture, flux DATA, outils, maturité IA) Réaliser un audit des systèmes et des processus concernés Collecter les besoins métiers auprès des différentes directions Organiser des ateliers avec les équipes DATA, IT et métiers Identifier les cas d’usage IA prioritaires et à forte valeur ajoutée Évaluer la faisabilité technique (algorithmes, modèles, data quality) Définir l’architecture cible pour l’intégration IA Mettre en place et piloter le développement du POC Tester et mesurer la performance des modèles (KPIs, ROI potentiel) Documenter les résultats et formaliser les retours d’expérience Élaborer des préconisations stratégiques et techniques Construire un dossier argumenté pour demande de financement Présenter les conclusions auprès des instances décisionnelles Piloter la mission en méthodologie Agile / Lean Préparer la feuille de route d’industrialisation en cas de validation
CDI

Offre d'emploi
Data Analyst - Assurances H/F

VIVERIS
Publiée le

45k-55k €
Crédit Agricole du Languedoc, Occitanie
Contexte de la mission : Viveris accompagne ses clients dans la conception, la maintenance et l'optimisation de leurs infrastructures informatiques. Dans ce cadre, nous recherchons un Data Analyst pour accompagner notre client dans les assurances, dans la transformation des données de télémétrie en indicateurs décisionnels à forte valeur ajoutée. Vous interviendrez en tant que référent analytique sur un périmètre centré sur les environnements Windows 11, avec pour objectif de mesurer, analyser et améliorer l'expérience utilisateur à grande échelle. Responsabilités : Concevoir des tableaux de bord adaptés aux différents niveaux de pilotage (direction, support, exploitation) ; Définir et structurer des KPIs orientés expérience utilisateur (DEX Score, performance, productivité) ; Mettre en place des indicateurs de suivi de la qualité de service et du ROI des actions menées ; Identifier les signaux faibles et anomalies impactant l'expérience utilisateur; Réaliser des analyses de causes racines en croisant données techniques et incidents ; Définir et configurer des mécanismes d'alerte proactifs ;Recueillir les besoins métiers et les traduire en indicateurs mesurables ; Accompagner les équipes support et exploitation dans l'usage des dashboards ; Contribuer à l'amélioration continue des pratiques d'observabilité.
Freelance

Mission freelance
Consultant SAP PP QM Data Migration

SAP-HIRE
Publiée le
SAP
SAP PP
SAP QM

9 mois
Paris, France
Nous recherchons un profil SAP PP QM sur la Data Migration pour renforcer un projet de migration vers SAP S/4. La mission consiste à Identifier et analyser des données à migrer (matériaux, nomenclatures, gammes, données qualité), mapper et définitir les règles de transformation, préparer et charger les données (LSMW / Migration Cockpit), contrôles qualité des données et gestion des incidents, participer aux phases de tests (SIT/UAT) et aux répétitions de migration (cutover). Vous aurez une expérience confirmée en migration de données SAP, une bonne compréhension des données PP & QM, serait autonome, rigoureux et orienté qualité des données. La mission doit se réaliser 3 jours sur site en IDF.
Freelance
CDI

Offre d'emploi
Data analyst: Systrack - Poste de travail

Deodis
Publiée le
Data analysis
Microsoft Windows

12 mois
58k-65k €
500-600 €
Montpellier, Occitanie
La Mission principale Référent analytique central du programme d’observabilité et de l’expérience digitale collaborateur. Votre rôle : transformer les flux de données de télémétrie des postes Windows 11 en informations claires, exploitables et orientées clients. Vous construisez une vision en temps réel de la qualité d’expérience vécue par les utilisateurs, et chaque analyse produite doit permettre d’identifier, de mesurer et d’améliorer concrètement leur confort et leur performance au quotidien. Activités et Responsabilités au Quotidien 1. Conception et Création des Tableaux de Bord Le Data Analyst est le maître d'œuvre des interfaces de pilotage. Il doit concevoir des vues adaptées pour chaque typologie d'acteur : Quelques exemples : Pour le Comité de Direction (CoDir) - Vue Stratégique : Création d'un Score de Santé Global (DEX Score) de l'entreprise. Mise en évidence de l'impact financier et de la perte de productivité liés aux lenteurs informatiques. Suivi du ROI des actions d'amélioration menées sur le parc. Pour le Support aux Utilisateurs - Vue Tactique & Temps Réel : Tableaux de bord d'aide à la résolution (réduction drastique du MTTR - Mean Time To Resolve ). Visualisation immédiate de l'état du poste appelant (temps de démarrage, crashs d'applications, qualité du signal Wi-Fi, latence réseau). Pour les Équipes d'Exploitation (Run) - Vue Proactive : Suivi des déploiements massifs (ex: comportement du parc suite à une mise à jour Windows 11). Monitoring des ressources matérielles (saturation CPU, RAM, IOPS Disque) pour détecter les anomalies de masse. Pour la Gestion de la Demande - Vue Prédictive : Analyse de l'usage réel des applications (Shadow IT, licences inutilisées). Identification précise des matériels nécessitant un renouvellement basé sur la performance réelle et non sur l'âge de la machine. 2. Analyse Proactive et Investigation Traque des signaux faibles : Identifier les dégradations silencieuses (une application métier qui commence à fuir en mémoire) avant même que les utilisateurs ne s'en plaignent. Analyse de causes racines (Root Cause Analysis) : Croiser les métriques de l'observabilité avec les tickets d'incidents de l'ITSM pour trouver les dénominateurs communs (ex: un modèle précis d'ordinateur sous Windows 11 qui plante systématiquement avec un outil spécifique). Modélisation d'alertes : Configurer des seuils d'alerte intelligents pour prévenir les équipes d'exploitation lors de crises naissantes. 3. Synergie et Interactions Clés Ce rôle est en interaction permanente avec les acteurs clés : Avec le Directeur de Programme & le Chef de Projet : Fournir les analyses, démontrer l'avancement par les chiffres, et valider les jalons du projet d'observabilité. Avec les Clients Internes (Métiers) : Animer des ateliers de recueil de besoins pour comprendre leurs besoins quotidiens et traduire leurs ressentis (ex: "mon PC rame") en KPIs techniques mesurables. Avec l'Exploitation & le Support : Coconstruire avec eux les outils qui vont transformer et simplifier leur quotidien. Les Livrables concrets attendus Pour assurer un impact maximal, le Data Analyst produira en continu les éléments suivants : 1. Le Dictionnaire des KPIs : Un document de référence cartographiant et définissant de manière exhaustive toutes les métriques de l'expérience utilisateur sous Windows 11 notamment. 2. La Suite de Dashboards "Core" : L'ensemble des tableaux de bord opérationnels et exécutifs, interconnectés avec la solution d'observabilité IT choisie par l'entreprise. 3. Les Rapports de "Santé IT" (Mensuels/Hebdomadaires) : Des synthèses automatisées mettant en lumière les victoires (ce qui s'est amélioré) et les axes d'effort (ce qui reste à corriger). 4. La Matrice d'Alerte : Le catalogue documenté des scénarios déclenchant des notifications proactives vers le support ou l'exploitation.
CDD

Offre d'emploi
Data Analyst / SQL – Paiements & Data Factory

TOHTEM IT
Publiée le

9 mois
45k-55k €
Paris, France
Contexte de la mission Au sein de la Data Factory , la squad Data Monétique est en charge de la valorisation et de l’exploitation des données de paiement et des données clients . Cette équipe a pour mission de : Alimenter les équipes métiers et les autres squads data en données fiables permettant la réalisation d’analyses avancées Produire et diffuser des reportings et tableaux de bord Power BI Alimenter des systèmes opérationnels ou interfaces clients en données de paiement Accompagner les équipes métiers dans l’exploitation et l’analyse des données Dans ce cadre, nous recherchons un Data Analyst / Expert SQL capable de contribuer aux activités de collecte, transformation, analyse et valorisation de la donnée . Missions principales Participer à la collecte, transformation et gestion des données en garantissant leur qualité, leur sécurité et leur intégrité Animer des ateliers et groupes de travail avec les sponsors, business analysts et membres de la squad (Data Engineer, Data Viz, BA) Rédiger les livrables fonctionnels et techniques : user stories, spécifications, cahiers de recette Réaliser les recettes et validations des traitements d’intégration et de transformation de données Développer et documenter les user stories et spécifications en collaboration avec le Product Owner Participer à la formation et à l’accompagnement des utilisateurs métiers Livrables attendus Mise en œuvre d’ outils, méthodes et techniques analytiques permettant l’exploitation efficace des données Contribution aux analyses complexes et explorations de données Développement d’ algorithmes ou requêtes permettant l’exploration et l’analyse des données Participation à l’ industrialisation des traitements de données Organisation, synthèse et restitution des informations afin de faciliter la prise de décision Contribution à la modélisation, à l’architecture et à l’administration des gisements de données Garantie du bon fonctionnement et de la cohérence des bases de données Analyse des données historiques afin d’apporter des réponses aux problématiques métiers Compétences techniques Data & Analyse SQL (maîtrise indispensable) Analyse et manipulation de données complexes Analytics / BI Statistiques de base Data Platforms Outils de requêtage Data Plateformes Big Data Environnements Cloud (Azure ou GCP appréciés) Data Visualization Power BI Méthodologie Méthodes Agile / Scrum Rédaction de User Stories et cahiers de recette ⭐ Compétences clés Obligatoires SQL Data Analyst / Data Analytics Fortement recommandées Connaissances métiers des moyens de paiement / monétique
Freelance

Mission freelance
Responsible AI Lead

ESENCA
Publiée le
Agent IA
Data quality
Large Language Model (LLM)

1 an
Lille, Hauts-de-France
Informations générales Département : Digital, Data & IA Localisation : Siège / Lille (présence obligatoire sur site) Supérieur hiérarchique : Head of IA Position dans l’organisation Le/la Responsible AI Lead pilote la gouvernance de l’intelligence artificielle et garantit la conformité, la sécurité, l’éthique et la maîtrise des risques des systèmes IA. Encadrement Management d’une équipe spécialisée pouvant inclure : Analyste Responsible AI & Traçabilité Responsable Contrôles & Tests IA (QA IA) AI Policy Manager Interactions internes Équipes Data (Data Hub, gouvernance, référentiels) Équipes IT / DSI Directions métiers Fonctions conformité (DPO, RSSI, juridique) Équipes Digital / Data / IA Interactions externes Partenaires technologiques et plateformes cloud Éditeurs de solutions IA (LLM, agents, etc.) Cabinets spécialisés (audit, conformité, IA) Mission Le/la Responsible AI Lead est garant(e) de la gouvernance globale des systèmes d’intelligence artificielle. Il/elle s’assure que les cas d’usage respectent les exigences réglementaires et internes (notamment en matière de conformité, d’éthique, de sécurité et de gestion des risques), tout au long de leur cycle de vie, du cadrage au run. Responsabilités principales 1. Gouvernance et conformité IA Définir et déployer la politique d’usage de l’IA Structurer le cadre de gouvernance (standards, processus, rôles) Classifier les cas d’usage selon leur niveau de risque Définir les exigences de documentation, traçabilité et versioning 2. Gestion des risques IA Conduire les analyses de risques par cas d’usage Classifier les systèmes selon leur criticité (faible, limité, élevé) Définir les contrôles adaptés (tests, supervision, documentation) Coordonner les validations avec les fonctions conformité (juridique, DPO, sécurité) 3. Contrôles et tests IA Définir les stratégies de tests non fonctionnels : robustesse biais sécurité hallucinations dérive des modèles Fixer les critères de validation (go / no-go) Superviser les campagnes de tests IA 4. Documentation et audit Piloter la documentation réglementaire des systèmes IA Maintenir un registre des cas d’usage IA Organiser les audits internes et externes Suivre les plans de remédiation 5. Supervision en production Définir les exigences de monitoring (logs, incidents, dérives) Suivre la performance et la fiabilité des systèmes IA Mettre en place des revues périodiques Piloter la gestion des incidents IA 6. Pilotage des coûts (FinOps IA) Définir les règles de consommation (quotas, garde-fous) Suivre les coûts et l’efficience des solutions IA Recommander des optimisations 7. Diffusion des bonnes pratiques Déployer la charte éthique IA Sensibiliser et former les équipes aux enjeux de l’IA responsable Accompagner les équipes projets dans l’application des standards Promouvoir une culture de l’IA responsable à l’échelle de l’organisation
Freelance

Mission freelance
Data Model Architect

Phaidon London- Glocomms
Publiée le
Architecture
Data governance
Data quality

6 mois
400-550 €
Arcueil, Île-de-France
Concevoir le modèle de données Salesforce (objets, champs, relations) pour l'ensemble des flux de travail du projet. Définir et appliquer les conventions de nommage et les normes de modélisation. Examiner et valider toutes les demandes de nouveaux objets ou champs personnalisés. Gérer l'évolution du modèle pour l'ensemble des flux de travail, en garantissant la rétrocompatibilité. Concevoir la stratégie de migration et de chargement des données pour les jeux de données existants. Garantir la pleine compatibilité du modèle de données avec Agentforce. Documenter et maintenir le dictionnaire de données du projet. Accompagner les équipes concernant la gestion des hiérarchies, les objets à volume élevé et les structures de comptes complexes.
Freelance

Mission freelance
Data analyst monetique

Deodis
Publiée le
MySQL

1 an
450-550 €
Île-de-France, France
Au sein d’une Datafactory dédiée aux moyens de paiement, le Business Analyst Data contribue à la collecte, à la transformation et à la gestion des données de paiement et des données clients afin d’en garantir la qualité, la sécurité et l’intégrité. Il participe à la mise à disposition de ces données pour les équipes métiers et les différentes équipes data, notamment à travers la production de reportings et de tableaux de bord (Power BI) ainsi que l’alimentation de systèmes opérationnels. En collaboration avec les data engineers, data visualization specialists et le Product Owner, il anime des ateliers avec les parties prenantes, rédige les spécifications fonctionnelles et techniques, développe les user stories, réalise les phases de recette des traitements de données et accompagne les utilisateurs dans l’exploitation des données. Il intervient dans un environnement agile et contribue à l’amélioration continue des produits et services data.
Freelance

Mission freelance
Proxy Product Owner Data – Corporate Finance Transformation

Freelance.com
Publiée le
Data management
ERP
P2P

1 an
540-600 €
Île-de-France, France
Dans le cadre d’un ambitieux programme de Finance Transformation au sein d’un grand groupe international, la Direction Data recherche un Proxy Product Owner Data pour piloter les initiatives Finance à forte composante data. Le périmètre couvre notamment les processus P2P (Procure-to-Pay) , O2C (Order-to-Cash) ainsi que les projets d’ automatisation des processus Finance dans un environnement structuré et exigeant. Description du poste Rattaché(e) au Data Office Groupe, vous intervenez en véritable interface stratégique entre les équipes Finance, IT et Data . À ce titre, vous : Identifiez et priorisez les initiatives Finance à fort impact data Traduisez les besoins métiers en exigences fonctionnelles et techniques Garantissez l’alignement avec les standards data et l’architecture groupe Validez les modèles de données et les choix d’architecture Contribuez aux cas d’usage d’automatisation (ex : Dataiku ou outil équivalent) Coordonnez les équipes Finance, IT et Data dans une logique transverse Assurez le suivi projet (jalons, risques, dépendances, reporting) Veillez au respect des exigences de gouvernance, qualité et sécurité des données Vous jouez un rôle clé dans la réussite de la transformation en garantissant que la donnée soit pleinement intégrée, exploitée et conforme aux standards du groupe.
Freelance

Mission freelance
DATA SCIENTIST

Codezys
Publiée le
Azure
Azure AI Foundry
Azure DevOps Services

12 mois
450-500 €
Nanterre, Île-de-France
Description détaillée : VOTRE MISSION Concevoir et industrialiser des solutions d’intelligence artificielle générative (modèles de langage de grande taille, agents intelligents, RAG) en réponse aux besoins identifiés par la cellule AI Catalysts, priorisés par le Product Owner (PO). Intégrer ces composants GenAI au sein de l’écosystème existant (GenAI Core, OneAPI, Azure AI Foundry), tout en respectant les normes de sécurité et de gestion des coûts. Définir et mettre en œuvre les architectures techniques appropriées : sélection des modèles, orchestration des agents, conception des systèmes RAG, gestion des sessions utilisateur. Développer et maintenir le code, principalement en Python, ainsi que les composants réutilisables tels que les librairies de prompts et d’agents. Industrialiser le déploiement des solutions via la conteneurisation (Docker), l’orchestration Kubernetes, les pipelines CI/CD, l’Infrastructure as Code (Terraform), et assurer le suivi opérationnel (monitoring). Appliquer les bonnes pratiques MLOps : suivi des expérimentations, versioning des modèles, tests de régression, validations en environnement pré-production. S’assurer de la qualité, de la performance et de l’observabilité des solutions : mise en place de métriques, tests adversariaux, surveillance des dégradations en production. Collaborer étroitement avec le Product Owner, les ingénieurs logiciels, les AI Catalysts et la DSI afin d’assurer la sécurité et l’adoption des solutions proposées. Participer à la documentation, à la création de templates, ainsi qu’à la formation des équipes internes. Profil recherché : Data Scientist Responsable du développement d’algorithmes en Machine Learning et Intelligence Artificielle, visant à générer de la valeur métier à partir de données (structures, non structurées, vidéos, images, etc.). Capable de comprendre et d’interroger les demandes de l’entreprise pour fournir des solutions optimales. Apporte un support stratégique à la décision, notamment en proposant des innovations, en améliorant les performances et en optimisant le service client. Participe à l’industrialisation des projets de Data Science en collaboration avec les Data Engineers. Assure la maintenance et la documentation des algorithmes industrialisés, conformément aux rôles et responsabilités définis par le projet. Localisation : Paris – Niveau avancé (minimum 9 ans d’expérience dans le domaine) Ce descriptif ne doit pas dépasser 3000 caractères, intégrant l’ensemble des éléments en HTML pour garantir une mise en forme claire et professionnelle.
Freelance
CDI

Offre d'emploi
Consultant MSBI

adbi
Publiée le
Azure Data Factory
Azure DevOps
CI/CD

4 mois
40k-48k €
500 €
Île-de-France, France
Le groupe, leader de la transformation urbaine bas carbone, est un groupe français présent sur l’ensemble des métiers de l’immobilier. Au sein de la Direction des Systèmes d’Information, le Pôle Data recherche un Consultant Microsoft BI confirmé. Sa mission principale sera de prendre en charge les développements liés au projet MDM Marketing ou RFE. La mission doit débuter dès que possible pour une durée de 3-4 mois . ROLE ET RESPONSABILITE : La mission comprendra les tâches suivantes : · Créer et optimiser des bases de données (SQL Server principalement). · Prendre en charge les développements de scripts SQL/Procédures. · Prendre en charge les développements des pipelines Azure Data Factory. · Participer à la mise en place de bonnes pratiques (CI/CD, DevOps Data, Data Quality). · Être force de propositions sur les optimisations de traitement · Rédaction de la documentation (spécifications techniques), recettes. · Gestion du code source via Microsoft Devops et déploiement CI/CD. · Préparation des livrables pour les mises en production.

Les métiers et les missions en freelance pour Big Data

Data scientist

Le/ La Data scientist utilise des outils et des techniques Big Data pour analyser des ensembles de données massifs, développer des modèles prédictifs et extraire des informations utiles à partir de données complexes.

Développeur·euse data (décisionnel / BI / Big Data / Data engineer)

Le/ La Développeur·euse data (décisionnel / BI / Big Data / Data engineer) conçoit et développe des solutions Big Data pour stocker, traiter et analyser de grandes quantités de données provenant de diverses sources.

Consultant·e en architecture

Le/ La Consultant·e en architecture conseille les entreprises sur l'architecture Big Data, en concevant des solutions adaptées pour gérer et analyser de grandes quantités de données tout en optimisant la performance et la scalabilité.

Data analyst

Le / La Data Analyst utilise des techniques de Big Data pour collecter, analyser et interpréter des données complexes afin de fournir des insights et des recommandations qui aident les entreprises à prendre des décisions éclairées.

1700 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous