Trouvez votre prochaine offre d’emploi ou de mission freelance Big Data

Ce qu’il faut savoir sur Big Data

Big Data désigne l’ensemble des données massives et complexes générées à grande vitesse par des sources variées, comme les réseaux sociaux, les capteurs IoT, les transactions en ligne, ou encore les applications mobiles. Ces données, souvent volumineuses, hétérogènes et en croissance continue, dépassent les capacités des outils traditionnels de gestion et d’analyse. Le Big Data repose sur les 3V : Volume (quantité de données), Vélocité (vitesse de génération et de traitement), et Variété (diversité des formats, structurés ou non). Il est souvent associé à un quatrième V : Véracité (fiabilité des données). Les technologies de Big Data, comme Hadoop, Spark, ou NoSQL, permettent de stocker, traiter et analyser ces données pour extraire des insights précieux. Ces analyses sont utilisées dans des domaines variés, comme le marketing personnalisé, la finance, la santé, ou encore l’optimisation industrielle. Le Big Data joue un rôle clé dans l’innovation, la prise de décision et la transformation numérique des entreprises.

Votre recherche renvoie 1 460 résultats.
Freelance

Mission freelance
Directeur de projet GMAO - DATA - H/F - 93

Mindquest
Publiée le
AWS Cloud
Azure
Gestion de projet

3 mois
Seine-Saint-Denis, France
Objectifs de la mission: - Piloter et coordonner les projets GMAO et Data - Garantir la livraison des projets dans le respect des coûts, délais et qualité - Structurer et optimiser le pilotage des équipes et des activités - Assurer l’alignement entre besoins métiers et solutions IT - Mettre en œuvre et faire respecter la gouvernance Data Périmètre d’intervention: Pilotage de projets: - Définition et suivi de la roadmap projets - Planification et pilotage des activités - Suivi des jalons, gestion des risques et arbitrages Coordination des parties prenantes (métiers, IT, prestataires) AMOA & cadrage: - Animation d’ateliers de cadrage - Formalisation des expressions de besoins - Accompagnement des métiers et de la MOA SI - Supervision des recettes fonctionnelles Management & coordination: - Pilotage d’équipes (développeurs, testeurs, AMOA) - Gestion des plans de charge - Organisation et animation des comités projets - Reporting régulier et remontée des alertes Expertise technique & Data: - Supervision des architectures applicatives et data - Environnements Cloud : AWS, Azure - Suivi des outils analytiques et valorisation des données - Recommandations sur les évolutions techniques Gouvernance & qualité: - Mise en œuvre des standards de gouvernance des données - Contrôle de la qualité des livrables - Respect des méthodologies projets - Maintien de la documentation projet Livrables attendus: - Roadmap et planning détaillé des projets - Reporting opérationnel et tableaux de bord - Expressions de besoins et cadrage fonctionnel - Comptes rendus d’ateliers et comités - Suivi budgétaire et indicateurs de performance - Suivi des jalons et qualité des livraisons Documentation projet à jour
CDI

Offre d'emploi
Data Engineer - Semarchy xDI (H/F)

Degetel
Publiée le
ETL (Extract-transform-load)
PowerBI
Sap BO

Strasbourg, Grand Est
💼 À propos de l’entreprise Créée en 2008, Technology & Strategy est une société de conseil franco-allemande qui accompagne ses clients sur des projets d’engineering, de digital et de consulting. Avec plus de 3 500 collaborateurs , répartis dans 27 agences et plus de 10 pays , nous évoluons dans un environnement international 🌍 Ce qui fait notre force : Une expertise technique reconnue Des valeurs fortes : Respect, Partage, Initiative, Excellence Une vraie diversité avec plus de 45 nationalités Des équipes engagées, communicantes et solidaires Un accompagnement clair pour faire évoluer votre parcours Un environnement de travail certifié #HappyAtWork Des projets innovants, concrets et à impact 💼 À propos du poste – Data Engineer (H/F) – Strasbourg Dans le cadre de nouveaux projets data, nous recherchons un Data Engineer pour rejoindre notre équipe strasbourgeoise et intervenir sur des projets dans le domaine bancaire . Vous évoluerez dans un contexte orienté data décisionnelle / BI , avec des enjeux forts autour de l’intégration, de la structuration et de la valorisation des données. 🛠️ Vos missions Concevoir, développer et maintenir des flux d’intégration de données ( ETL / ELT ) Intervenir sur des outils d’intégration, idéalement Semarchy xDI (ex-Stambia) Participer à la modélisation des systèmes décisionnels Travailler sur les bases de données et rédiger des requêtes SQL performantes Contribuer à l’alimentation et à l’exploitation des outils de Business Intelligence Collaborer étroitement avec les équipes data, BI et métiers Garantir la qualité, la fiabilité et la performance des données 🚀
Freelance

Mission freelance
Cloud Automation & Data Ingénieur junior (H/F)

Insitoo Freelances
Publiée le
AWS Cloud
Bash
Python

2 ans
350-400 €
La Ciotat, Provence-Alpes-Côte d'Azur
Basée à Lille, Lyon, Nantes, Grenoble, Marseille, Paris et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Cloud Automation & Data Ingénieur junior (H/F) à La Ciotat, France. Les missions attendues par le Cloud Automation & Data Ingénieur junior (H/F) : Automatiser l’intégralité des infrastructures Cloud et des services de données. Industrialiser les déploiements via des pratiques DevSecOps rigoureuses. Concevoir des architectures orientées données (Data Lakes, Streaming) hautement disponibles. Accompagner les équipes projets dans l’adoption des meilleures pratiques Cloud & Data. Responsabilités Principales 1. Automatisation & Infrastructure as Code (IaC) Concevoir et déployer des infrastructures via Terraform. Gérer le cycle de vie complet des ressources sur AWS. Automatiser les services Data (S3, Glue, Kinesis, etc.) et optimiser la performance des environnements. 2. DevSecOps & CI/CD Construire et maintenir des pipelines CI/CD (GitLab, GitHub ou Jenkins). Intégrer nativement la sécurité (contrôles de conformité, scans de vulnérabilités). Automatiser les tests de qualité de données et la validation des schémas. 3. Platform Engineering & Architecture Data Développer des frameworks internes pour faciliter l'usage du Cloud (Serverless, Conteneurs). Mettre en œuvre des architectures orientées événements (Kinesis, Lambda). Assurer l'ingestion, le stockage et la fluidité des flux au sein du Data Lake. 4. Sécurité, Gouvernance & Conformité Piloter la gestion des identités et des accès (IAM) et le chiffrement (KMS). Appliquer les politiques de gouvernance : catalogage, traçabilité et rétention des données. Garantir l'auditabilité et le monitoring des données sensibles. Compétences Requises Cloud : Maîtrise approfondie d'AWS (Core services & Data stack). IaC : Expertise confirmée sur Terraform. Conteneurisation : Docker, Kubernetes. Data Engineering : ETL/ELT, modélisation de données, cycle de vie de la donnée. Développement : Python (avancé), Bash, SQL. Outils : Écosystème CI/CD, la connaissance de Snowflake est un plus significatif.
CDI
Freelance

Offre d'emploi
Data Engineer Informatica/Airflow/AWS/DBT

OBJECTWARE
Publiée le
Apache Airflow
AWS Cloud
DBT

3 ans
40k-74k €
400-550 €
Île-de-France, France
Le contexte : L'un des objectifs majeurs du plan de transformation DATA est de développer les applications DATA qui permettent à nos métiers business (pilotage, marketing, commerce, ...) d'être autonomes dans l'analyse des données et des KPI et de déployer des applications destinées à nos abonnés directement (recommandation contenu et offres, etc.). Dans ce cadre, le client a déployé les outils : AWS, Gitlab, Terraform, Informatica, DBT, Snowflake, Braze, AI, Scala, Spark, Python, POWERBI, etc. Architectures sophistiquées pour ingérer plus de 100To de données par jours: Datalake, Event-Driven, Streaming, etc. Des exemples de projets sont nombreux : Plateforme agentique, Socle vidéo, navigation et calcul des audiences, AI pour recommandation des programmes, etc. Feature Store, Moderniser les flux financiers, Content Platform, Mise en place Kubernetes, Plateforme pour le traitement des données CRM et usage, Partager des informations sur les clients à nos partenaires (Netflix, Apple, M6, TF1, etc.), Piloter plus efficacement l'activité des marchés professionnels, Mettre à disposition des applications de data-selfservice. Votre rôle sera de : Administrer, maintenir et optimiser la plateforme Informatica PowerCenter (serveurs, repository, workflows, sessions, etc.), Contribuer activement au décommissionnement en cours d'Informatica via la mise en place d’un Lakehouse AWS (Airflow, DBT, Iceberg, etc.), Concevoir, développer et documenter des workflows data pour alimenter le data warehouse et les systèmes applicatifs, Concevoir, développer et documenter des workflows Lakehouse avec AWS, Airflow, DBT et Python, Identifier et résoudre les problèmes de performance ou de qualité des données, Contribuer au run de la plateforme (analyse des incidents, MEP, support production, etc.), Collaborer avec les équipes Data, BI et Infrastructure pour garantir la cohérence et la disponibilité des données, Former et assister les utilisateurs internes (équipe data, développeurs, MOA, etc.), Proposer des améliorations techniques et de bonnes pratiques sur l’utilisation de la plateforme. Vous maîtrisez Informatica, Snowflake, Airflow, DBT, AWS et aimez les challenges, Vous êtes experts dans le développement de solution d'intégration de données, Vous parlez Anglais couramment, Vous connaissez et maîtrisez les outils JIRA et les méthodes 'agiles' n’ont pas de secret pour vous ! Autonome, ouvert d’esprit et bon communiquant, vous disposez d’une grande curiosité scientifique.
Freelance

Mission freelance
Data engineer GCP

NEOLYNK
Publiée le
Apache Kafka
Google Cloud Platform (GCP)
Looker Studio

3 ans
300-450 €
Lille, Hauts-de-France
Expertise SQL, ETL - Expert - Impératif CI/CD, github, Terraform, Kafka - Confirmé - Important Power BI, Looker - Confirmé - Important Google Cloud Platform (GCS, BigQuery) - Confirmé - Souhaitable Au cours de sa mission, le consultant : - Participera aux rituels agiles de l'équipe, - Analysera les besoins des utilisateurs et proposera des solutions innovantes et en phase avec les drivers de l'entreprises, - Développera les solutions data (Alimentation, stockage, modélisation, restitution), - Validera la qualité des développements de son équipe, - Améliorera et optimisera le patrimoine actuel de son équipe, - Maintiendra les solutions existantes (Run), - Contribuera à la construction du nouveau socle et des services sur la plateforme Google Cloud, - Accompagnera et acculturera les métiers sur les bonnes pratiques de l'exploitation de la Data Lille 2 jours de TT par semaine démarrage asap mission longue 3 ans
Freelance

Mission freelance
Responsible AI Lead

ESENCA
Publiée le
Agent IA
Data quality
Large Language Model (LLM)

1 an
Lille, Hauts-de-France
Informations générales Département : Digital, Data & IA Localisation : Siège / Lille (présence obligatoire sur site) Supérieur hiérarchique : Head of IA Position dans l’organisation Le/la Responsible AI Lead pilote la gouvernance de l’intelligence artificielle et garantit la conformité, la sécurité, l’éthique et la maîtrise des risques des systèmes IA. Encadrement Management d’une équipe spécialisée pouvant inclure : Analyste Responsible AI & Traçabilité Responsable Contrôles & Tests IA (QA IA) AI Policy Manager Interactions internes Équipes Data (Data Hub, gouvernance, référentiels) Équipes IT / DSI Directions métiers Fonctions conformité (DPO, RSSI, juridique) Équipes Digital / Data / IA Interactions externes Partenaires technologiques et plateformes cloud Éditeurs de solutions IA (LLM, agents, etc.) Cabinets spécialisés (audit, conformité, IA) Mission Le/la Responsible AI Lead est garant(e) de la gouvernance globale des systèmes d’intelligence artificielle. Il/elle s’assure que les cas d’usage respectent les exigences réglementaires et internes (notamment en matière de conformité, d’éthique, de sécurité et de gestion des risques), tout au long de leur cycle de vie, du cadrage au run. Responsabilités principales 1. Gouvernance et conformité IA Définir et déployer la politique d’usage de l’IA Structurer le cadre de gouvernance (standards, processus, rôles) Classifier les cas d’usage selon leur niveau de risque Définir les exigences de documentation, traçabilité et versioning 2. Gestion des risques IA Conduire les analyses de risques par cas d’usage Classifier les systèmes selon leur criticité (faible, limité, élevé) Définir les contrôles adaptés (tests, supervision, documentation) Coordonner les validations avec les fonctions conformité (juridique, DPO, sécurité) 3. Contrôles et tests IA Définir les stratégies de tests non fonctionnels : robustesse biais sécurité hallucinations dérive des modèles Fixer les critères de validation (go / no-go) Superviser les campagnes de tests IA 4. Documentation et audit Piloter la documentation réglementaire des systèmes IA Maintenir un registre des cas d’usage IA Organiser les audits internes et externes Suivre les plans de remédiation 5. Supervision en production Définir les exigences de monitoring (logs, incidents, dérives) Suivre la performance et la fiabilité des systèmes IA Mettre en place des revues périodiques Piloter la gestion des incidents IA 6. Pilotage des coûts (FinOps IA) Définir les règles de consommation (quotas, garde-fous) Suivre les coûts et l’efficience des solutions IA Recommander des optimisations 7. Diffusion des bonnes pratiques Déployer la charte éthique IA Sensibiliser et former les équipes aux enjeux de l’IA responsable Accompagner les équipes projets dans l’application des standards Promouvoir une culture de l’IA responsable à l’échelle de l’organisation
Freelance
CDI

Offre d'emploi
📩 Azure Platform Engineer – Data & Analytics Platform

Gentis Recruitment SAS
Publiée le
Azure
Azure Kubernetes Service (AKS)
CI/CD

3 mois
40k-45k €
300-400 €
Paris, France
Contexte de la mission Dans le cadre du développement d’une plateforme data cloud à l’échelle groupe, notre client recherche un Azure Platform Engineer pour renforcer une équipe en charge de la conception, du déploiement et de l’exploitation de la plateforme. Les enjeux sont forts autour de : la scalabilité la gouvernance des données la sécurité la performance des traitements L’environnement est majoritairement Azure , avec une ouverture possible vers du multi-cloud. Vos missions Infrastructure & Cloud (Azure) Développement et maintenance d’infrastructures via Terraform / Bicep / ARM Gestion des ressources Azure : ADLS Gen2, Blob Storage Réseaux (VNet, NSG, Private Endpoints) Gestion des environnements DEV / TEST / PROD Data Platform Administration et exploitation d’un Data Lake Azure Mise en place des règles de gouvernance et sécurité : Azure AD / RBAC Policies / Purview Optimisation des performances et des coûts CI/CD & automatisation Mise en place et maintenance de pipelines CI/CD Automatisation des déploiements (infra + data + services) Environnements : Azure DevOps / GitHub Actions Développement & APIs Développement de microservices en Python Création d’APIs REST Intégration avec les services Azure (Functions, Event Hub…) Containers & orchestration Déploiement de services containerisés (Docker) Orchestration via AKS / Azure Container Apps Monitoring & fiabilité Mise en place de la supervision : Azure Monitor Log Analytics Application Insights Suivi des performances et de la disponibilité Collaboration Rédaction de documentation technique Interaction avec équipes data, dev et métiers Participation aux rituels Agile Stack technique Cloud : Azure Data : ADLS Gen2, Databricks, Synapse IaC : Terraform, Bicep, ARM CI/CD : Azure DevOps, GitHub Actions Containers : Docker, AKS Langage : Python Streaming : Event Hub, Service Bus
Freelance

Mission freelance
Fullstack developer (.NET/Angular)

Codezys
Publiée le
.NET
Angular
AngularJS

1 mois
450-500 €
Aubervilliers, Île-de-France
Contexte de la mission Dans le cadre du projet Factor Acceleration , vous rejoignez l'équipe Factor, composée d’environ 10 collaborateurs, en tant que catalyseur de productivité. Votre mission principale consiste à lever le goulet d'étranglement lié à la réécriture du frontend en Angular, actuellement estimée à 300 jours, en s’appuyant sur des méthodes de développement assistées par des technologies d’IA de nouvelle génération. Objectifs et livrables Opérant en mode Agile-Scrum, vous adoptez une approche non conventionnelle de développement. Vous pilotez des outils d'IA afin de produire un code de haute qualité à une vitesse accrue, à travers plusieurs axes : Accélération (legacy remédiation) : Industrialiser la conversion des interfaces legacy et Angular v15 vers Angular v21, en utilisant des prompts et des agents de migration. Ensuite, contribuer à la réécriture des environ 1300 procédures stockées en base de données vers un ORM moderne. Vibe Coding / BMAD : Soutenir l’équipe dans l’adoption de nouvelles méthodes de développement pour transformer rapidement, via des itérations assistées par IA, les spécifications en composants fonctionnels sur la nouvelle stack technologique. Automatisation de la qualité : Exploiter l’IA pour générer automatiquement la couverture de tests unitaires (TU) et de tests de bout en bout (E2E). Agentic Workflows : Déployer des agents connectés à la base de code pour automatiser la revue de code, la remédiation de dette technique, la correction de bugs, et à terme, la génération automatique des User Stories. Livrables Composants Angular "AI-generated" : Développement de composants modulaires, optimisés et documentés, créés en collaboration avec des outils d’IA. Harnais de tests automatisés : Mise en place d’une couverture accrue par la création massive de tests unitaires et d’intégration, assurant la stabilité lors de la refonte. Bibliothèque de Prompts et d’Agents : Documentation exhaustive des méthodes d’accélération, facilitant la montée en compétences du reste de l’équipe. CI/CD augmentée : Contribution à l’enrichissement des pipelines d’intégration continue afin d’intégrer des étapes de vérification automatique par IA.
Freelance
CDI

Offre d'emploi
Architecte DATA CMDB SERVICE NOW

OBJECTWARE
Publiée le
ServiceNow

2 ans
Île-de-France, France
Dans le cadre de la mise en conformité avec les recommandations de la Banque Centrale Européenne (BCE) sur la fiabilité des référentiels IT, notre client engage un programme d’amélioration et de gouvernance de sa CMDB Groupe et de ses référentiels techniques . L’objectif de cette mission est de concevoir et mettre en œuvre une architecture de données robuste et gouvernée , permettant d’assurer la qualité, la cohérence et l’exploitabilité des informations relatives aux actifs IT. Le consultant interviendra au cœur du dispositif pour structurer et améliorer le modèle de données CMDB , industrialiser l’intégration des sources d’inventaire et renforcer la gouvernance des données techniques. Architecture et modélisation des données CMDB Concevoir et optimiser le modèle de données des référentiels IT techniques (Configuration Items, relations et métadonnées). Simplifier et rationaliser les structures existantes afin d’améliorer la lisibilité et la maintenabilité du modèle. Garantir l’évolutivité de l’architecture des données pour intégrer de nouvelles sources d’inventaire et répondre aux besoins futurs. Identification et réconciliation des données Définir et implémenter les règles d’identification et de réconciliation (IRE) au sein de ServiceNow CMDB . Déterminer les clés d’identification des Configuration Items afin d’assurer l’unicité et la cohérence des données. Mettre en place des mécanismes de consolidation des informations issues de multiples sources d’inventaire. Gestion des sources d’inventaire Identifier et qualifier les sources de données techniques alimentant les référentiels IT . Définir les sources de vérité pour chaque type d’information. Cartographier et structurer les flux d’alimentation des référentiels IT . Qualité des données et gouvernance Définir et mettre en œuvre une stratégie de Data Quality pour la CMDB : déduplication fiabilité des données complétude fraîcheur des informations gestion de l’obsolescence. Mettre en place des indicateurs de qualité et des tableaux de bord de suivi . Gouvernance des référentiels IT Appliquer les principes de Master Data Management (MDM) au contexte des référentiels IT. Définir les rôles et responsabilités autour des données (Data Owner, Data Steward). Structurer un cadre de gouvernance des référentiels IT documenté et partagé. Collaboration transverse Travailler en étroite collaboration avec les équipes : ITSM / CMDB ServiceNow Discovery équipes MDM sécurité IT infrastructures et exploitation. Accompagner les équipes responsables des inventaires techniques et outils de découverte . Reporting et produits de données Développer des produits de données exploitant les référentiels IT pour répondre aux besoins de reporting et d’audit. Contribuer à la production d’indicateurs et de tableaux de bord permettant de piloter la qualité et la fiabilité des données.
Freelance
CDI

Offre d'emploi
Data Analyst (H/F) – Big Data / Lutte contre la fraude

QODEXIA
Publiée le
Hadoop
PowerBI
PySpark

10 jours
Aix-en-Provence, Provence-Alpes-Côte d'Azur
QODEXIA est une société de services informatiques implantée en France et en afrique du nord. Partenaire performant, innovant, agile pour aider les entreprises dans leur transforamtion digitale. QODEXIA s'est spécialisée dans le digital, SAP et les nouvelles technologies, accompagne au quotidien les plus grands acteurs de l'industrie, de l'énergie, du Luxe, de la Banque et de l'Assurance sur leurs projets. L’IT est notre passion, les valeurs humaines sont notre capital, c'est de quoi notre ADN est composé. Data Analyst (H/F) – Big Data / Lutte contre la fraude Localisation : Aix-en-Provence Démarrage : ASAP Type de mission : Mission longue durée Contexte Dans le cadre d’un projet stratégique autour de la lutte contre la fraude , nous recherchons un Data Analyst capable d’exploiter et d’analyser les données du système d’information afin d’identifier des incohérences, détecter des comportements suspects et proposer des analyses à forte valeur ajoutée pour les équipes métiers. Le consultant interviendra dans un environnement Big Data et contribuera à la mise en place de cas d’usage analytiques et prédictifs.
Freelance

Mission freelance
Développeur Data (H/F) – Confirmé – Nantes

CAT-AMANIA
Publiée le
Apache Hive
Apache Spark
Artifactory

1 an
Nantes, Pays de la Loire
Dans le cadre du renforcement d’une équipe Data au sein d’un grand groupe du secteur financier, nous recherchons un Développeur Data confirmé basé à Nantes . Vous interviendrez sur des projets stratégiques liés à l’ingestion, la transformation et la valorisation des données dans un environnement Big Data. Vos missions : Développer des user stories liées à l’ingestion et transformation de données (ETL / SQL) Réaliser les tests unitaires et participer à la recette fonctionnelle Déployer les développements sur différents environnements Rédiger la documentation technique Participer à l’analyse et au chiffrage des besoins Assurer le suivi des traitements en production (run) Contribuer aux cérémonies Agile Scrum
Freelance

Mission freelance
Consultant Azure Data Factory/SQL Server

OAWJ CONSULTING
Publiée le
Azure Data Factory
Microsoft Power BI
Microsoft SQL Server

1 an
500-550 €
Paris, France
BESOIN URGENT!! Dans le cadre du renforcement de son équipe data, notre client recherche un consultant senior orienté data engineering avec une forte expertise bases de données. Secteur immobilier. Missions Conception et développement de pipelines avec Azure Data Factory Gestion et optimisation des bases de données Microsoft SQL Server Modélisation et structuration des données Optimisation des performances (requêtes, index, traitements) Mise en place de bonnes pratiques DevOps / CI-CD Collaboration avec les équipes techniques et métiers Profil recherché 7 à 10 ans d’expérience en Data Engineering Excellente maîtrise d’Azure Data Factory Forte expertise en Microsoft SQL Server Bonne connaissance des problématiques de performance et modélisation Culture DevOps appréciée Autonome, rigoureux et orienté résultats
Freelance

Mission freelance
Consultant SAP FI/CO + Data Migration

ALLEGIS GROUP
Publiée le
SAP FICO

1 an
400-550 €
Clamart, Île-de-France
Dans le cadre d’un projet SAP Finance en cours, notre client recherche un Consultant SAP FI/CO confirmé , capable d’intervenir à la fois sur la conception fonctionnelle , l’accompagnement des métiers et les travaux de migration de données . Le consultant interviendra en renfort sur un périmètre critique pour la bascule de fin d’année . Responsabilités principales Participation aux ateliers avec les équipes Finance & Controlling Analyse des besoins et rédaction de la documentation fonctionnelle (spécifications, process…) Contribution aux activités de Data Migration : mapping, validation, reprise, contrôle de cohérence Accompagnement des utilisateurs, support UAT, correction des anomalies Collaboration étroite avec les équipes techniques (ABAP, Data, Basis) Suivi d’avancement et reporting auprès du chef de projet
Freelance

Mission freelance
Tech Lead Data GCP Expert F/H

SMARTPOINT
Publiée le
Apache Kafka
CI/CD
Docker

12 mois
550-600 €
La Défense, Île-de-France
Missions principales : • Participer aux analyses, études d’impacts et cadrage techniques • Concevoir des solutions en respectant l’architecture data et les bonnes pratiques de développement • Réaliser le développement des data products et assurer la maintenance évolutive et corrective des data products existants • Effectuer des contrôles croisés entre développeurs ou des relectures de code afin d’assurer la qualité des développements réalisés par l’équipe • Rédiger la documentation technique des data products • Apporter une expertise de troisième niveau dans les incidents de production, et si besoin la réalisation de solution de contournements, ou de correctifs de manière à assurer une qualité de fonctionnement optimale • Accompagner les Data Engineers sur les bonnes pratiques, les choix d’architecture et dans leur travail au quotidien • Effectuer les audits et les contrôles des développements réalisés : Sécurité, Maintenabilité, Robustesse et Performance • Reporter l’activité à la Squad et travailler dans une démarche d’efficacité collective Livrables principaux : • Etudes d’impact technique • Faire des propositions techniques • Réaliser du code applicatif à l’état de l’art sur notre Data Platform GCP • Rédiger les documentations techniques liés à ta solution, incluant le modèle de données, les procédures, l’ordonnancements • Schéma de solution des flux, modèle de données • Fournir des chiffrages détaillés des futures réalisations • Relecture de code technique • Rédaction de SFD, STD, Manuel d’installation Compétences techniques : • Langages de programmation : Python, SQL, Scripts Shell • Services de streaming data : Kafka • Services d’ingestion des données : Kafka Connect, SFTP • Services de stockage : GCP BigQuery, Cloud Storage, Kafka, Sharepoint • Processing : Scripts Python, Data Build Tool (DBT), GCP Dataflow • Restitution : Looker (Dashboards, Explores de données), Fichiers de reporting (CSV, Excel) • Outils de collaboration et de CI/CD : GitLab • Utilisation de plateformes pour le développement et le déploiement : Docker, Kubernetes, Kustomize, Helm Charts, Terraform • Testing : Tests avec DBT, Tests de non-régression, collaboration avec la QA. • Outils IA et d’automatisation : Gemini Code Assist, Antigravity, n8n, Gitlab Duo • Manipulation des formats de fichiers : CSV, JSON, Avro, XML Compétences transverses : • Proactivité et prise d’initiative • Autonomie et rigueur • Capacité à communiquer, à travailler en équipe et excellent relationnel • Capacité d’adaptation aux changements • Curiosité, veille technologie sur le data engineering et sur l’AI / ML • Capacité à aborder des problèmes complexes de manière structurée • Aptitude à concevoir des solutions innovantes • Capacité d’écoute, d’analyse et de synthèse • Maitrise de l’agilité Une pratique opérationnelle de l’anglais est également nécessaire pour la rédaction de la documentation et la participation à certaines cérémonies. Une expérience similaire significative dans le domaine de la banque de détail est un plus.
Freelance

Mission freelance
POT9036 - Un Data ingénieur sur Massy

Almatek
Publiée le
SQL

6 mois
360-470 €
Île-de-France, France
Almatek recherche pour l'un de ses clients ,Un Data ingénieur sur Massy. Taches: Participation à la définition des solutions applicatives Développement, Intégration et Recette technique Surveiller et améliorer l'efficacité des processus Tenir à jour la documentation des systèmes et des processus. Contexte : Nous recherchons un/une Data Engineer expérimenté(e) pour contribuer à la réalisation des projets de la Squad Usages Data Avancé & IA: Conception et Maintenance de l'applicative Amélioration continue des produits / solutions de la squad Construction nouveaux usages Attendu: Construire et maintenir des pipelines ETL/ELT pour données structurées et non-structurées Mettre en oeuvre des chaines d'intégration, de déploiement et de suivi des solutions en production (DataOps). Préparer des datasets utilisés pour de l'exploration de données Développer et favorise l’industrialisation de modèles statistiques ou de machine learning Versionner données/modèles/code et monitorer performance/coûts Collaborer avec les équipiers de la squad et documenter vos travaux Compétences Humaines: Une bonne autonomie et capacité d'adaptation à des projets innovants et rythmés Sens du travail en équipe bonne communication et accompagnement utilisateurs Compétences Techniques: Langages : Python (FastAPI, Pyspark), SQL Qualité de code : Pytest, SonarQube MLOps/CI-CD : Docker, Kubernetes, GitHub/GitLab Actions Data & DB : PostgreSQL, Teradata, MySQL Observabilité : Stack ELK, Prometheus/Grafana, MLflow Plus si compétence en Big Data/Streaming : Spark, Kafka Experience 4 à 7 ans. Date de debut souhaitée :30 Mars 2026, mission longue
Freelance

Mission freelance
Product Owner Data/BI (Lille)

SQLI
Publiée le
CoreData

6 mois
400-600 €
Lille, Hauts-de-France
Bonjour, Pour le compte de l'un de mes clients Lillois, je suis à la recherche d'un Product Owner Data orienté BI. Mandatory : Une expérience de projets Power BI, afin de piloter la transformation des outils de reporting. Ses responsabilités : • Cadrer et formaliser les besoins métiers, organiser les demandes et la solution BI. • Collaborer avec les sponsors internes de la transformation pour favoriser l’engagement autour du projet. • Animer des ateliers de Product Discovery pour comprendre les usages, les irritants, les objectifs et les indicateurs clés. • Construire et maintenir le backlog BI, prioriser les sujets et arbitrer les évolutions en lien avec les entités métiers. • Collaborer étroitement avec le Tech Lead, les développeurs BI et les équipes Data pour garantir la cohérence et la qualité des livrables. • Valider les maquettes, prototypes (Figma) et rapports développés, en assurant leur pertinence métier, leur lisibilité UX et leur conformité aux standards. • Contribuer à la mise en œuvre d’un Design System dataviz, assurant cohérence et appropriation des tableaux de bord. • Favoriser la montée en compétence des équipes métiers sur la lecture, l’usage et l’évolution des rapports. • Garantir une documentation fonctionnelle claire et à jour pour faciliter la maintenance et la réversibilité. • Suivre les indicateurs de Delivery du projet à présenter lors des instances de pilotage.

Les métiers et les missions en freelance pour Big Data

Data scientist

Le/ La Data scientist utilise des outils et des techniques Big Data pour analyser des ensembles de données massifs, développer des modèles prédictifs et extraire des informations utiles à partir de données complexes.

Développeur·euse data (décisionnel / BI / Big Data / Data engineer)

Le/ La Développeur·euse data (décisionnel / BI / Big Data / Data engineer) conçoit et développe des solutions Big Data pour stocker, traiter et analyser de grandes quantités de données provenant de diverses sources.

Consultant·e en architecture

Le/ La Consultant·e en architecture conseille les entreprises sur l'architecture Big Data, en concevant des solutions adaptées pour gérer et analyser de grandes quantités de données tout en optimisant la performance et la scalabilité.

Data analyst

Le / La Data Analyst utilise des techniques de Big Data pour collecter, analyser et interpréter des données complexes afin de fournir des insights et des recommandations qui aident les entreprises à prendre des décisions éclairées.

1460 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous