Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 62 résultats.
Freelance

Mission freelance
Data & ML Ops Engineer

Publiée le
API
DevOps
Machine Learning

6 mois
300-450 €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Missions principales : Data Engineering Concevoir, développer et maintenir des pipelines de données robustes pour alimenter les applications. Garantir l’ingestion, la transformation et le stockage de volumes importants de données. Optimiser les traitements afin d’assurer des performances adaptées aux enjeux de volumétrie. Mettre en œuvre des dispositifs de qualité des données (contrôles, alertes, supervision). Travailler en étroite collaboration avec les équipes de développement pour définir et exposer les interfaces de données (API, bases). Documenter les flux et assurer la mise à jour du catalogue de données des projets. MLOps Industrialiser les processus d’entraînement des modèles de Machine Learning dédiés à l’optimisation du dimensionnement des structures. Déployer des pipelines CI/CD pour les modèles ML (gestion des versions des données et modèles, automatisation des entraînements). Suivre et analyser les performances des modèles en production (détection de dérives, indicateurs de performance). Accompagner les Data Scientists dans la mise en production des modèles.
Freelance

Mission freelance
Big Data Engineer (h/f)

Publiée le

1 mois
450-550 €
France
Télétravail partiel
Introduction & Résumé Nous recherchons un Data Engineer expérimenté pour rejoindre notre équipe et être responsable de la mise à disposition des données relatives aux études et projets d’intelligence artificielle. Vous aurez l’opportunité de travailler sur des technologies de pointe dans un environnement dynamique. Responsabilités En tant que Data Engineer, vous serez chargé de : Réaliser les spécifications techniques pour les flux de données (ingestion, transformation, etc.). Assurer le développement de solutions d’ingestion de données et de Data Engineering. Développer des flux (Kafka, Talend, Spark, Pyspark). Environnement Technique : Big Data, Cloudera, Hive, Spark, Pyspark, Kafka, Talend, SQL Server, PowerBI Key Requirements Formation supérieure (Bac+5 ou Ecole d’Ingénieur) spécialisée en Data. Expérience de 7 ans minimum sur un poste similaire. Parfaite maîtrise dans la conception, le développement et l’optimisation de flux. Expérience dans l'écosystème Big Data (Cloudera/Hadoop, Spark, Kafka, PySpark). Connaissance des bases de données relationnelles (SQL Server). Nice to Have Maîtrise de Talend et compétences en Datavisualisation. Capacité à échanger en Anglais à l’écrit et à l’oral. Autonomie, capacités d’adaptation et sens de la communication. Autres Détails Localisation : Dunkerque. Télétravail : 1 jour de télétravail par semaine. Durée : Minimum 10 mois.
Freelance

Mission freelance
AI-Native Software Engineer

Publiée le
AWS Cloud
IA Générative
Python

36 mois
540-550 €
La Défense, Île-de-France
Je cherche pour l'un de nos clients un AI-Native Software Engineer. Missions: Positionner comme un coach des équipes tech en place en apportant une expertise en GenAI Permettre la montée en compétence des équipes DSI en intégrant des outils d’IA (Copilot, Claude Code) pour accélérer le développement et la documentation Développer et maintenir des applications performantes (Java/Spring Boot, Angular/React, Node.js, etc.) en intégrant des assistants IA (Copilot, Claude Code) Automatiser les tâches répétitives (tests, CI/CD, monitoring) pour gagner en productivité Travailler sur des architectures modernes : APIs, Cloud PaaS/IaaS (AWS, Terraform) Garantir la qualité et la sécurité des développements en s’assurant que les projets pilotes respectent les bonnes pratiques technologiques et de sécurité de l’environnement SI Collaborer étroitement avec les équipes produit, design et architecture Coacher des équipes qui créent des solutions en utilisant l’IA comme assistant de la conception technique au monitoring en production. Profil • 7 ans d’expérience en développement Fullstack • Excellente maîtrise de Java/Spring Boot et de framework Front moderne (React) • Solide culture DevOps : CI/CD, conteneurisation (Docker, Kubernetes) • Bases solides en data engineering (Python / SQL) & cloud PaaS/IaaS (AWS, Terraform) • Esprit pragmatique, orienté delivery rapide et clean code • Curiosité et pratique des outils d’IA générative et d’automatisation (ex. GitHub Copilot, Claude, Code, LLM, Framework IA) pour identifier les véritables opportunités d’amélioration. Passionné par les sujets d’IA (traditionnelle et générative) et veille continue sur le sujet • Excellente communication (écrite et orale) et capacité à travailler en équipe. • Pédagogie et capacité à convaincre. • Autonomie et proactivité : capacité à travailler sur plusieurs projets en même temps
CDI
Freelance

Offre d'emploi
Développeur Python / Web Expérimenté (H/F)

Publiée le
Angular
Python

1 an
Bruxelles, Bruxelles-Capitale, Belgique
Télétravail partiel
Contexte Au sein d’une entité de trading en forte transformation digitale, d’importants investissements IT ont été réalisés ces dernières années afin de moderniser les systèmes, rationaliser les plateformes existantes et développer des solutions innovantes. Dans cette dynamique, les équipes Risk s’engagent pleinement dans une évolution digitale ambitieuse , reposant sur la data engineering , le développement Python et des architectures modernes basées sur des API , afin de remplacer progressivement les outils historiques et les traitements sous Excel. L’équipe Digital Risk IT joue un rôle central dans cette transformation, à la fois en développant les solutions de demain et en accompagnant les utilisateurs métiers dans leur adoption. Votre mission En tant que Développeur Python / Web expérimenté , vous interviendrez au cœur des projets de digitalisation des outils Risk, avec un double rôle : Conception et développement de solutions innovantes Accompagnement et montée en compétence des utilisateurs métiers Vous rejoindrez une équipe technique engagée, travaillant sur des applications à fort impact business, dans un environnement collaboratif et orienté performance. Responsabilités Conception et développement d’applications Développer de nouvelles applications web, services et API alignés avec la roadmap digitale Risk Concevoir des solutions performantes pour le traitement de grands volumes de données Garantir la fiabilité et la qualité des reportings et indicateurs de risque Maintenance et optimisation Assurer la maintenance des services et packages existants Optimiser les performances, la robustesse et l’évolutivité des applications Répondre aux besoins fonctionnels évolutifs des utilisateurs Accompagnement des utilisateurs Travailler en étroite collaboration avec les équipes métiers Diffuser les bonnes pratiques de développement (documentation, tests automatisés, déploiement) Réaliser des revues de code et fournir un support technique Data Science & Machine Learning Contribuer à des projets exploratoires : Détection d’anomalies sur séries temporelles Analyse de sentiment à partir de flux d’actualités Chatbots basés sur l’IA Participer à l’innovation autour des usages de l’IA appliquée à la gestion des risques
Freelance
CDD
CDI

Offre d'emploi
Consultant Data (DataLab Cloudera / Hive / Python) (F/H)

Publiée le
Apache Hive
Cloudera
Python

6 mois
57k-64k €
520-580 €
Paris, France
Télétravail partiel
Contexte Au sein d’une direction des systèmes d’information nationaux et européens d'un acteur majeur du secteur banco-financier, le service en charge des plateformes data conçoit, maintient et fait évoluer les systèmes d’information au service d’activités critiques telles que la politique monétaire, les opérations de marché, la gestion des risques, la conformité et la stabilité financière. Vous interviendrez dans un DataLab rattaché aux applications de marché, au cœur des usages data des équipes métiers (marchés, risques, conformité). Objectifs de la mission Vous interviendrez principalement sur : La fin de réalisation et la maintenance évolutive d’un laboratoire data existant L’enrichissement des cas d’usage métiers liés aux opérations de marché, aux risques et à la politique monétaire Les travaux de cadrage et de structuration d’un gisement de données, en lien avec les besoins métiers Périmètre fonctionnel et technique Sources de données Flux issus de systèmes Front, Back et Décisionnels Marché Plateformes de trading et systèmes décisionnels associés Plateforme Data Cloudera Hive Environnements Python et R SAS Viya Outils de restitution et d’analyse Power BI SAS Viya Missions principales Data Engineering & DataLab Développement et maintenance de traitements de données sous Cloudera / Hive Conception et optimisation de requêtes Hive Manipulation, préparation et transformation de données volumineuses Développement de scripts et notebooks Python pour l’analyse, l’exploration et l’enrichissement des données Contribution à la structuration et à l’alimentation des gisements de données Support aux usages métiers Accompagnement des utilisateurs métiers dans l’exploitation des données Contribution aux laboratoires analytiques (Python / R / SAS Viya) Participation à la mise à disposition de jeux de données exploitables pour des analyses prospectives Appui à la création et à l’évolution des cas d’usage data liés aux opérations de marché, aux risques et à la politique monétaire Maintenance et évolution Participation à la maintenance corrective et évolutive du DataLab Prise en compte des nouveaux besoins utilisateurs Contribution à la qualité, à la fiabilité et à la traçabilité des données Documentation des traitements et des jeux de données
Freelance
CDI
CDD

Offre d'emploi
Data Engineer / GenAI Engineer (Senior)

Publiée le
DevOps
Docker
Mongodb

1 an
Île-de-France, France
Contexte de la mission Dans le cadre d’un programme stratégique d’IA augmentée , la mission vise à concevoir et déployer un dispositif de benchmark permettant d’évaluer les technologies et solutions d’IA générative du marché. L’objectif est de sécuriser les choix technologiques , réduire les risques et structurer une roadmap produits et technologies IA . Objectifs globaux Mettre en place une architecture data complète dédiée aux benchmarks IA générative Automatiser l’ingestion, la préparation, le versioning et l’évaluation des données Garantir performance, scalabilité, traçabilité et reproductibilité des benchmarks Missions principalesArchitecture & Data Engineering Concevoir et implémenter des pipelines automatisés d’ingestion, nettoyage et versioning des datasets Développer des pipelines de génération d’embeddings et de collecte des résultats des modèles IA Mettre en place et administrer des bases de données : Vectorielles SQL / NoSQL Stockage objet (volumes importants) Définir une architecture data robuste répondant aux exigences de performance et de scalabilité DevOps & Industrialisation Conteneurisation des environnements ( Docker ) Mise en place d’ Infrastructure as Code (IaC) Automatisation CI/CD et déploiements reproductibles Qualité, documentation & gouvernance Rédiger le dictionnaire de données Produire la documentation technique complète Définir les procédures de validation et de contrôle qualité des données Assurer la traçabilité et la conformité des traitements Livrables attendus Architecture data détaillée (schémas, flux, intégrations) Infrastructure data opérationnelle (DB vectorielles, SQL/NoSQL, stockage objet) Environnements reproductibles (IaC, Docker, configurations) Code source documenté et versionné des pipelines Dictionnaire de données et documentation technique Procédures de validation et critères d’acceptation qualité Méthodologie Travail en mode Agile Participation aux rituels agiles et points d’avancement réguliers Reporting mensuel : livrables réalisés, à venir, points bloquants Compétences techniques requisesImpératives Python avancé (API, scripts, pipelines data) Bases de données : PostgreSQL, MongoDB, bases vectorielles Cloud : Google Cloud Platform (GCP) DevOps : Docker, Kubernetes, CI/CD (GitLab CI) Architecture Data & Big Data IA générative : LLM, RAG, embeddings, prompts Appréciées IaC (Terraform ou équivalent) Tests unitaires, intégration et fonctionnels Software Craftsmanship (code review, pair programming) Connaissances fonctionnelles Concepts IA : LLM, agents, assistants, hallucinations, prompts Usage critique et éthique de l’IA RGPD et enjeux éthiques liés à l’IA Langues Anglais technique courant – impératif (oral & écrit)
CDI
Freelance

Offre d'emploi
Data Engineer - Spécialisation GenAI & LLM

Publiée le
CI/CD
GenAI
Git

24 mois
Paris, France
Télétravail partiel
Panda Services , société de services informatiques, recherche pour l’un de ses clients basé à Paris (75) un(e) Data Engineer - Spécialisation GenAI & LLM Contexte Nous renforçons notre équipe Data pour accompagner le déploiement de cas d’usage stratégiques en IA générative et LLM . Vous rejoindrez une plateforme data cloud moderne, au cœur des enjeux de valorisation des données structurées et non structurées , avec un objectif clair : rendre la donnée directement exploitable par des modèles LLM à l’échelle industrielle . Vos missions 🔹 Data Engineering moderne Concevoir et développer des pipelines ELT performants et scalables sur Snowflake Construire des modèles de données analytiques optimisés pour les usages BI et GenAI Optimiser les coûts, la performance et la sécurité de la plateforme data cloud 🔹 DataOps & qualité des données Mettre en place des tests, contrôles qualité et standards data indispensables à des projets LLM fiables Industrialiser les pipelines via Git, CI/CD et automatisation Participer à l’outillage DataOps / MLOps orienté LLM 🔹 Données & IA générative (axe clé du poste) Ingestion et préparation de données structurées, semi-structurées et non structurées (textes, documents, etc.) Contribution directe à des projets GenAI & LLM : génération et gestion d’ embeddings mise en œuvre d’architectures RAG (Retrieval Augmented Generation) exploitation et structuration de corpus documentaires pour les LLM Travailler avec les équipes IA pour garantir la qualité, la fraîcheur et la traçabilité des données exposées aux modèles 🔹 Collaboration Travail en étroite collaboration avec les équipes Data, BI, IA et Produit Force de proposition sur les bonnes pratiques Data & GenAI Profil recherché Compétences techniques Snowflake SQL avancé Python (data processing, préparation de données pour IA) Data modeling analytique Environnements cloud Git / CI-CD / DataOps Solides bases ou forte appétence pour les LLM & l’IA générative : embeddings RAG traitement de données textuelles Profil Forte curiosité pour les usages concrets de l’IA générative Capacité à évoluer dans des environnements data modernes et transverses Esprit d’optimisation, autonomie et sens de la qualité Envie de participer à des projets GenAI à fort impact business
CDI

Offre d'emploi
Consultant·e Senior Data et Power BI

Publiée le

40k-60k €
France
Télétravail partiel
Nous recrutons en CDI un·e Consultant.e Senior Data & BI - Microsoft Fabric & Power BI ! Vous rejoignez une équipe orientée Business Applications et Intelligence Artificielle, avec pour mission de structurer et développer la pratique Data autour de Microsoft Fabric et Power BI. Ce rôle est stratégique pour accompagner nos clients dans la modernisation de leurs solutions analytiques. Vos futurs défis : o Architecture & Data Engineering - Déployer des solutions Microsoft Fabric (OneLake, Lakehouse, Dataflows Gen2, pipelines). - Mettre en place la gouvernance des données, la sécurité et les processus CI/CD. - Collaborer avec les experts Business Apps & IA pour intégrer la donnée dans les applications métiers. o Business Intelligence & Reporting - Concevoir des rapports et dashboards interactifs avec Power BI. - Optimiser les modèles de données et les performances (DAX, M). - Accompagner les métiers dans le self-service BI. o Innovation & Conseil - Participer à la définition de notre offre Data & Analytics. - Contribuer à des projets IA en exploitant les données (préparation, qualité, intégration). - Assurer une veille technologique sur Fabric, BI et IA.
Freelance

Mission freelance
Data Engineer Industrial (Industry 4.0) - Belgique

Publiée le
Snowflake

1 an
500-550 €
Belgique
Télétravail partiel
Contexte Des sites industriels spécialisés dans la fabrication de composants métalliques de haute précision produisent des pièces critiques en titane, impliquant des opérations d’usinage et de forge extrêmement fines (ordre de grandeur : 10 µm). Une équipe dédiée à la modernisation industrielle est responsable de fournir des outils digitaux et des solutions technologiques avancées en support aux métiers et aux unités de production. Dans le cadre d’un programme ambitieux de modernisation industrielle (Industry 4.0), l’équipe recherche un Data Engineer afin de développer des pipelines de données industriels. L’objectif principal est de concevoir et déployer des pipelines de données (ETL) robustes, scalables et sécurisés, en s’appuyant sur des technologies pérennes, au sein d’architectures hybrides combinant environnements on-premise et cloud. Ce rôle est essentiel pour fiabiliser les flux de données industriels, exposer les données via un Unified Namespace et des APIs robustes, et en permettre l’exploitation à grande échelle dans un contexte sécurisé et opérationnel. Structure du département L’équipe est composée d’ingénieurs spécialisés dans l’interface entre le monde industriel (OT) et les systèmes d’information manufacturiers (IT). Parmi les expertises présentes : IT Platform Manufacturing Execution Systems Unified Namespace (collecte et distribution temps réel) Inspection Qualité Data (BI, Machine Learning, IA, etc.) Attractivité du poste Le projet vise à concevoir et développer la plateforme Manufacturing 4.0 du futur, intégrant notamment : pilotage par la donnée, robotique, intelligence artificielle. Fonction Tâches En collaboration avec les équipes data, IT et métiers industriels, vous devrez : Concevoir & développer des pipelines de collecte de données machines (fichiers, flux, capteurs, MES) Décoder et transformer des données brutes en formats exploitables (JSON, tables analytiques) Implémenter des transformations complexes Développer & déployer des APIs data Industrialiser les solutions via containers & CI/CD GitLab Maintenir les modèles de données & pipelines dans Snowflake Travailler avec les équipes IT pour l’intégration Documenter & partager les bonnes pratiques Challenges Être un acteur clé de la modernisation 4.0 Fiabiliser les flux data issus des machines Concevoir des architectures robustes & maintenables Concilier contraintes industrielles / IT / qualité de données Faire évoluer les pratiques Data Engineering Interactions internes & externes Intégration au sein de l’équipe Manufacturing 4.0 Interactions régulières avec les équipes MES, Qualité, Maintenance, UNS, IT, Cloud Collaboration possible avec des partenaires technologiques externes Mobilité Travail principalement en présentiel sur site industriel Déplacements ponctuels sur un second site de production Télétravail possible jusqu’à 2 jours/semaine selon les besoins
Freelance

Mission freelance
Ingénieur BI - SAP Datasphere

Publiée le
BI

3 mois
Île-de-France, France
Télétravail partiel
Je recherche, pour l’un de mes clients finaux, un ingénieur BI expérimenté afin de renforcer leurs équipes Data dans le cadre d’un projet de modernisation BI autour de SAP Datasphere. Le rôle s’inscrit dans un environnement SAP S/4HANA et Power BI, au sein d’une équipe internationale en forte transformation. Missions principales : Participer à la conception et au développement du Data Warehouse SAP Datasphere, en lien étroit avec les équipes SAP et les métiers. Mettre en place et maintenir les modèles de données (views, datasets, modèles analytiques) selon les bonnes pratiques SAP. Intégrer, transformer et documenter les flux de données provenant de SAP S/4HANA et de sources externes. Concevoir et optimiser les rapports et tableaux de bord Power BI connectés à SAP Datasphere. Contribuer à la migration et à la reprise de l’existant depuis d’autres outils BI (Qlik, Cognos, Power BI on-premise, etc.). Assurer la qualité, la cohérence et la performance des modèles de données tout au long du cycle projet. Collaborer avec les architectes BI et chefs de projet pour garantir la gouvernance et la standardisation des solutions Data. Profil recherché : 5 ans d’expérience minimum en Business Intelligence / Data Engineering. Maîtrise de SAP Datasphere (anciennement SAP Data Warehouse Cloud) et des concepts BW / HANA. Bonne compréhension des environnements SAP S/4HANA et SAP Analytics Cloud. Expérience dans la modélisation de données, la création de vues, la gestion des flux ETL et l’intégration vers des outils de reporting. Solides compétences sur Power BI (modélisation, DAX, visualisations). Connaissances des outils Qlik ou Cognos appréciées. Esprit d’analyse, rigueur, sens du travail en équipe et autonomie. Français et anglais impératifs (contexte international). Détails de la mission : Démarrage : Décembre 2025 / Janvier 2026 Localisation : Paris 95 – 3 jours sur site / 2 jours remote Durée : 3 mois renouvelable – Mission longue Si vous souhaitez obtenir davantage d’informations sur le poste ou recommander un collègue ou un ami, n’hésitez pas à me contacter par mail avec votre CV à jour au format Word
Freelance

Mission freelance
Lead data en Ile de France

Publiée le
Apache Airflow
AWS Cloud
DBT

6 mois
Île-de-France, France
Télétravail partiel
NOUVELLE OPPORTUNITÉ – MISSION FREELANCE Je recrute un(e) TECH LEAD / LEAD DATA pour un client final. Démarrage : début janvier Localisation : Ile de France/ hybride Durée : mission longue, renouvelable Profil recherché Expérience confirmée en TECH LEAD / LEAD DATA => Stacks techniques obligatoires : SQL / Environnement Cloud (AWS) / Snowflake / dbt / Airflow / => BI / Dataviz (ex : Tableau ou équivalent) Solide background technique (Data / Cloud / Engineering) À l’aise avec les enjeux d’architecture, qualité et delivery Responsabilités clés Co-pilotage de l’équipe (priorisation, planification, animation) Binôme étroit avec le Product Owner Encadrement de Data Engineers (internes & externes) Mise en œuvre des bonnes pratiques (DevOps, qualité, FinOps, RUN) Cadrage, découpage et estimation des sujets Data Choix d’architectures et de modélisation Data Livraison des produits dans le respect des délais et standards Gestion des incidents, communication et escalade des risques Contribution à la dynamique collective et aux instances Data/Engineering Objectifs à court/moyen terme Redynamiser et structurer l’équipe Réduire les dépendances individuelles et sécuriser le RUN Auditer l’existant et réduire la dette technique Reprendre et intégrer de nouveaux produits Data stratégiques Accompagner des initiatives à fort enjeu décisionnel Intégrer un nouveau Product Owner
Freelance

Mission freelance
Ingénieur Support Technique & Fonctionnel – Plateforme Data (GCP)

Publiée le
Ansible
Google Cloud Platform (GCP)
Helm

3 ans
100-530 €
Lille, Hauts-de-France
Télétravail partiel
Contexte Rattaché à la Global Tech & Data Platform , domaine Voice of Customer . Support fonctionnel et technique sur le produit Datahub Pipelines (data engineering). Environnement Google Cloud Platform (GCP) . Missions principales Analyser et résoudre des incidents complexes. Identifier les incidents récurrents et proposer des solutions pérennes. Traiter les demandes de services et questions des utilisateurs internes. Collaborer avec les équipes produit pour diagnostiquer, résoudre et prévenir les incidents. Accompagner les nouveaux utilisateurs (onboarding). Contribuer à l’automatisation et à l’amélioration continue des produits. Documenter et partager les résolutions pour capitaliser. Compétences techniques requises Cloud Computing : GCP (Confirmé – impératif) Data Engineering : Confirmé – impératif Observabilité & Monitoring : Datadog (Confirmé – important), Prometheus, Grafana Infrastructure as Code & Automatisation : Terraform, Ansible, Helm, Kubernetes (Confirmé – important) Scripting : Python, Bash, Go Gestion des alertes : PagerDuty
CDI
Freelance

Offre d'emploi
Data Engineer (H/F)(spécialisation et certification Snowflake exigées)

Publiée le
Agile Scrum
Azure
Data analysis

12 mois
Paris, France
Télétravail partiel
Data Engineer (spécialisation Snowflake) Contexte du poste Au sein de la Direction des Systèmes d’Information, le Data Engineer rejoint l’équipe Data, responsable de la conception, de la mise en œuvre et de la maintenance des solutions d’exploitation et de valorisation des données. Dans un contexte de modernisation du SI et de structuration des usages data, l’entreprise déploie la plateforme Snowflake , solution cloud de référence pour unifier le stockage, le traitement et le partage des données. Missions principales Le Data Engineer interviendra sur l’ensemble de la chaîne de traitement de la donnée : 1. Conception et développement Concevoir, développer et orchestrer les flux de données sur Snowflake (Snowpipe, Streams, Tasks, Snowflake Pipelines). Définir et maintenir les modèles de données (zones Raw, Staging, Core, Data Marts). Développer des pipelines d’ingestion et de transformation de données (batch, near real-time). Garantir la qualité, la performance et la fiabilité des traitements. 2. Intégration et industrialisation Optimiser les coûts, la gouvernance et les performances de la plateforme Snowflake. Documenter les architectures, flux, schémas et traitements. Participer à l’industrialisation des processus Data Engineering (DataOps). 3. Gouvernance et sécurité des données Collaborer avec le Head of Data et le Data Architect pour concevoir une plateforme data conforme aux standards. Mettre en œuvre les bonnes pratiques de sécurité (RBAC, gestion des rôles et privilèges), de catalogage et de gestion des métadonnées. Contribuer à l’amélioration continue des normes de gouvernance data. 4. Support et amélioration continue Assurer le support technique des environnements Snowflake. Identifier les axes d’amélioration et accompagner les évolutions de la plateforme data. Former et accompagner les utilisateurs métiers, analystes et équipes BI.
Freelance
CDI

Offre d'emploi
Data Engineer

Publiée le
Ansible
Big Data
Elasticsearch

1 an
40k-45k €
250-540 €
Paris, France
Télétravail partiel
Descriptif du poste La mission se déroule au sein de l'équipe Infrastructure CaaS (Container As a Service) pour la gestion, la maintenance et le contrôle de la Data et des assets de l'équipe. Nous proposons une mission de Data Engineering avec des expertises des produits récents sur le Big Data. Responsabilités Interaction avec REST APIs Gestion des jobs et administration Ansible + Scripts Python BigData Opensearch / Elastic + Dashboard Kibana / Power BI Technologies Confluence / JIRA pour la gestion documentaire, Git / Bitbucket
Freelance

Mission freelance
Data Engineer Expert DataVault - Snowflake / dbt– Azure

Publiée le
Azure
Azure DevOps
DBT

3 mois
400-550 €
Île-de-France, France
Télétravail partiel
Nous recherchons un Data Engineer avec une expertise confirmée en modélisation DataVault (compétence indispensable) ainsi qu’une maîtrise de dbt et Snowflake , dans un environnement Azure . La mission s’inscrit dans une transformation Data stratégique visant à industrialiser et standardiser les flux de données. Missions : Concevoir, développer et faire évoluer la plateforme Data basée sur Snowflake et dbt. Modéliser, structurer et optimiser les modèles DataVault (Hubs, Links, Satellites) . Industrialiser, automatiser et fiabiliser les pipelines ETL/ELT . Contribuer à la mise en place et au respect de l’approche ATDD . Assurer la qualité, la traçabilité et la cohérence des produits data. Collaborer avec les équipes Data, Engineering et Projets pour garantir la valeur des solutions livrées.
Freelance

Mission freelance
Data Engineer Python / AWS (h/f)

Publiée le

1 mois
550-580 €
1000, Bruxelles, Bruxelles-Capitale, Belgique
Télétravail partiel
Contexte : Le Data Engineer Python / AWS est chargé de concevoir et maintenir des pipelines de données efficaces au sein de l'équipe Power Data. Ce rôle exige une expertise approfondie en Python et AWS, ainsi que des compétences en ingénierie des données pour transformer les besoins commerciaux en solutions fonctionnelles basées sur les données. Livrables : Collecte de données Préparation et nettoyage des données à l'aide de Dataiku Création et maintenance de pipelines de données Ingestion de données dans un data lake Traitement et transformation des données selon des cas d'utilisation Intégration de Dataiku, services AWS et PowerBI Développement et maintenance de dashboards et rapports PowerBI Visualisation efficace des données Formation et mentorat sur les meilleures pratiques Compétences : Expérience en ingénierie des données (Data Engineering) Maîtrise de Python Expérience avec AWS Compétences en analyse de données et en création de modèles de données Connaissance de Dataiku et PowerBI Compétences en gestion de la qualité et sécurité des données Expérience en visualisation de données Anglais courant / Français est un plus Autres Détails : Télétravail 3 jours par semaine, intégration à une équipe à Bruxelles avec des déplacements occasionnels à Paris. Durée du contrat : 3 ans.

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

Voir tous les derniers posts
62 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous