L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 272 résultats.
Mission freelance
Développeur / Data Engineer Observabilité
Publiée le
Python
6 mois
540-630 €
Levallois-Perret, Île-de-France
Télétravail partiel
Contexte Nous recherchons un Développeur Senior possédant une double expertise en Développement Backend et en Ingénierie des Données, pour intégrer une équipe dédiée à l’Observabilité. Le consultant interviendra dans un environnement Azure et DevOps, avec un fort enjeu de fiabilité, performance et gouvernance des données. Localisation et modalités Lieu : Levallois-Perret Hybridation : 2 à 3 jours sur site / semaine Durée : engagement long terme (jusqu’à 3 ans) Démarrage : 13/10/2025 Fin prévue : 12/10/2026 Seniorité : +8 ans d’expérience minimum Missions et Responsabilités Développement Backend Concevoir, développer et maintenir des services backend (Python, PySpark). Exposer des APIs et intégrations orientées Observabilité. Data Engineering Construire et orchestrer des pipelines ELT/ETL robustes (Airflow, Spark, Python). Assurer la qualité, le lineage, la sécurité et l’observabilité des données. Stockage & Visualisation Gérer les données via PostgreSQL, Azure Blob Storage et ADLS. Créer des dashboards avancés avec Grafana pour la supervision des performances. Collaboration & Méthodologie Travailler avec les équipes de développement et le Product Owner (Agile/Scrum). Intégrer les pratiques d’observabilité dans les cycles de développement pour améliorer résilience et visibilité. Compétences techniques requises Langages : Python, PySpark, SQL, NoSQL (ElasticSearch). Data & orchestration : Spark, Airflow, PostgreSQL, ADLS, Azure Blob Storage. Observabilité : ELK Stack, Logstash, Azure Log Analytics (KQL), Grafana. Cloud & Infrastructure : Azure (AKS, Azure Functions, Event Hub, Delta Lake). CI/CD : GitHub Actions, intégration et déploiement continus. Bonus : Kafka, Spark Structured Streaming. Qualifications & Profil Diplôme en informatique/ingénierie ou équivalent. Expérience : 6+ ans en Data Engineering / Développement backend (dont plusieurs en environnement Azure & DevOps). Langues : Français et Anglais courants (écrit et oral). Résumé Mission longue (1 à 3 ans) sur Levallois-Perret, orientée sur le développement backend et l’ingénierie de données pour renforcer l’observabilité des systèmes critiques.
Offre d'emploi
Data Engineer – Microsoft BI (SSAS) & Spark/Scala.
Publiée le
Apache Spark
Microsoft Analysis Services (SSAS)
Scala
3 ans
25k-58k €
310-530 €
Paris, France
Télétravail partiel
Bonjour, Pour le compte de notre client, nous recherchons un Data Engineer – Microsoft BI (SSAS) & Spark/Scala Au sein de l'équipe data / BI, vous interviendrez sur des projets stratégiques liés à la gestion, la transformation et la valorisation de la donnée. L’objectif de la mission est d’accompagner la Direction Financière à sortir d’Excel et aller vers Power BI. Pour cela, le data eng travaillera en binôme avec un PO pour comprendre l’existant et réaliser cette bascule. Vous aurez un rôle clé dans le développement, l'optimisation et la modélisation de traitements data complexes, avec un focus particulier sur la mise en place et la maintenance de cube tabulaires. Développement et intégration Optimisation Modélisation des données Recueil et analyse des besoins Documentation et support..
Offre d'emploi
Data engineer ETL Airflow
Publiée le
Apache Airflow
3 ans
40k-45k €
400-500 €
Île-de-France, France
Télétravail partiel
Data/ML Engineer – Secteur bancaire (IDF) – DISPO ASAP – MISSION LONGUE Contexte : Accélération IA – chantier Knowledge Management pour constituer une base de connaissance à partir de documents non structurés (PDF, Word, HTML). Un pipeline initial existe et doit être industrialisé pour une exécution fiable, scalable et maintenable. Objectif : Développer les pipelines d’ingestion, transformation et alimentation de la base, en assurant versioning et traçabilité . Activités : Modéliser l’architecture technique (ingestion → stockage) Développer des flux ETL modulaires (OCR, transformation, enrichissement) Standardiser le format pivot et les conventions de métadonnées Assurer l’historisation, le versioning et la traçabilité des documents Implémenter un orchestrateur (Airflow/Dagster/Prefect) si nécessaire Suivre la robustesse sur des volumes variés Collaborer avec les équipes KM et Data Science Documenter l’ensemble des flux de traitement
Mission freelance
Data Engineer (H/F)
Publiée le
Google Cloud Platform (GCP)
HFSQL
Microsoft Power BI
2 ans
100-430 €
Lille, Hauts-de-France
Télétravail partiel
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data Engineer (H/F) à Lille, France. Contexte : Les missions attendues par le Data Engineer (H/F) : - Participation au cadrage du besoin avec les équipes concernées - Participation à la conception et aux développements des pipelines de données - Refactoring de pipelines de données (Cleaning, technos cibles, ...) - Finops et optimisation - Développements de scripts et algos - Accompagnement des équipes métiers sur le développement d'analyse ponctuelle et éventuellement de la data visualisation (modèle & reports/dashboards)
Offre d'emploi
Data Engineer (H/F)
Publiée le
Data analysis
PowerBI
PySpark
46k-60k €
Paris, France
Télétravail partiel
CITECH recrute ! 👌 ✨ Vous souhaitez mettre vos talents au service d’un groupe de renom dans le secteur de la culture et du loisir ? Nous avons LA mission qu’il vous faut ! Nous recherchons un(e) Data Engineer (H/F) pour rejoindre une équipe dynamique et internationale. 👈 Au sein de notre DSI parisienne et rattaché à la responsable DATA & BI, vous serez en charge d’analyser, calculer et interpréter des données complexes afin de soutenir la prise de décision business et améliorer la qualité des données. 🙌🔽 Vos principales missions seront les suivantes : 🔽🙌 🔸 Mise en œuvre des flux de données de la data plateforme 🔸 Compréhension de l'expression de besoin 🔸 Architecture logicielle de la solution 🔸 Développements, tests et déploiements dans les divers environnements jusqu'en production
Mission freelance
Tech lead data engineer H/F
Publiée le
Azure
Azure DevOps
Databricks
1 an
500-580 €
Châtillon, Île-de-France
Télétravail partiel
🎯 Contexte et Environnement Au sein de la Direction Digital & Data , l’équipe Data Lab intervient sur les périmètres Data & Analytics dans le cadre de la transformation du système d’information du groupement. Le/la Tech Lead rejoindra la Data Factory (rassemblant les équipes IT et métiers), dont la mission est de concevoir et déployer des produits analytiques innovants à destination des magasins, de la logistique, des fonctions support et des consommateurs. Face à la montée en puissance des besoins, l’organisation évolue selon un modèle Agile structuré en Domaines et Squads , avec une forte ambition d’industrialisation et de valorisation du patrimoine de données.
Mission freelance
Data Engineer / Expert Big Data – Cloud & On-Prem - Certifié ITIL V4 Obligatoire
Publiée le
AWS Cloud
Google Cloud Platform (GCP)
Migration
6 mois
750-800 €
Île-de-France, France
Télétravail partiel
Rejoignez une équipe DATA/IA d’une vingtaine de personnes pour accompagner la migration des projets vers des infrastructures modernes on-prem et cloud public (AWS / GCP) ✅ Accompagner les projets dans leur migration vers des architectures modernes (AWS / GCP / on-prem). ✅ Participer à la conception et à la mise en œuvre des infrastructures Data (en lien avec les CloudOps & Architectes). ✅ Paramétrer, configurer et tester les plateformes (performances, résilience, reprise d’activité). ✅ Implémenter le monitoring et l’alerting. ✅ Rédiger les documents d’exploitation et contribuer à la montée en compétence des équipes. ✅ Participer au RUN : gestion des incidents, patching, upgrades et astreintes.
Offre d'emploi
Data Engineer Fullstack (Cloud & On-Prem)
Publiée le
Cloud
Java
Microsoft Power BI
6 mois
40k-50k €
400-590 €
Tours, Centre-Val de Loire
Télétravail partiel
Contexte de la mission : Renfort d’une équipe Data pour intervenir sur des activités de Run, Build, Expertise et Accompagnement , dans un environnement hybride Cloud / On-Premise (cible On-Premise). Principales responsabilités : Participer à la conception technique des produits logiciels. Contribuer à la recherche et à la définition de solutions techniques adaptées. Prendre en charge une partie des développements. Accompagner et coacher les autres développeurs (optimisation de code, bonnes pratiques, etc.). Collaborer à l’intégration des produits dans le SI en lien avec les architectes Data. Garantir la qualité et la maintenabilité des produits logiciels. Accompagner les métiers dans la mise en œuvre de leurs cas d’usage Data. Compétences obligatoires : Maîtrise de Spark / Java. Maîtrise de Python. Maîtrise du SQL. Expérience sur les services Cloud (stockage, traitement, orchestration, fonctions serverless). Pratique des outils CI/CD (Git, Jenkins, …). Connaissance d’un ETL (type XDI, ODI ou équivalent). Compétences souhaitées : Docker. Terraform. Outils de reporting / dataviz (Power BI, BO, …). Secteur : Tours
Offre d'emploi
Data Engineer: SAP BW, HANA Studio, Databricks, Dataiku, SQL, Python, Contract, 2 years, Bruxelles
Publiée le
Data governance
Databricks
Dataiku
2 ans
40k-45k €
550-770 €
Hauts-de-France, France
Télétravail partiel
Pour un grand client final Bruxelles (minimum 2 jours/semaine sur site). De décembre 2025 à fin 2027. Dans le cadre de l’architecture cible, les plateformes BW/HANA, Databricks et Dataiku sont au cœur des activités de migration et de transformation des données. Vous rejoignez l’équipe opérationnelle Data Governance en tant qu’expert data, responsable de maintenir, concevoir et optimiser les processus de transformation et de modélisation des données en utilisant SAP BW, SAP HANA Studio, Databricks et Dataiku. Objectif: garantir la qualité, la performance et la pertinence des données pour les besoins métier. Responsabilités Développer et maintenir des flux complexes de transformation et de modélisation des données via BW et HANA Studio (modélisation avancée, développement, optimisation). Exploiter Databricks pour le stockage, le calcul et l’industrialisation des données. Utiliser Dataiku pour la transformation de données, avec un focus sur les recettes visuelles et le développement de plug-ins personnalisés. Assurer la qualité et l’intégrité des données sur l’ensemble du cycle de vie. Collaborer avec les parties prenantes techniques et fonctionnelles.
Mission freelance
Data engineer
Publiée le
Apache Spark
AWS Cloud
Big Data
12 mois
510-550 €
Paris, France
Télétravail partiel
Description Grâce à ses compétences alliant développement bigdata, appétences pour les modèles d’IA et architecture applicative, le data engineer participe à la conception d’applications mettant à l’échelle des algorithmes créateurs de valeur pour l’entreprise. Livrables • Définition et analyse des structures de données. • Contribution dans les assets des différentes équipes produits pour interconnecter et collecter les données. • Mise à disposition de la data et des recommandations à des systèmes externes (APIs, exports, injection de données). • Connaître et respecter dans nos propositions de valeur les exigences et problématiques liées aux réglementations en vigueur (RGPD, Data privacy, etc.) et aux standards et tendances du secteur (éco-conception, etc.). • Garant de la production (mise en place de monitoring et alerting et intervention si nécessaire). • Développement et maintien du continuous delivery (participer à l’intégration continue et à l’usine logicielle, déploiements et tests automatisés). • Présentation et explication des réalisations à des publics métiers et techniques.
Mission freelance
Data Engineer (H/F)
Publiée le
Google Cloud Platform (GCP)
HFSQL
Microsoft Power BI
2 ans
100-450 €
Lille, Hauts-de-France
Télétravail partiel
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data Engineer (H/F) à Lille, France. Contexte : L'objectif principal est de standardiser et maintenir l'ensemble des KPI, revoir et mettre au propre les modèles de données avec la création d'un dictionnaire de données issue de notre Data Catalog , accompagner le PO dans les échanges autour de la DATA avec les BU et traiter la dette technique et sujets demandés par les équipes transverses et Product Manager. Les missions attendues par le Data Engineer (H/F) : Collecte et préparation des données : Identifier, collecter et agréger les données pertinentes issues de diverses sources (logs applicatifs, bases de données transactionnelles, données partenaires). Modélisation et développement : Concevoir et construire des flux de données (ETL/ELT) optimisés pour le traitement de gros volumes de données. Industrialisation : Mettre en production des scripts et modèles d'analyse de données, en assurer la maintenance et garantir leur bon fonctionnement. Data Analyse et Visualisation : Traduire les besoins métier en indicateurs de performance (KPIs). Collaboration : Travailler en étroite collaboration avec les Data Scientists pour l'intégration de modèles prédictifs, et avec les équipes métier (analystes fraude, experts assurance) pour bien comprendre les enjeux et affiner les solutions.
Offre d'emploi
Data Engineer Teradata
Publiée le
DevOps
IBM DataStage
SQL
Île-de-France, France
Télétravail partiel
Contexte : Nous recherchons des développeurs Teradata pour accompagner notre client, un grand compte bancaire dans le développement d'application sur la base de puissantes plates-formes DATA. Votre environnement de travail en tant de Data Engineer TERADATA : Développement Teradata / SQL Connaissance de Unix Connaissance de Control M La connaissance de la démarche DevOps est un plus Mode de chargement dans l’entrepôt : T3R , BTEQ , Datastage Teradata Mode d’historisation dans l’entrepôt (CRI, CRE, CRO) Chargement par flux MVS (anciens chargements avec TPT MVS) Chargement par flux Big Data Suivi des chargements sous CONTROL-M Formation succincte de Collecte / alimentation de Datastage Environnement UNIX (répertoires principaux, Usage & Entrepôt) SQL sur SGBD relationnel (Teradata) Outils collaboratifs et documentaires : GIT, Jira, Confluence, MEGA, Zeenea L’environnement technique : BTEQ Teradata Datastage Datawarehouse SQL DevOps
Mission freelance
Data analyst-Data Engineer (H/P)
Publiée le
Pandas
PySpark
Tableau software
3 ans
100-600 €
Meudon, Île-de-France
Télétravail partiel
Description du poste : Nous recherchons un(e) Data Analyst pour intervenir au sein de la Cellule Qualité Fixe (CQF) de Bouygues Telecom. Le rôle consiste à produire des analyses à partir de datasets constitués sur les plateformes Big Data, préparer et nettoyer les données, et les rendre disponibles pour les datascientists. Vous développerez également des tableaux de bord de suivi des KPI via Tableau. Missions principales : Exploiter et superviser la plateforme Big Data (monitoring Wifi des Box). Assurer le suivi des KPI et mettre en œuvre de nouveaux indicateurs. Investiguer les incidents et coordonner les actions avec les fournisseurs et les équipes internes. Développer des scripts Scala / Spark pour préparer et nettoyer les données. Gérer la sécurité, les sauvegardes et le déploiement des correctifs. Piloter les évolutions de la plateforme (hardware, applicatifs, architecture réseau). Superviser et maintenir la plateforme Data en microservices (Kubernetes/OpenShift). Déployer et gérer les applicatifs via Helm et GitLab. Administrer les utilisateurs, les buckets et les règles de gestion du datalake. Développer des dashboards Tableau et générer des KPI pour l’équipe.
Mission freelance
SENIOR DATA ENGINEER SNOWFLAKE - DBT (Azure)
Publiée le
Azure
Azure DevOps
DBT
3 mois
400-650 €
Île-de-France, France
Télétravail partiel
Notre client renforce son équipe Data dans le cadre de l’évolution de sa Data Platform. Au sein d’un environnement moderne et exigeant, vous participerez à des projets stratégiques de modélisation, d’analyse et de valorisation des données. En tant que Senior Analytics Engineer , vous serez intégré à la Data Platform et interviendrez sur l’ensemble de la chaîne de traitement de la donnée. Vos responsabilités incluront : 📊 Modélisation & Transformation de la donnée : Conception des hubs, satellites et links selon l’approche Data Vault 2.0 Développement de modèles dans dbt Cloud (SQL, Python) Création de macros/tests pour la qualité des données Gestion des projets dbt : versioning, documentation, administration des accès 🧩 Architecture & Data Engineering : Étude des architectures existantes et proposition d’optimisations Création et gestion des objets Snowflake (tables, vues, rôles, sécurité) Optimisation des performances des bases de données 📈 Data Visualisation : Création, évolution et maintenance des modèles sémantiques dans Power BI Développement de rapports avancés et intégration des mesures DAX Mise en œuvre du Row-Level Security Adaptation des métadonnées pour les filiales internationales 🔄 CI/CD & Qualité : Participation aux processus CI/CD via Azure DevOps Suivi des performances, contrôle qualité et automatisation des pipelines
Mission freelance
Data Platform Engineer - Terraform
Publiée le
CI/CD
DevOps
JIRA
6 mois
400-500 €
Paris, France
Télétravail 100%
Bonjour, Nou recherchons pour l'un de nos clients intégrateurs un ingénieur plateforme de données. Description du poste : En tant qu'ingénieur plateforme de données, vous êtes spécialisé dans la conception, le développement et la maintenance de l'infrastructure sous-jacente qui prend en charge les pipelines de données et les applications basées sur les données d'une organisation. Vos responsabilités sont hautement techniques et consistent à créer un écosystème de données robuste, évolutif et fiable.
Offre d'emploi
Data Engineer Senior - Tours
Publiée le
Java
Microsoft Power BI
Python
12 mois
40k-45k €
400-640 €
Tours, Centre-Val de Loire
Vos principales responsabilitésComitologie, documentation & cartographie data Préparer et animer les instances transverses DSIM (League Design Data, Guildes Data, etc.) Documenter les assets Data de la plateforme DSIM (SimDoc, Datahub, Datalab) Réaliser la cartographie des données et concevoir/développer les outils associés Expertise Data Apporter un accompagnement technique et un rôle de conseil sur les projets Data / Big Data (Datahub & Datalab) Participer à l’analyse, la conception et la refonte d’assets Data transverses Contribuer au suivi des évolutions et migrations de la stack technique DSIM Facilitation et coordination Jouer un rôle de médiation entre projets transverses Accompagner l’expression des besoins et la rédaction de spécifications technico-fonctionnelles Compétences obligatoires Minimum 10 ans d’expérience dans le domaine Data / Big Data Maîtrise de la modélisation et cartographie Data Maîtrise des environnements : Spark/Java, Kafka Entreprise, Starburst, OpenShift, SQL Excellentes qualités relationnelles : coordination, écoute, pédagogie Compétences optionnelles Power BI SAS Python
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
272 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois