L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 341 résultats.
Mission freelance
Data Engineer AWS / GenAI
Cherry Pick
Publiée le
Amazon S3
Apache Airflow
Apache Spark
12 mois
450-550 €
Paris, France
Dans le cadre du plan de transformation DATA de notre Client, notre client développe des applications et plateformes DATA pour rendre nos métiers (pilotage, marketing, commerce, etc.) autonomes dans l’analyse de leurs données et KPI. Les infrastructures et projets incluent : AWS, GitLab, Terraform, DBT, Snowflake, Python, Scala, Spark, PowerBI, AI/GenAI Architectures Big Data sophistiquées pour ingérer plus de 100 par jour (Datalake, Event-Driven, Streaming, etc.) Exemples de projets : Chatbot AI Socle vidéo, navigation et calcul des audiences Recommandation de programmes via IA Feature Store et modernisation des flux financiers Plateformes CRM et partage de données partenaires Kubernetes et applications de data self-service Missions En tant que Data Engineer , vous serez en charge de : Concevoir, développer et maintenir des pipelines de données scalables et performants (ingestion, traitement et stockage de données massives). Développer des architectures Big Data sur AWS (S3, EMR, Lambda, Kinesis, Batch…), Snowflake et Spark. Développer en Scala et Python pour le traitement massif des données. Automatiser les workflows et orchestrer les pipelines avec Airflow et DBT . Concevoir et exposer des APIs customer-facing performantes. Optimiser les performances et garantir la scalabilité pour gérer un volume important d’utilisateurs. Collaborer avec les équipes Data Science, Produit et DevOps pour une intégration fluide.
Mission freelance
Data Engineer IA & API (GCP & AWS)
Cherry Pick
Publiée le
Apache Airflow
AWS Cloud
Docker
6 mois
460-580 €
Courbevoie, Île-de-France
Nous recherchons, pour le compte de notre client dans le secteur de l’énergie , un(e) Data Engineer Cloud afin de renforcer ses équipes data et accompagner des projets stratégiques à forte valeur ajoutée. Compétences clés indispensables Excellente maîtrise de Python Solide expérience sur AWS , notamment Redshift Mise en place et orchestration de pipelines data avec Apache Airflow Infrastructure as Code avec Terraform Développement d’API avec FastAPI Conteneurisation avec Docker Très bonne maîtrise du SQL et de la modélisation de données Atouts majeurs Expérience sur Google Cloud Platform (GCP) Connaissances ou intérêt fort pour l’ IA Agentic (agents autonomes, workflows intelligents, LLMs) Sensibilité DataOps / MLOps Expérience sur des architectures data modernes Profil attendu Formation Bac+5 (école d’ingénieur, université ou équivalent) 3 à 6 ans d’expérience en Data Engineering (adaptable) Autonome, rigoureux(se) et orienté(e) solutions Bon relationnel et esprit d’équipe Curiosité technologique et goût pour l’innovation 📍 Localisation : Courbevoie
Mission freelance
Tech Lead Data Engineer Java Python Azure
Cherry Pick
Publiée le
Azure
Java
PySpark
12 mois
600 €
Paris, France
But principal Le prestataire Tech Lead a pour mission principale de : • Contribuer au delivery du produit • Assurer les choix techniques en collaboration avec la squad dans le respect des standards, • Faire comprendre les choix techniques & obtenir l’adhésion des parties prenantes • Interagir au quotidien avec les parties prenantes (métier, tech authority...) • Garantir la qualité logicielle de la prestation de l'équipe Veiller à la bonne mise en œuvre du plan de développement du produit. Missions • Être le garant technique de la squad en la soutenant dans ses choix et dans la mise en œuvre des bonnes pratiques et standards • Garantir la qualité du code et suivre les KPIs pour le suivi de produit • Contribuer techniquement à la production du code • Remonter les alertes et garantir la résolution de problèmes dans un environnement agile en étroite collaboration avec Delivery Performance, Talent et Chapter leads • Être garant de la bonne mise en œuvre technique du plan de développement du produit.
Offre d'emploi
SENIOR DATA AND AI ENGINEER
ANDEMA
Publiée le
Azure
Databricks
36 mois
Lille, Hauts-de-France
Projet : Dans un contexte de transformation et d’accélération, la Data de la DSI opère la plateforme internationale Data et IA, reposant sur une architecture Cloud AZURE / Lakehouse et animée en agilité, se renforce en expertise de Data Engineers. L’équipe est en charge de : • La collecte et l’intégration des données • La structuration et la modélisation • La qualité et la performance des traitements • La préparation des datasets pour les usages métiers, analytiques et IA Votre mission : En tant que Senior Data and AI Engineer, vous travaillerez en collaboration étroite avec les métiers. Vous aurez la responsabilité de vérifier et d'améliorer les pratiques de développement ainsi que la mise en œuvre et l’amélioration de la plateforme Data en réponse aux besoins des différents projets. Localisation : métropole lilloise (3j de présentiel par semaine) Durée : mission longue
Mission freelance
Data Engineer senior/expert DBT ET IICS (Informatica Intelligent Cloud Services) /sa
WorldWide People
Publiée le
DBT
Informatica
Snowflake
6 mois
400-480 £GB
Clipperton Island, France
Data Engineer senior/expert DBT ET IICS (Informatica Intelligent Cloud Services) Bordeaux pour diriger la migration d'IICS vers DBT sur Snowflake. Connaissance approfondie d'IICS et de dbt : maîtrise parfaite des deux outils. Spécialisation en validation : expérience dans la vérification de la parité des données 1:1 à l'aide d'outils tels que dbt_audit_helper.) Stack : Snowflake, dbt, IICS et Airflow (pour l'orchestration). 5 à 10 ans d’expérience Anglais obligatoire Démarrage : asap Durée : min 3 mois Localisation : Bordeaux de préférence sinon France L'équipe recherche un data Engineer senior pour diriger la migration d'IICS vers DBT sur Snowflake. Le candidat idéal doit jouer le rôle de « traducteur » : il doit être capable de lire des mappages IICS hérités complexes (logique de rétro-ingénierie) et de les refactoriser en modèles SQL DBT modulaires et propres. Compétences requises : Connaissance approfondie d'IICS et de dbt : maîtrise parfaite des deux outils. Spécialisation en validation : expérience dans la vérification de la parité des données 1:1 à l'aide d'outils tels que dbt_audit_helper.) Stack : Snowflake, dbt, IICS et Airflow (pour l'orchestration).
Mission freelance
Fiche de poste – Data Engineer (Snowflake / DBT / Airflow / AWS)
Tenth Revolution Group
Publiée le
Apache Airflow
DBT
Snowflake
6 mois
480-600 €
Île-de-France, France
Contexte : Je recherche plusieurs Data Engineers pour un client final, dans le cadre de missions urgentes. Ces postes sont à pourvoir rapidement et nécessitent une expertise technique pointue. Intitulé du poste : Data Engineer – Snowflake / DBT / Airflow / AWS Missions principales : Concevoir, développer et maintenir des pipelines de données fiables et performants. Participer à l’architecture et à l’optimisation des solutions Cloud. Collaborer avec les équipes Data et les équipes métiers pour assurer la qualité des données et des flux. Mettre en place les bonnes pratiques DataOps et CI/CD pour les pipelines de données. Assurer le monitoring, la sécurité et l’optimisation des coûts des infrastructures cloud.
Mission freelance
Data Engineer senior/expert DBT/Snowflake 5 à 10 ans d’expérience Paris ou Lyon/sa
WorldWide People
Publiée le
DBT
Snowflake
3 mois
400-480 £GB
Paris, France
Data Engineer senior/expert DBT/Snowflake Paris ou Lyon 5 à 10 ans d’expérience Anglais obligatoire Démarrage : asap Durée : min 3 mois Localisation : Paris / Lyon de préférence Compétences requises : Snowflake : Maîtrise des fonctionnalités avancées de Snowflake (Time Travel, Zero-Copy Cloning) Configuration et optimisation des entrepôts Snowflake Gestion des étapes externes et de Snowpipe pour l'ingestion à partir d'AWS S3 Configuration et mise en œuvre des mécanismes de sécurité RBAC, RLS et Dynamic Data Masking Administration de la base de données Snowflake (création/gestion d'objets, monitoring, optimisation) dbt (outil de création de données) : Développement avancé de modèles SQL dans dbt Création et optimisation de modèles de données Utilisation des macros Jinja pour créer du code SQL dynamique et réutilisable Configuration des tests dbt pour la validation des données Mise en œuvre des instantanés dbt pour le suivi des modifications Création de DAG optimisés avec une gestion appropriée des balises et des dépendances Documentation des modèles de données
Mission freelance
[FBO] Data Engineer Expert Elastic Search (5 années d'expérience) - Guyancourt - 1178
ISUPPLIER
Publiée le
5 mois
450-525 €
Guyancourt, Île-de-France
Confirmé (Au moins 5 ans d’expérience) Secteur : Bancaire La transformation des SI de nos Clients vers des architectures modulaires, type micro-services, l’essor de nos infrastructures et l’évolution des technologies associées, ou encore l’automatisation accrue sur nos socles et applications, génèrent une quantité massive de Logs, devenues très hétérogènes, dispersées et silotées de par l’organisation du client et de ses Clients (équipes applicatives et socles multiples et dispersées). Prenant en compte ce cadre, vos missions seront plus spécifiquement : - Maîtriser l'ensemble des techniques et technologies composant la chaine de collecte à la mise à disposition des Logs - Accompagner les besoins et projets sur la collecte, transformation, stockage et mise à disposition des données, provenant de sources diverses en adéquation avec la Stratégie Data - Concevoir et mettre à disposition les outils et processus (CI/CD) permettant d’automatiser les pipelines d’ingestion de données prenant en compte les besoins de fréquences (batch, temps réel, …) - Développer et déployer des mécanismes de contrôle qualité ainsi que des routines de vérification pour garantir l'intégrité et la fiabilité des données Contexte technique - Kafka - Scripting Python/SQL/Java - Suite Elastic (ElasticSearch/Kibana) - Apache Flink / LogStash - Agent de collecte (Elastic ou autre Open-Source) Attendus. Pour réaliser la mission, vous serez à même de : - Participer à la conception des solutions techniques et fonctionnelles - Gérer les données de l’entreprise (flux : collecte, traitement, stockage et leur cycle de vie) - Rédiger les documents fonctionnels et techniques, d’exploitation, en veillant au respect des normes existantes - Mettre en œuvre en mode DevOps (CI/CD) - Assurer le support technique et fonctionnel, notamment analyse et résolution des incidents ou problèmes - Être en relation avec les équipes opérationnelles de l’entreprise pour prise en compte des flux de données - Développer les cas d’usage de Dashboard / ML / IA dans la solution, remontés par les utilisateurs Compétences requises - Connaissances en infrastructure : réseau / système - Connaissance indispensable en SGBD et langage de requêtage - Connaissance forte en streaming - Architecture d’Entreprise, plus particulièrement en base de données, flux de données - Conception et mise en place de solution de stockage et ingestion de données - Méthodologie Agile / DevOps, maitrise des outils associés - Gouvernance de la donnée - Maitrise de divers langages de programmation (Java/Python) - Anglais
Offre d'emploi
Data Architect H/F
OBJECTWARE
Publiée le
Azure Data Factory
Microsoft Fabric
Microsoft Power BI
60k-65k €
Bordeaux, Nouvelle-Aquitaine
Résumé du poste Notre client recherche un Data Architect expérimenté pour rejoindre une équipe Data Fabric et contribuer à la conception et à la mise en œuvre de l’architecture data à l’échelle de l’entreprise. Le rôle se concentre sur la création de produits de données réutilisables pour les domaines métiers , en travaillant étroitement avec les équipes Master Data Management (MDM), Data Engineers, Data Analysts, Information Security ainsi que les parties prenantes métiers. Le poste combine leadership architectural et travail opérationnel , incluant la modélisation de données, la conception d’intégrations, la mise en œuvre de la gouvernance et la configuration de la plateforme . Principales responsabilitésArchitecture de données & gouvernance Identifier et formaliser les domaines de master data à l’échelle de l’entreprise (Customer, HR, Finance, etc.). Collaborer avec l’équipe MDM pour concevoir les structures de golden record, la logique de consolidation et les flux d’intégration . Concevoir et documenter des produits de master data réutilisables (schémas, contrats, modes d’accès, APIs). Contribuer à la modélisation des données aux niveaux conceptuel, logique et physique sur les différents domaines de données. Travailler avec les Data Engineers pour traduire l’architecture en medallion layers, zones curées et pipelines d’intégration . Définir des standards de gouvernance incluant ownership, stewardship, lineage, classification et gestion du cycle de vie des données . Configurer les standards de métadonnées et les structures du catalogue de données afin d’assurer la découvrabilité et la réutilisation . S’assurer que les décisions architecturales sont clairement documentées et exploitables . Évolution de la plateforme, qualité & gouvernance Concevoir et mettre en œuvre des modèles de sécurité des données (RBAC, classification, masquage, contrôles de confidentialité). Participer à la mise en œuvre et à l’exploitation des outils de gouvernance des données (ex : Microsoft Purview), incluant scans, validation du lineage et classification . Définir des standards pour la documentation, la découvrabilité et l’enregistrement des data products dans la plateforme . Examiner les implémentations des domaines de données afin d’éviter la duplication ou la fragmentation des master data . S’assurer que la gouvernance et les métadonnées sont intégrées dans les processus CI/CD et de déploiement . Identifier et réduire les risques liés à l’incohérence des données, aux shadow master data ou à la prolifération non contrôlée des données . Contribuer à l’évaluation de nouvelles technologies et analyser leurs impacts en matière de gouvernance et d’intégration . Support et accompagnement Fournir un accompagnement architectural aux Data Engineers et Data Analysts . Participer à des ateliers techniques et sessions de conception . Accompagner l’ intégration de nouveaux domaines de données via des templates architecturaux et des implémentations de référence . Promouvoir des pratiques cohérentes en matière de métadonnées, sécurité et qualité des données . Agir comme interface entre l’équipe Data Platform, l’équipe MDM et les parties prenantes gouvernance / sécurité .
Mission freelance
Data Product Manager – Data & BI Platform
Comet
Publiée le
Microsoft Power BI
1 an
400-550 €
Île-de-France, France
Dans le cadre de la transformation Data de Saint-Gobain Mobility , nous recherchons un Data Product Manager senior pour piloter plusieurs initiatives stratégiques autour des plateformes Data & BI . Vous interviendrez au sein d’un environnement international, en collaboration étroite avec des architectes data, data engineers, équipes BI et métiers (Sales, Finance, Manufacturing, Supply Chain, Purchasing) . L’objectif : structurer et piloter un portefeuille de produits data alignés avec les besoins business et la stratégie Data du groupe. Vos missions Piloter l’étude et le cadrage de projets Data & BI Recueillir et formaliser les besoins métiers Animer des workshops avec les stakeholders Structurer l’architecture fonctionnelle et les flux data Concevoir les modèles de données et business layers Coordonner les équipes Data Engineers / Architectes / BI Évaluer la valeur business des solutions proposées Préparer les roadmaps, budgets et planning de delivery Formaliser les propositions de lancement projet Environnement & sujets clés Plusieurs initiatives structurantes sont en cours : Migration vers une Cloud Data Platform Migration MicroStrategy → Power BI Structuration des produits data dans une logique Data-as-a-Service Cas d’usage métiers : Sales Finance Manufacturing Supply Chain Purchasing
Mission freelance
Data analyst monetique
Deodis
Publiée le
MySQL
1 an
450-550 €
Île-de-France, France
Au sein d’une Datafactory dédiée aux moyens de paiement, le Business Analyst Data contribue à la collecte, à la transformation et à la gestion des données de paiement et des données clients afin d’en garantir la qualité, la sécurité et l’intégrité. Il participe à la mise à disposition de ces données pour les équipes métiers et les différentes équipes data, notamment à travers la production de reportings et de tableaux de bord (Power BI) ainsi que l’alimentation de systèmes opérationnels. En collaboration avec les data engineers, data visualization specialists et le Product Owner, il anime des ateliers avec les parties prenantes, rédige les spécifications fonctionnelles et techniques, développe les user stories, réalise les phases de recette des traitements de données et accompagne les utilisateurs dans l’exploitation des données. Il intervient dans un environnement agile et contribue à l’amélioration continue des produits et services data.
Offre d'emploi
Senior Looker / LookML Developer
xITed
Publiée le
BigQuery
Google Cloud Platform (GCP)
Looker Studio
6 mois
40k-66k €
400-600 €
Île-de-France, France
Dans le cadre de l’évolution d’une plateforme Data et de la modernisation des outils de Business Intelligence, un Senior Looker / LookML Developer est recherché afin de renforcer une équipe Data. La mission consiste à intervenir sur la structuration des modèles de données, le développement de dashboards et l’accompagnement des équipes métiers dans l’utilisation de la solution Looker. L’intervention se fera au sein d’une équipe composée de Data Engineers, Data Analysts et Product Owners, dans un environnement international et agile. Missions principales Développement Looker / LookML Conception et développement de modèles LookML (views, explores, dimensions, measures) Mise en place des bonnes pratiques de modélisation Optimisation des performances des requêtes Data Modelling Modélisation des données pour l’analyse et le reporting Collaboration avec les équipes Data Engineering pour structurer les datasets Mise en place de standards de gouvernance des données Data Visualisation Création et maintenance de dashboards Looker Définition et structuration des KPI métiers Amélioration de l’expérience utilisateur des dashboards Accompagnement métier Recueil des besoins auprès des équipes métiers Animation d’ateliers fonctionnels Support et accompagnement des utilisateurs Environnement technique Looker / LookML Google Cloud Platform BigQuery SQL Git
Mission freelance
Tech Lead DBT
CONCRETIO SERVICES
Publiée le
Data governance
DBT
12 mois
400-650 €
Île-de-France, France
Nous recherchons en urgence un Tech Lead / Architecte DBT pour rejoindre l'équipe de notre client et piloter la mise en place d’une nouvelle plateforme data basée sur DBT . Notre client souhaite industrialiser sa plateforme DBT. Jusqu’à présent, seules des POC ont été réalisés et nous avons besoin d’un profil expérimenté pour : Définir le socle et l’architecture cible Poser les bonnes pratiques et standards Expliquer comment construire et opérer une plateforme DBT Mettre en place des pipelines CI/CD garantissant une excellente expérience Data Engineer Missions principales Le Tech Lead DBT devra : Concevoir et construire la plateforme DBT from scratch Définir les bonnes pratiques, patterns et standards : naming, tests, linters, modèles, orchestration, etc. Mettre en place les pipelines CI/CD adaptés à DBT Garantir une expérience développeur optimale (DX) pour les data engineers Monter rapidement en compétence sur GCP (une carence identifiée mais surmontable) Collaborer quotidiennement avec les équipes pour assurer une intégration réussie Contribuer à un programme structurant autour de S3NS
Mission freelance
Data Custodian
MLMCONSEIL
Publiée le
Data governance
6 mois
100-500 €
Nantes, Pays de la Loire
Pour mon client basé à Nantes , je suis à la recherche d'un Data Custodian : En tant que Data Custodian, on assure la visibilité, la qualité et la disponibilité des données issues du RAW, tout au long de la chaîne de traitement au sein de la Plateforme. On accompagne les équipes dans l’identification et l’accès aux données pertinentes, en facilitant la compréhension des structures et des flux, ainsi que la documentation des sources pertinentes. Capacité à travailler dans un framework Agile Capacité à tracer les flux et documenter les transformations Connaissance des sources et du RAW Anticipation des effets des évolutions des sources sur les socles Le Data Custodian doit avoir un passif de Data Engineer/LeadTech Data ou Data Steward.
Mission freelance
Ingénieur DATA
HAYS France
Publiée le
Python
SQL
6 mois
350-510 €
Lille, Hauts-de-France
Dans le cadre du renforcement d’une équipe Data au sein d’un grand acteur du retail, nous recherchons un Data Engineer capable d’intervenir sur des sujets variés autour de la Finance et de la Supply Chain . L’environnement est agile, pragmatique, peu structuré (non bancaire), nécessitant une vraie capacité d’adaptation et une forte autonomie. Missions 🔹 Développement & Intégration de données Conception et développement de pipelines Stambia Modélisation, optimisation et transformations de données dans Snowflake Développement et maintenance de modèles DBT (tests, documentation, exposures) Contribution aux bonnes pratiques : Git, qualité, tests, CI/CD 🔹 Finance Refonte de dashboards réseau Travaux autour du compte d’exploitation Amélioration de la fiabilité et disponibilité des données financières 🔹 Supply Chain Mise en place de KPI logistiques (WSR, SOTR…) Industrialisation des datasets existants ou à construire 🔹 Outils & Automatisation Participation au développement d’outils internes en Python / Streamlit (selon compétences)
Offre d'emploi
Proxy Product Manager
Ela Technology
Publiée le
JIRA
Trello
6 mois
40k-45k €
400-460 €
Auberville, Normandie
Rejoignez une équipe innovante et prenez part au déploiement mondial d’une solution digitale stratégique , utilisée par plus de 3000 utilisateurs dans 550 sites à travers le monde . En tant que Proxy Product Manager , vous jouerez un rôle clé entre les besoins métiers internationaux et les équipes de développement, pour maximiser la valeur d’un produit digital à fort impact opérationnel. Vous contribuez à l’évolution, à la performance et à l’adoption d’un produit digital majeur. Votre rôle s’articule autour de 4 axes principaux : 🚀 1. Stratégie & Backlog (BUILD) Collecte des besoins auprès des Key Users internationaux Priorisation du backlog en fonction de la valeur métier et du ROI Définition des User Journeys et transformation en Epics/fonctionnalités Suivi du développement via JIRA Coordination UI/UX via Trello Gestion des synergies avec les autres outils de l’écosystème digital 📊 2. Pilotage de la valeur & KPIs Suivi des KPIs d’usage et de performance Analyse des données d’utilisation pour améliorer continuellement le produit Communication régulière des résultats aux parties prenantes 🤝 3. Animation & rituels agiles Préparation/participation aux ComOp Animation des Revues de Sprint Coordination mensuelle avec les Key Users internationaux Suivi opérationnel via Smartsheet 🔐 4. Support, Cybersécurité & Documentation (RUN) Supervision des tickets Level 2 & 3 via ServiceNow Contribution aux remédiations cybersécurité Rédaction/mise à jour de la documentation technique et utilisateur Mise à jour régulière des release notes 🎓 5. Formation & Dashboarding Participation aux sessions de formation utilisateurs Mise en place de dashboards DataStudio avec le Data Engineer/Analyst 👥 Écosystème avec lequel vous collaborerez UX/UI Data Engineer / Analyst Product Sales & Communication Manager Product Owner Développeurs Experts métiers & Key Users internationaux Équipes cybersécurité, service management, data, communication
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
341 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois