L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 5 554 résultats.
Offre d'emploi
Data Engineer
KP2i
Publiée le
CI/CD
Cortex XSOAR
DBT
1 an
40k-45k €
400-550 €
Île-de-France, France
🚀 Data Engineer – 5+ ans d’XP | anglais requis | dispo ASAP ? Je recherche un Data Engineer pour une mission chez un grand compte international, au sein d’une équipe Data E-Commerce en forte croissance. 👉 Le contexte Des projets stratégiques autour de la Customer Data Platform, du CRM et des audiences digitales, avec de forts enjeux de performance, d’attribution et de structuration de la donnée. 👉 Ce que vous allez faire Construire et optimiser des pipelines data Structurer et modéliser la donnée (data marts, CDP) Contribuer à la performance e-commerce & CRM Collaborer avec les équipes Data Science Automatiser et industrialiser les process (CI/CD) 👉 Stack Snowflake • DBT • AWS • SQL • Power BI / Tableau 👉 Bonus ++ Appétence IA for delivery (Cortex, automatisation DBT, génération de code, optimisation des pipelines data) 👉 Infos clés 5+ ans d’expérience requis Anglais obligatoire Démarrage : ASAP 📩 Vous êtes disponible rapidement ou connaissez quelqu’un ? Écrivez-moi en MP.
Offre d'emploi
Data Product manager
ANDEMA
Publiée le
Microsoft Power BI
6 mois
40k-63k €
450-500 €
Lille, Hauts-de-France
Raison d’être du poste : Le Data Product Manager assure l'interface stratégique et opérationnelle entre les Data Owners métier et l'équipe technique Data. Sa mission est de transformer la donnée issue des différents systèmes en produits analytiques performants pour piloter l'offre, l'impact scientifique du client et les processus d'accréditations internationales. Expert en modélisation Power BI, il garantit la fiabilité des indicateurs et la sécurité des accès, tout en challengeant les besoins métiers pour maximiser la valeur ajoutée des solutions déployées Finalités et Résultats Attendus : 1. Analyse, modélisation et structuration des données Analyser les modèles de données des différentes applications contributrices (sources de données ou consommatrices/cibles de données) Modéliser les données métiers (programmes, faculté, recherche et accréditations) dans un modèle commun ‘SKEMA’, développer des data products (PowerBI et autres) répondant aux besoins métier et maintenir le modèle sémantique de l'école. Définir et gérer la gouvernance des accès et la sécurité des données (Row Level Security) pour chaque data product. 2. Conception et développement des data products Ecrire les spécifications techniques pour les opérations de manipulation de données Documenter les logiques métier de transformation Comprendre, piloter les flux d’intégration et de transformation de données (Azure Data Factory, Synapse, PowerBI [demain Fabric / Databricks ou autres]) Développer les data products en lien avec les data owners et les équipes data Tester et valider la cohérence des flux de données entre les systèmes producteurs et les data products finaux. Suivre l’adoption des data products (usage, accès …) 3. Qualité et fiabilité des données Direction des Ressources Humaines Participer aux projets de migration et de mise en qualité des données entre systèmes applicatifs afin d’identifier les impacts sur le périmètre des data products concernés. Assurer la fiabilité des données, les contrôles de cohérence et participer au support technique associé des data products. 4. Structuration de la plateforme Data Avoir une compréhension d’une data plateforme et d’une modélisation médaillon Piloter la mise à disposition de donnée dans la data plateforme pour permettre la réalisation des data products. 5. Collaboration et accompagnement Savoir faire le pont entre les équipes métiers (vulgarisation des concepts) et les équipes techniques pour l’évolution des usages data Animer la communauté des data owner de l’univers « Offre d'enseignement & Impact scientifique » Environnement data : Modélisation de donnée • Power BI • Fabrics (est un plus) • Synapse / Azure (est un plus) • Databricks (est un plus) • Git, DevOps • SQL
Offre d'emploi
Data Engineer Semarchy (H/F)
CELAD
Publiée le
36k-42k €
Nantes, Pays de la Loire
CDI - 2 jours de télétravail / semaine - Nantes - Expérience de 3 ans minimum Nous poursuivons notre développement et recherchons actuellement un(e) ingénieur décisionnel ETL pour intervenir chez un de nos clients dans le secteur bancaire. Contexte : Rejoignez une équipe Data au cœur de la connaissance client et des activités commerciales d’un grand groupe bancaire. Vos principales missions : Vous jouerez un rôle clé dans la construction et la performance des pipelines de données : Conception & Développement - Concevoir, développer et maintenir des flux ETL robustes et industrialisés sous Stambia / Semarchy - Modéliser et structurer les données selon les besoins métiers et techniques - Développer des jobs d’intégration, de transformation et de restitution Qualité & Performance - Optimiser les traitements pour garantir la performance , la scalabilité et la fiabilité des pipelines - Mettre en place des contrôles qualité, règles de validation et mécanismes d’alerting - Participer à l’amélioration continue des bonnes pratiques Data Analyse & Collaboration - Analyser les besoins fonctionnels et proposer des solutions techniques adaptées - Collaborer avec les équipes BI, Data, IT et les référents métiers - Documenter les flux et leur cycle de vie pour garantir la pérennité des traitements ⚙ Stack technique du projet : - ETL : Stambia / Semarchy ( xDM / xDI) - SQL
Mission freelance
Data Engineer Semarchy (H/F)
CELAD
Publiée le
1 an
370-400 €
Nantes, Pays de la Loire
CDI / Portage / Freelance - 2 jours de télétravail / semaine - Nantes - Expérience de 3 ans minimum Nous poursuivons notre développement et recherchons actuellement un(e) ingénieur décisionnel ETL pour intervenir chez un de nos clients dans le secteur bancaire. Contexte : Rejoignez une équipe Data au cœur de la connaissance client et des activités commerciales d’un grand groupe bancaire. Vos principales missions : Vous jouerez un rôle clé dans la construction et la performance des pipelines de données : Conception & Développement - Concevoir, développer et maintenir des flux ETL robustes et industrialisés sous Stambia / Semarchy - Modéliser et structurer les données selon les besoins métiers et techniques - Développer des jobs d’intégration, de transformation et de restitution Qualité & Performance - Optimiser les traitements pour garantir la performance , la scalabilité et la fiabilité des pipelines - Mettre en place des contrôles qualité, règles de validation et mécanismes d’alerting - Participer à l’amélioration continue des bonnes pratiques Data Analyse & Collaboration - Analyser les besoins fonctionnels et proposer des solutions techniques adaptées - Collaborer avec les équipes BI, Data, IT et les référents métiers - Documenter les flux et leur cycle de vie pour garantir la pérennité des traitements ⚙ Stack technique du projet : - ETL : Stambia / Semarchy ( xDM / xDI) - SQL
Offre d'emploi
Data Engineer TERADATA ET BIGDATA
WE +
Publiée le
Apache Spark
Hadoop
HDFS (Hadoop Distributed File System)
12 mois
Île-de-France, France
• vous contribuerez à la construction des solutions Datalab et Datamart sous technologie Teradata, en étroite collaboration avec les autres membres de la Tribu • vous aurez en charge le développement des solutions de collecte des données, de leur stockage et traitement (constitution d’agrégats ou scores), et de leur mise à disposition des DataScientists : une expérience des environnements Unix, du sql et des SGDB relationnels est indispensable ainsi que des bonnes pratiques de développement et modélisation sous technologie Teradata BTEQ. • vous serez amenés à développer sur notre plateforme Big Data. Une forte connaissance de Spark, HDFS, Python, Hadoop est demandée. Les compétences suivantes devront être maîtrisées : • Mode de chargement dans l’entrepôt (ETL) : BTEQ
Mission freelance
Data Business Analyst (H/F)
Insitoo Freelances
Publiée le
Confluence
JIRA
Python
2 ans
370-420 €
Lyon, Auvergne-Rhône-Alpes
Basée à Lille, Lyon, Nantes, Grenoble, Marseille, Paris et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data Business Analyst (H/F) à Lyon, France. Contexte : Entité chargée de la Supervision et de la Gestion des Incidents dans le but de garantir la performance en production. Le profil recherché intègrera l’équipe en charge du suivi des performances en production, de la télédistribution des logiciels sur le parc, de la création de tableaux de bords. Date de début souhaitée : 04/05/2026 Du fait de la montée en compétence la prestation est attendue sur une durée relativement longue. Les missions attendues par le Data Business Analyst (H/F) : Activité principale Le profil recherché sera en charge de : • Suivre et analyser un ou plusieurs indicateur(s) de performance à la maille nationale et DR, expliquer leurs variations et mettre en place des actions d'amélioration associées • Réaliser des tableaux de bords de pilotage ou opérationnels de suivi de performance • Consolider les données et reporter les analyses associées aux variations de performances • Maîtriser le fonctionnement • Suivre l'ensemble des évènements de production • Préparer, animer et/ou représenter la production dans les différents comités • Comprendre, analyser, préparer, construire et animer des points autour de(s) l’indicateur(s) de performance avec les différentes parties prenantes. • Investiguer de manière autonome des anomalies ou signaux faibles dans les données, en identifiant des pistes d’analyse non prévues initialement • Challenger les processus existants et proposer des axes d’optimisation basés sur les analyses réalisées • Identifier et activer des leviers d’amélioration en coordination avec des équipes contributrices (métiers / techniques) • Assurer un rôle de référent sur l’indicateur en étant force de proposition sur son évolution (méthode de calcul, périmètre, pertinence) • Contribuer à l’amélioration continue des pratiques d’analyse et de pilotage de la performance au sein de l’équipe Activité secondaire • Suivi de performance dans le cadre de pilote et expérimentation • Suivi de performance sur des périmètres dédiés en fonction des actualités de production • Capitalisation et partage de connaissances (rédaction documentaire) • Rédiger et diffuser le reporting cross chaine quotidien Stack technique de l'équipe : Tableau Desktop, JIRA / Confluence, Suite Office (notamment Excel, Powerpoint et Teams), SQL et Python
Mission freelance
Data Analyst
MLMCONSEIL
Publiée le
Apache Spark
Cloudera
Hadoop
1 an
100-460 €
Lille, Hauts-de-France
Profil Data Analyst pour un projet logistique, chargé de réaliser les spécifications et analyses de données. Exploitation et transformation des données avec Talend dans un environnement Big Data. Maîtrise des technologies Hadoop, Spark et Cloudera pour le traitement volumineux de données. Création de tableaux de bord et visualisations avancées avec Power BI pour le suivi opérationnel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Mission freelance
Ingénieur DataOps / DevOps Data (H/F)
emagine Consulting SARL
Publiée le
AWS Cloud
Azure
CI/CD
36 mois
Niort, Nouvelle-Aquitaine
Dans le cadre du renforcement de sa plateforme data, un grand groupe du secteur assurantiel recherche un Ingénieur DataOps afin d’accompagner l’industrialisation, la fiabilisation et l’exploitation de ses environnements data. Vous interviendrez au sein d’une équipe dédiée à la performance et à la stabilité des services data, avec pour objectif d’assurer leur disponibilité et leur évolutivité. Vous participerez activement à la mise en place et à l’amélioration des pipelines de déploiement (CI/CD), à l’automatisation des processus, ainsi qu’à la gestion des environnements de production et de test. Vous serez également impliqué dans la supervision des systèmes, la gestion des incidents, et la mise en œuvre des exigences non fonctionnelles (sécurité, performance, scalabilité). Enfin, vous contribuerez à l’amélioration continue des pratiques DataOps et à la documentation des solutions mises en place.
Mission freelance
Un Architecte Dataiku / Architecte Data Senior à Saint-Brieuc
Almatek
Publiée le
Dataiku
6 mois
Saint-Brieuc, Bretagne
Almatek recherche pour l'un de ses client, Un Architecte Dataiku / Architecte Data Senior à Saint-Brieuc Les livrables sont : Schéma d’architecture data global + focus Dataiku Guide des bonnes pratiques Dataiku Templates / bibliothèque réutilisable Compétences techniques : Dataiku - Confirmé - Impératif Architecture data modernes - Confirmé - Impératif DBT et workflows de transformation - Confirmé - Impératif Description détaillée Contexte: L’architecte Dataiku interviendra en support transverse des équipes métiers et techniques pour structurer les usages et diffuser les bonnes pratiques. Objectifs Industrialiser et structurer l’usage de Dataiku Accompagner les équipes dans l’exploitation de la donnée Définir des standards et composants réutilisables Assurer l’intégration avec l’écosystème data (S3, DBT, Data Catalog) Contribuer aux initiatives de data governance Missions principales 1. Architecture & gouvernance Définir l’architecture Dataiku et son intégration avec AWS S3 Structurer les environnements (dev / recette / prod) Mettre en place les bonnes pratiques (flows, versioning, sécurité) 2. Administration & industrialisation Administrer la plateforme (accès, configuration, monitoring) Mettre en place les processus de déploiement et de recette Créer une bibliothèque de composants réutilisables (templates, pipelines) Contribuer à la productisation des cas d’usage data 3. Accompagnement des équipes Support aux équipes métiers et techniques Aide à la prise en main de Dataiku Diffusion des bonnes pratiques et montée en compétence Accompagnement à la mise en œuvre de cas d’usage 4. Intégration data Articuler Dataiku avec : DBT (silver ? gold) outils de data quality (ex : Elementary) Data Catalog Assurer la traçabilité et la documentation des données 5. Data governance Support au déploiement du data catalog Contribution à l’alimentation des métadonnées Appui aux data owners et aux processus de gouvernance Contribution possible sur ingestion / contrôle des données Profil recherché Compétences techniques Expertise Dataiku (architecture et administration) Bonne maîtrise des architectures data (Data Lake, ELT) Connaissance AWS (S3) et DBT Sensibilité data quality et data governance Compétences fonctionnelles Structuration de bonnes pratiques Accompagnement des équipes métiers Connaissance MDM appréciée Modalités Démarrage : ASAP Présence : ~2 jours/semaine sur site (22) Contexte : environnement majoritairement interne
Mission freelance
Lead Data Architect – Refactoring Data Platform
Pickmeup
Publiée le
Data governance
2 mois
800-1 200 €
Paris, France
Dans un contexte de transformation stratégique post-acquisition, notre client souhaite refondre en profondeur son architecture data afin d’unifier deux écosystèmes distincts : Une plateforme orientée AI / data temps réel Un système historique structuré de type ERP / media planning L’objectif est de construire une architecture cible robuste, scalable et “AI-ready” , capable de supporter des cas d’usage avancés tout en garantissant la cohérence des données métiers. Nous recherchons un Lead Data Architect pour une mission courte et à fort impact, avec une responsabilité clé : poser les fondations de la future plateforme data du groupe . Responsabilités Réaliser un audit rapide des architectures existantes (data models, flux, dépendances) Identifier les limites actuelles : silos, incohérences, dette technique, performance Définir une architecture data cible (data platform / lakehouse / data products) Concevoir un modèle de données unifié (canonical data model) Proposer une stratégie de convergence entre : données temps réel (event-driven) données structurées (ERP / finance / planning) Définir les principes d’architecture : découplage scalabilité gouvernance sécurité Structurer les premiers data products par domaine métier Cadrer les choix technologiques (cloud, stockage, orchestration, streaming) Accompagner les équipes techniques dans la mise en mouvement (kickoff, guidelines) Produire une documentation claire à destination du CTO et des équipes
Offre d'emploi
🔎 Tech Lead Data (Snowflake / dbt) & Power BI
OMICRONE
Publiée le
Azure Data Factory
CI/CD
DBT
2 ans
40k-45k €
400-500 €
Île-de-France, France
🔎 Tech Lead Data (Snowflake / dbt) & Power BI Dans le cadre du renforcement d’une équipe Data & Analytics, nous recherchons un Tech Lead Data & BI pour piloter la delivery technique de produits data et solutions de visualisation, dans un environnement moderne et industrialisé. 🎯 Vos missions • Piloter la chaîne data de bout en bout : Snowflake → dbt → modèle sémantique → Power BI • Définir et faire appliquer les standards techniques (modélisation, qualité, performance, gouvernance) • Encadrer la revue de code , les pratiques CI/CD et l’industrialisation des pipelines • Concevoir et maintenir les modèles data et datamarts sous Snowflake • Développer et structurer les projets dbt (modèles, tests, documentation) • Mettre en place des pipelines robustes (orchestration, contrôles qualité, runbooks) • Définir les bonnes pratiques Power BI (modèle sémantique, performance, RLS, templates) • Participer au run : gestion des incidents, post-mortems, amélioration continue • Accompagner et faire monter en compétences les équipes (France & offshore) 🧩 Profil recherché • Expérience confirmée en tant que Tech Lead Data / BI • Excellente maîtrise de Snowflake et du data modeling • Expertise avancée sur dbt (modélisation, tests, documentation) • Solide expérience sur Power BI (modélisation, performance, gouvernance, RLS) • Bonne connaissance des environnements Azure Data Factory • Capacité à définir des standards et à structurer une équipe • Excellentes compétences en communication 🛠 Compétences clés • Snowflake (expert) • Data Modeling / BI Modeling (expert) • dbt (avancé) • Power BI (confirmé) • Azure Data Factory • CI/CD, data quality, gouvernance data
Mission freelance
Data Analyst
Root-MENU
Publiée le
Analyse
6 mois
520-720 €
Paris, France
Nous recherchons un(e) Data Analyst pour rejoindre notre équipe et contribuer à la valorisation des données de l’entreprise. Vous serez en charge de collecter, analyser et interpréter des données afin d’aider à la prise de décision stratégique. Vos missions: ➜ Extraire et traiter des données provenant de différentes sources ➜ Concevoir des tableaux de bord et rapports (KPI, indicateurs de performance) ➜ Identifier des tendances et formuler des recommandations ➜ Collaborer avec les équipes métiers pour comprendre leurs besoins
Offre d'emploi
Data Engineer Databricks
ASTRELYA
Publiée le
Amazon S3
Ansible
Apache Spark
Noisy-le-Grand, Île-de-France
Astrelya est un cabinet de conseil franco‑suisse, en très forte croissance depuis sa création en 2017, spécialisé dans la transformation digitale, l’excellence opérationnelle et l’innovation technologique. Il est composé de 300 expert passionnés. Le cabinet accompagne ses clients sur l’ensemble du cycle de transformation, depuis la phase de cadrage jusqu’à la mise en œuvre opérationnelle, avec une expertise forte en Data/IA, Cloud, DevOps et méthodes agiles. Astrelya se distingue par un modèle fondé sur la proximité, la confiance et une culture humaine forte, qui place les collaborateurs au cœur de la création de valeur. Votre mission : En tant que Data Engineer Databricks vous participez à la définition de l’architecture de la data platform et du Datawarehouse/Data Lake. Concevoir et développer des nouvelles fonctionnalités sur des applications hébergées par les plateformes Data. Développer et maintenir des pipelines de données performants (batch & streaming) et participer à toutes les étapes de traitement des données du niveau bronze au niveau gold. Garantir la sécurité, la robustesse et la fiabilité des pipeline de données en veillant aux enjeux de performance, d’accessibilité et d’intégrité des données. Contribuer à l’implémentation d’un Data Lab pour accélérer les usages Data & IA. Mettre en place et industrialiser des chaines CI/CD. Participer aux mises en production et au support en cas d’incident majeur. Travailler aux côtés de Data Product Owner, Data Architect et de BI & Analytics Engineer. Participer aux cérémonies agiles organisées par la squad : daily, sprint planning, sprint review, sprint rétrospective Effectuer une veille technologique continue sur de nouvelles solutions et tendances Data.
Offre d'emploi
Architecte Big Data / Expert Databricks (H/F)
SMARTPOINT
Publiée le
Apache Kafka
Apache Spark
AWS Cloud
6 mois
75k-90k €
700-750 €
Île-de-France, France
Dans un contexte d’accélération des projets data et de modernisation des plateformes analytiques, notre client recherche un Architecte Big Data / Expert Databricks H/F; Votre rôle sera clé pour concevoir des architectures data modernes, optimiser les performances et les coûts, tout en accompagnant les équipes dans leur montée en compétences. Vos missions Concevoir des architectures Big Data / Modern Data Stack robustes et scalables Réaliser des études techniques et cadrages des besoins data Définir et valider des architectures data sur Databricks et AWS Conduire des audits de performance et de code Produire des dossiers d’architecture (6 à 8 par an) Élaborer des supports de formation (10 à 12 par an) Animer des sessions de formation et de montée en compétences Rédiger des comptes-rendus d’audit (4 à 6 par an) Conseiller sur les bonnes pratiques d’optimisation des coûts et des performances
Offre d'emploi
Data Engineer IA
Craftman data
Publiée le
DevOps
Docker
Github
6 mois
40k-45k €
390-540 €
Île-de-France, France
Maintien en condition opérationnelle et industrialisation du Portail Multi‑IA Générative dans un contexte multi‑environnements (On‑Premise, GCP, cloud de confiance à venir). Mise en œuvre et optimisation des chaînes CI/CD (GitLab), de l’Infrastructure as Code (Terraform) et de l’automatisation des déploiements. Contribution à la sécurité, conformité et observabilité des usages IA générative (IAM, secrets, logs, metrics, traces, FinOps). Mise en place et exploitation des pratiques LLMOps : observabilité LLM, évaluations continues (qualité, sécurité, coûts), guardrails et HITL. Conception et préparation de la V2 du Portail IA (architecture cible, HLD/LLD, migration). Support technique N2/N3, analyse et résolution d’incidents, assistance aux mises en production. Production de la documentation technique (runbooks, playbooks, architectures) et transfert de compétences vers les équipes internes.
Offre d'emploi
Data Engineer Azure Databricks H/F
SMARTPOINT
Publiée le
Apache Spark
Azure
CI/CD
8 mois
50k-60k €
460-500 €
Île-de-France, France
Analyse des traitements existants dans le cadre de projets de migration de données Conception et construction de pipelines de données pour transformer, enrichir et traiter les données au sein du Data Lake Développement de notebooks Databricks pour des traitements avancés de données Mise en œuvre de solutions de Cloud Data Warehousing , incluant l'optimisation des traitements et le tuning de requêtes SQL Rédaction de la documentation technique (Dossiers d'Analyse Technique, release delivery notes, etc.) Réalisation de revues de code dans une logique de qualité et de bonnes pratiques Conception et exécution de tests unitaires Livraison des développements dans un environnement DevOps intégrant des processus CI/CD et les outils associés
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
5554 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois