Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 54 résultats.
Freelance

Mission freelance
Data ingénieur Databricks  & Power BI Full remote ASAP (4-5 ans d'exp Databricks)

WorldWide People
Publiée le
Databricks

6 mois
320-340 €
France
Data ingénieur Databricks & Power BI Full remote ASAP (4-5 ans d'exp Databricks) Profil avant tout Data ingénieur Databricks avec des connaissances Power BI idéalement Python - SQL Data ingénieur Databricks & Power BI Full remote ASAP Profil avant tout Data ingénieur Databricks avec des connaissances Power BI idéalement Python - SQL Data ingénieur Databricks & Power BI Full remote ASAP Profil avant tout Data ingénieur Databricks avec des connaissances Power BI idéalement Python - SQL Data ingénieur Databricks & Power BI Full remote ASAP Profil avant tout Data ingénieur Databricks avec des connaissances Power BI idéalement Python - SQL
Freelance
CDI

Offre d'emploi
Data Engineer expérimenté – Plateforme Data (H/F)

Argain Consulting Innovation
Publiée le
Big Data
Data Warehouse
IBM DataStage

12 mois
40k-45k €
450-500 €
Nantes, Pays de la Loire
Contexte : Dans le cadre de l’évolution et de la modernisation d’une plateforme data stratégique, nous recherchons un Data Engineer expérimenté pour renforcer une équipe d’experts. Vous interviendrez dans un environnement agile et collaboratif, aux côtés d’ingénieurs data confirmés, avec un encadrement produit et méthodologique, favorisant l’excellence technique et l’innovation. Mission : La mission s’inscrit dans une dynamique ambitieuse autour de plusieurs axes : Build : Conception et développement de nouvelles solutions data Run : Maintien en conditions opérationnelles et optimisation continue Migration : Accompagnement des transitions techniques et fonctionnelles Modernisation : Évolution vers des architectures data modernes Responsabilités : Développer des traitements ELT (principalement à destination d’un datawarehouse) Concevoir et maintenir des templates ELT Participer à la définition de la feuille de route technique de migration ETL vers ELT Accompagner les équipes utilisatrices des solutions data Contribuer à la documentation des solutions du périmètre Garantir le bon fonctionnement du plan de production et le respect des engagements de service Identifier et proposer des optimisations dans une logique d’amélioration continue Partager ses connaissances et être force de proposition Attendus Développer des traitements ELT xDI principalement à destination du Datawarehouse Développer et maintenir des templates xDI Participer à la définition de la feuille de route technique de la migration ETL Datastage vers ELT xDI Accompagner les développeurs Participer à la Documentation de l'ensemble des solutions Assurer le bon fonctionnement du plan de production et l'ensemble de nos produits et solutions en respectant les engagements de service Identifier / proposer des optimisations des traitements dans une démarche d'amélioration continue du plan de production Partager ses connaissances avec ses pairs et être force de proposition
Freelance

Mission freelance
Data Product Manager (Business Analyst / Solution Architect)

Comet
Publiée le
Business Analysis
Business Intelligence

12 mois
400-660 €
Île-de-France, France
Contexte de la mission En tant que membre de l'équipe, vous dirigerez un programme comprenant plusieurs études visant à améliorer et à apporter davantage de valeur au programme d'analyse du département Cybersécurité du Groupe. Ce programme soutient l'objectif du Groupe consistant à renforcer la conformité aux normes de cybersécurité et à accélérer la correction des vulnérabilités. Dans un deuxième temps, vous piloterez la mise en œuvre des solutions recommandées dans les conclusions des études. Profil : Senior / Expert Compétences requises : Excellentes compétences en communication avec les dirigeants de niveau C en anglais et en français (écrit et oral) Planification stratégique (séquençage d’une série d’études et de mises en œuvre impliquant plusieurs contributeurs) Analyse des processus métier et informatiques Expérience dans le domaine des données, de l’analyse et de la BI, avec une connaissance des plateformes, des outils et des méthodes appliquées (par exemple, Agile, revue de code, CI/CD) Maîtrise des principes de gouvernance des données, de gestion des données de référence et d’architecture des données Orientation client (réalisation d’entretiens avec les clients, réactivité et concision) Objectifs et livrables Organiser l'étude en incluant tous les participants identifiés et recueillir les exigences de toutes les parties prenantes Comprendre l'ambition, les enjeux et les objectifs de l'entreprise Organiser et animer des ateliers avec les équipes métier Recueillir toutes les contributions métier nécessaires à l'étude Documenter l'architecture fonctionnelle et les recommandations Planifier les différentes phases de travail en s'appuyant sur la proposition du département Data & Analytics et les meilleures pratiques Coordonner les contributeurs Data-as-a-Service (architecte technique, ingénieurs Data & BI) Documenter la valeur de la solution Préparer le budget et le planning de développement et d'exploitation Formaliser les propositions finales de « lancement du projet » Compétences demandées English - Confirmé Business Intelligence - Expert Strategic Planning - Avancé Masterdata Management - Confirmé Communication Professionnelle - Expert Data Architecture - Confirmé Data Governance - Avancé Business Analysis - Expert
Freelance
CDD
CDI

Offre d'emploi
Data Engineer GCP Python, Spark, SQL Senior

KEONI CONSULTING
Publiée le
Agile Scrum
Data Engineering
Python

18 mois
20k-40k €
110-550 €
Paris, France
Contexte : La mission se déroulera en collaboration avec les autres équipes de la Data, au cœur de la plateforme Data. Cette équipe est composée d’un product owner, d’un data steward et de deux autres data ingénieurs. Notre stack technique est principalement constituée de Python, Spark, SQL pour les traitements de données, Airflow pour l’orchestration et Cloud Storage et Delta lake pour le stockage. La stack inclut aussi les services BigQuery, Dataproc, PubSub et Cloud Storage de la Google Cloud Platform et Terraform et Terragrunt pour la gestion de l’infrastructure. MISSIONS : 1. Collecter et centraliser les différentes sources de données non homogènes 2. Assurer la conformité et la sécurité des données 3. Participer aux initiatives de gouvernance des données En interaction avec les membres de l’équipe, la prestation consiste à : • Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l’équipe • Construire et maintenir de pipelines data robustes et scalables • Accompagner les membres de l’équipe dans l’exploitation et le requêtage des données • Organiser et structurer le stockage des données • Mettre en place et maintenir des infrastructures scalables capable de répondre aux besoins et à l’accroissement rapide du volume de données • Construire et maintenir les workflows de la CI/CD • Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur • Assurer l’évolutivité, la sécurité, la stabilité des environnements • Participer aux différentes instances des data ingénieurs • Contribuer et veiller à la mise à jour de la documentation • Faire de la veille technologique active dans le domaine Profil & Expertises demandées : • Au moins 3 ans d’expérience en tant que Data Ingénieur dans un environnement data • Compétences solides en data : structures de données, code, architecture • Expériences dans la conception et la réalisation de pipelines data • Expériences dans un environnement du cloud Google (GCP) • Expériences intégrant BigQuery et Dataplex Universal Catalog • Expériences intégrant les langages Python et SQL • Expériences intégrant Spark • Expériences intégrant delta lake • Expériences intégrant Terraform et Terragrunt • Expériences intégrant Gitlab et Gitlab CI/CD • Expériences intégrant les méthodologies Agile : Scrum ou Kanban • Capacité à vulgariser et à communiquer sur des aspects purement techniques Niveau d’expertise attendu : Sénior : plus de 5 ans d’expérience significative dans le type d’expertise demandé dans le type d’expertise demandé
Freelance
CDI

Offre d'emploi
🔎 Data Engineer Senior – Apache NIFI / Databricks (H/F)

UCASE CONSULTING
Publiée le
Apache NiFi
Azure
Databricks

1 an
40k-45k €
400-550 €
Île-de-France, France
Bonjour à tous 😀 🚀 Contexte de mission Nous recherchons un Data ingénieur - Référent technique Nifi et Data , vous intervenez au sein d’une équipe Data & IA sur des environnements critiques à forte volumétrie. L’objectif : concevoir, optimiser et sécuriser les flux de données dans un contexte de production exigeant, avec des enjeux forts de continuité de service . 🎯 Vos missions Développer et maintenir des pipelines de données (Apache NIFI / Databricks) Optimiser les flux existants (performance, fiabilité, scalabilité) Assurer le RUN et le support (HNO / 24-7) Mettre en place et améliorer les processus CI/CD Superviser les traitements (monitoring, alerting) Participer aux études techniques et POC Produire la documentation et les reportings d’incidents Être force de proposition sur l’ amélioration de l’architecture data ✅ Must Have Expertise Apache NIFI Très bonne maîtrise de Databricks Expérience solide sur Azure Bon niveau en Python & Spark Expérience en environnement de production critique (RUN / incidents) Connaissance CI/CD (Git / GitLab) Expérience en monitoring (type DataDog) Bonne maîtrise des bases de données (PostgreSQL) Expérience en Agile / Scrum ➕ Nice to Have Connaissance AKS (Kubernetes) Expérience avec Zookeeper Background sur des projets data à forte volumétrie Culture DevOps / automatisation avancée
Freelance

Mission freelance
Analytic Engineer / Expert Qlik Finance & HR

VISEO
Publiée le
DBT
Qlik
Snowflake

12 mois
400-620 €
92100, Boulogne-Billancourt, Île-de-France
Qui êtes-vous ? Si pour vous être Analytic Engineer / Expert Qlik Finance & HR , c’est : 🔹 Construire des applications Qlik robustes, performantes et pensées pour des enjeux métier critiques ; 🔹 Manipuler avec précision des analyses financières avancées : YTD, MTD, rolling forecast, variance vs budget/forecast ; 🔹 Garantir la qualité, la fiabilité et la cohérence des KPI dans un environnement où la donnée est sensible et réglementée ; 🔹 Concevoir des modèles analytiques via SQL et dbt , en appliquant de vraies bonnes pratiques d’ingénierie ; 🔹 Travailler en CI/CD, versionner proprement votre code, challenger les approches et améliorer en continu ; 🔹 Jouer un rôle de référent BI , diffuser les standards de développement, optimiser les performances et accompagner les équipes… …Alors vous êtes exactement la personne que nous recherchons ! Si vous avez une expérience significative en BI/Qlik dans un contexte exigeant, que vous aimez autant faire que faire faire , et que vous souhaitez participer à une transformation data ambitieuse, alors vous êtes prêt(e) à rejoindre l’aventure. Quelle sera votre mission ? Vous allez contribuer directement à la construction d’un data mesh Finance & HR à fort impact stratégique, au sein d’une modern data stack pleinement en transformation. Vous allez pouvoir : 🔹 Développer, optimiser et industrialiser des cockpits Qlik utilisés au niveau mondial ; 🔹 Mettre en œuvre une sécurité de haut niveau , garantir la confidentialité et participer aux audits ; 🔹 Contribuer à la création de consumer data products : modélisation SQL, transformations, tests automatisés, documentation ; 🔹 Participer à la modernisation des pratiques BI : versioning GitLab, revues de code, guidelines, performance, réutilisabilité ; 🔹 Apporter votre leadership technique pour faire évoluer les standards, structurer la gouvernance des KPI, améliorer la robustesse des modèles ; 🔹 Collaborer avec une équipe engagée et transverse (Finance, RH, Data Product Owners, ingénieurs Data) pour délivrer des solutions fiables et utiles. En somme : il s'agira de construire ensemble une BI moderne, scalable, sécurisée, pensée pour durer et qui soutient directement les décisions stratégiques de la Finance et des RH.
54 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous