L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 4 951 résultats.
Offre d'emploi
Développeur CONFIRME Big Data Hadoop/PySpark/Python - 3 à 6 ans
Digistrat consulting
Publiée le
Apache Hive
Apache Spark
Hadoop
3 ans
38k-43k €
300-400 €
Paris, France
🏭 Secteurs stratégiques : Banque d’investissement PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Le département a lancé un programme stratégique, qui comporte plusieurs projets d'harmonisation des processus et outils. L'un de ces streams a pour vocation de constituer un datalake sur une stack Hadoop, afin de servir les besoins en data et reporting. Ce datalake a également pour vocation de devenir la brique centrale de l'architecture du SI . Nous recherchons un profil Hadoop / PySpark qui sera en charge, en lien avec l'équipe de production applicative / devops, de mettre en œuvre techniquement les évolutions du datalake. Passionné par les données, capable de s’adapter à un environnement dynamique et en constante évolution, le prestataire doit faire preuve d'autonomie, d'initiative et d'une forte capacité d'analyse pour résoudre des problèmes complexes. 🤝Principales missions : Les tâches suivantes seront confiés au consultant : • Mettre en œuvre de nouvelles ingestions de données, data prep/transformation • Maintenir et faire évoluer nos outils de gestion des pipeline de données (Pyspark + shell scripting) • Adresser à l'équipe devops les demandes relatives aux évolutions de la plateforme • Eventuellement mettre en œuvre une couche d'APIs afin d'exposer nos données
Mission freelance
Power BI : construction et exploitation de tableaux de bord MOA
INSYCO
Publiée le
API
Data governance
DAX
24 mois
500-620 €
Paris, France
Bonjour, Nous recherchons pour notre client grand compte un Expert Power BI Senior pour la construction de tableaux de bord MOA et industrialisation Nous étudions - prioritairement - les candidatures qui nous sont adressées à freelance à insyco . fr avec les informations suivantes : Argumentaire écrit répondant de façon ciblée au besoin ci-dessous CV à jour au format Word Date de prochaine disponibilité Tarif journalier Merci d'indiquer la référence KTR/PBI/5292 dans l'objet de votre message La direction MOA d'un grand groupe audiovisuel français travaille à la réalisation de tableaux de bord sous Power BI pour plusieurs domaines fonctionnels : contrôle interne, achats, immobilier et services généraux. Ces tableaux comportent des indicateurs opérationnels et des indicateurs stratégiques. Le processus en place consiste à réaliser des prototypes non industrialisés côté MOA, avant de les confier à l'équipe IT pour industrialisation. La prestation a pour objectif de réaliser ces prototypes pour le compte des chefs de projets fonctionnels concernés, avec un double objectif : qu'ils soient opérationnels pour les équipes métier et prêts à être industrialisés par l'équipe IT. Missions principales Développement Power BI Modéliser les données : création de modèles relationnels, gestion des relations, optimisation des performances Écrire des mesures et colonnes calculées complexes en DAX, optimiser les formules Extraire, transformer et charger les données via Power Query (ETL) Créer des rapports interactifs avec drill-down et filtres dynamiques Calculer des indicateurs (KPI) et réaliser des agrégations temporelles Connecter les rapports à différentes sources de données : SQL Server, Excel, APIs, bases de données Architecture et industrialisation Respecter les bonnes pratiques de développement : nommage, documentation, modularité Concevoir des modèles modulaires facilitant la reprise par l'équipe IT Gérer les versions et assurer le contrôle de source Produire une documentation technique complète des modèles et requêtes Analyse métier et collaboration Traduire les besoins métier en spécifications techniques Distinguer et modéliser les indicateurs opérationnels versus stratégiques Identifier les données pertinentes et leurs sources Collaborer avec les chefs de projets fonctionnels sur les domaines suivants : contrôle interne (conformité, risques, audits), achats (commandes, fournisseurs, budgets, délais), immobilier (patrimoine, occupations, coûts), services généraux (ressources, maintenance, coûts d'exploitation) Respecter les délais de livraison des prototypes Restituer et présenter les livrables aux équipes métier Livrables attendus Prototypes Power BI fonctionnels et testés Documentation technique : modèles de données, dictionnaire des mesures Guide d'utilisation pour les utilisateurs métier Dossier de transfert pour industrialisation par l'équipe IT
Offre d'emploi
Consultants MS BI Confirmés H/F
MGI Consultants
Publiée le
Azure Data Factory
Microsoft Power BI
Paris, France
Notre client, leader de la transformation urbaine bas carbone, est un groupe français présent sur l’ensemble des métiers de l’immobilier (logement et bureaux ; activités dans les énergies renouvelables, les Datacenters et l’investissement immobilier). Avec sa capacité à porter de grands projets mixtes, il s’impose comme le premier développeur immobilier des territoires en France. Au sein de la Direction des Systèmes d’Information, le Pôle Data recherche un Consultant Microsoft BI confirmé. Sa mission principale sera de prendre en charge les développements liés au projet de reporting pour l’activité énergies renouvelables. Objectifs de la mission Concevoir des modèles de données adaptés Créer et optimiser des bases de données et entrepôts de données (SQL Server principalement) Prendre en charge les développements de rapports Power BI Prendre en charge les développements de scripts SQL/Procédures Prendre en charge les développements des pipelines Azure Data Factory Participer à la mise en place de bonnes pratiques (CI/CD, DevOps Data, Data Quality) Être force de propositions sur les optimisations de traitement Rédaction de la documentation (spécifications techniques), recettes Gestion du code source via Microsoft Devops et déploiement CI/CD Préparation des livrables pour les mises en production
Offre d'emploi
Data Governance Lead
Gentis Recruitment SAS
Publiée le
Data Mesh
6 mois
51k-91k €
560-1k €
Luxembourg
Nous recherchons un(e) Data Governance Lead pour piloter la mise en place et l’industrialisation de la gouvernance des données à l’échelle du Groupe, dans un contexte de transformation data stratégique. Rattaché(e) au Chief Data, Analytics & AI Officer (CDAO) , vous serez responsable de définir et déployer un cadre de gouvernance garantissant la qualité, la conformité et la valorisation des données . Vous interviendrez sur des sujets clés tels que les modèles de responsabilité (Data Mesh), la qualité des données, la gestion des métadonnées, la traçabilité et le cycle de vie des données. Vous collaborerez étroitement avec les équipes BI, Data, IA et IT afin d’assurer une utilisation fiable, éthique et performante des données. Vous jouerez également un rôle central dans la mise en conformité avec les réglementations (RGPD, Solvabilité II, CSSF, etc.) et dans l’animation des instances de gouvernance.
Mission freelance
Expert Data Microsoft : Power BI et Power Platform
Comet
Publiée le
microsoft
Microsoft Power BI
Power Platform
8 mois
420-630 €
Île-de-France, France
Bonjour à tous, notamment aux experts Data Microsoft ⚙️ évoluant sur Power BI et Power Platform 🔎 Je cherche un Consultant Data & Power Platform expérimenté pour rejoindre un Centre de Compétence IT Finance & Opérations, dans le cadre de projets stratégiques de pilotage de la performance produit. L’objectif est de construire et faire évoluer une chaîne de données complète et automatisée, reposant sur l’écosystème Microsoft Power Platform, afin de fiabiliser, transformer et exposer la donnée à des fins de reporting et de pilotage opérationnel. Le contexte est riche et hétérogène avec des flux de données multi-sources (Dataflows Power BI, Datasets, Excel, XML via VBA, APIs, Dataverse et Power Automate), dans une logique d’industrialisation et de fiabilisation de bout en bout. 💻 Ce que tu vas faire : - Cartographier les flux de données existants et proposer une architecture cible - Concevoir et optimiser des dashboards Power BI (modélisation, DAX, Power Query) - Développer et maintenir des rapports de pilotage de la performance produit - Automatiser les flux de données via Power Automate et connecteurs Power Platform - Intégrer et orchestrer des sources hétérogènes (Excel, XML, APIs REST, Dataverse) - Mettre en place des contrôles et data quality checks automatisés sur l’ensemble de la chaîne - Construire et suivre les KPI liés au déploiement et au pilotage des solutions - Assurer le support N2 sur les incidents Power Platform - Accompagner les équipes métiers (formation, documentation, support) - Garantir la documentation et la passation des solutions développées 🎯 Stack & environnement : Power BI / Power Query / DAX / Power Automate / Dataverse / APIs REST / JSON / XML / Excel VBA / Dataflows / Datasets / Power Platform Une belle fin de journée !
Mission freelance
Data Engineer – Tracking & Analytics
Nicholson SAS
Publiée le
BigQuery
Google Tag Manager
Looker Studio
7 mois
340 €
Niort, Nouvelle-Aquitaine
Contexte de la mission Dans le cadre d'une refonte majeure des outils de mesure d'audience, nous recherchons un Data Engineer pour accompagner la migration de l'écosystème analytics (transition de Adobe Analytics vers Piano Analytics ). Intégré(e) au département Solutions Digitales au sein d’une équipe agile, vous serez le garant de la collecte, de la transformation et de la restitution des données issues des canaux digitaux. La mission repose sur une exploitation avancée de la suite Google Data (GTM, BigQuery, Looker Studio). Missions principales 1. Implémentation & Tracking Accompagner les métiers dans la définition des besoins en tracking et des KPI associés. Assurer le paramétrage via Google Tag Manager (GTM) . Réaliser la recette des données lors des phases de test et après mise en production des features. 2. Engineering & Data Pipeline Concevoir et maintenir les flux d'ingestion de données vers BigQuery . Développer des scripts de transformation et d'ingestion (principalement en Node.js et Python ). Assurer le monitoring quotidien des flux (interventions et correctifs si nécessaire). Intégrer de nouvelles sources de données pour enrichir le pilotage global du projet. 3. Restitution & Analyse Fiabiliser et mettre à disposition les données dans Looker Studio . Analyser les données produites pour en extraire des enseignements actionnables. Contribuer à l'amélioration continue des processus et des méthodes de l'équipe. 4. Collaboration Agile Interagir étroitement avec les différents corps de métier (PO, UX, Architectes, Développeurs, Testeurs) pour la co-construction des fonctionnalités. Participer activement aux rituels du train Agile. Modalités pratiques Lieu : Niort (79) – Présence sur site obligatoire 3 jours/semaine . Démarrage : ASAP. Durée : Jusqu'au 31/12/2026. Budget d'achat max : 340 € HT / jour.
Offre d'emploi
Développer Data Engineer Databricks Spark Azure Python
IT CONSULTANTS
Publiée le
Apache Spark
Azure
Databricks
8 mois
Île-de-France, France
Dans le cadre de notre besoin, nous recherchons un Data Engineer confirmé / sénior disposant d’une forte expertise sur Azure, Databricks, Spark, SQL et Python. Vous intégrerez l’une de nos squads, responsable de la migration de traitements existants depuis une plateforme on premise vers notre plateforme Data Cloud Azure / Databricks. Le profil recherché devra impérativement démontrer une forte motivation pour intervenir sur des projets de migration et être force de proposition, notamment pour identifier et mettre en œuvre des leviers d’accélération afin d’optimiser le delivery. Mission : • Analyse des traitements existants dans le cadre de projets de migration • Conception et construction de pipelines de données pour transformer, enrichir et traiter les données au sein du Data Lake • Développement de notebooks Databricks pour des traitements avancés de données • Mise en œuvre de solutions de Cloud Data Warehousing (optimisation des traitements et tuning des requêtes SQL) • Rédaction de la documentation technique (Dossiers d’Analyse Technique, release delivery notes, etc.) • Réalisation de revues de code dans une logique de qualité et de bonnes pratiques • Conception et exécution de tests unitaires • Livraison des développements dans un environnement DevOps intégrant des processus CI/CD et les outils associés Compétences techniques requises • Expérience Data minimum 5 ans • Azure minimum 3 ans • Databricks minimum 5 ans • Spark minimum 5 ans • Python minimum 5 ans • SQL minimum 5 ans • Maitrise de CI/CD, Azure DevOps Minimum 3 ans • Connaissance des outils Agile (JIRA) et ayant déjà travaillé en mode Agile minimum 1 an Aptitudes personnelles • Force de proposition, rigueur, réactivité, bon relationnel. Test technique • Un test technique sera réalisé lors de l’entretien
Offre d'emploi
Data Engineer
TEOLIA CONSULTING
Publiée le
Google Cloud Platform (GCP)
PL/SQL
12 mois
45k-50k €
400-430 €
Lille, Hauts-de-France
Dans le cadre de sa transformation digitale, notre client, grand acteur du retail, cherche à renforcer son équipe produit Data pour faire évoluer une plateforme stratégique de gestion et d’optimisation des approvisionnements. Cette plateforme traite des volumétries importantes de données et joue un rôle clé dans la prise de décision métier . 🎯 Vos missions Intégré(e) à une équipe produit agile, vous intervenez sur : 🔧 Data Engineering (GCP) Conception et développement de pipelines ETL/ELT Traitement et intégration de données (APIs, fichiers, bases) Optimisation des performances sur BigQuery Orchestration des flux (Airflow / Composer) 🛠️ Run & support Analyse et résolution d’incidents (N2/N3) Écriture de scripts Bash pour automatisation Requêtes SQL complexes pour diagnostic et exploitation 📊 Data & monitoring Garantie de la qualité et cohérence des données Mise en place de monitoring et alerting (Grafana, outils GCP) Création de dashboards de suivi ☁️ Infrastructure & industrialisation Participation à l’IaC (Terraform) Contribution à la CI/CD (GitLab CI) Amélioration continue des pipelines et process 🧰 Environnement technique Cloud : GCP (BigQuery, Dataflow, Pub/Sub, Composer) Data : SQL avancé, ETL/ELT Scripting : Bash CI/CD & IaC : GitLab CI, Terraform Monitoring : Grafana, outils GCP Bases de données : BigQuery, Oracle OS : Linux
Offre d'emploi
Manager / Senior Manager Data & IA
█ █ █ █ █ █ █
Publiée le
Paris, France
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Offre d'emploi
Data Engineering - DBT / SQL Junior (350€ MAX)
BEEZEN
Publiée le
DBT
6 mois
28k-35k €
280-350 €
Île-de-France, France
La prestation s’inscrit au sein de l’équipe technique et participe à l’industrialisation des flux de données. Ses missions principales sont : ● Ingestion Multi-sources : Développer des connecteurs et des scripts pour collecter des données via API (SaaS, partenaires) ou extractions de bases de données. ● Transformation (ETL/ELT) : Nettoyer, enrichir et structurer les données brutes dans BigQuery pour les rendre exploitables par les analystes et Data Scientists. ● Automatisation & Orchestration : Déployer et monitorer les chaînes de traitement (DAGs) pour garantir la disponibilité et la qualité des données au quotidien. Livrables : ● Pipelines de données opérationnels et documentés. ● Scripts de transformation SQL et Python. ● Confi guration des orchestrateurs (Composer/Airfl ow). ● Documentation des schémas de données cibles." ● Maîtriser DBT pour la transformation et l’orchestration des données. ● Travailler sur des environnements Data et Cloud, notamment GCP. ● Exploiter BigQuery et SQL avancé sur de gros volumes de données. ● Manipuler et analyser les données en SQL. ● Utiliser DBT pour structurer les pipelines data
Offre d'emploi
Consultant MOA Finance / Expert ERP Finance – Domaine de la santé (F/H)
CELAD
Publiée le
38k-45k €
Toulouse, Occitanie
Vous aimez faire le lien entre les équipes métiers et les équipes techniques ? Vous avez une vraie sensibilité finance et vous savez transformer des besoins complexes en solutions concrètes et fiables ? Cette opportunité est faite pour vous ! Nous poursuivons notre développement et recherchons actuellement un.e Consultant.e MOA Finance / Expert ERP Finance pour intervenir chez un de nos clients, dans le secteur de la santé. Contexte : Dans le cadre d’un vaste chantier de modernisation des outils financiers, vous jouerez un rôle central dans l’évolution du SI Finance. L’objectif ? Fiabiliser les flux, harmoniser les processus et accompagner les équipes dans l’utilisation d’un ERP devenu stratégique pour l’activité. Vous interviendrez aussi bien sur des sujets de gouvernance, de transformation digitale que d’amélioration continue des outils existants. Voici un aperçu détaillé de vos missions : Gouvernance & structuration du SI Finance Cartographier et formaliser les processus financiers existants et cibles Harmoniser les pratiques et contribuer à une meilleure circulation de l’information Participer à la gouvernance des outils Finance afin d’en garantir la cohérence et l’évolutivité Sécuriser les flux et renforcer la fiabilité des données Transformation digitale & projets transverses Piloter l’intégration d’une solution de dématérialisation des factures Accompagner les travaux liés à la réforme de la facturation électronique Contribuer à la mise en place d’outils de reporting et de consolidation Participer aux phases de cadrage, paramétrage, recette et déploiement Expertise fonctionnelle & support applicatif Paramétrer les modules Finance de l’ERP selon les besoins métiers Diagnostiquer et corriger les anomalies fonctionnelles Optimiser les données et assurer leur cohérence Accompagner les utilisateurs et faciliter l’adoption des outils
Mission freelance
Ingénieur Infra Data / Database – DevOps minded (Expert L3)
HAYS France
Publiée le
Ansible
Cassandra
Linux
3 ans
400-650 €
Île-de-France, France
Nous recherchons pour un de nos clients basés en IDF, un pour une mission freelance (longue visibilité) Objectif de la mission: Dans le cadre du renforcement de ses équipes techniques, notre client recherche un Ingénieur Infra Data / Database senior , disposant d’une double casquette Infra & DevOps , capable d’intervenir sur des environnements critiques en support expert niveau 3 (L3) et sur des projets orientés services et plateformes data . L’objectif est de garantir la fiabilité, la performance, la résilience et l’industrialisation des environnements bases de données, tout en apportant une forte valeur ajoutée en automation et bonnes pratiques DevOps .
Mission freelance
Expert Infrastructure IBM MQ – Support N3 & Solutionning Data Platform
Deodis
Publiée le
IBM i
1 an
570 €
Île-de-France, France
Poste d’expert infrastructure senior chargé d’assurer le maintien en condition opérationnelle et le support de niveau 3 d’infrastructures critiques de transfert de données basées sur la technologie IBM MQ, au sein d’un environnement orienté Data Platform. La mission implique également une forte contribution au solutionning technique dans le cadre de projets métiers, avec la conception et l’optimisation d’architectures d’échange de flux complexes. Elle nécessite une expertise avancée en scripting, une bonne maîtrise des environnements Windows et Unix, ainsi qu’une capacité à intervenir dans un contexte international, avec un haut niveau d’autonomie et de communication en anglais.
Offre d'emploi
Data Engineer TERADATA ET BIGDATA
WE +
Publiée le
Apache Spark
Hadoop
HDFS (Hadoop Distributed File System)
12 mois
Île-de-France, France
• vous contribuerez à la construction des solutions Datalab et Datamart sous technologie Teradata, en étroite collaboration avec les autres membres de la Tribu • vous aurez en charge le développement des solutions de collecte des données, de leur stockage et traitement (constitution d’agrégats ou scores), et de leur mise à disposition des DataScientists : une expérience des environnements Unix, du sql et des SGDB relationnels est indispensable ainsi que des bonnes pratiques de développement et modélisation sous technologie Teradata BTEQ. • vous serez amenés à développer sur notre plateforme Big Data. Une forte connaissance de Spark, HDFS, Python, Hadoop est demandée. Les compétences suivantes devront être maîtrisées : • Mode de chargement dans l’entrepôt (ETL) : BTEQ
Mission freelance
Consultant Senior Data — Migration SAS → Python | Assurance | La Défense
SETELIA
Publiée le
Numpy
Pandas
Python
3 mois
430-550 €
La Défense, Île-de-France
Notre client, acteur majeur du secteur de l'assurance, engage la décommission complète de sa plateforme SAS. L'objectif : migrer l'intégralité des requêtes, programmes et traitements data vers Python, à isorésultat. Le consultant intègre une équipe data en place et travaille en interface directe avec les métiers assurance (actuariat, reporting, conformité). Périmètre : Audit et recensement de l'ensemble des requêtes SAS (KPIs, règles métier, fréquences) - Rétro-analyse fonctionnelle de chaque programme SAS - Ateliers de validation avec les utilisateurs métiers - Développement Python (pandas, numpy, SQL) en miroir exact de l'existant SAS - Tests de non-régression systématiques (comparaison outputs SAS vs Python) - Documentation technique et fonctionnelle du nouveau code Stack & compétences : Python — expertise confirmée (pandas, numpy, scripting data, automatisation) - SAS — lecture, compréhension et rétro-analyse de code - SQL — requêtage avancé, optimisation - Migration SAS → Python — au moins une référence mission similaire - Secteur assurance — connaissance des produits, du reporting réglementaire ou de l'actuariat (un secteur régulé équivalent type banque/mutuelle est accepté) - Interface métier — à l'aise en atelier, recueil de besoin, vulgarisation technique Conditions : Séniorité : 7 ans minimum - TJM : 600€ – 650€ - Démarrage : ASAP - Durée : 3 mois / 60 jours — renouvelable - Lieu : Paris La Défense — 100% sur site - Remote : non - Astreinte / HNO : non Merci d'envoyer CV + TJM + dispo. Réf. : DATA-SAS-PY-2026-05
Offre d'emploi
Développer Data Engineer Databricks Spark Azure Python
IT CONSULTANTS
Publiée le
Apache Spark
Azure
Databricks
8 mois
Île-de-France, France
Dans le cadre de notre besoin, nous recherchons un Data Engineer confirmé / sénior disposant d’une forte expertise sur Azure, Databricks, Spark, SQL et Python. Vous intégrerez l’une de nos squads, responsable de la migration de traitements existants depuis une plateforme on premise vers notre plateforme Data Cloud Azure / Databricks. Le profil recherché devra impérativement démontrer une forte motivation pour intervenir sur des projets de migration et être force de proposition, notamment pour identifier et mettre en œuvre des leviers d’accélération afin d’optimiser le delivery. Mission : • Analyse des traitements existants dans le cadre de projets de migration • Conception et construction de pipelines de données pour transformer, enrichir et traiter les données au sein du Data Lake • Développement de notebooks Databricks pour des traitements avancés de données • Mise en œuvre de solutions de Cloud Data Warehousing (optimisation des traitements et tuning des requêtes SQL) • Rédaction de la documentation technique (Dossiers d’Analyse Technique, release delivery notes, etc.) • Réalisation de revues de code dans une logique de qualité et de bonnes pratiques • Conception et exécution de tests unitaires • Livraison des développements dans un environnement DevOps intégrant des processus CI/CD et les outils associés Compétences techniques requises • Expérience Data minimum 5 ans • Azure minimum 3 ans • Databricks minimum 5 ans • Spark minimum 5 ans • Python minimum 5 ans • SQL minimum 5 ans • Maitrise de CI/CD, Azure DevOps Minimum 3 ans • Connaissance des outils Agile (JIRA) et ayant déjà travaillé en mode Agile minimum 1 an Aptitudes personnelles • Force de proposition, rigueur, réactivité, bon relationnel. Test technique • Un test technique sera réalisé lors de l’entretien
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
4951 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois