Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 685 résultats.
Freelance

Mission freelance
Business Analyst Data (Transactions & Clients)

STHREE SAS
Publiée le

12 mois
75001, Paris, Île-de-France
🚀 Mission Freelance - Business Analyst Data Transactions & Données Clients - Secteur Bancaire 📍 Paris / Hybride ⏳ Mission longue - démarrage ASAP 🏦 Secteur : Banque - Paiements & Transactions 🎯 Contexte de la mission Dans un environnement bancaire , notre client recherche un Business Analyst Data pour intervenir sur des flux transactionnels critiques , avec des enjeux forts autour des délais de transactions , de la qualité des données et de l' impact client . La mission est orientée opérationnel et métier , au cœur des flux bancaires clients et transactions. 👉 Important : ce poste n'est pas orienté crédit ni risque bancaire . Les profils issus de crédit, scoring, risque réglementaire ou finance de risque ne seront pas retenus . 🧩 Missions principales En tant que BA Data , vous interviendrez sur : Analyse des flux transactionnels bancaires (paiements, traitements bout‑en‑bout) Suivi et amélioration des délais de transactions (latence, timeliness, T+X) Cadrage et analyse des besoins métiers liés aux données clients Rédaction des spécifications fonctionnelles et règles de gestion Mapping des données (sources → traitements → usages) Contribution à la qualité des données (cohérence, complétude, fiabilité) Participation aux tests fonctionnels, UAT et validations Collaboration étroite avec les équipes IT, Data et Métiers Support à la mise en production et suivi des flux en phase RUN 👤 Profil recherché (BANCAIRE)✅ Indispensable Business Analyst Data senior Expérience confirmée en environnement bancaire Très bonne connaissance des transactions bancaires et des données clients Sensibilité forte aux délais de traitement transactionnels À l'aise avec SQL pour analyses et contrôles fonctionnels Capacité à travailler sur des environnements Data Platform / DataLake Approche terrain, orientée delivery et fiabilité opérationnelle ✅ Apprécié Expérience sur des périmètres paiements, flux transactionnels, banque de détail ou run‑off Travail en environnement Agile / squads data Bonne compréhension des flux bout‑en‑bout et de leur impact client ❌ Profils NON recherchés Crédit bancaire Risque (crédit, contrepartie, IFRS9, RWA, scoring, modélisation risque) Profils purement réglementaires ou quantitatifs 🛠 Environnement (indicatif) SQL Data Platforms / DataLake Flux transactionnels et APIs Outils de suivi qualité des données Méthodologies Agile
CDI
Freelance

Offre d'emploi
Développeur Full Stack H/F

ASTERIA
Publiée le
Angular
Data Lake
Data Warehouse

6 mois
Monaco
Nous recherchons, pour l'un de nos Clients basés sur Monaco, un Développeur Full Stack H/F. VOTRE MISSION : Notre Client recherche un Développeur Full Stack H/F capable d’intervenir sur l’ensemble de la chaîne applicative, de l’interface utilisateur jusqu’aux services backend, dans un environnement cloud natif et containerisé permettant de valoriser des volumes de données complexes. Il devra concevoir et développer des applications intégrant des interfaces utilisateurs modernes et réactives qui s'appuieront sur des API performantes et scalables pour des cas d'usage Data/IA. Il travaillera en étroite collaboration avec les équipes data/IA pour proposer des solutions innovantes et performantes. Il participera également à l'optimisation des flux de travail de données (Data Pipelines Airflow) en collaboration avec l'équipe Data Engineering. Missions principales : Participer à l’analyse des besoins avec le chef de projet et les parties prenantes (UX/UI, métiers) Concevoir, développer et déployer des applications et chaînes de traitements autour de la Data et l'IA Rédiger et maintenir la documentation technique et fonctionnelle Réaliser les tests unitaires, d’intégration et fonctionnels Mettre en place et maintenir des pipelines CI/CD Collaborer étroitement avec les équipes Data & IA et plateforme Assurer le respect des critères qualité, délais, coûts et satisfaction utilisateur Participer aux revues de code et aux bonnes pratiques de développement Contribuer à l’amélioration continue des processus et outils de développement Veiller à la sécurité des applications et à la conformité des données personnelles
Freelance
CDI

Offre d'emploi
Consultant Data & Transformation ERP sur Haut de france: Marquette Lez Lille

EterniTech
Publiée le
ERP
Microsoft Dynamics
Microsoft Excel

3 mois
Hauts-de-France, France
Mission :Transition Excel / ERP & Data Gouvernée Localisation :Haut de France: Marquette Lez Lille Démarrage : Asap Jours obligatoires sur site : 3 jours/semaine 3 mois de mission pour le moment Contexte: Je cherche pour un de mes client un Consultant Data & Transformation ERP sur Haut de france: Marquette Lez Lille Dans le cadre de notre transformation numérique et du déploiement de notre ERP (Microsoft Dynamics 365 Business Central / Tegos), nous accompagnons nos équipes métiers dans l’abandon progressif des fichiers Excel au profit d’un pilotage structuré, automatisé et fiable de la donnée. L’enjeu est double : • Remplacer les usages Excel existants (reporting, suivi opérationnel, analyses) • Rendre les équipes autonomes via des outils intégrés (modes analyses ERP, Microsoft Power BI) tout en garantissant une gouvernance des données robuste et pérenne. Vos missions 1. Cadrage & compréhension des besoins métiers • Recueillir et analyser les usages actuels Excel (reporting, KPI, fichiers critiques) • Identifier les écarts entre pratiques actuelles et standards ERP • Challenger les besoins pour éviter la reproduction à l’identique des Excel 2. Migration et transformation des usages • Reprendre les données issues des fichiers Excel existants • Structurer et fiabiliser les données dans l’ERP • Concevoir des restitutions directement exploitables via : o Modes analyses de l’ERP (Business Central / Tegos) o Tableaux de bord sous Microsoft Power BI 3. Automatisation & industrialisation • Supprimer les retraitements manuels Excel • Mettre en place des flux automatisés (exports, datasets, rafraîchissements) • Garantir la cohérence et la traçabilité des données 4. Accompagnement au changement • Former les utilisateurs métiers aux nouveaux outils • Construire des supports pédagogiques adaptés (guides, cas concrets) • Accompagner la montée en compétence vers plus d’autonomie 5. Gouvernance & qualité de la donnée • Définir des règles de gestion et de structuration de la donnée • Mettre en place des bonnes pratiques (référentiels, naming, contrôles) • Être garant de la cohérence entre usages métiers et modèle ERP Soft skills clés • Forte capacité à vulgariser des sujets data auprès de non-experts • Posture de business partner avec les équipes opérationnelles • Esprit critique (ne pas reproduire les Excel existants sans les challenger) • Autonomie, pragmatisme, sens du terrain • Capacité à embarquer et convaincre dans un contexte de changement Objectifs de la mission • Réduction significative de l’usage des fichiers Excel critiques • Mise en place de reportings fiables et automatisés • Adoption des outils ERP / BI par les métiers • Montée en autonomie des utilisateurs • Structuration d’une gouvernance data pérenne
Freelance

Mission freelance
Experts Workday - Intégration / Data Migration / CP

CONCRETIO SERVICES
Publiée le
Reporting
Workday

12 mois
600-1 100 €
Île-de-France, France
Nous recrutons pour le compte de notre client sur trois expertises complémentaires , et cherchons des profils qui en maîtrisent au moins une à un niveau avancé — voire qui combinent plusieurs de ces dimensions. Intégration Workday Vous avez conçu et déployé des intégrations complexes sur Workday — Studio, EIB, Workday Web Services, API REST/SOAP. Vous savez travailler en lien avec des équipes techniques et fonctionnelles, documenter vos architectures et anticiper les risques d'interface. Une expérience sur les modules HCM, Finance ou Payroll est un vrai atout. Reprise de données / Data Migration Vous avez piloté ou exécuté des chantiers de migration de données RH ou financières vers Workday — cartographie des données sources, règles de transformation, chargement via iLoad ou outils tiers, recette et validation. Vous êtes à l'aise avec la complexité des données héritées et vous savez travailler avec les métiers pour arbitrer et qualifier. Chefferie de projet Workday Vous avez déjà piloté des projets Workday en environnement client final, avec une vraie capacité à coordonner des équipes mixtes (IT, RH, Finance, intégrateur externe). Vous maîtrisez les cycles de déploiement Workday, la gestion des jalons, des risques et des parties prenantes, et vous savez maintenir le cap sans perdre le lien terrain.
Freelance
CDI

Offre d'emploi
Senior Data Engineer Big Data

VISIAN
Publiée le
AWS Cloud
Python

1 an
Île-de-France, France
Contexte Dans le cadre de son plan de transformation Data, un grand groupe média poursuit un objectif central : développer des applications Data permettant aux directions métiers (pilotage, marketing, commerce, etc.) de gagner en autonomie dans l'analyse de leurs données et le suivi de leurs KPI mais aussi de mettre en place des applications customer-facing. Pour répondre à cet enjeu, ce groupe s'appuie sur un écosystème technologique étendu, comprenant notamment : AWS, GitLab, Terraform, DBT, Snowflake, GenAI, Braze, Scala, Spark, Python, Power BI , ainsi que des briques d'Intelligence Artificielle. La plateforme repose sur des architectures robustes et évolutives (Datalake, Lakehouse, des architectures multi-tenant, des architectures event-driven et streaming) conçues pour ingérer et gérer plus de 100 To de données par jour , dont une part majoritaire en temps réel. Les cas d'usage couverts sont variés, parmi lesquels : IA pour recommandation des programmes et des offres Plateforme agentique customer-facing Gender Equality Monitoring Feature Store Modernisation des flux financiers Content Platform Mise en place Kubernetes Plateforme pour le traitement des données CRM et usage Partager des informations sur les clients à des partenaires Piloter plus efficacement l'activité des marchés professionnels Mettre à disposition des applications de data-selfservice Le consultant aura pour mission de réaliser des développements avancés sur le socle des données Big Data pour la mise en place des usecases IA. Cet environnement Big Data, fortement orienté Streaming et IA, traite quotidiennement plus de 100 To de données . Le consultant doit maîtriser les architectures de Streaming Data, AWS (notamment Lambda, Batch, Step Function, EMR Serverless, Kinesis Stream, S3, Firehose, DynamoDB, etc.), Airflow, Scala, Spark, SQL, Snowflake, GitLab CI/CD, Terraform. Missions Concevoir et développer des pipelines de données performants Développer en utilisant des outils tels que Scala, DBT et Spark Implémenter des architectures de Streaming Data robustes Contribuer activement aux initiatives FinOps Développer et optimiser des traitements d'intégration de données en streaming Participer activement à l'évolution continue de la plateforme IA
Freelance
CDI

Offre d'emploi
Data manager sur Tours

EterniTech
Publiée le
3DEXPERIENCE (3DX)

3 mois
Tours, Centre-Val de Loire
je cherche pour un de mes clients un Data manager sur Tours Poste : Data Manager Nombre de poste : 1 Expérience : 5 ans Localisation : TOURS - 8 Rue de Boutteville (2jours de TTV par semaine) Démarrage : ASAP Le TITULAIRE s’engage à ce que ses intervenants aient, dès le début de la prestation, les connaissances suffisantes : o dans le domaine du nucléaire (en particulier dans les domaines de l’installation générale, du fonctionnement, du génie civil et de la sûreté), o sur 3DX ou a minima un PLM équivalent. data management - impératif connaissance de l’outil 3DX - impératif Connaissance de 3DX Connaissance des outils E3D et ALLPLAN ou appétence pour montée en compétence rapide sur ces outils
Freelance

Mission freelance
Expert Looker Core (BI / Big Data)

Signe +
Publiée le
Looker Studio

8 mois
900 €
Paris, France
Dans le cadre d’une étude autour d’un outil de datavisualisation cloud, la mission consiste à évaluer et accompagner l’usage de Looker Core (GCP) pour des cas d’usage métier et techniques. L’objectif est de : Déployer et accompagner des POC Looker Évaluer la capacité de l’outil à répondre aux besoins de self-service analytics Explorer les usages avancés (IA / conversational analytics) Contribuer à l’architecture cible dans un contexte cloud 🧠 Mission principale Le consultant interviendra en tant qu’ expert Looker Core pour : Accompagner les équipes métiers dans la construction de POC Former et guider les utilisateurs sur Looker Apporter une expertise sur : l’architecture Looker l’intégration GCP / BigQuery la sécurité et les bonnes pratiques les enjeux FinOps Collaborer avec les équipes IT (architectes, ops, data engineers, métiers)
Freelance
CDI

Offre d'emploi
Data Engineer Big Data/Teradata

VISIAN
Publiée le
Apache Spark
Big Data
Python

2 ans
40k-80k €
400-620 €
Paris, France
Dans le cadre de ses projets clients, Visian est à la recherche d'un Data Engineer Big data/Teradata Vous contribuerez à la construction des solutions Datalab et Datamart sous technologie Teradata, en étroite collaboration avec les autres membres de la Tribu • vous aurez en charge le développement des solutions de collecte des données, de leur stockage et traitement (constitution d’agrégats ou scores), et de leur mise à disposition des DataScientists : une expérience des environnements Unix, du sql et des SGDB relationnels est indispensable ainsi que des bonnes pratiques de développement et modélisation sous technologie Teradata BTEQ. • vous serez amenés à développer sur notre plateforme Big Data. Une forte connaissance de Spark, HDFS, Python, Hadoop est demandée. Les compétences suivantes devront être maîtrisées : • Mode de chargement dans l’entrepôt (ETL) : BTEQ Teradata CONTROL-M Environnement UNIX ( répertoires principaux, Usage & Entrepôt ) SQL sur SGBD relationel (Teradata) TPT Outils collaboratifs et documentaires : GIT, Jira, Confluence, MEGA, Zeenea Spark HDFS Python Hadoop
CDI

Offre d'emploi
Chef de projet ERP H/F

FED SAS
Publiée le

45k-50k €
Rungis, Île-de-France
Je suis Sheeranaze MEHENTAL, Consultante en recrutement au sein de FED IT, cabinet de recrutement spécialisé sur les métiers des systèmes d'information et de la transformation digitale : infrastructure, chefferie de projet, data, cybersécurité, développement et top management. Je recrute pour mon client ( banque privée) basé à Rungis, un Chef de Projet ERP H/F dans le cadre d'un CDI. Missions principales : Gestion de projet ERP Sage X3 : Pilotage des projets (budget, calendrier, qualité), coordination des équipes internes et externes. Intégration d'applications métiers : Analyse des besoins et intégration des solutions comme Power BI, Weavy, Lascom avec l'ERP X3. Support applicatif : Assistance aux utilisateurs et gestion des problèmes techniques. Communication & coordination : Collaboration avec les équipes métiers pour s'assurer que les solutions informatiques répondent aux objectifs de l'entreprise. Veille technologique & amélioration continue : Proposer des solutions innovantes pour optimiser les systèmes. Enjeux du poste : Assurer la fiabilité de l'ERP et des systèmes intégrés. Optimiser les outils pour mieux répondre aux besoins métiers. Améliorer l'efficacité des services de support. C'est un rôle clé alliant gestion de projet, coordination, intégration de systèmes et amélioration continue.
Freelance

Mission freelance
Senior Data engineer IA (H/F)

CHARLI GROUP
Publiée le
Apache Airflow
AWS Cloud
CI/CD

2 ans
400-610 €
Île-de-France, France
Dans le cadre de son plan de transformation Data, le groupe poursuit un objectif central : développer des applications Data permettant aux directions métiers (pilotage, marketing, commerce, etc.) de gagner en autonomie dans l'analyse de leurs données et le suivi de leurs KPI mais aussi de mettre en place des applications customer-facing Pour répondre à cet enjeu, le groupe s'appuie sur un écosystème technologique étendu, comprenant notamment : AWS, GitLab, Terraform, DBT, Snowflake, GenAI, Braze, Scala, Spark, Python, Power BI, ainsi que des briques d'Intelligence Artificielle. La plateforme repose sur des architectures robustes et évolutives (Datalake, Lakehouse, des architectures multi-tenant, des architectures event-driven et streaming) conçues pour ingérer et gérer plus de 100 To de données par jour, dont une part majoritaire en temps réel. Description du poste : Notre environnement de travail combine rigueur, une ambiance décontractée au sein des équipes, et des méthodes Agiles (Scrum et Kanban). Votre mission principale, si vous l'acceptez, consistera à intervenir sur des architectures de Streaming Data et IA full AWS (notamment Lambda, Step Function, Kinesis Stream, S3, Batch, Firehose, EMR Serverless, DynamoDB, etc.), ainsi que sur des technologies comme Scala, Spark, SQL, Snowflake, GitLab CI/CD, DBT, Airflow, Terraform. Vous serez amené à : Concevoir et développer des pipelines de données performants Développer en utilisant des outils tels que Scala, DBT et Spark Implémenter des architectures de Streaming Data robustes Contribuer activement aux initiatives FinOps Développer et optimiser des traitements d'intégration de données en streaming Rejoignez une équipe dynamique où innovation et expertise se rencontrent !
Freelance
CDI

Offre d'emploi
Chefferie de projet INFRA DATA CENTER

R&S TELECOM
Publiée le
Microsoft Access

12 mois
40k-48k ¤
400-480 ¤
Île-de-France, France
Objectifs et livrables Validation des expressions de besoins émises par le client et accompagnement sur les visites techniques Suivi et pilotages des maitrises d’œuvre de conception et d’exécution. Lecture, analyse, correction et validation des documents de conceptions (APS : APD, etc…) Arbitrage des solutions techniques Garant sur les délais, le budget, la qualité pendant la durée globale du projet Analyse, négociation et validation des devis travaux Suivi du bon déroulement de la phase Exécution Garantir le respect des process et règles d’intervention (Norme en vigueur, gestion des GCR, DAS, etc…) Pilotage de la gestion contractuel des partenaires référencés Participation aux réceptions des travaux avec la MOE, signature des PV, suivi des documents de réception, DOE, et levée de réserves Interface avec les intervenants tiers (mainteneur, hébergement, sécurité, etc…) Réunion de suivi hebdo avec les MOE Rapport hebdo auprès du client Garant de la continuité de service des sites en exploitation et de la sécurité des intervenants. Connaissances solides des lots CVC, CFO, CFA, SSI, GO, SO, VRD. Expérience confirmée dans le domaine des DATA CENTER. Expérience confirmée dans la chefferie de projet. Pilotage de partenaires et des chantiers. Pilotage budgétaire des projets Capacité à appréhender rapidement les outils internes du client Dynamique relationnelle / Leadership Capacité d’écoute, ouverture vers l’extérieur Autonomie et capacité d’adaptation Aisance orale & bonne capacité rédactionnelle Méthodologie et esprit d'analyse Flexibilité et adaptabilité Rigueur et coordination
Freelance

Mission freelance
Consultant Senior Data Management / Data Quality

Inventiv IT
Publiée le
Collibra
Data governance
Data management

6 mois
550-700 €
Île-de-France, France
Dans le cadre d’un programme de transformation Data , nous recherchons un Consultant Senior Data Management / Data Quality pour structurer et industrialiser les pratiques de qualité des données. La mission vise à mettre en place un cadre global de Data Quality Management ainsi qu’une offre de services Data Quality , en interaction avec les équipes Data, IT et métiers. Missions principalesStructuration Data Quality Définir et déployer un framework Data Quality Management . Mettre en place les processus de gestion de la qualité des données . Formaliser la gouvernance Data Quality (rôles, RACI, comitologie) . Définir les dimensions de qualité et les règles associées. Pilotage & conduite de programme Piloter ou contribuer à des projets Data complexes et transverses . Animer des ateliers métiers et IT (élicitation, co-construction). Assurer l’alignement entre enjeux métiers, Data et IT . Contribuer à la structuration d’une offre de services Data Quality . Production & conduite du changement Produire les livrables structurants (templates, référentiels, bonnes pratiques). Concevoir des supports d’acculturation et de vulgarisation . Accompagner la conduite du changement et l’adoption des pratiques Data Quality. Contribuer à l’enrichissement des référentiels documentaires . Architecture & alignement technique Collaborer avec les équipes techniques sur la définition d’une architecture Data cible . S’inscrire dans un environnement basé sur une plateforme Data moderne (ex : Databricks) . Environnement technique Data Management & Data Governance Data Quality Management (DQM) Data Catalog : Collibra Plateformes Data : Databricks Méthodologies : Agile Outils documentaires / collaboratifs
Freelance

Mission freelance
Chef de projet - intégration d'une solution PIMS

LeHibou
Publiée le
Gestion de projet

18 mois
500-580 €
Nouvelle-Aquitaine, France
Notre client dans le secteur Énergie et ressources naturelles recherche un Chef de projet intégration solution PIMS H/F Descriptif de la mission: Cahier des charges – Chef de projet intégration solution PIMS Contexte et enjeux Le document porte sur une prestation de pilotage de projet sur le périmètre des processus et outils de gestion de l’inspection et de l’intégrité d’infrastructures gazières. La mission consiste à piloter le delivery d’une solution logicielle de type Pipeline Integrity Management System (PIMS) dans un écosystème applicatif interconnecté. La prestation attendue doit garantir : • la maîtrise de bout en bout du delivery, incluant le pilotage des plannings, du budget, des risques et la coordination des phases de conception, de test et de déploiement ; • le respect de l’architecture cible dans le cadre d’un programme de refonte plus large ; • un pilotage exigeant de l’éditeur ; • la sécurisation de la migration des données ; • l’alignement des réalisations avec les besoins métiers et les exigences réglementaires. La mission s’inscrit dans une initiative de refonte d’une partie du système d’information dédiée au suivi de l’inspection et à l’intégrité du réseau, avec démobilisation d’une application historique et redistribution de ses fonctionnalités et données dans d’autres applications. Environnement et objectif de la mission La solution PIMS constitue une brique centrale du dispositif et centralise les données d’inspection collectées sur le terrain pour leur visualisation, leur analyse et la modélisation des menaces d’intégrité sur le réseau. Le chef de projet recherché est responsable exclusif du lot PIMS au sein de cette refonte globale. Le PIMS doit s’interfacer principalement avec : • un outil EAM utilisé pour la construction des plans d’entretien, la création des ordres de travail et la traçabilité mobile ; • un SIG pour consommer le référentiel spatial maître et potentiellement afficher des couches de données gérées dans le PIMS ; • des applicatifs dédiés aux calculs d’acceptabilité des défauts ; • une application dédiée à la gestion de la protection cathodique ; • des solutions de supervision et de gestion des identités. Le projet comporte un fort enjeu de migration de données depuis des applications et outils historiques, avec environ 20 ans d’historique à trier, enrichir et migrer vers le nouveau système. Objectifs de la mission Le chef de projet PIMS pilote l’intégration, le paramétrage et le déploiement de la solution PIMS, de la phase d’initialisation jusqu’au Go-Live. Les objectifs principaux sont : 1. Garantir le delivery : s’assurer que l’éditeur, qui agit également comme intégrateur, livre les environnements, le paramétrage des cas métier, les intégrations et les tests dans le respect du planning global et de l’enveloppe budgétaire. 2. Sanctuariser l’intégration : travailler avec les experts techniques et le data manager pour piloter l’intégration technique, notamment les API, le connecteur SIG, les flux synchrones et asynchrones, et garantir l’articulation avec le dictionnaire de mapping et le modèle pivot du Datahub pour les objets partagés. 3. Piloter l’ingestion des données historiques : coordonner les tests de migration massive des données historiques, piloter le tri des données nécessaires aux analyses métier dans le PIMS et le recalage spatial des données historiques sur le nouveau référentiel linéaire cible avant ingestion. Prestations attendues / responsabilités principales Sous la responsabilité du responsable du delivery de l’initiative globale, le chef de projet PIMS assurera : • Pilotage du fournisseur / éditeur PIMS : - suivi opérationnel des équipes de l’éditeur international ; - validation des livrables ; - planification rigoureuse et anticipation des activités en adhérence entre l’éditeur et les équipes internes ; - escalade des sujets à impact contractuel ou financier ; - garantie du respect des principes d’architecture fonctionnelle, technique et d’interopérabilité ; - consolidation de l’analyse d’écart entre les outils existants et le PIMS afin d’éviter les régressions fonctionnelles. • Pilotage des activités confiées à d’autres équipes contributrices au lot PIMS : - spécification et réalisation des flux de données ; - construction du référentiel linéaire ; - réalisation de reportings ; - vues cartographiques SIG. • Coordination fonctionnelle : - participation aux ateliers avec les experts métiers et l’éditeur pour définir les flux de travail cibles dans l’outil ; - promotion des processus standards de la solution tout en assurant l’adéquation avec les exigences métier et réglementaires ; - animation des ateliers de définition du besoin pour les usages de reporting et cartographie SIG. • Synchronisation de l’écosystème projet : - participation active aux rituels de synchronisation visant à planifier le delivery et gérer les dépendances avec les autres équipes ; - contribution aux ateliers transverses entre EAM, PIMS, Datahub et SIG ; - vigilance sur le cycle de vie de la donnée et son mapping entre les différentes applications ; - collaboration étroite avec les équipes gérant la GMAO et le service Data. • Pilotage des tests : - organisation avec l’éditeur des phases de recette pour l’application et ses interfaces ; - participation aux tests de bout en bout ; - suivi des anomalies. • Conduite du changement et préparation de l’exploitation : - accompagnement de la formation des administrateurs métiers et IT ; - préparation de la gestion courante de la plateforme ; - création de l’offre de service support. • Appui au pilotage global : - remontée d’avancement ; - contribution aux analyses et arbitrages transverses.
Freelance
CDD

Offre d'emploi
Data Engineer Azure Databricks H/F

SMARTPOINT
Publiée le
Apache Spark
Azure
CI/CD

8 mois
50k-60k €
460-500 €
Île-de-France, France
Analyse des traitements existants dans le cadre de projets de migration de données Conception et construction de pipelines de données pour transformer, enrichir et traiter les données au sein du Data Lake Développement de notebooks Databricks pour des traitements avancés de données Mise en œuvre de solutions de Cloud Data Warehousing , incluant l'optimisation des traitements et le tuning de requêtes SQL Rédaction de la documentation technique (Dossiers d'Analyse Technique, release delivery notes, etc.) Réalisation de revues de code dans une logique de qualité et de bonnes pratiques Conception et exécution de tests unitaires Livraison des développements dans un environnement DevOps intégrant des processus CI/CD et les outils associés
Freelance
CDI

Offre d'emploi
Développeur CONFIRME Big Data Hadoop/PySpark/Python - 3 à 6 ans

Digistrat consulting
Publiée le
Apache Hive
Apache Spark
Hadoop

3 ans
38k-43k €
300-400 €
Paris, France
🏭 Secteurs stratégiques : Banque d’investissement PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Le département a lancé un programme stratégique, qui comporte plusieurs projets d'harmonisation des processus et outils. L'un de ces streams a pour vocation de constituer un datalake sur une stack Hadoop, afin de servir les besoins en data et reporting. Ce datalake a également pour vocation de devenir la brique centrale de l'architecture du SI . Nous recherchons un profil Hadoop / PySpark qui sera en charge, en lien avec l'équipe de production applicative / devops, de mettre en œuvre techniquement les évolutions du datalake. Passionné par les données, capable de s’adapter à un environnement dynamique et en constante évolution, le prestataire doit faire preuve d'autonomie, d'initiative et d'une forte capacité d'analyse pour résoudre des problèmes complexes. 🤝Principales missions : Les tâches suivantes seront confiés au consultant : • Mettre en œuvre de nouvelles ingestions de données, data prep/transformation • Maintenir et faire évoluer nos outils de gestion des pipeline de données (Pyspark + shell scripting) • Adresser à l'équipe devops les demandes relatives aux évolutions de la plateforme • Eventuellement mettre en œuvre une couche d'APIs afin d'exposer nos données
Freelance
CDI
CDD

Offre d'emploi
Développer Data Engineer Databricks Spark Azure Python

IT CONSULTANTS
Publiée le
Apache Spark
Azure
Databricks

8 mois
Île-de-France, France
Dans le cadre de notre besoin, nous recherchons un Data Engineer confirmé / sénior disposant d’une forte expertise sur Azure, Databricks, Spark, SQL et Python. Vous intégrerez l’une de nos squads, responsable de la migration de traitements existants depuis une plateforme on premise vers notre plateforme Data Cloud Azure / Databricks. Le profil recherché devra impérativement démontrer une forte motivation pour intervenir sur des projets de migration et être force de proposition, notamment pour identifier et mettre en œuvre des leviers d’accélération afin d’optimiser le delivery. Mission : • Analyse des traitements existants dans le cadre de projets de migration • Conception et construction de pipelines de données pour transformer, enrichir et traiter les données au sein du Data Lake • Développement de notebooks Databricks pour des traitements avancés de données • Mise en œuvre de solutions de Cloud Data Warehousing (optimisation des traitements et tuning des requêtes SQL) • Rédaction de la documentation technique (Dossiers d’Analyse Technique, release delivery notes, etc.) • Réalisation de revues de code dans une logique de qualité et de bonnes pratiques • Conception et exécution de tests unitaires • Livraison des développements dans un environnement DevOps intégrant des processus CI/CD et les outils associés Compétences techniques requises • Expérience Data minimum 5 ans • Azure minimum 3 ans • Databricks minimum 5 ans • Spark minimum 5 ans • Python minimum 5 ans • SQL minimum 5 ans • Maitrise de CI/CD, Azure DevOps Minimum 3 ans • Connaissance des outils Agile (JIRA) et ayant déjà travaillé en mode Agile minimum 1 an Aptitudes personnelles • Force de proposition, rigueur, réactivité, bon relationnel. Test technique • Un test technique sera réalisé lors de l’entretien
685 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous