Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 3 477 résultats.
Freelance

Mission freelance
Tech Lead Data — Snowflake (Libourne) H/F

LeHibou
Publiée le
Snowflake

9 mois
400-600 €
Libourne, Nouvelle-Aquitaine
Notre client dans le secteur Santé et pharma recherche un/une Tech Lead Data — Snowflake H/F Description de la mission: Offre de mission – Tech Lead Data — Snowflake Contexte de la mission Notre client, dans le cadre de sa transformation numérique, engage en 2026 un programme stratégique de refonte complète de sa Data Platform, avec Snowflake comme technologie cible retenue à l’issue d’un benchmark approfondi. Le planning communiqué est ferme et non négociable : • Q2 2026 : bootstrap de la Data Platform Snowflake et de l’usine logicielle Data • Q2 2026 : démarrage de la migration des stacks legacy • Fin 2026 : migration complète Le contexte est celui d’un groupe très décentralisé, avec une forte hétérogénéité des sources de données (plus de 50 instances ERP de type JD Edwards, stacks Oracle, GCP, Azure Databricks) et une ambition claire : générer de la valeur business plutôt que faire de la technique pour la technique. Périmètre de la mission 1. Bootstrap de la Data Platform Snowflake • Définir et implémenter l’architecture générale de la plateforme Data : ingestion, transformation, stockage, exposition • Structurer l’environnement Snowflake : databases, schemas, RBAC, sécurité et accès • Mettre en place des pipelines d’ingestion différentielle (CDC) depuis les sources legacy : Oracle, GCP, Azure Databricks, JD Edwards • Garantir la qualité des données dès l’ingestion, dans un contexte où les pipelines historiques sont en full load sans logique différentielle 2. Bootstrap de l’usine logicielle Data • Définir et imposer les standards de développement Data Engineering : homogénéité, reproductibilité, lisibilité • Mettre en place les bonnes pratiques : tests, CI/CD, versioning, documentation, naming conventions • Structurer la factory Data pour permettre la montée en autonomie des équipes internes • Accompagner les équipes dans l’adoption des pratiques 3. Pilotage de la migration • Coordonner la migration des usages legacy vers la nouvelle stack Snowflake • Arbitrer en continu entre développements sur le legacy et avancement sur la nouvelle stack • Être le référent technique principal vis-à-vis des parties prenantes IT et métier • Assurer le reporting auprès de la DSI Stack technique • Data Warehouse : Snowflake • Sources legacy : Oracle, GCP, Azure Databricks, JD Edwards (50+ instances) • Transformation : dbt ou équivalent • Orchestration : Apache Airflow ou équivalent • Langages : SQL avancé, Python • CI/CD et DevOps : à mettre en place • Data Quality : à définir et implémenter Compétences requises Indispensables • Snowflake : maîtrise avancée, incluant architecture, RBAC, Snowpipe, Snowpark, optimisation des coûts et des requêtes • Data Engineering : conception de pipelines différentiels, architecture Medallion (Bronze / Silver / Gold) • Migration de stacks Data : expérience avérée sur des projets de migration multi-sources vers un Data Warehouse cloud • Leadership technique : capacité à bootstrapper une plateforme from scratch, sans architecture existante • Bonnes pratiques : CI/CD, tests, documentation, standards de code • SQL avancé, Python Appréciées • Expérience sur un ERP multi-instances • Outils de Data Quality • Expérience en environnement industriel ou Life Sciences / Pharma • Connaissance de GCP et/ou Azure Databricks dans un contexte de migration Profil recherché • Expérience totale : 8 à 12 ans • Expérience Snowflake : 3 ans minimum avec projets significatifs • Expérience Tech Lead Data : 3 ans minimum • Expérience de migration de stack : indispensable • Anglais : professionnel courant • Localisation : région Nouvelle-Aquitaine ou mobilité
Freelance

Mission freelance
POT9028 - Un architecte Data - Snowflake sur Massy

Almatek
Publiée le
SQL

6 mois
Massy, Île-de-France
ALMATEK recherche pour l'un de ses clients, Un architecte Data - Snowflake sur Massy CONTEXTE DE LA MISSION Dans le cadre de la synergie IT et du développement de l’IA GEN au sein de ces applications, le chapitre DATA Entrepôt de données a en charge de porter les évolutions de pattern liés à la plateforme Data SNOWFLAKE dont il a la responsabilité. Au sein d’une équipe composée d’experts dans le domaine de l’IT et fort de vos expériences d’administration de plateforme SNOWFLAKE, vous aurez pour missions principales de : - Concevoir les nouveaux PATTERN nécessaires demandés, sur les périmètres ingestion de données, manipulation de données et restitution, que les données soient structurées ou non structurées. - Les mettre en œuvre sur la plateforme France ou à l’international pour qu’ils puissent être utilisés par les équipes DATA IT et métier - Accompagner les différentes équipes IT et métier France ou des Business Units dans le déploiement et la prise en main de la plateforme SNOWFLAKE Dans ce contexte, les principales activités : - Contribuer aux cadrages des nouveaux besoins techniques des métiers liés à la plateforme SNOWFLAKE - Participer à l’évolution de la plateforme Data (gouvernance, contrôles, automatisation, etc) - Participer aux choix technologiques de l’offre à mettre en place - Analyser les documents d’architecture des assets à faire évoluer et définir les nouveaux PATTERN (architecture fonctionnelle, applicative, technique) - Analyser, définir et cadrer les adaptations nécessaires de l’offre proposée - Documenter les PATTERN retenus à un niveau plus détaillé, de sorte à la rendre exécutable pour les autres Business Units - Être l’interlocuteur privilégié des équipes portant les besoins d’agent/usages IAGEN au sein du pôle DATA - Accompagner au déploiement de la solution définie auprès de la BU SOFINCO et des autres Business Units - Accompagner à la prise en main de la plateforme Data COMPETENCES SPECIFIQUES REQUISES Connaissances techniques Les principales technologies à connaître : - Expertise avec expérience avérée de l’administration d’une plateforme SNOWFLAKE - Architectures Data et leur écosystème (Snowflake, Bedrock) - Architectures et services du cloud (AWS en priorité , Terraform) - Kubernetes/EKS, Airflow/MLFlow/Jupyter, CICD (Gitlab/Artifactory/SonarQube), IDC, - Languages : Shell, Python, SQL - Sensibilité aux problématiques de sécurité et normes associées - Maitrise des architectures des flux Autres : - Capacité à mobiliser, fédérer et créer une vision commune - Capacité à travailler dans un contexte multi-site, multi-entité et international - Bonne communication écrite et orale Langues : Anglais lu et parlé de manière professionnelle
Freelance
CDI

Offre d'emploi
TECH LEAD DATA – PALANTIR / PYSPARK / PYTHON

OCTOGONE
Publiée le
PySpark
Python

6 mois
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Dans le cadre d’un projet stratégique chez l’un de nos clients grands comptes, nous recherchons un Tech Lead Data disposant d’une forte expertise sur l’écosystème data moderne et les technologies Palantir. En tant que référent technique, vous interviendrez sur la conception, l’industrialisation et l’optimisation de pipelines data à forte volumétrie, tout en accompagnant les équipes dans la mise en œuvre des bonnes pratiques de développement et d’architecture. Responsabilités principales • Concevoir et piloter l’architecture des pipelines data • Développer et optimiser des traitements distribués en PySpark • Développer des composants et scripts en Python pour le traitement et l’orchestration des données • Intervenir sur les environnements Palantir (Foundry ou équivalent) • Encadrer techniquement les équipes data (data engineers / analysts) • Garantir la qualité, la performance et la fiabilité des pipelines • Participer aux choix d’architecture et aux décisions techniques • Collaborer avec les équipes métiers et les architectes data Compétences requises • Forte expertise Python et PySpark • Expérience confirmée sur des architectures data distribuées • Expérience sur la plateforme Palantir (Foundry idéalement) • Maîtrise des problématiques d’industrialisation data (ETL, orchestration, performance) • Expérience en rôle de Tech Lead ou référent technique • Bonne compréhension des enjeux data à grande échelle
Freelance
CDI

Offre d'emploi
Data Engineer (Paris ou Lyon)

TEOLIA CONSULTING
Publiée le
BI
Data Lake
Master Data Management (MDM)

12 mois
40k-45k €
400-470 €
Paris, France
Nous recherchons pour l'un de nos clients un(e) Data Engineer pour renforcer une squad Data dédiée à la mise en place d’un socle de Master Data Management (MDM) . L’objectif du projet est de centraliser, fiabiliser et gouverner les données liées aux instruments financiers , dans un environnement exigeant en matière de qualité, traçabilité et sécurité. Missions : Intégré(e) à une équipe pluridisciplinaire (Data Engineers, Architecte, BA, PO), vous interviendrez sur : La conception et le développement de pipelines de données (modèle Bronze / Silver / Gold) L’ingestion et l’orchestration des flux via Apache NiFi L’intégration de données multi-sources (CSV, XML, API REST) La modélisation des données et la construction de vues consolidées MDM La mise en place de contrôles de qualité et de traçabilité (logs, audit, complétude, cohérence, versioning) L’optimisation des performances des pipelines Le respect des standards de sécurité et conformité La documentation et le partage de bonnes pratiques au sein de la squad Environnement technique Apache NiFi SQL / NoSQL PostgreSQL Stockage objet : S3 / Blob Formats & protocoles : JSON, XML, CSV, API REST Scripting : Python , Bash CI/CD : GitLab, GitLab CI
CDI

Offre d'emploi
Data Ops Engineer AWS / Databricks H/F

DAVRICOURT
Publiée le
Databricks

45k-50k €
Lille, Hauts-de-France
Dans le cadre de la réalisation d'un projet en assistance technique, nous recherchons un(e) Data Ops Engineer AWS / Databricks pour l'un de nos clients du secteur de la grande distribution. Vous interviendrez sur le site client situé dans la métropole lilloise. À ce titre, vos missions quotidiennes seront les suivantes : - Assurer la robustesse, la performance et la sécurité d'une plateforme data (data lake AWS) ; - Mettre en place et maintenir l'infrastructure via Terraform (Infrastructure as Code) ; - Superviser les environnements data (monitoring, performance, optimisation) ; - Accompagner les équipes sur l'usage des outils data (S3, Glue, Databricks) ; - Contribuer à la gouvernance des données (catalogue, accès, qualité des données) ; - Participer à l'amélioration continue et à l'industrialisation des pratiques Data Ops.
Freelance

Mission freelance
100352/Coach Agile / Scrum (50%)/Data Analyst (50%) Nantes

WorldWide People
Publiée le
Agile Scrum
Data visualisation
Python

10 mois
400 €
Nantes, Pays de la Loire
Coach Agile / Scrum (50%)/Data Analyst (50%) Nantes : Coach Agile - Animer les cérémonies agiles (daily, sprint planning, review, rétrospectives). - Structurer le backlog et prioriser les tâches. - Former et sensibiliser l’équipe aux pratiques Scrum, Kanban et Lean. - Aider à lever les obstacles, améliorer le fonctionnement interne et le delivery. - Mettre en place des outils simples de suivi (tableaux, indicateurs, rituels). - Faciliter la communication entre les équipes techniques, métiers et exploitation Data Analyst (50%) : - Collecter, nettoyer et analyser les données liées aux flux, usages, équipements et services en gare. - Réaliser des tableaux de bord (Power BI ou équivalent) pour les équipes métiers. - Contribuer aux études statistiques (tendances, performances, incidents, utilisation des outils…). - Proposer des indicateurs pour orienter les décisions opérationnelles. - Travailler avec les équipes terrain pour comprendre les besoins utilisateurs et améliorer les visualisations. Compétences Agile : - Bonne maîtrise de Scrum et/ou Kanban. - Savoir animer une équipe, faciliter, cadrer, apaiser les tensions. - Approche pragmatique (pas dogmatique). Compétences Data : - Maîtrise d’un outil de data visualisation (Power BI, Tableau…). - Développement en Python. - Bon niveau en SQL et manipulation de données. - Capacité à vulgariser les analyses.
Freelance
CDI

Offre d'emploi
Développeur Big Data sur Lyon

EterniTech
Publiée le
Cloudera
Hadoop
SQL

3 ans
Lyon, Auvergne-Rhône-Alpes
Je recherche pour un de mes client un Développeur Big Data sur Lyon CONTEXTE DE LA MISSION Le client, dans le cadre de son activité Big Data, recherche un profil en développement Data, Python, SQL, Shell, Spark (+ de 5 ans d'expérience) pour l’accompagner dans les actions sur la plateforme Cloudera Hadoop. L'objectif de la prestation est de réaliser et maintenir les développements nécessaires à l'alimentation de la plateforme Hadoop, à la mise en place d'extractions et à l'accompagnement des utilisateurs. DESCRIPTION DE LA MISSION Rattaché au responsable Big Data, le profil aura pour principales missions : - de prendre en charge les évolutions des données à intégrer, reprendre les développements effectués pour l'alimentation du Datalake , de les faire évoluer en fonction des besoins (Stack technique : Hadoop Cloudera, Hive, Impala, Python, Shell, Linux, SQL, VBA, Jupyter) - d'avoir une expertise technique permettant de spécifier techniquement les tâches, fournir les requêtes de référence, effectuer une revue de code, accompagner les potentiels alternants ou stagiaires (une alternante à date) - de mettre en place des extractions à partir de ces données, - d’assurer le support niveau 2, - de faire appliquer les consignes aux utilisateurs, - de garantir la tenue des délais de livraison dans un contexte de production à fortes attentes - de contribuer à garantir la maintenabilité de la plateforme ainsi que ses performances et son exploitabilité Il veillera au respect de l’utilisation des modèles référencés ou à leur évolution en collaboration avec la Direction Technique Informatique et la Gouvernance de la Donnée. Le profil devra posséder des aptitudes et qualités avérées sur sa capacité à communiquer avec diplomatie, à écouter, à s'intégrer et à partager son savoir faire, à documenter ses actions et à accompagner. LIVRABLES ATTENDUS ET ENVIRONNEMENT TECHNIQUE Les principales missions confiées seront les suivantes : - Développement des traitements d'alimentation, forte capacité à structurer l'activité (JIRA), mise en place et description de processus (guides, accompagnement utilisateurs, …), pilotage opérationnel de certains sujets - Développement d'extractions avec SQL (expert) et scripting Shell avancé pour l'automatisation - Capacité à investiguer et faire du reverse engineering dans une architecture héritée complexe - Optimisation des traitements de la plateforme et ceux des utilisateurs - Capacité à expliquer simplement le sujet, à communiquer vers des interlocuteurs type développeur, bureau d'étude, qualifieur et "clients" (Groupes de protection sociale). La connaissance de Power BI et SAS sont des plus. Exemples de livrables attendus : - Code source documenté - Plan de tests / fiches de test - Bilan - Bordereau de livraison - Manuel d’installation - Dossier d’exploitation - JIRA documentée Environnement technique : - Hadoopa Cloudera - Hive - Impala - Python - Shell - Spark - Linux - SQL - VBA - Git - Jupyter Des connaissances de l’écosystème de la protection sociale sont les bienvenues (retraite complémentaire idéalement).
Freelance
CDI

Offre d'emploi
Développeur .NET Cloud-Ready & Front-Office (Supervision Trading)

VISIAN
Publiée le
.NET

3 ans
40k-45k €
400-550 €
Île-de-France, France
Développeur .NET Cloud-Ready & Front-Office (Supervision Trading) Le Contexte : Pour le compte d'une entité de Trading & Optimisation, vous rejoignez une équipe agile de 7 personnes. Votre rôle est crucial : développer les outils qui permettent aux traders de piloter leurs activités en temps réel. 🎯 Votre Mission : Supervision & Compliance : Développer et maintenir des applications de supervision du trading (gestion des mandats, contrôles, déclaration de PnL). Hybridation IA : Travailler au quotidien avec GitHub Copilot pour optimiser vos développements tout en gardant un esprit critique sur la qualité produite. Data & Cloud : Exposer des data sets complexes sur AWS et participer à la mise en place de reportings Power BI performants. Proximité Métier : Collaborer directement avec les Business Analysts et les utilisateurs Front-Office pour recueillir les besoins. 💻 Profil Recherché : Compétences : C# .NET (confirmé), Angular, SQL. Appétence Cloud : Connaissance ou forte volonté d'apprendre sur les environnements AWS et Azure. Soft Skills : Grande curiosité technologique, sens de l'architecture "propre" et aisance relationnelle avec des profils métiers exigeants.
Freelance

Mission freelance
Data Scientist Python, Tensorflow Nantes/st

WorldWide People
Publiée le
Python

12 mois
350-370 €
Nantes, Pays de la Loire
Data Scientist Python, Tensorflow Nantes Compétences techniques •Maîtrise des langages comme Python •Connaissance des bibliothèques et frameworks de machine learning (ex : TensorFlow, PyTorch, Scikit-learn, …). •Compétences en gestion des bases de données (SQL et NoSQL) et en manipulation de grandes volumétries de données. •Expertise en algèbre linéaire, en probabilités, et en méthodes statistiques. Prestation de Data Scientist Objectif : •Transformer des données brutes en informations exploitables grâce à des modèles statistiques avancés, des algorithmes de machine learning et des analyses prédictives. •Exploiter, analyser et évaluer la richesse de données, structurées ou non, pour établir des scénarios permettant de comprendre et anticiper de futurs leviers métiers ou opérationnels pour l’entreprise. •Identifier des tendances ou des corrélations cachées dans les données. •Créer des modèles prédictifs ou des solutions automatisées basées sur des algorithmes. •Aider à prendre des décisions stratégiques basées sur les données. Tâches : •Valorise les gisements de données. •Travaille sur des périmètres métiers ciblés (cas d’usage) pour explorer et exploiter des flux de données issus de la data platform ou d’autres sources (dans ce cas il évalue la qualité et la richesse des données, les analyse et en restitue les résultats pour ensuite les intégrer dans le système d’information cible du métier). •Obtient des données adéquates, trouve les sources de données pertinentes, fait des recommandations sur les données à consolider, modifier, rapatrier, externaliser, internaliser. •Intervient de façon plus intégrée en industrialisant ses réalisations dans la chaine technologique de la data platform et/ou les intègre dans le système d’information du métier. •Conçoit des modèles statistiques et/ou d’apprentissage automatisé. •Compare et évalue différents modèles ou méthodes de calcul et anticipe les avantages et inconvénients dans un environnement métier. •Assure la veille en recherche & innovation pour introduire de nouvelles approches d’analyse et de modélisation des données. Compétences techniques •Maîtrise des langages comme Python •Connaissance des bibliothèques et frameworks de machine learning (ex : TensorFlow, PyTorch, Scikit-learn, …). •Compétences en gestion des bases de données (SQL et NoSQL) et en manipulation de grandes volumétries de données. •Expertise en algèbre linéaire, en probabilités, et en méthodes statistiques.
Freelance
CDI

Offre d'emploi
Data Engineer Senior - Nantes &Vannes F/H

Argain Consulting Innovation
Publiée le
Apache
Apache Hive
Batch

2 ans
40k-45k €
450-500 €
Nantes, Pays de la Loire
Nous recherchons un Data Engineer pour intervenir sur la fabrication de cas d’usages Data et le développement des produits associés. L’environnement est transverse, multi-sites, avec des enjeux forts de cohérence, de qualité et d’industrialisation des solutions Data à l’échelle de l’entreprise, en lien avec les équipes métiers et techniques. 📍 Localisation Si vous etes localisé à Nantes, vous serez rattaché(e) au site de Nantes avec 2 jours de déplacement par mois requis sur le site de Vannes. Si vous etes localisé(e) à Vannes vous serez rattaché (e) au site de Vannes Mission longue Vos missions : Vous interviendrez sur l’ensemble du cycle de vie des produits Data : Participation à la définition de l’architecture Data , en lien avec les architectes et les équipes projet Conception, développement et optimisation des solutions de collecte et de stockage de données (multi-sources) Mise à disposition des données pour les usages métiers Mise en œuvre de tests unitaires et automatisés Déploiement des solutions sur les différents environnements Suivi du bon fonctionnement en production : support, assistance, gestion des incidents Contribution à l’ amélioration continue des pratiques (qualité du code, performance, fiabilité)
Freelance

Mission freelance
OP / Analytics Engineer (Consultant Data expérimenté)

OUICODING
Publiée le

1 mois
420-500 €
Paris, France
2) Missions principales (responsabilités) Analyse & modélisation - Réaliser des analyses complexes sur les données et produire des insights actionnables via des méthodologies statistiques. - Concevoir/porter des modèles de données métiers (expertise de la modélisation). - Posture "Conseil" & interface métier - Traduire les besoins métier en exigences techniques, tout en les challengeant et en étant force de proposition. Communiquer avec pédagogie auprès d'équipes techniques et métiers ; animer la communauté de data analystes. Delivery BI / dataviz / UX - Concevoir des rapports pertinents à partir des données analysées. - Porter des propositions UX/UI (wireframes, maquettes, personae) et proposer des visualisations avancées (ex. D3.js). Gouvernance & patrimoine data Rédiger/maintenir les bonnes pratiques de modélisation et développement. Maintenir la connaissance du patrimoine de données et des publications de reporting associées. Développer l'offre Streamlit et maintenir un cadre UX/UI Data ; assurer une veille produit Power BI. Expertise / administration / industrialisation - Administrer le service Power BI (et le "parc"), consolider les métriques d'usage et les données catalogue. - Auditer / optimiser du code (Power BI, SQL, Streamlit) et maintenir le CI/CD Power BI. Sécurité S'approprier et intégrer les exigences Cybersécurité dans les pratiques et livrables.
Freelance

Mission freelance
Proxy Product Owner Data GCP (H/F) - 75

Mindquest
Publiée le
SIRH

12 mois
Paris, France
Dans le cadre du renforcement de ses équipes, notre client recherche un PPO Data GCP afin d’accompagner les projets liés aux données RH et au SIRH. La mission s’inscrit dans une logique de collaboration étroite entre les équipes métiers et la DSI, avec un fort enjeu de coordination et de pilotage. Vous intervenez en tant qu’interface entre les équipes métiers RH et les équipes techniques. À ce titre, vous : - Assurez le suivi et le pilotage des projets Data SIRH - Faites le lien entre les besoins métiers et les solutions techniques - Coordonnez les différents interlocuteurs (RH, DSI, Data) - Identifiez les risques et remontez les alertes de manière proactive - Intervenez sur les données issues du SIRH (notamment SAP SuccessFactors) - Exploitez les données dans un environnement Data (Google BigQuery) - Participez à la production et au suivi de reportings sous Microsoft Power BI - Contribuez à la gouvernance des données avec DataGalaxy
CDI
Freelance

Offre d'emploi
Responsable RUN/Data

OBJECTWARE
Publiée le
Master Data Management (MDM)

3 ans
40k-78k €
400-590 €
Île-de-France, France
Objectif de la mission Profil technico fonctionnel : Suivi du RUN et gestion des incidents Conception d'achitecture applicative Conception technique Maitrise des batchs Stratégie de test et test fonctionnel Garantie du bon fonctionnement des applications, leur maintenabilité et leur évolutivité Réponse et analyse aux incidents Env technique : - APIs Rest et Web Services SOAP - Applications web en java - Base de données Oracle - XML - Ordonnanceur control-M - ETL Informatica - Git - Outils : service now, JIRA, … - Un plus : MDM EBX Tibco et MDM Semarchy
Freelance

Mission freelance
Proxy PO DATA - finance / Processus Procure to Pay AND Order to cash /DATAIKU / Anglais (H/F)

Octopus Group
Publiée le
BI
Dataiku
Finance

6 mois
490-600 €
La Défense, Île-de-France
Nous recherchons pour le compte de notre client grand-compte en finance, un proxy-product Owner Data Objectif : Apporter son soutien à l'équipe de finance d'entreprise dans la mise en œuvre de son programme de transformation financière. Ce programme couvre l'automatisation des processus, ainsi que les processus P2P (Procure-to-Pay) et O2C (Order-to-Cash). Vous veillerez à ce que toutes les initiatives de transformation financière comportant une dimension « données » soient correctement identifiées, structurées et alignées sur les normes, les modèles et les cadres de mise en œuvre du Bureau des données du groupe. Il s'agit d'un poste transversal et hautement collaboratif, faisant le lien entre les équipes Finance, Informatique et Données, afin de garantir la mise en œuvre et l'adoption efficaces de solutions basées sur les données. Mission Principale : Agir en tant que Proxy Product Owner Data pour le programme de transformation de la finance d'entreprise, en permettant une exécution axée sur les données en s'assurant que les projets sont : • Correctement identifiés comme comportant une composante données • Sont recensés et alignés sur les priorités du Bureau des données du Groupe • Sont structurés selon les modèles, solutions et normes d'architecture du Groupe • Sont mis en œuvre efficacement avec une gouvernance et des conseils techniques appropriés Identification et gestion des projets Identifier les initiatives de transformation financière ayant un impact sur les données Évaluer la valeur métier et la faisabilité Veiller à la cohérence avec les priorités du Bureau des données du Groupe Veiller à la hiérarchisation et à l'intégration dans le backlog du bureau des données du groupe Traduire les besoins financiers en exigences techniques et en matière de données Veiller à l'alignement sur les modèles d'architecture du groupe Valider la conception de la solution et les modèles de données Expertise en processus financiers et soutien à la transformation Apporter une expertise sur les processus de finance d'entreprise Accompagner les initiatives de transformation dans les domaines suivants : P2P (Procure-to-Pay) O2C (Order-to-Cash) Automatisation des processus financiers S'assurer que les solutions de données répondent aux besoins opérationnels de la fonction financière Mise en œuvre de l'automatisation des processus Soutenir la mise en œuvre des initiatives d'automatisation des processus Contribuer à l'élaboration de cas d'utilisation de l'automatisation à l'aide de Dataiku Garantir l'intégration et la qualité des données pour les flux de travail automatisés Coordination de la mise en œuvre Assurer la coordination entre les équipes financières, informatiques et le Bureau des données du groupe Suivre l'avancement du projet et lever les obstacles Veiller à ce que la mise en œuvre soit alignée sur les étapes clés de la transformation Normes, gouvernance et bonnes pratiques Veiller au respect des normes du Bureau des données du Groupe Appliquer les modèles d'architecture et les cadres de gouvernance Garantir le respect des exigences en matière de qualité et de sécurité des données Implication des parties prenantes et communication Servir de point de contact principal pour les données dans le cadre du programme de transformation financière Fournir des rapports d'avancement réguliers Soutenir la prise de décision et la coordination
Freelance

Mission freelance
Expert data DataCloud (DataBricks) Nantes /st

WorldWide People
Publiée le
Databricks

12 mois
Nantes, Pays de la Loire
Expert data DataCloud (DataBricks) Nantes •Expertise des produits et outils du domaine DATACLOUD (DATABRICKS) •Expertise en analyse et réalisation dans la mise en place de projets décisionnels •Maîtrise des environnements techniques et des architectures associées •Maîtrise des différentes phases de développement d’un projet •Connaissance d’une méthode de tests •Maîtrise de la gestion de configuration logicielle •Maîtrise de la sécurité informatique du domaine Ce poste est ouvert à la pre-embauche DataCloud (DataBricks) Prestation d'Expert Data Tâches : •Assister à la rédaction des dossiers de conception, à la relecture et validation des spécifications techniques émises par les équipes de réalisation •Apporter une expertise technique/un support technique (résolution de problèmes en production, mise en œuvre de nouvelles fonctionnalités, étude de DFB, etc.) : •Apporter de l’expertise sur les projets en cours de développement •Apporter de l’expertise sur des problématiques en production •Proposition et test de solutions, mise en œuvre de solutions de contournements, dossier de préconisations, etc… •Support assuré auprès des équipes projet, de l’exploitant, de l’AMOA, etc. •Rapports d’études •Apporter des améliorations dans le code, les tests, les configurations •Auditer le code et préconiser des améliorations •Apporter de l’expertise/support lors de migrations de données •Optimiser des traitements, des bases de données •Gérer les patchs éditeurs •Assister (expertise) les développeurs et intervenir en support N1/N2, notamment en réalisant les travaux les plus complexes •Apporter son expertise et son conseil à la définition et mise à jour de l’architecture Applicative •Participer au dimensionnement d’une architecture •Participer au choix d’une solution •Apporter des connaissances sur l’état de l’art du marché •Etre force de proposition pour la création ou l’évolution de plateformes mutualisées en fonction de l’évolution du marché et des nouveaux besoins •Proposer, construire, alimenter et diffuser les outils de capitalisation, d’industrialisation et de mutualisation tels que les guides de bonnes pratiques, des bilans de projets, des retours d’expérience •Participer au développement/à la formation des compétences des collaborateurs pour améliorer les connaissances et le savoir- faire collectifs •Participer à l’homologation et l’accessibilité technique •Rédiger ou mettre à jour la documentation utilisateur, les supports de formation •Concevoir des actions et des supports de formation •Préparer et réaliser les sessions de formation •Préparer la communication ou communiquer vers les contacts Métiers des évolutions Compétences : •Expertise des produits et outils du domaine DATACLOUD (DATABRICKS) •Expertise en analyse et réalisation dans la mise en place de projets décisionnels •Maîtrise des environnements techniques et des architectures associées •Maîtrise des différentes phases de développement d’un projet •Connaissance d’une méthode de tests •Maîtrise de la gestion de configuration logicielle •Maîtrise de la sécurité informatique du domaine
Freelance

Mission freelance
Data engineer Google cloud platform (GCP)

CAT-AMANIA
Publiée le
Apache Kafka
Apache Spark
BigQuery

6 mois
Île-de-France, France
Pour le compte d'un acteur majeur, nous recherchons un(e) Data Engineer confirmé(e) pour concevoir et déployer des chaînes de traitement de données complexes au sein d'un Datalake moderne. Vous intégrerez une équipe évoluant en mode Agile (Scrum/Kanban) avec une forte culture de l'automatisation. Vos responsabilités : Concevoir et mettre en œuvre les chaînes d’ingestion, de validation et de croisement de données. Assurer le déversement et l'enrichissement des données dans le Datalake. Produire automatiquement des agrégats (journaliers à mensuels) via la puissance du Cloud. Développer et documenter les User Stories en collaboration directe avec le Product Owner. Garantir la qualité via l'automatisation des tests fonctionnels et la correction des anomalies. Participer activement à la chaîne de delivery continue et assister les équipes d'exploitation. Profil recherché : Expertise confirmée sur la plateforme GCP (indispensable) . Maîtrise avancée de l'écosystème Spark / Scala / Kafka . Expérience solide sur les environnements conteneurisés ( GKE, Docker ) et l'Infrastructure as Code ( Terraform, Ansible ). Compétences pointues en stockage et requêtage ( BigQuery, SQL, HDFS ). Capacité à orchestrer des workflows complexes avec Airflow / Composer . Esprit collaboratif, curieux des évolutions technologiques et doté d'un excellent relationnel.
3477 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous