Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 1 669 résultats.
Freelance

Mission freelance
Senior Data Product Manager/ Data Mesh/ Cloud AWS & AZURE / Anglais (H/F)

Octopus Group
Publiée le
BI
Dataiku
Finance

6 mois
550-680 €
La Défense, Île-de-France
Nous recherchons pour le compte de notre client grand-compte en finance, Senior Data Product Manager Contexte de la mission : Il s'agit d'un poste à la fois stratégique et hautement opérationnel, chargé de la mise en œuvre concrète et du déploiement de la plateforme de données en libre-service du Groupe, fondée sur les principes du Data Mesh. Le Senior Data Product Manager est responsable de la mise en œuvre pratique, de l'industrialisation et de l'adoption à l'échelle de l'entreprise de la plateforme dans l'ensemble des domaines d'activité. Ce poste requiert un profil orienté vers la construction et l'exécution, capable de définir la vision et de la traduire en une plateforme évolutive, de qualité production et utilisable à grande échelle. Mission Principale : Concevoir, construire, déployer et exploiter la plateforme Data Mesh du Groupe (appelée Group Data Platform - GDP) en tant que produit interne, en garantissant sa mise en œuvre technique, son adoption par l'entreprise, l'excellence opérationnelle et l'amélioration continue. Gestion de produit (axée sur l'utilisation) et amélioration continue Responsabilités : Identifier les besoins des utilisateurs et les exigences de la plateforme Définir la vision du produit et la feuille de route Mesurer l'utilisation et la création de valeur Améliorer l'expérience des développeurs et des utilisateurs Résultats attendus : Vision du produit et proposition de valeur Indicateurs clés de performance (KPI) de la plateforme et mesures d'adoption Boucles de retour d'information des utilisateurs et liste des améliorations à apporter Feuille de route pour l'amélioration de la plateforme Fourniture de la plateforme (responsabilité principale) Responsabilités : Définir les capacités de la plateforme (produits de données, pipelines, gouvernance, observabilité, accès en libre-service) Définir et faire respecter les normes techniques et les modèles d'architecture Prendre des décisions techniques concrètes et valider les solutions Livrables attendus : Comptes rendus des décisions d'architecture (ADR) Modèles d'architecture de référence et gabarits réutilisables Feuille de route des capacités de la plateforme Normes techniques de la plateforme Architecture et infrastructure cloud Responsabilités : Coordonner la conception et l'exploitation de l'architecture cloud et hybride en collaboration avec l'architecte de données du groupe Coordonner avec l'équipe de mise à disposition des données du groupe la mise en œuvre sur Amazon Web Services et Microsoft Azure Diriger l'intégration des systèmes sur site Veiller au respect des exigences en matière de sécurité et de conformité Résultats attendus : Plan directeur de l'architecture cloud (avec l'aide de l'architecte de données du groupe) Cadre de sécurité et de gestion des accès Gestion de la livraison et de l'exécution Responsabilités : Gérer le cycle de vie de la livraison de la plateforme Définir le backlog et le processus de hiérarchisation des priorités Gérer les versions et le déploiement en production Suivre les performances et la fiabilité Gérer les risques et les problèmes techniques Livrables attendus : Feuille de route de la plateforme (court / moyen / long terme) Backlog produit et cadre de priorisation Plan de lancement et processus de gestion des versions Tableaux de bord de suivi des livraisons SLA de la plateforme / indicateurs de fiabilité Déploiement et adoption par les domaines métier Responsabilités : Déployer la plateforme dans l'ensemble des domaines métier Permettre aux équipes métier de créer des produits de données Mettre en œuvre le modèle opérationnel Data Mesh Accompagner l'intégration et l'adoption Résoudre les difficultés opérationnelles liées à l'adoption Résultats attendus : Cadre et processus d'intégration des domaines métier Directives relatives au cycle de vie des produits de données Guides de mise en œuvre pour les domaines métier Indicateurs d'adoption et d'utilisation Supports de formation et documentation d'intégration Documentation, normalisation et gouvernance Responsabilités : Documenter les capacités et les processus de la plateforme Veiller au respect de la gouvernance fédérée des données computationnelles du groupe Résultats attendus : Référentiel de documentation de la plateforme Normes techniques et directives de mise en œuvre Cadre de gouvernance et de conformité Guides des meilleures pratiques Communication opérationnelle et rapports à la direction Responsabilités : Communiquer sur l'avancement et l'impact de la plateforme Fournir des rapports destinés à la direction Assurer la coordination entre les parties prenantes Livrables attendus : Tableau de bord du projet destiné à la direction Tableaux de bord sur les performances de la plateforme Présentations au comité de pilotage Suivi des décisions, des risques et des problèmes Promotion interne et évangélisation Responsabilités : Promouvoir la valeur de la plateforme au sein de l'organisation Soutenir les initiatives d'adoption en interne Développer la communauté autour de la plateforme Livrables attendus : Supports de communication internes relatifs à la plateforme Stratégie d'adoption et plan de déploiement Démonstrations de la plateforme et recueil de cas d'utilisation
Freelance
CDI

Offre d'emploi
SENIOR Data engineer MSBI Python Azure (7-8 ans minimum)

Digistrat consulting
Publiée le
Azure Data Factory
Azure DevOps
Microsoft SSIS

3 ans
50k-65k €
500-580 €
Paris, France
🏭 Secteurs stratégiques : Asset management 🗓 Démarrage : ASAP PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 💡 Contexte /Objectifs : Dans le cadre d'un projet au sein d'un client grand compte, nous sommes à la recherche d'un Data engineer avec une expertise sur la suite MSBI. Le profil recherché, Bac + 4/5 idéalement issu d’une école d’ingénieur, aura une expérience au minimum de 7/8 ans. Passionné par le développement, il aura la capacité de travailler en équipe et saura apporter une vraie valeur ajoutée par ses compétences techniques et humaines
Freelance
CDI

Offre d'emploi
📩 Azure Platform Engineer – Data & Analytics Platform

Gentis Recruitment SAS
Publiée le
Azure
Azure Kubernetes Service (AKS)
CI/CD

3 mois
40k-45k €
300-400 €
Paris, France
Contexte de la mission Dans le cadre du développement d’une plateforme data cloud à l’échelle groupe, notre client recherche un Azure Platform Engineer pour renforcer une équipe en charge de la conception, du déploiement et de l’exploitation de la plateforme. Les enjeux sont forts autour de : la scalabilité la gouvernance des données la sécurité la performance des traitements L’environnement est majoritairement Azure , avec une ouverture possible vers du multi-cloud. Vos missions Infrastructure & Cloud (Azure) Développement et maintenance d’infrastructures via Terraform / Bicep / ARM Gestion des ressources Azure : ADLS Gen2, Blob Storage Réseaux (VNet, NSG, Private Endpoints) Gestion des environnements DEV / TEST / PROD Data Platform Administration et exploitation d’un Data Lake Azure Mise en place des règles de gouvernance et sécurité : Azure AD / RBAC Policies / Purview Optimisation des performances et des coûts CI/CD & automatisation Mise en place et maintenance de pipelines CI/CD Automatisation des déploiements (infra + data + services) Environnements : Azure DevOps / GitHub Actions Développement & APIs Développement de microservices en Python Création d’APIs REST Intégration avec les services Azure (Functions, Event Hub…) Containers & orchestration Déploiement de services containerisés (Docker) Orchestration via AKS / Azure Container Apps Monitoring & fiabilité Mise en place de la supervision : Azure Monitor Log Analytics Application Insights Suivi des performances et de la disponibilité Collaboration Rédaction de documentation technique Interaction avec équipes data, dev et métiers Participation aux rituels Agile Stack technique Cloud : Azure Data : ADLS Gen2, Databricks, Synapse IaC : Terraform, Bicep, ARM CI/CD : Azure DevOps, GitHub Actions Containers : Docker, AKS Langage : Python Streaming : Event Hub, Service Bus
Freelance

Mission freelance
Data Scientist / AI Engineer

ESENCA
Publiée le
CI/CD
Docker
Google Cloud Platform (GCP)

1 an
Lille, Hauts-de-France
Contexte de la mission Dans le cadre du développement de solutions innovantes autour de l’intelligence artificielle, nous recherchons un Data Scientist / AI Engineer capable de concevoir, industrialiser et mettre en production des solutions IA performantes. Le rôle consiste également à instaurer des standards solides d’ingénierie logicielle afin de garantir la qualité, la fiabilité et la scalabilité des solutions développées. Vos missions Concevoir et développer des fonctionnalités basées sur l’intelligence artificielle. Construire et maintenir des pipelines de traitement de données. Industrialiser et monitorer les applications et services IA (latence, coûts, taux de réponse, satisfaction utilisateur). Mettre en place des pratiques MLOps / LLMOps : suivi d’expériences, déploiement, monitoring et observabilité des modèles. Garantir la qualité des données, la sécurité et la conformité réglementaire (notamment GDPR). Structurer les projets IA selon des standards d’ingénierie logicielle robustes (tests, CI/CD, documentation, bonnes pratiques). Participer aux revues d’architecture et diffuser les bonnes pratiques techniques au sein des équipes. Compétences techniques requises Machine Learning / Deep Learning (niveau expert). IA générative : LLM, RAG, prompt engineering, agents et orchestration. Analyse de données avancée. Traitement de données non structurées (PDF, images). Langages : Python avancé, SQL. Conception et intégration d’ APIs . Data pipelines : orchestration, streaming, feature stores. MLOps / LLMOps : CI/CD, Docker, Kubernetes, suivi des modèles, monitoring et observabilité. Bonnes pratiques de développement : structuration des projets, stratégie de tests, documentation technique. Environnement technique Python, SQL GCP Docker, Kubernetes CI/CD, MLOps / LLMOps
CDI
Freelance

Offre d'emploi
Scrum Master DATA IA

Le Groupe SYD
Publiée le

12 mois
35k-55k €
350-550 €
Niort, Nouvelle-Aquitaine
🌟 Quel sera ton poste ? 🌟Scrum Master Data & IA 📍Lieu : Niort 🏠 Télétravail : 2 jours par semaine 📝Contrat : CDI, Freelance, Portage 👉 Contexte client : Nous recherchons un Scrum Master spécialisé Data & IA pour accompagner l’un de nos clients majeurs du secteur de l’assurance, basé à Niort. Dans un contexte de transformation digitale avancée et de montée en puissance des usages Data/IA, tu rejoindras une organisation en mode produit, articulée autour d’environnements agiles matures (Scrum, SAFe). Ton rôle sera central pour accélérer la délivrance , renforcer la dynamique agile des équipes et garantir un delivery fluide, orienté valeur, sur des projets Data, Analytics et Intelligence Artificielle. Tu auras pour missions de : Garantir le respect des pratiques Scrum et promouvoir les valeurs agiles. Animer l’ensemble des cérémonies : Daily, Sprint Planning, Review, Rétrospectives. Faciliter la collaboration entre Data Scientists, Data Engineers, Product Owners et équipes métiers. Accompagner les équipes dans la compréhension et l’intégration des flux data, des modèles IA/ML et de la chaîne analytique. Aider à la priorisation des sujets avec une approche orientée valeur, ROI et usages opérationnels. Contribuer à la fluidité du delivery pour des produits tels que : modèles prédictifs, NLP/LLM, automatisation IA, cas d’usage data métier. Lever les irritants organisationnels et techniques pour fluidifier la production. Suivre et faire progresser les indicateurs d’équipe : vélocité, qualité, DORA metrics, etc. Coach agile auprès des équipes et des parties prenantes métier. Partenaire du Product Owner pour clarifier le backlog, préparer les sprints, sécuriser le périmètre. Contribuer à la cohésion, la motivation et la montée en compétence de l’équipe.
Freelance

Mission freelance
Consultant SAP FI/CO + Data Migration

ALLEGIS GROUP
Publiée le
SAP FICO

1 an
400-550 €
Clamart, Île-de-France
Dans le cadre d’un projet SAP Finance en cours, notre client recherche un Consultant SAP FI/CO confirmé , capable d’intervenir à la fois sur la conception fonctionnelle , l’accompagnement des métiers et les travaux de migration de données . Le consultant interviendra en renfort sur un périmètre critique pour la bascule de fin d’année . Responsabilités principales Participation aux ateliers avec les équipes Finance & Controlling Analyse des besoins et rédaction de la documentation fonctionnelle (spécifications, process…) Contribution aux activités de Data Migration : mapping, validation, reprise, contrôle de cohérence Accompagnement des utilisateurs, support UAT, correction des anomalies Collaboration étroite avec les équipes techniques (ABAP, Data, Basis) Suivi d’avancement et reporting auprès du chef de projet
Freelance

Mission freelance
Ingénieur Data à Niort (3 jours sur site)

NEO SOFT SERVICES
Publiée le
Agile Scrum
Dataiku
Modèle Conceptuel des Données (MCD)

24 mois
400-550 €
Niort, Nouvelle-Aquitaine
Présentation de l’organisation Au sein d’une organisation spécialisée dans les services financiers et l’assurance vie, la Direction des Systèmes d’Information Métier est en charge du maintien en conditions opérationnelles et de l’évolution stratégique du système d’information dédié aux activités d’épargne et de finance. Enjeux stratégiques La valorisation de la donnée constitue un axe majeur de la stratégie de transformation pour les années à venir. Dans ce cadre, l’organisation recherche un Ingénieur Data expérimenté (niveau III) afin de rejoindre l’équipe de développement Data. Le consultant intégrera une équipe Data récemment constituée, avec pour objectif de construire, maintenir et optimiser les plateformes et pipelines de données , afin de garantir la fiabilité, la qualité et l’accessibilité des données pour l’ensemble des métiers de l’entreprise. Missions principales Le consultant Data sera rattaché au chef de projet de l’équipe et interviendra comme contributeur technique clé dans le cycle de vie de la donnée . Il participera activement à la mise en œuvre du modèle Data de l’organisation. Les principales missions seront les suivantes : Conception de pipelines de données (ETL / ELT) Concevoir, développer et optimiser des flux de données robustes et performants. Alimenter les entrepôts de données et les DataMarts. Modélisation des données Participer à la conception et à la mise en œuvre de modèles de données (MCD, modélisation dimensionnelle). Adapter ces modèles aux besoins métiers du secteur financier et de l’assurance. Industrialisation des processus Data Industrialiser les processus de préparation, de transformation et de gouvernance de la donnée. Utiliser des outils spécialisés de data science et de data engineering pour automatiser les flux. Visualisation et reporting Assurer l’intégration des données dans les outils de Business Intelligence pour leur exploitation par les équipes métiers. Maintenance et optimisation Garantir la performance et la qualité des flux de données. Maintenir l’infrastructure data en conditions opérationnelles. Compétences techniques recherchées Profil technique disposant d’une forte appétence pour les outils d’industrialisation et de traitement de la donnée . Compétences clés Niveau de prestation : Niveau III exigé Maîtrise avancée du langage SQL Expérience dans la conception et l’implémentation de processus ETL / ELT Expertise en modélisation de données (MCD, dimensionnelle) Capacité à challenger les solutions techniques , estimer les charges et piloter les phases de qualification Connaissance des outils de Business Intelligence (ex : Tableau ou équivalent) Compétences appréciées Maîtrise d’un outil de data science / data préparation (ex : Dataiku ou équivalent) Expérience sur des outils historiques de reporting ou d’analyse de données Connaissance du secteur assurance / finance Organisation de la mission Présence sur site : minimum 3 jours par semaine Télétravail possible le reste du temps Mission nécessitant une bonne autonomie et une capacité d’intégration dans une équipe Data
CDI

Offre d'emploi
DATA ENGINEER GCP

Peppermint Company
Publiée le
Apache Spark
Google Cloud Platform (GCP)
Hadoop

Sophia Antipolis, Provence-Alpes-Côte d'Azur
🎯 Contexte Dans le cadre d’un projet stratégique de transformation data, nous recherchons un Data Engineer orienté développement , capable d’intervenir sur une migration d’envergure d’Azure vers GCP . 🛠️ Missions principales Participation active à la migration des pipelines data d’Azure vers GCP Développement et optimisation de traitements data Conception d’architectures data robustes et scalables Collaboration avec les équipes data et métiers Contribution aux bonnes pratiques data engineering 🔧 Stack technique Google Cloud Platform (GCP) – niveau confirmé requis Apache Spark / Scala Hadoop ecosystem Forte orientation développement (profil Data Engineer "DEV")
CDI

Offre d'emploi
Contrôleur de gestion & Data Analyst (H/F)

█ █ █ █ █ █ █
Publiée le
SQL

Merdrignac, Bretagne

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI

Offre d'emploi
Responsable IA et DATA (H/F)

█ █ █ █ █ █ █
Publiée le

60k-80k €
Levallois-Perret, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Data Engineer (Bordeaux) H/F

LeHibou
Publiée le
Azure Synapse

6 mois
400-450 €
Bordeaux, Nouvelle-Aquitaine
Notre client dans le secteur Immobilier recherche un/une Data Engineer H/F Description de la mission: Offre de mission – Data Engineer Contexte et objectif de la mission Notre client est composé de plusieurs filiales et structures de services partagés (IT, RH, juridique, finance, marketing). Le groupe est engagé dans une transformation digitale avec des enjeux autour de la gouvernance de la donnée, de l'harmonisation des systèmes d'information entre filiales et de la structuration d'une plateforme data moderne. La DSI pilote un programme de refonte de l'infrastructure data et souhaite renforcer son équipe avec un Data Engineer expérimenté capable de construire et maintenir des pipelines robustes, de structurer les flux de données entre les différentes entités du groupe et d'alimenter les outils de restitution. Missions principales Le/la consultant(e) interviendra au sein de l'équipe Data pour : • Concevoir, développer et maintenir des pipelines de données (ingestion, transformation, chargement) • Administrer et exploiter Azure Synapse Analytics comme socle de la plateforme data • Modéliser les données (modélisation dimensionnelle, data warehouse, data lakehouse) • Écrire et optimiser des requêtes SQL complexes sur les bases du groupe • Développer des scripts et orchestrateurs en Python pour l'automatisation des flux • Connecter les sources de données à Power BI et garantir la qualité des données exposées aux analystes • Contribuer à l'harmonisation des données entre les filiales du groupe • Participer à la gouvernance de la donnée (documentation, qualité, traçabilité) Stack technique Compétences obligatoires : • Azure Synapse Analytics : maîtrise obligatoire • SQL : maîtrise obligatoire (requêtes complexes, optimisation) • Python : maîtrise obligatoire (ETL, orchestration, scripting) • Power BI : bonne connaissance (alimentation des modèles) Environnement complémentaire apprécié • Azure Data Factory / Azure Data Lake • Spark / PySpark • Outils de versionning (Git) • Notions de modélisation dimensionnelle Profil recherché Compétences techniques : • Expérience confirmée sur la conception et le maintien de pipelines de données en environnement cloud Azure • Solide maîtrise de SQL et des environnements analytiques (Synapse, DWH) • Bonne maîtrise de Python dans un contexte data engineering (ETL, automatisation) • Capacité à exposer des données propres et fiables vers des outils de BI • Connaissance des bonnes pratiques de qualité et gouvernance de la donnée Compétences comportementales : • Autonomie et rigueur dans les développements • Adaptabilité dans un environnement multi-filiales en transformation • Sens du détail et souci de la qualité de la donnée • Bonnes capacités relationnelles pour collaborer avec les équipes métiers et IT • Dynamisme et réactivité face aux priorités Atout majeur • Certification Microsoft Azure (DP-203 Data Engineer ou équivalent) appréciée
Freelance

Mission freelance
Consultant Senior Gouvernance des Données – Data Office

CAT-AMANIA
Publiée le
Data governance
Gouvernance

12 mois
500-560 €
Paris, France
🎯 Contexte de la mission Dans le cadre du renforcement de son activité Gouvernance de la Donnée, notre client – acteur majeur de la protection sociale – souhaite intégrer un consultant senior en gouvernance des données pour accompagner la structuration, la formalisation et le déploiement de ses politiques Data. L’équipe Data Office (3 personnes actuellement) intervient sur la définition des politiques de gestion des données et le suivi de leur mise en œuvre dans un environnement fédéré (métiers, SI, urbanistes, conformité, sécurité). 🚀 Vos missions Vous interviendrez en appui stratégique et opérationnel sur les axes suivants : 🔹 Gouvernance & Structuration Définition et formalisation des rôles et responsabilités (Data Owner, Data Steward, etc.) Mise en place et structuration du glossaire métier et du dictionnaire de données Définition des standards de catalogage et de gestion des métadonnées Contribution au choix des outils de gouvernance (évaluation fournisseurs en cours) 🔹 Cartographie & Connaissance des données Approfondissement de la cartographie des données (flux, lineage, dépendances) Exploitation de la cartographie à des fins de pilotage et gouvernance Articulation avec les capacités de la plateforme Data de l’entreprise 🔹 Qualité & Conformité Définition des modalités de suivi de la qualité des données Intégration des exigences RGPD et conformité réglementaire Formalisation des principes de gestion des habilitations et des accès 🔹 Animation & Acculturation Animation de la communauté Data dans un contexte fédéré Organisation d’ateliers, séminaires et communications Accompagnement à la montée en compétence de l’équipe interne 🧠 Profil recherché Expérience confirmée en Data Office (au moins 2 expériences significatives en gouvernance des données) Maîtrise des outils de gouvernance : Catalogage Gestion des métadonnées Glossaire / Dictionnaire Data Quality Lineage Data Product Bonne compréhension des architectures Data (ETL/ELT, transformation, exposition, monitoring) Expérience opérationnelle d’une plateforme Data Capacité à évoluer dans un environnement structuré et réglementé Excellentes capacités d’animation et de pédagogie
Freelance

Mission freelance
Data Analyst (Bordeaux) H/F

LeHibou
Publiée le
Microsoft Power BI

6 mois
400-450 €
Bordeaux, Nouvelle-Aquitaine
Notre client dans le secteur Immobilier recherche un/une Data Analyst H/F Description de la mission: Offre de mission – Data Analyst Contexte et objectif de la mission Notre client, composé d'environ 1 400 collaborateurs et de plusieurs filiales ainsi que de structures de services partagés (IT, RH, juridique, finance, marketing), est engagé dans une transformation digitale ambitieuse. Les enjeux portent notamment sur la gouvernance de la donnée, l'harmonisation des systèmes entre filiales et l'intelligence des processus métiers. Dans ce cadre, la DSI pilote un programme de montée en compétences data et souhaite renforcer son équipe avec un.e Data Analyst opérationnel capable d'intervenir rapidement sur des sujets de production et de restitution de données. Missions principales Le/la consultant(e) interviendra directement au sein de l'équipe Data pour : • Interroger et exploiter les bases de données via des requêtes SQL et des connexions Synapse • Produire des rapports et analyses à destination des équipes métiers et du management • Créer et maintenir des tableaux de bord Power BI répondant aux besoins des différentes filiales • Développer des scripts Python pour l'automatisation et le traitement des données • Contribuer à l'harmonisation des reportings entre les entités du groupe • Potentiellement animer des sessions de formation internes sur Power BI Stack technique • SQL : maîtrise obligatoire • Power BI : maîtrise obligatoire • Azure Synapse : expérience requise • Python : bonne maîtrise Profil recherché Compétences techniques : • Maîtrise de Power BI, incluant modélisation, DAX et publication • Solide expertise SQL, incluant requêtes complexes et optimisation • Expérience sur Azure Synapse Analytics • Bonne connaissance de Python pour le traitement de données, notamment avec pandas • Notions de modélisation dimensionnelle appréciées Compétences comportementales : • Autonomie et capacité à travailler de manière indépendante • Adaptabilité face aux changements d'environnement et de priorités • Sens du détail et rigueur dans la production de données • Bonnes capacités relationnelles pour interagir avec les parties prenantes métiers • Énergie et réactivité dans le delivery Atout majeur • Certification Power BI de type PL-300 ou équivalent fortement appréciée • Des actions de formation interne sont envisagées
Freelance

Mission freelance
Data Engineer Sénior (Hadoop / Python)

Les Filles et les Garçons de la Tech
Publiée le
Apache Spark
Hadoop
Python

12 mois
150-650 €
Lyon, Auvergne-Rhône-Alpes
Au sein du pôle Big Data d'un grand groupe, l'objectif principal de ce poste est de réaliser et de maintenir les développements nécessaires à l'alimentation du Datalake sur une plateforme Cloudera Hadoop, de mettre en place des extractions de données et d'accompagner les utilisateurs. Rattaché(e) au responsable Big Data, vous évoluerez dans un contexte de production à fortes attentes où la tenue des délais de livraison et le pilotage opérationnel sont primordiaux. Vos principales missions seront les suivantes : Développement et intégration : Prendre en charge les évolutions des données à intégrer et reprendre les développements existants pour l'alimentation du Datalake. Vous développerez également des extractions avec un niveau d'expertise en SQL et créerez des scripts Shell avancés pour l'automatisation. Expertise technique et mentorat : Spécifier techniquement les tâches, fournir des requêtes de référence, effectuer des revues de code et accompagner les collaborateurs juniors, stagiaires ou alternants. Support et accompagnement : Assurer le support de niveau 2, faire appliquer les bonnes pratiques et consignes aux utilisateurs, et rédiger la documentation requise (guides, description de processus). Optimisation et maintenance : Garantir la maintenabilité, les performances et l'exploitabilité de la plateforme en respectant l'utilisation des modèles référencés par la Gouvernance de la Donnée. Vous optimiserez les traitements de la plateforme et ceux des utilisateurs, et mènerez des investigations (reverse engineering) dans une architecture héritée complexe
Freelance

Mission freelance
Lead Data (DBT / Databricks / Power BI)

HOXTON PARTNERS
Publiée le
Databricks
DBT
PowerBI

9 mois
650-700 €
Suisse
Dans le cadre du renforcement de ses équipes data, nous recherchons un Lead Data pour accompagner un client basé en Suisse sur des enjeux stratégiques autour de la data platform et de la valorisation des données. Vos missions : Prendre le lead d’une équipe de 4 développeurs data Piloter les développements et garantir la qualité des livrables Concevoir et faire évoluer l’architecture data Mettre en place et optimiser les flux de transformation avec dbt Exploiter la plateforme Databricks pour le traitement et la gestion des données Accompagner les équipes métiers sur la visualisation via Power BI
Freelance

Mission freelance
Développeur Java orienté Data H/F

ODHCOM - FREELANCEREPUBLIK
Publiée le
Java
Python
SQL

6 mois
Neuilly-sur-Seine, Île-de-France
Descriptif de mission – Développeur Fullstack orienté Data Nous recherchons un développeur fullstack ayant une forte sensibilité à la data, pour intervenir sur une application interne stratégique dédiée à la gestion de données complexes et volumineuses. L’environnement technique s’appuie sur : des interfaces de consultation de données, un back-end en Java, une base de données SQL avec un modèle riche et structuré, des traitements batch automatisés (Java / SQL). Dans ce contexte, la qualité, la fiabilité et la structuration des données sont au cœur des enjeux. Vos responsabilités En vous appropriant les enjeux fonctionnels et la base de code existante, vous interviendrez sur l’ensemble du cycle de vie de l’application : Analyse & compréhension des données Manipuler et analyser des modèles de données complexes Garantir la cohérence, la qualité et l’intégrité des données Identifier des axes d’optimisation du data model Conception & développement Implémenter des fonctionnalités en lien avec les besoins métier Participer à la conception technique et à l’évolution de l’architecture Réaliser des prototypes et contribuer aux choix techniques Data & performance Écrire et optimiser des requêtes SQL complexes Participer à l’optimisation des traitements batch et des performances globales Qualité & tests Mettre en place et exécuter des tests (unitaires, intégration, end-to-end) Identifier, analyser et corriger les anomalies Maintenance & amélioration continue Assurer la maintenance corrective et évolutive Participer à la rétro-ingénierie du code existant Contribuer à la documentation et aux bonnes pratiques (versioning, code review…)
1669 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous