Trouvez votre prochaine offre d’emploi ou de mission freelance Databricks

Votre recherche renvoie 57 résultats.
CDI

Offre d'emploi
Ingénieur.e DataOps & Azure

Atlanse
Publiée le
Azure
Big Data
Databricks

55k-70k €
Châtillon, Île-de-France

Au sein de la Direction Digital & Data, vous intégrerez le Data Lab en charge de l’ensemble des projets BI et Data du Groupe. En tant qu'ingénieur.e DataOps & Azure, vous jouerez un rôle clé dans le déploiement et l’industrialisation des projets data à l’échelle du Groupe. Votre rôle Conception & Déploiement Cloud · Construire et configurer les infrastructures Cloud Public (principalement sur Azure) · Dimensionner les plateformes en fonction des performances attendues · Participer aux phases de validation technique lors des mises en production ou des évolutions · Collaborer avec les équipes de développement, sécurité et projets dans la réalisation de la transformation Industrialisation & Automatisation · Mettre en place et améliorer les chaînes CI/CD · Industrialiser les architectures cibles et automatiser la configuration des environnements Supervision & Maintenance · Mettre en place des procédures et outils de surveillance permettant de garantir la haute disponibilité des infrastructures · Maintenir en condition opérationnelle les infrastructures virtualisées en diagnostiquant les pannes et les dysfonctionnements · Veiller à la sauvegarde des données, à la sécurité des accès (mise en place des systèmes de gestion des droits des utilisateurs) et à la fiabilité des solutions déployées Sécurisation des environnements · Organiser des ateliers, suivre et rendre compte de l'avancement des sujets liés aux résultats d'audit · Proposer des solutions adaptées en matière de sécurité Cloud Azure, notamment sur la mise en place d'applications Web et d'API

Freelance

Mission freelance
DATA OWNER

CAT-AMANIA
Publiée le
AWS Cloud
Data management
Databricks

1 an
100-450 €
Lille, Hauts-de-France

TES RESPONSABILITÉS : DONNÉES TRACABILITE Implementer les règles de la gouvernance (définition des Business Objects, business value) par rapport aux enjeux métiers et juridiques Accompagner le process d'ingestion avec notre data steward Déclaration des regles qualites et implémentation d'observabilité Assurer la qualité de nos données et la mise en place de plans de remédiation avec les équipes métiers (actions avec les outils, formations métiers, création de tours de controles...). Développer la culture et les usages data Collaborer étroitement avec les équipes produit et developpeurs pour valider et optimiser les modèles de données Accompagnement, communication, formations... des équipes métiers

Freelance
CDI

Offre d'emploi
Tech Lead DATA - PUY DE DOME

OCTOGONE
Publiée le
Azure
Databricks
Microsoft Power BI

1 an
40k-60k €
400-600 €
Clermont-Ferrand, Auvergne-Rhône-Alpes

Pour un gros client industriel nous cherchons, un Tech Lead Data. Il devra maitriser Azure Data Bricks, et avoir de bonnes connaissances sur Power BI. En terme de langages, Python et SQL sont indispensables. Il devra comprendre l'anglais technique au minimum. Mission sur Clermont-Ferrand, démarrage dès que possible, 2 jours de télétravail possibles par semaine. Compétences transverses Niveau d'expérience : 3 à 5 ans minimum Compétences : Azure Data Bricks ; Power BI ; Python ; SQL Langues : Anglais requis Profil : Tech Lead Data ou Ingénieur Data expérimenté Démarrage de mission : ASAP Durée de mission : Longue durée Télétravail : Partiel (2 j par semaine)

Freelance

Mission freelance
Expert Power BI

Cherry Pick
Publiée le
BI
Databricks
DAX

3 mois
400-480 €
La Défense, Île-de-France

Nous recherchons un expert Power BI (plus de 9 ans d’expérience) pour renforcer la maîtrise et l’usage de Power BI au sein de l’organisation. Le consultant interviendra dans le suivi de la performance des capacités Power BI, le développement de rapports complexes et l’accompagnement des équipes BI, IT et métiers. Il participera activement aux activités techniques et d’automatisation, tout en contribuant à l’amélioration du monitoring, de l’alerting et du suivi des usages. Une expérience significative dans l’administration des capacités Power BI Premium et l’optimisation des ressources est indispensable. Missions principales Tâches opérationnelles : Surveiller la performance des rapports et espaces de travail Power BI. Suivre la consommation des capacités Premium Power BI. Mettre en place ou améliorer les outils de suivi et d’alerting (API REST, PowerShell, monitoring). Répondre aux demandes de support et résoudre les problématiques techniques liées à Power BI. Optimiser les rapports (requêtes Power Query, modèles de données, formules DAX, visuels). Administrer et gérer les capacités Premium Power BI. Tâches techniques et d’automatisation : Développer des rapports complexes Power BI (Databricks, SharePoint, Power BI, etc.). Définir et mettre en œuvre des KPI de suivi et monitoring (usage, adoption, performance, actualisation, sécurité, gouvernance). Contribuer aux bonnes pratiques Power BI (gouvernance, documentation, versioning). Participer aux projets d’amélioration de l’offre Power BI au sein du pôle BI. Accompagner la migration vers Microsoft Fabric (tests techniques, documentation, support aux équipes). Compétences attendues Expert technique Power BI (> 9 ans). Très bonne maîtrise : Power BI Premium, DAX, Power Query, optimisation des modèles de données. Automatisation via API REST et PowerShell. Expérience sur Databricks, SharePoint et Fabric appréciée. Capacité à travailler en collaboration avec les équipes BI, IT et métiers.

CDI

Offre d'emploi
Product Owner Data CDI

Hexateam
Publiée le
Amazon S3
AWS Cloud
AWS Glue

40k-65k €
Île-de-France, France

Contexte du projet Notre client met en place et fait évoluer une Data Platform permettant l’intégration, la mise en qualité et la mise à disposition de données (brutes ou retravaillées) issues de plusieurs producteurs, afin de répondre à des besoins opérationnels et analytiques à grande échelle. Missions principales Recueillir, challenger et prioriser les besoins métiers Construire et maintenir le backlog produit (rédaction de user stories et critères d’acceptance) Collaborer avec les Data Engineers, développeurs et QA pour livrer les fonctionnalités attendues Garantir la qualité fonctionnelle des livrables et leur adéquation aux besoins Animer les cérémonies agiles (daily, sprint planning, reviews, rétrospectives) Interagir avec des interlocuteurs internationaux (anglais opérationnel requis)

CDI

Offre d'emploi
INGENIEUR CLOUD DATA AZURE DEVOPS (H/F)

GROUPE ALLIANCE
Publiée le
Azure Data Factory
Azure DevOps Server
Databricks

50k-55k €
Paris, Île-de-France

ACCROCHE SI TU ADORES TRAITER DES TERRITOIRES DE DONNÉES XXL, CETTE ANNONCE EST POUR TOI... CE QUE TU RECHERCHES : Évoluer au sein d’une équipe dynamique Participer à des projets innovants d’envergure Relever des défis liés à la gestion de données massives et distribuées Donner un nouveau souffle à ta carrière Alors nous avons la mission idéale pour toi. Au sein d’un acteur majeur du secteur du retail, tu participeras à la mise en place de projets data et big data, à déployer les projets dans le cloud, à apporter des solutions autour de la sécurité et des API Web, à construire et à industrilaiser des architectures cloud : Les pipelines Big Data, tu concevras et développeras Les traitements batch et temps réel, tu industrialiseras La qualité et la fiabilité des données, tu sécuriseras L’architecture des flux de données, tu mettras en œuvre Les performances et la scalabilité, tu optimiseras Les solutions cloud ou on-premise, tu intégreras Ton équipe projet, tu accompagneras Aux instances data et techniques, tu participeras QUI TU ES : Diplômé(e) de la formation qui va bien Surdoué(e) ou doté(e) d’une expérience de 4 à 10 ans minimum en ingénierie Big Data Expert(e) en BigData Az DataLake, Az EventHub, Databricks, ADF, Microsoft Cloud Azure, Infrastructure as a code (ARM, YAML), Intégration/déploiement continu (Git, Az DevOps) Habile avec AZURE AU-DELÀ DES COMPÉTENCES TECHNIQUES, TU ES / AS : Dynamique : tu n’aimes pas rester les deux pieds dans le même sabot Autonome : un guide du Routard te suffira Esprit de synthèse : tu sais aller à l’essentiel Capacité d’adaptation : tu es un vrai caméléon Sens de la communication : les mots n’ont pas de secret pour toi Force de proposition : tu es l’Aladdin de l’informatique Esprit d’équipe : un pour tous et tous pour un !

Freelance
CDI

Offre d'emploi
Business analyst/Scrum Master

VISIAN
Publiée le
Agile Scrum
API
Databricks

1 an
36k-45k €
400-600 €
Bagneux, Île-de-France

Contexte Dans le cadre du développement et de la gestion d’une Data Platform B2C , nous recherchons un·e Scrum Master avec une forte appétence technique et data, disposant également de compétences en Business Analysis . Le poste se décompose en 2/3 Scrum Master et 1/3 Business Analyst . L’équipe socle est composée d’environ 10 personnes et intervient sur : Le développement et la gestion de la plateforme au niveau national L’alimentation du socle de données (notamment données de facturation dans un premier temps) L’environnement est agile et techniquement orienté data , avec de nombreuses interactions transverses dans un contexte type Data Mesh. En tant que Scrum Master Garantir la bonne application de la méthode Scrum et accompagner l’équipe dans son amélioration continue Faciliter les événements Scrum et soutenir le Product Owner dans la gestion du backlog Favoriser l’auto-organisation et la pluridisciplinarité de l’équipe Supprimer les obstacles et faciliter la collaboration entre toutes les parties prenantes Accompagner l’organisation dans son adoption et sa compréhension de Scrum Collaborer avec d’autres Scrum Masters pour harmoniser les pratiques agiles En tant que Business Analyst Recueillir les besoins métiers et rédiger les user stories technico-fonctionnelles Définir et valider les règles de gestion Analyser et résoudre les incidents en production dans le cadre de la MCO Proposer des évolutions pour améliorer les fonctionnalités existantes Participer et animer des ateliers métiers Suivre l’avancement des développements et coordonner avec les membres de l’équipe

Freelance

Mission freelance
Développeur Confirmé ODI 12 & MDM

Nicholson SAS
Publiée le
AWS Cloud
Databricks
Java

3 mois
400-550 €
Nantes, Pays de la Loire

Client : secteur transport Site : Nantes, 1 à 2 jours par semaine sur site Prix achat max : 550 € Date de démarrage : 15/09/2025 Durée mission : 3 mois (31/12/2026) Profil : Développeur Confirmé ODI 12 & MDM Contexte : Analyste développeur multi-projets, Maintien en Condition Opérationnelle (MCO) & Build : Cycle en V au forfait avec des UO, Equipe environ 8 personnes (dans un bundle global : 60 personnes) Tâches : Développements & administration/ Certificat SSL, Appréhender les besoins client et les analyser/chiffrer avec les UO, Définir une stratégie de test/validation pour chaque besoin, Rédiger les Spécifications Fonctionnelles et Techniques Détaillées, Coder et développer les demandes, Valider unitairement et en intégration (incluant non-régression), Packager / livraison / déploiement MCO/RUN Suivi des tickets et respect des processus ITIL (MAJ ticket, respect SLA, ...) , DSTUM avec revue des avancements et du Reste à Faire réactualisé, Analyse des tickets, analyse d'impact et proposition de solution pour mise en œuvre, Réalisation des correctifs Global Appliquer les méthodes et bonnes pratiques du centre de service, Appliquer les bonnes pratiques de développement et participer aux revues de code, Rester à l'état de l'art sur les aspects sécurité et RSSI, Rédiger les documentations de livraisons,

Freelance

Mission freelance
Développeur AWS (Data Lake / Python / Terraform)

Cherry Pick
Publiée le
AWS Cloud
C#
Data Lake

1 an
430-500 €
Paris, France

Nous recherchons un Développeur AWS confirmé pour renforcer sa squad Data Platform . L’objectif est de concevoir, développer et administrer un Data Lake AWS à grande échelle, en créant des microservices robustes et sécurisés, tout en automatisant les déploiements et la gestion de l’infrastructure via Terraform. Missions principales Concevoir et développer des microservices en Python pour l’administration du Data Lake (gestion des accès aux dossiers, gouvernance des données, automatisation des flux). Créer et maintenir des solutions de Data Lake sur AWS S3 . Définir et mettre en œuvre l’ Infrastructure as Code via Terraform . Participer aux activités de RUN & Build : monitoring, support, optimisation des performances. Contribuer à l’ automatisation et à l’amélioration continue de la plateforme (SRE, observabilité, sécurité, FinOps). Collaborer avec les parties prenantes (Data Engineers, Data Architects, Data Officers) dans un contexte Agile . Documenter les développements, process et bonnes pratiques. Compétences techniques attendues Excellente maîtrise du développement Python (microservices, APIs). Solide expérience sur AWS S3 et les concepts Data Lake. Expertise en Terraform (IaC) . Bonne compréhension des mécanismes d’ alimentation ETL . Expérience en observabilité et monitoring (Grafana, App Insights ou équivalents). Pratique des méthodologies Agile . Plus (nice-to-have) : expérience avec Databricks .

Freelance
CDI

Offre d'emploi
Expert Power BI / Monitoring, Automatisation & Gouvernance

VISIAN
Publiée le
API REST
Databricks
Microsoft Fabric

1 an
40k-45k €
400-630 €
Île-de-France, France

Description et livrables de la prestation Le consultant interviendra pour renforcer la maîtrise de l’usage de Power BI au sein de l’organisation et accompagner l’équipe dans les tâches opérationnelles liées au suivi de la performance des capacités Power BI et au développement de rapports complexes. Il participera activement aux activités techniques et d’automatisation, tout en contribuant à l’amélioration du monitoring, de l’alerting et du suivi des usages, en collaboration avec les équipes BI, IT et métiers. Missions principales Contribution aux tâches opérationnelles de l’équipe Surveiller la performance des rapports et des espaces de travail Power BI. Suivre la consommation des capacités Premium Power BI. Mettre en place ou améliorer les outils de suivi et d’alerting (via API REST, scripts PowerShell, outils de monitoring). Répondre aux demandes de support et accompagner l’équipe dans la résolution de problématiques techniques liées à Power BI. Définir et appliquer des stratégies d’optimisation des rapports : requêtes Power Query, modèles de données, formules DAX, visuels. Administrer et gérer les capacités Premium Power BI. Contribution aux tâches techniques et d’automatisation Développer des rapports complexes Power BI à partir de diverses sources de données (Databricks, SharePoint, Power BI, etc.). Proposer et mettre en œuvre des KPI de suivi et de monitoring : KPI d’usage des rapports / d’adoption et de collaboration /de performance /d’actualisation et de maintenance / de sécurité et gouvernance Participer à la définition et au suivi des bonnes pratiques Power BI : gouvernance, documentation, versioning. Contribuer aux projets d’amélioration de l’offre Power BI au sein du pôle BI. Participer à la migration vers Microsoft Fabric : réalisation de tests techniques, documentation, accompagnement des équipes.

CDI
Freelance

Offre d'emploi
Data Engineer | AWS | Databricks | Big Data

Hexateam
Publiée le
AWS Cloud
Databricks
Python

36 mois
Île-de-France, France

Contexte Dans le cadre de la mise en place et de l’évolution d’une plateforme DATA centralisée, nous renforcons son équipe avec un Data Ingénieur confirmé. Cette plateforme permet l’intégration, la mise en qualité et la mise à disposition de données brutes ou retravaillées issues de différents producteurs, afin de répondre à des besoins métiers opérationnels et analytiques à grande échelle. Rôle et responsabilités Développement et ingestion de données Concevoir, développer et optimiser des jobs d’ingestion et de transformation de données en Python et Spark sur Databricks , avec gestion de gros volumes. Mettre en place et maintenir des flux de données entre sources externes (ex. bases Oracle) et Delta Lake sur AWS S3 . Orchestration et supervision Créer et orchestrer des workflows avec AWS Airflow et automatiser les traitements. Mettre en place des mécanismes de contrôle qualité et de validation des données pour garantir cohérence et fiabilité. Développer des jobs de monitoring pour détecter et corriger automatiquement les anomalies. Maintien en condition opérationnelle Assurer la disponibilité et la performance des jobs en production. Analyser et corriger les incidents et anomalies détectées. Contribution stratégique Participer aux ateliers de conception technique et fonctionnelle. Promouvoir les bonnes pratiques de développement et d’optimisation Big Data. Documenter les processus, architectures et scripts. Compétences techniques requises MUST : Python Spark Databricks SQL SHOULD : AWS (S3, Glue, Airflow, CloudWatch, Lambda, IAM) COULD : Big Data (gestion et traitement de très gros volumes de données) WOULD : Git Méthodologies et outils : CI/CD avec GitLab JIRA / Confluence Méthodologie agile Scrum

CDI

Offre d'emploi
Data Architecte - Lyon

KOMEET TECHNOLOGIES
Publiée le
AWS Cloud
Azure
Databricks

60k-70k €
Lyon, Auvergne-Rhône-Alpes

Ton quotidien chez Komeet sera rythmé par : - Animation des ateliers afin d’étudier et cadrer les besoins clients en collaboration avec le Data Platform Architect - Analyser, conseiller, et faire des recommandations de façon à améliorer l’efficience et l’efficacité de la solution Databricks chez ton client. - Préconisation, conception et mise en œuvre du LakeHouse Databricks - Rédaction de dossiers d’architecture et spécifications techniques - Mise en œuvre des stratégies d’exploitation de la plateforme Databricks - Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. - Tests, validation et documentation des développements - Réalisation d’audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP

Freelance
CDD

Offre d'emploi
INGENIEUR CLOUD - Confirmé (4-10 ans)

SMARTPOINT
Publiée le
Apache Spark
Azure
Azure Kubernetes Service (AKS)

3 mois
50k-60k €
500-520 €
Île-de-France, France

Au sein de la Direction Digital et Data, vous intégrerez le Data Lab en charge de l’ensemble des projets BI et Data. En tant qu'Ingénieur devOps H/F, votre mission principale sera de participer au déploiement des projets data du Groupe. La plate-forme utilisée est le Cloud Microsoft Azure. Vous êtes polyvalent(e) et savez communiquer avec les différentes équipes. Afin d'assurer un niveau de sécurité conformes aux exigences du groupement sur les applications du Datalab, vous savez organiser des ateliers, suivre et rendre compte de l'avancement des sujets de sécurisation liés aux résultats d'audit, et apporter des solutions ou des pistes de réflexion en accords avec votre expertise de sécurité de la plateforme cloud Azure, notamment sur la mise en place d'applications Web et d'API. Vous ferez partie d’une équipe d’une dizaine de collaborateurs et travaillerez dans un environnement Agile. Le contexte vous plaît ? Découvrez votre quotidien au sein de votre future équipe. Vos missions: -Construire des infrastructures Cloud Public (principalement sur Azure) -Industrialiser les architectures cibles et configurer les équipements (CI / CD) -Mettre en place des procédures et outils de surveillance permettant de garantir la haute disponibilité des infrastructures. -Participer aux phases de validation technique lors des mises en production ou des évolutions. -Collaborer avec les équipes de développement, sécurité et projets dans la réalisation de la transformation Vos atouts pour réussir DÉPLOIEMENT Configure et dimensionne les plateformes en fonction des performances requises Met en place des procédures et outils de surveillance permettant de garantir la haute disponibilité des infrastructures Participe aux phases de validation technique lors des mises en production ou des évolutions Travaille en coordination avec les équipes OPS, QA, DEV, Delivery Manager MAINTENANCE Maintient en condition opérationnelle les infrastructures virtualisées en diagnostiquant les pannes et les dysfonctionnements Industrialise les architectures cibles et configurer les équipements (CI / CD) Veille à la sauvegarde des données, à la sécurité des accès (mise en place des systèmes de gestion des droits des utilisateurs) et à la fiabilité des solutions déployées Participe à l'amélioration de la CI/CD Les livrables sont: Construire des infrastructures Cloud Public (principalement sur Azure) Industrialiser les architectures cibles et configurer les équipements (CI / CD) Collaborer avec les équipes de développement, sécurité et projets dans la réalisation de la transformation

Freelance
CDI

Offre d'emploi
Data engineer BI

VISIAN
Publiée le
AWS Cloud
Azure
Databricks

3 ans
40k-70k €
400-700 €
La Défense, Île-de-France

Contexte de la mission Dans le cadre d’un projet stratégique de reporting opérationnel , nous recherchons un·e Data Engineer expérimenté·e , orienté·e modélisation BI et performance , pour intervenir de bout en bout : structuration des données, création de modèles, alimentation du Lakehouse, et support à la datavisualisation métier (Tableau). Objectif : construire des tableaux de bord à forte valeur ajoutée tout en optimisant la qualité, les temps de réponse et les coûts liés à la plateforme. Missions principales Modélisation de données BI : modèle en étoile, flocon, Data Vault (si applicable) Manipulation avancée de données avec SQL Création de pipelines Databricks (Delta Lake, Notebooks, optimisation via Z-Order, caching, partitionnement…) Collaboration sur des notebooks pour analyses avancées Optimisation des performances sur environnement Lakehouse Intégration de Databricks avec des environnements cloud (Azure ou AWS) Participation à la conception des dashboards dans Tableau (Salesforce) Contribution active à la qualité de la donnée, documentation et bonnes pratiques

Freelance

Mission freelance
Testeur Data

MLMCONSEIL
Publiée le
Confluence
Databricks
JIRA

6 mois
300-400 €
Paris, France

Pour le besoin de mon client, je suis à la recherche d'un Testeur Data Être le testeur référent de l’équipe Big Data Porter les chantiers d’automatisation de test, cahier de recette, TNR sur Squash... ... .... ... .... ... .... ... ... ... ... .. ... .. .. ... .. ... ... ... ... ... ... .. .. ... ... ... ... ... ... .. . . .. ... .. .. .. .. .. .. .. .. .. .. .. .. . .... .. .. . . .. .. .. .. ... .. .. . .... .. .. . . .. .. .. .. ... .. .. . .... .. .. . . .. .. .. .. ... .. .. . .... . ...

Freelance

Mission freelance
Data Engineer

MEETSHAKE
Publiée le
AWS Cloud
Azure
Databricks

6 mois
Bruxelles, Bruxelles-Capitale, Belgique

Contexte Dans le cadre d’une fusion, le département IS Data & Middleware a fortement grandi et élargi son portefeuille d’applications. Il met en place une nouvelle couche analytique, s’appuyant sur Databricks pour permettre une amélioration continue de nos opérations et processus. L’objectif de l’équipe Data & Middleware est de tirer parti des outils middleware et analytiques pour produire des données de haute qualité afin de stimuler l’innovation et l’amélioration du business de l’entreprise grâce à l’exploitation des données. Systèmes de données : couvrent tous les systèmes alimentant les plateformes analytiques et les plateformes de données de l’entreprise. Systèmes middleware : couvrent les connecteurs sur mesure et les services backend communs qui distribuent les données entre les applications. Ces intégrations alimentent les systèmes de production gérés par d’autres départements (IS Sales, IS Operations, IS Customer Systems, IS Corporate Systems). Objectif de la mission En tant qu’ Ingénieur Data Senior , vous serez à l’avant-garde de la construction des bases de notre plateforme de données et de nos produits data. Vous collaborerez avec une équipe dynamique composée d’analystes métiers, de chefs de projet, de développeurs et d’autres ingénieurs au sein du département et dans l’ensemble de l’entreprise 🚀. Nous menons une transformation passionnante : moderniser de nombreuses applications héritées en adoptant une architecture Event Sourcing moderne, afin de produire des données de haute qualité exploitées par une plateforme data solide et flexible. L’objectif est de fournir la bonne donnée, à la bonne personne, au bon moment . Nous mettons en place une approche Platform Engineering pour donner aux utilisateurs finaux les moyens de tirer pleinement parti des données afin d’atteindre et dépasser leurs objectifs. Vous serez un pilier dans la construction d’une culture d’équipe qui équilibre excellence technique, autonomie et responsabilité . Nous aspirons à combiner l’impact que vous pouvez avoir dans une startup avec les moyens d’un grand groupe. C’est une opportunité unique d’avoir un impact décisif sur la plateforme de l’entreprise Data & Middleware et d’en façonner l’avenir technique. Responsabilités et missions Ingénierie de haute qualité : Créer, gérer et exploiter des pipelines de données selon les plus hauts standards, résoudre les problèmes complexes, améliorer les standards techniques de l’équipe et encadrer les ingénieurs data juniors pour de meilleures pratiques de développement. Architecture des systèmes de données : Concevoir, développer, tester et maintenir des architectures data évolutives (bases de données, systèmes de traitement à grande échelle), avec une attention particulière à la performance, la fiabilité et l’optimisation des coûts. Conception de la plateforme data : Concevoir une plateforme capable de supporter l’Event Sourcing et les data products. Accompagner le transfert des responsabilités vers des équipes fonctionnelles autonomes au fur et à mesure que la culture data se développe dans l’entreprise. Modélisation des données : Aider les équipes data et métiers à modéliser et structurer efficacement les données dans la plateforme pour optimiser clarté, intégrité et efficacité. Gestion du temps : Collaborer avec le manager engineering pour organiser, prioriser les tâches/projets, gérer le backlog technique et aligner les livrables avec les objectifs business. Cycle de vie des projets : Participer activement à toutes les étapes (planification, développement, livraison, exploitation) des solutions d’ingénierie data. Sécurité : Garantir la protection des données clients en appliquant les meilleures pratiques de sécurité et de confidentialité.

57 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous