Find your next tech and IT Job or contract Databricks
Contractor job
QA Lead Senior / Expert Test Automation
Projet et contexte : Mise en place d’une plateforme de données globale (GDP) nécessitant le renforcement de la qualité logicielle. Recrutement d’un QA Lead senior pour structurer et piloter une stratégie de tests automatisés sur un environnement technique complexe (API, Web, Data, microservices). Ce poste stratégique vise à établir les fondations QA dans un contexte international et full Agile (SAFe). L’équipe étant dépourvue initialement de profil QA, le candidat devra incarner la référence qualité, définir les standards, industrialiser les tests et accompagner la montée en maturité des équipes. Principales missions : Pilotage et gouvernance : Définir, organiser et exécuter la stratégie de test en méthodologie Agile SAFe, assurer la qualité fonctionnelle et technique, collaborer avec les équipes API, Web et Data, définir les critères d’acceptation et de non-régression, réaliser du peer testing. Conception et exécution des tests : Élaborer et maintenir des plans de tests, concevoir des scénarios en Gherkin, réaliser des tests manuels si nécessaire, intégrer et exécuter les tests dans les pipelines CI/CD (OpenShift). Automatisation des tests : Concevoir et implémenter le framework d’automatisation (C#/.Net, Python), développer des scripts pour API, web et UI, déployer la stratégie de Continuous Testing dans OpenShift, optimiser la réutilisabilité et la maintenabilité des scripts. Suivi de la qualité et reporting : Identifier, documenter et suivre les anomalies via JIRA, produire des rapports d’avancement, KPI qualité et recommandations, challenger les équipes sur leurs niveaux de qualité. Compétences requises : Technologies et outils : Selenium, REST, C#/.Net, Python, JIRA, Postman, Databricks, CI/CD (YAML, OpenShift) Méthodes / Normes : SAFe, Agile, KPI Langue : Anglais Secteurs : Assurance Type de facturation : Assistance Technique, avec un taux journalier.
Contractor job
Chef de Projet Technique Cloud & Data
Le client déploie un programme stratégique Global Data Platform afin de centraliser, sécuriser et automatiser la gestion de ses données. Le consultant interviendra au sein de la Software Squad pour concevoir, développer et maintenir les solutions logicielles supportant la plateforme. Participer à la conception et au développement des composants logiciels de la Data Platform. Développer et maintenir des applications web et API permettant la gestion des services et des données. Contribuer à la mise en œuvre des bonnes pratiques CI/CD et Cloud Azure . Collaborer avec les équipes Data, Réseau, Sécurité et Produit dans un environnement Agile international . Garantir la qualité, la performance et la sécurité des solutions livrées.

Contractor job
Expert Power BI / Monitoring, Automatisation & Gouvernance
CONTEXTE : Expérience : 9 ans et plus Métiers Fonctions : Architecture technique, Sécurité, Méthode Consultant expert Spécialités technologiques Compétences Technologies et Outils Power BI Le consultant interviendra pour renforcer la maîtrise de l’usage de Power BI au sein de l’organisation et accompagner l’équipe dans les tâches opérationnelles liées au suivi de la performance des capacités Power BI et au développement de rapports complexes. Il participera activement aux activités techniques et d’automatisation, tout en contribuant à l’amélioration du monitoring, de l’alerting et du suivi des usages, en collaboration avec les équipes BI, IT et métiers. MISSIONS Missions principales Contribution aux tâches opérationnelles de l’équipe • Surveiller la performance des rapports et des espaces de travail Power BI. • Suivre la consommation des capacités Premium Power BI. • Mettre en place ou améliorer les outils de suivi et d’alerting (via API REST, scripts PowerShell, outils de monitoring). • Répondre aux demandes de support et accompagner l’équipe dans la résolution de problématiques techniques liées à Power BI. • Définir et appliquer des stratégies d’optimisation des rapports : requêtes Power Query, modèles de données, formules DAX, visuels. • Administrer et gérer les capacités Premium Power BI. Contribution aux tâches techniques et d’automatisation • Développer des rapports complexes Power BI à partir de diverses sources de données (Databricks, SharePoint, Power BI, etc.). • Proposer et mettre en œuvre des KPI de suivi et de monitoring : KPI d’usage des rapports / d’adoption et de collaboration /de performance /d’actualisation et de maintenance / de sécurité et gouvernance • Participer à la définition et au suivi des bonnes pratiques Power BI : gouvernance, documentation, versioning. • Contribuer aux projets d’amélioration de l’offre Power BI au sein du pôle BI. • Participer à la migration vers Microsoft Fabric : réalisation de tests techniques, documentation, accompagnement des équipes.
Job Vacancy
Data Scientist
Contexte de la mission Projets innovants depuis la R&D jusqu’au packaging pour industrialisation de modèles de ML appliquées aux problématiques de maîtrise de la charge de sinistres, de lutte anti-fraude et de maîtrise des risques climatiques. Un environnement de travail dans le DataLab Groupe sous Databricks et données puisées dans le DataLake Groupe et mises à disposition dans le DataLab. Objectifs et livrables Objet de la mission Le portefeuille projets de l’équipe est constitué de plusieurs projets de Data Science sur les sujets suivants : - Lutte contre la fraude - Analyse et réaction post-event sinistres, en particulier sur les périls climatiques - Prévention des sinistres graves Le consultant sera responsable de la cohérence technique des développements sur les projets de Data Science de l'équipe, du cadrage au déploiement en production. Principaux volets de la mission : - Superviser techniquement les travaux des Data Scientist junior et stagiaires de l'équipe (cadrage technique, challenge et optimisation du code, méthodologie modélisation) - Être le référent technique de l'équipe concernant les travaux d'industrialisation des modèles effectués par l'IT de L'organisation, en challengeant notamment leurs approches - Contribuer ponctuellement sur quelques projets de Data Science - Rédiger et/ou superviser la documentation en conformité avec les normes et standards de l'équipe - Proposer des nouveaux outils, méthodes pour faire monter en compétence l'équipe - Apporter un œil nouveau dans l'amélioration continue des modèles développés par l'équipe (utilisation de données non structurées, données externes…) En fonction des projets, les travaux vont du cadrage des sujets, préparation des bases de données, engineering des features, écritures et tuning des modèles de ML, préparation à l’industrialisation sous forme de projets.

Contractor job
QA Technico-fonctionnel Data ( H/F)
Au sein de la Direction Digital et Data, vous intégrerez le département Data Lab, en charge des projets BI et Data pour différentes entités du groupe. En tant que QA Data , vous rejoindrez le pôle Qualité Data dont la mission est de garantir la fiabilité et la cohérence des données tout au long de leur cycle de vie. Missions principales Participer aux ateliers et rituels agiles. Définir et mettre en œuvre la stratégie de tests. Identifier et réceptionner les environnements de test. Analyser et évaluer les User Stories/cas d’usage. Rédiger les plans de tests et définir les jeux de données nécessaires. Exécuter les cas de tests (manuels ou via outils). Détecter, remonter et suivre les anomalies avec les différentes parties prenantes. Construire et maintenir le référentiel de tests. Élaborer les procès-verbaux (PV) de recette.

Job Vacancy
Data Architect
Au sein de la Data Fabric d'INVENTIV IT, nous recherchons un Data Architect pouvant nous accompagner sur nos différents projets clients, notamment dans la mise en place et l'évolution de Data Market Place et Platform Data complexe. Ce poste requiert une expérience technique et architecturale solide, ainsi qu'une solide expérience pratique des technologies cloud, du développement de microservices et de l'architecture événementielle. Vous aurez à collaborer étroitement avec les équipes informatiques INVENTIV IT et de nos clients (à l'international) ,les partenaires commerciaux, les partenaires métiers, les partenaires externes et l'ensemble des membres de l'équipe d'intégration. Dans le cadre de nos projets une excellente compréhension et communication en Français/Anglais est indispensable - Engagement sur les sujets - Capacité à effectuer une restitution documentaire dans le cadre d'un audit, d'une preuve de concept (POC) ou en matière de normes et d'architecture Nos environnements techniques : AWS/AZURE, Databricks, Snowflake, DBT, Big Data, BI, intégration continu, DataSecOps ... Notre offre : Fixe + Variables + avantages Exemple d'objectif et de livrables attendus : Design and propose solutions on Data using Azure Cloud technologies within our framework Design and propose solutions on Snowflake Apply the “Data as a Service” strategy in accordance with architectural best practices Design and develop APIs / Micro services to enrich our solutions framework Support the Event Driven Architecture strategy based on Azure Event Hub and Azure IoT Hub Contribute to our catalog of services for self-service enrichment Contribute to modernization and technology awareness within Data Capture team and across Data & Analytics organization Be the referent in the team for all cloud subjects Conduct workshops and facilitate requirement gathering Support Data Engineers to Cloud related topics Support Security team for related topics Contribute to Data Capture roadmap and evolution Challenge and support external vendors Au plaisir d'échanger et de collaborer ensemble

Job Vacancy
Data Architect
Rejoignez la Data Fabric d'INVENTIV IT pour concevoir et faire évoluer des Platform Data et Data Market Place complexes pour nos clients internationaux. En tant qu'Architecte Solution Data Senior, vous serez le garant de l'architecture Cloud Hybride (AWS/Azure) , de la performance Big Data et de la Gouvernance de nos solutions. 🎯 Vos Missions et Livrables Clés (Alignement Technique) 1. Architecture Cloud Hybride et Stratégie Conception Hybride : Définir et concevoir l'architecture de la plateforme Cloud Data cible en tirant parti des services de données d' AWS et AZURE . Feuille de Route : Élaborer la roadmap d'implémentation et de migration vers ces plateformes en intégrant les solutions Snowflake et Databricks . Gouvernance Data : Définir et implémenter la Gouvernance des Données (qualité, sécurité, accès) au sein de la Data Fabric et du Data Market Place. BI & Analytics : Auditer les systèmes BI historiques et concevoir des solutions modernes d'analyse et de BI sur la nouvelle plateforme. 2. Industrialisation et Ingénierie Avancée DataOps & DataSecOps : Mettre en œuvre et garantir les meilleures pratiques DevOps et DataSecOps dans le cycle de vie des données (CI/CD, sécurité par conception). Transformation Modulaire : Standardiser et industrialiser les transformations de données critiques en utilisant l'outil DBT ( Data Build Tool ). Augmentation/ML : Évaluer et intégrer des outils d'aide à la conception ou d'analyse avancée comme Dataiku dans l'écosystème du Datalab. FinOps : Intégrer les pratiques FinOps pour optimiser les coûts sur les plateformes AWS et AZURE . 3. Leadership, Conseil et Design Animation : Mener des ateliers collaboratifs et de Design Thinking pour traduire les besoins métier en architectures techniques précises. Support & Référentiel : Être le référent technique Snowflake/Databricks et fournir un support d'expertise aux Data Engineers et aux équipes Sécurité Cloud. Audit et Documentation : Réaliser des audits complets et garantir une restitution documentaire de haut niveau (normes, architectures cibles). 🛠️ Environnement Technique Vous évoluerez sur un environnement Cloud et Big Data complet : DomaineTechnologies et Concepts Cloud PublicAWS (Architecture) & AZURE (Architecture) Plateformes DataSnowflake (Data Warehouse), Databricks (Engineering/ML), DBT (Transformation) Outils AvancésDataiku , Big Data , Solutions BIMéthodes & OpsDevOps , DataSecOps , Gouvernance , FinOps

Contractor job
Tech Lead Data
Multinationale iconique sur son marché, cette entreprise est un véritable tremplin dans votre carrière. Sens du travail et innovation permanente vous trouverez l'excellence à tout les étages. Entité : Equipementier Site : Clermont-Ferrand, 3 j sur site client obligatoire par semaine ou 1 semaine sur 2 sur site au choix Prix d’achat max : 520 €HT Date de démarrage : asap Langue parlée : Français / Anglais Durée mission : 14 mois (fin 17/09/2026) Mission : Tech lead data en binôme. Nombre d’années d’expérience : min 6 ans Profil : Tech Lead Data
Job Vacancy
Dataiku Expert
As part of its Target Architecture, we set-up Databricks and Dataiku platforms on top of an AWS platform and started migration projects for different use cases implemented in various technologies (SAS, AWS Sagemaker, BW/HANA, etc.). Job description We are seeking a skilled Dataiku Expert to join a Project team in charge of rebuilding SAS programs functionalities whom results are used by our Finance Team and our Regulatory Report Team. Objective is to combine the usage of Databricks (storage / compute) and of Dataiku (data transformation), using as much as possible Dataiku Visual Recipes. Responsibilities Develop and maintain complex data transformation steps using Dataiku under specific guidelines (dev vs automation node, use of Dataiku’s low code recipes, etc.) Under governance of Tech Lead, leverage Databricks compute to enhance data processing and efficiency (performance, costs) Ensure data quality and integrity throughout the data transformation lifecycle Realize knowledge transfer within the Project team and the Business team which will take over the responsibility to run the projects in the future Required Skills Proven expertise in using Dataiku for complex data transformation and ELT process, using Visual Recipes and developing Plug-in Strong skills in SQL (and other relevant programming languages like Python) and in data warehousing projects Experience with Databricks and its compute capabilities Ability to work collaboratively with technical and non-technical people Analytical mindset with attention to detail
Job Vacancy
Tech Lead Data Engineer
Le Tech Lead Data Engineer aura pour missions: Assurer un leadership technique auprès des équipes de développement. Conseiller les parties prenantes et traduire les exigences stratégiques en architectures Azure et Databricks sécurisées, scalables et fiables. Participer activement aux phases de conception, développement et tests. Porter la vision technique au sein des équipes Agile. Garantir la qualité des livrables et veiller à la réduction de la dette technique. Réaliser la modélisation des données. Assurer une veille technologique et participer aux POCs. Enrichir la communauté des Data Engineers par le partage de connaissances et la promotion des bonnes pratiques.

Job Vacancy
Product Owner Data CDI
Contexte du projet Notre client met en place et fait évoluer une Data Platform permettant l’intégration, la mise en qualité et la mise à disposition de données (brutes ou retravaillées) issues de plusieurs producteurs, afin de répondre à des besoins opérationnels et analytiques à grande échelle. Missions principales Recueillir, challenger et prioriser les besoins métiers Construire et maintenir le backlog produit (rédaction de user stories et critères d’acceptance) Collaborer avec les Data Engineers, développeurs et QA pour livrer les fonctionnalités attendues Garantir la qualité fonctionnelle des livrables et leur adéquation aux besoins Animer les cérémonies agiles (daily, sprint planning, reviews, rétrospectives) Interagir avec des interlocuteurs internationaux (anglais opérationnel requis)

Contractor job
DATA OWNER
TES RESPONSABILITÉS : DONNÉES TRACABILITE Implementer les règles de la gouvernance (définition des Business Objects, business value) par rapport aux enjeux métiers et juridiques Accompagner le process d'ingestion avec notre data steward Déclaration des regles qualites et implémentation d'observabilité Assurer la qualité de nos données et la mise en place de plans de remédiation avec les équipes métiers (actions avec les outils, formations métiers, création de tours de controles...). Développer la culture et les usages data Collaborer étroitement avec les équipes produit et developpeurs pour valider et optimiser les modèles de données Accompagnement, communication, formations... des équipes métiers

Job Vacancy
Data Architecte - Lyon
Ton quotidien chez Komeet sera rythmé par : - Animation des ateliers afin d’étudier et cadrer les besoins clients en collaboration avec le Data Platform Architect - Analyser, conseiller, et faire des recommandations de façon à améliorer l’efficience et l’efficacité de la solution Databricks chez ton client. - Préconisation, conception et mise en œuvre du LakeHouse Databricks - Rédaction de dossiers d’architecture et spécifications techniques - Mise en œuvre des stratégies d’exploitation de la plateforme Databricks - Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. - Tests, validation et documentation des développements - Réalisation d’audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP

Job Vacancy
Expert Data Gouvernance
Rejoignez INVENTIV IT pour conseiller nos clients et travailler sur nos projets Data au sein de la Data Fabric . En tant qu' Expert Data Governance, vous piloterez des programmes stratégiques visant à garantir la confiance, la qualité et la conformité des données alimentant les Platform Data et les Data Market Place . Votre expertise couvrira les volets stratégiques et opérationnels, du design du modèle opérationnel au déploiement des outils de gouvernance. 🎯 Vos Missions Principales1. Pilotage de Programmes de Gouvernance & Qualité Stratégie & Déploiement : Définir et piloter la mise en œuvre de la Politique de Gouvernance et de Qualité des données . Modèle Opérationnel : Concevoir et déployer le Modèle Opérationnel (rôles, responsabilités, processus) de la Data Governance , incluant la gestion des incidents de Qualité des Données. Réglementation : Anticiper et mettre en œuvre les exigences de conformité (ex. : BCBS 239 , Al Act ) et de Data Privacy . 2. Expertise MDM, Catalogue et Outillage Master Data Management (MDM) : Déployer le dispositif de gestion des Master Data et accompagner la modélisation des données de référence. Data Catalog : Déployer et piloter les travaux d'évolution du Data Catalog (expertise Collibra et/ou Data Galaxy ) pour la documentation et la classification des données confidentielles. Qualité de Données : Cadrer et déployer des solutions d'outillage de Qualité des Données (ex. : Attacama , Dataiku ). 3. Contexte Avancé (Cloud, Data Market Place & IA) Architecture & Plateforme Data : Contribuer à la définition du Target Operating Model de la Plateforme Data en tenant compte des grandes orientations technologiques (Cloud vs On-Premise ). Contexte Cloud/Big Data : Utiliser votre connaissance des environnements AWS, AZURE, Snowflake et Databricks pour adapter les dispositifs de Gouvernance et de Qualité à ces plateformes modernes. IA/Gen AI : Mettre à profit votre expérience en Gouvernance des IA et Product Ownership Gen AI pour sécuriser l'exploitation des données dans des cas d'usage avancés. 4. Leadership et Acculturation Collaboration Métiers : Collaborer étroitement avec les fonctions Business & Produits (Finance , RH , Marketing , Sales ) pour l'adoption des modèles et la collecte des cas d'usage Data & IA. Acculturation : Conduire des sessions de formation et animer les comités de pilotage (COPIL, COMEX ). 🛠️ Compétences et Outils Indispensables Expertise Métier : Data Gouvernance , Master Data Management , Data Quality , Data & AI Strategy . Outils de Gouvernance : Expertise Collibra , Data Galaxy . Outils d'Intégration/Qualité : Expérience Informatica , Dataiku , Attacama . Méthodes : Agile at Scale , Design Thinking , Change Management Expérience dans un contexte Databricks, Snowflake, AWS & Azure fortement recommandé Exemple de mission : Définition de la Politique de Gouvernance des données et de Qualité des données Cartographie complète du patrimoine de données et Design du l’Enterprise Data Model Design et Déploiement du Dispositif de Gestion des Master Data Design et Déploiement du Dispositif de Mise en qualité des données Design et Déploiement du Dispositif de Documentation des Données Pilotage des travaux de Déploiement et D’évolutions du Data Catalog (Collibra) Cadrage, Spécification et Déploiement d'un Outil Data Quality (Attaccama) Accompagnement des cas d'usage analytiques et des projets métiers dans la collecte, et la mise en qualité des données consommées

Job Vacancy
Tech Lead DATA - PUY DE DOME
Pour un gros client industriel nous cherchons, un Tech Lead Data. Il devra maitriser Azure Data Bricks, et avoir de bonnes connaissances sur Power BI. En terme de langages, Python et SQL sont indispensables. Il devra comprendre l'anglais technique au minimum. Mission sur Clermont-Ferrand, démarrage dès que possible, 2 jours de télétravail possibles par semaine. Compétences transverses Niveau d'expérience : 3 à 5 ans minimum Compétences : Azure Data Bricks ; Power BI ; Python ; SQL Langues : Anglais requis Profil : Tech Lead Data ou Ingénieur Data expérimenté Démarrage de mission : ASAP Durée de mission : Longue durée Télétravail : Partiel (2 j par semaine)

Job Vacancy
Data Engineer
Rejoignez notre équipe innovante Data Fabric et jouez un rôle moteur dans l'élaboration des infrastructures de données de nouvelle génération. Nous construisons des Platform Data & Data Market Place complexes, nécessitant des solutions d'ingénierie robustes et scalables. Votre expertise sera déterminante pour transformer les données brutes en Data Products fiables et gouvernés, directement exploitables par l'entreprise. 🎯 Vos Missions Principales Conception et Développement des Pipelines : Concevoir, coder et optimiser des pipelines de données ETL/ELT (Batch et Streaming) utilisant Spark et les langages Scala et/ou Python . Implémenter des solutions de traitement et de transformation sur Databricks (Delta Lake) et/ou Snowflake . Industrialisation DataOps : Mettre en œuvre les pratiques DataOps et DevOps (CI/CD, tests automatisés, monitoring) pour automatiser et fiabiliser le déploiement des Data Products . Gérer et optimiser les ressources et l'infrastructure Big Data sur les environnements Cloud (AWS et/ou Azure) . Architecture et Expertise : Contribuer activement à l'évolution de l'architecture Data Fabric et à la modélisation des données. Garantir la performance, la qualité et la sécurité des données au sein de la Data Market Place . Collaboration : Travailler en étroite collaboration avec les équipes métier, les Data Scientists et l'IT pour assurer l'alignement des solutions techniques avec les objectifs business. ⚙️ Environnement et Compétences Techniques Requises Big Data & Processing (Expertise Indispensable) : Maîtrise d' Apache Spark (Scala ou Python/PySpark). Expérience solide avec Databricks et/ou Snowflake . Cloud Computing : Excellente connaissance d'au moins un des fournisseurs : AWS (S3, EMR, Kinesis, Glue) ou Azure (ADLS, Synapse Analytics, Azure Databricks). Langages : Expertise en Python ou Scala . Une connaissance de Java est un plus. Maîtrise du SQL . Industrialisation : Solide expérience en DevOps/DataOps (Git, CI/CD). Connaissance des outils d'infrastructure as Code (Terraform, CloudFormation) et de conteneurisation (Docker, Kubernetes) appréciée. LES + : Power BI, Talend Exemple de mission : · Évaluer les solutions techniques, · Garantir la performance et la disponibilité des plateformes data, · Implémenter et Orchestrer les pipelines de données, · Contribuer à l’amélioration de la qualité des données en synergie avec les équipes techniques, produits et métiers (définition des métriques, déploiement et monitoring des indicateurs, implémentation des règles du contrôle d’accès, documentation), · Participer au programme de migration de données et de modernisation des plateformes data (stockage et stratégie de data Lake, bases de données, SAP S4/HANA modules SD, MM, FI, SCM).
Submit your CV
-
Manage your visibility
Salary, remote work... Define all the criteria that are important to you.
-
Get discovered
Recruiters come directly to look for their future hires in our CV library.
-
Join a community
Connect with like-minded tech and IT professionals on a daily basis through our forum.
Latest forum topics
Jobs by city
Jobs by country