L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 651 résultats.
Mission freelance
Lead / Manager Squad Data & Finance
TEOLIA CONSULTING
Publiée le
Comptabilité
Pilotage
SQL
12 mois
Val-de-Marne, France
Nous recherchons un manager opérationnel pour piloter une squad IT dédiée aux domaines finance, comptabilité et risques , au sein d’un environnement Data en forte transformation. Contexte de la mission Vous intervenez sur un écosystème IT stratégique couvrant : Comptabilité & reporting réglementaire Finance & risques Data (entrepôt de données, datamarts, dataviz) Dans un contexte de modernisation du SI et de renforcement des exigences réglementaires, l’organisation est orientée Data-centric avec une forte convergence entre les domaines Finance et Risques. La squad est en charge de : La collecte des données comptables mensuelles (process critique) La production d’indicateurs finance / risques Les pistes d’audit Les reportings et flux réglementaires Vos missions En environnement Agile, vous serez responsable de : L’animation des rituels Agile et la diffusion des bonnes pratiques Le pilotage de la performance de la squad (KPI, amélioration continue) La coordination des équipes (IT, métiers, partenaires) La priorisation et structuration des activités avec les métiers Le bon fonctionnement du SI (run & build) La définition des trajectoires IT en lien avec l’architecture Le pilotage du staffing avec les responsables IT La communication sur les enjeux, résultats et stratégie
Offre d'emploi
Vice-président Conseil Expert Data / IA
Signe +
Publiée le
85k-100k €
Paris, France
Dans le cadre de la croissance des activités autour de la Data et de l'Intelligence Artificielle, nous recherchons un(e) Vice-Président Conseil Expert Data / IA afin d'accompagner les clients dans leurs enjeux de transformation et de performance. À ce poste stratégique, vous jouez un rôle clé dans le développement de la proposition de valeur Data / IA ainsi que dans le rayonnement de l'expertise. Vos principales responsabilités : • Contribuer au développement commercial en apportant votre expertise Data / IA aux équipes de vente • Garantir un haut niveau de satisfaction client et la qualité des prestations délivrées • Promouvoir l'expertise Data / IA auprès des clients, du marché et des partenaires • Animer une communauté d'experts (structuration d'offres, partage de connaissances, diffusion de bonnes pratiques) • Accompagner les consultants en mission et contribuer à leur montée en compétences • Participer à la définition des offres et à leur mise en œuvre opérationnelle Vous intervenez auprès de clients grands comptes et ETI, notamment dans les secteurs Retail, Luxe et Industrie, sur des programmes de transformation stratégique et d'amélioration continue. Référence de l'offre : 5xfrj8op47
Mission freelance
Consultant Data Analyst - Expert DATAIKU / MARKETING
BEEZEN
Publiée le
Dataiku
Python
SQL
12 mois
550-600 €
Paris, France
Je recherhce Data Analyst - Expert DATAIKU / MARKETING ayant plus de 10 ans d' experience Vous serez au cœur de la démarche de pilotage des activités marketing par la donnée. Vous avez pour mission de fournir les moyens de contrôler /analyser /piloter de l’activité du métier marketing Vos activités principales consisteront à accompagner les métiers marketing - dans 29 pays - dans l’analyse de leurs besoins, à aider à implémenter et automatiser les solutions les mieux adaptées (tableaux de bord, extraction…), à leur fournir des recommandations et des analyses basées sur leurs données. Une connaissance en data management et notamment dans la mise en place de Data Lineage et de dictionnaire de données vous sera nécessaire. Vous devrez également avoir une expérience en pilotage transverse. Votre périmètre recouvre l’ensemble des données de l’activité (3 CLS, Salesforce, Medallia, sites internets, espace client, etc) Les outils utilisés afin de répondre aux besoins de nos clients sont DATAIKU, SQL avancé, bases en Python, et TABLEAU. Les enjeux sur 2026 : Reprendre et finaliser la Refonte des projets data marketing DMK Securiser et stabiliser le run Mise en place de nouveaux projets reportings/analytics clés pour le marketing (Campaign performance & optimization, connaissance client ex. CLV, tracking du parcours digital client, Cost per lead…) Construire des modèles prédictifs/scorings simples Automatiser le production de reportings mensuels pour direction Marketing Documentation Réunions de cadrage avec les métiers afin de définir les règles de gestion : Identification d'architecture et modélisation data Construire des flows DATAIKU facilement maintenables (respect des normes de développement Arval) et documentés Scénarisation des flows DATAIKU Recettage des projets, correction de bugs Mise en production Analyses ad hocs Maintenance du run Analyses ad hocs Sécuriser la cohérence des KPIs produits et la qualité des données exploitées Communication auprès des métiers Responsable de la relation Marketing avec l'IT
Offre d'emploi
Data Architect H/F
OBJECTWARE
Publiée le
Azure Data Factory
Microsoft Fabric
Microsoft Power BI
60k-65k €
Bordeaux, Nouvelle-Aquitaine
Résumé du poste Notre client recherche un Data Architect expérimenté pour rejoindre une équipe Data Fabric et contribuer à la conception et à la mise en œuvre de l’architecture data à l’échelle de l’entreprise. Le rôle se concentre sur la création de produits de données réutilisables pour les domaines métiers , en travaillant étroitement avec les équipes Master Data Management (MDM), Data Engineers, Data Analysts, Information Security ainsi que les parties prenantes métiers. Le poste combine leadership architectural et travail opérationnel , incluant la modélisation de données, la conception d’intégrations, la mise en œuvre de la gouvernance et la configuration de la plateforme . Principales responsabilitésArchitecture de données & gouvernance Identifier et formaliser les domaines de master data à l’échelle de l’entreprise (Customer, HR, Finance, etc.). Collaborer avec l’équipe MDM pour concevoir les structures de golden record, la logique de consolidation et les flux d’intégration . Concevoir et documenter des produits de master data réutilisables (schémas, contrats, modes d’accès, APIs). Contribuer à la modélisation des données aux niveaux conceptuel, logique et physique sur les différents domaines de données. Travailler avec les Data Engineers pour traduire l’architecture en medallion layers, zones curées et pipelines d’intégration . Définir des standards de gouvernance incluant ownership, stewardship, lineage, classification et gestion du cycle de vie des données . Configurer les standards de métadonnées et les structures du catalogue de données afin d’assurer la découvrabilité et la réutilisation . S’assurer que les décisions architecturales sont clairement documentées et exploitables . Évolution de la plateforme, qualité & gouvernance Concevoir et mettre en œuvre des modèles de sécurité des données (RBAC, classification, masquage, contrôles de confidentialité). Participer à la mise en œuvre et à l’exploitation des outils de gouvernance des données (ex : Microsoft Purview), incluant scans, validation du lineage et classification . Définir des standards pour la documentation, la découvrabilité et l’enregistrement des data products dans la plateforme . Examiner les implémentations des domaines de données afin d’éviter la duplication ou la fragmentation des master data . S’assurer que la gouvernance et les métadonnées sont intégrées dans les processus CI/CD et de déploiement . Identifier et réduire les risques liés à l’incohérence des données, aux shadow master data ou à la prolifération non contrôlée des données . Contribuer à l’évaluation de nouvelles technologies et analyser leurs impacts en matière de gouvernance et d’intégration . Support et accompagnement Fournir un accompagnement architectural aux Data Engineers et Data Analysts . Participer à des ateliers techniques et sessions de conception . Accompagner l’ intégration de nouveaux domaines de données via des templates architecturaux et des implémentations de référence . Promouvoir des pratiques cohérentes en matière de métadonnées, sécurité et qualité des données . Agir comme interface entre l’équipe Data Platform, l’équipe MDM et les parties prenantes gouvernance / sécurité .
Mission freelance
Architecte Data Azure / Databricks / Snowflake — Part-time puis Full-time
CONCRETIO SERVICES
Publiée le
Azure
Databricks
Snowflake
3 mois
700-750 €
Puteaux, Île-de-France
Architecte Data Azure senior (10 ans+) recruté en mission de transformation — plateforme Databricks/Snowflake à recadrer architecturalement , équipe interne à coacher, stratégie data à 3 ans à définir. Il challenge diplomatiquement la direction technique actuelle , conçoit l'architecture cible , industrialise les pipelines en Terraform/Azure DevOps, gouverne la plateforme via Unity Catalog, et transfère les compétences sans créer de dépendance. MISSIONS PRINCIPALES Audit & Recadrage Diplomatique de l'Architecture Existante Analyser l'architecture data actuelle : identifier les problèmes structurels, les anti-patterns, les risques opérationnels Formuler les recommandations de façon constructive Convaincre le management et les équipes de changer de direction : argumentation technique, démonstration par les risques, roadmap de transition réaliste Conduire des revues d'architecture régulières pour maintenir la cohérence dans la durée Définition de l'Architecture Cible Concevoir l'architecture data cible : zones medallion (raw/processed/curated), formats (Delta Lake / Snowflake selon les cas d'usage), partitionnement, clés de distribution Définir les patterns d'intégration entre Databricks et Snowflake pour éviter les silos Produire le DAT complet, défendable en comité de direction Définir la stratégie de gouvernance : Unity Catalog, RBAC, RLS, Data Lineage, catalogue de données Industrialisation des Pipelines & DataOps Concevoir et implémenter les pipelines ETL/ELT sur Databricks et Snowflake (Snowpipe, Streams & Tasks) Mettre en place les pipelines CI/CD Azure DevOps (YAML) avec Terraform pour l'infrastructure as code Tests automatisés data : qualité, contrats, régression — culture DataOps production réelle Structurer les environnements dev/staging/prod avec isolation et promotion contrôlée Sécurité & Conformité IAM Azure, RBAC Unity Catalog, RLS Snowflake, Key Vault Conformité RGPD : pseudonymisation, chiffrement, audit trail, droit à l'oubli Coaching & Transfert de Compétences Revues de code, revues d'architecture, sessions de formation sur les patterns et standards Documentation des décisions (ADR) et bonnes pratiques pour assurer la continuité sans dépendance Montée en compétences sur Unity Catalog, Delta Live Tables, optimisation Snowflake, Terraform Stratégie Data à 3 ans Roadmap data : quick wins, transformations structurelles, jalons, dépendances Veille technologique : évolutions Databricks/Snowflake/Azure, data mesh, data fabric Cadrage des POCs nécessaires avant l'implémentation à grande échelle
Mission freelance
IA Delivery Product Owner / Business Analyst
ESENCA
Publiée le
Data quality
GenAI
Large Language Model (LLM)
1 an
Lille, Hauts-de-France
Informations générales Département : Digital, Data & IA Localisation : Siège / Lille (présence obligatoire sur site) Supérieur hiérarchique : IA Delivery Lead Position dans l’organisation Le/la IA Delivery Product Owner / Business Analyst contribue à la conception et à la livraison des cas d’usage en intelligence artificielle, en assurant l’interface entre les besoins métiers et les équipes de delivery. Encadrement Aucun management direct Interactions internes Équipes Data (Data Hub, gouvernance, référentiels) Équipes IT / DSI Directions métiers Équipes Digital / Data / IA Équipes en charge de l’adoption et de la transformation Interactions externes Partenaires technologiques et plateformes cloud Éditeurs de solutions IA (LLM, RAG, etc.) Cabinets de conseil spécialisés Mission Le/la IA Delivery Product Owner / Business Analyst est responsable de l’exécution produit et de l’AMOA sur les cas d’usage IA (copilots, agents, solutions RAG). Il/elle traduit les besoins métiers en backlog, spécifications fonctionnelles et parcours utilisateurs, organise la recette et contribue à l’amélioration continue des solutions en production. Le poste intervient dans un cadre structuré : sans responsabilité sur le développement technique sans responsabilité directe sur la conformité sans responsabilité sur la préparation des bases de connaissances Responsabilités principales 1. Cadrage des besoins Animer les ateliers métiers (besoins, irritants, processus, scénarios) Formaliser les cas d’usage et les priorités Contribuer à la définition des indicateurs de succès 2. Gestion du backlog et priorisation Construire et maintenir le backlog produit (user stories, critères d’acceptation) Prioriser les évolutions avec le IA Delivery Lead et les parties prenantes Préparer et animer les rituels Agile Garantir la clarté et la qualité des tickets 3. Conception fonctionnelle Définir les parcours utilisateurs et scénarios d’usage Formaliser les règles métier et comportements attendus Intégrer les mécanismes de gestion des limites de l’IA (incertitude, erreurs, hallucinations) Concevoir des expériences utilisateur robustes et sécurisées 4. Coordination des prérequis Exprimer les besoins en données et en bases de connaissances Contribuer à la formalisation des exigences de traçabilité et d’usage Collaborer avec les équipes techniques pour clarifier les besoins fonctionnels Assurer l’alignement entre les différentes parties prenantes 5. Recette fonctionnelle Définir la stratégie de tests (cas nominaux, limites, scénarios sensibles) Préparer et exécuter les phases de recette Suivre les anomalies et piloter leur résolution Contribuer aux décisions de go / no-go 6. Amélioration continue et industrialisation Collecter les retours utilisateurs et identifier les axes d’amélioration Alimenter le backlog d’évolution Capitaliser sur les retours d’expérience Contribuer à la standardisation des pratiques (copilots, agents, RAG)
Offre d'emploi
Chef de Projet Data H/F
Lùkla
Publiée le
Gestion de projet
6 mois
Rouen, Normandie
Pour un client et dans le cadre du pilotage d'un portefeuille de projets DATA, nous recherchons un Chef de projet DATA expérimenté. Localisation : Rouen (3 jours sur site client / 2 jours en télétravail) Vos missions principales : Pilotage des projets du portefeuille confié Coordination de l'ensemble des acteurs et contributeurs Organisation et animation des instances de pilotage Suivi des objectifs projets (qualité, coûts, délais, jalons) Garantie de la qualité des livrables produits Communication projet auprès des parties prenantes Recueil et analyse des besoins : Animation d'ateliers fonctionnels Recueil et formalisation des besoins métiers Proposition de solutions adaptées Cadrage et conception : Analyse des solutions avec les équipes métiers et techniques (MOE) Étude des aspects d'architecture et de sécurité IT Analyse de l'intégration dans le SI existant Accompagnement et delivery : Conduite du changement Préparation du passage en production (run) Livrables attendus : Livrables de gestion de projet Documentation fonctionnelle et de suivi
Offre d'emploi
Développeur Typescript
VISIAN
Publiée le
Big Data
TypeScript
User acceptance testing (UAT)
1 an
Paris, France
Contexte de la mission Dans le cadre du renforcement de ses dispositifs de Conformité, un de nos client recherche un Développeur TypeScript pour intervenir sur des applications construites au sein d'un écosystème de plateforme de données. La mission s'inscrit dans un environnement à forte criticité métier, notamment autour de la Détection de la Délinquance Financière, avec des enjeux liés à l'exploitation de la donnée, à la restitution d'informations sensibles et à l'amélioration des outils utilisés par les équipes conformité, contrôle et investigation. Le consultant participera au développement de solutions applicatives et de widgets métiers permettant de faciliter l'analyse, le pilotage et la visualisation de données en lien avec les dispositifs de surveillance et de détection.
Offre d'emploi
Data Engineer
VISIAN
Publiée le
Apache Hive
Apache Spark
Hadoop
1 an
45k-58k €
400-550 €
Paris, France
Le datalake est utilisé comme une data plateforme pour les équipes IT et métiers. L'objectif de la mission est d'assurer le rôle de Data Engineer de ce datalake : Gestion de la production Gestion de la dette technique Revoir l'architecture actuelle et proposer des évolutions Développements liés aux projets Description : Mettre en place la collecte et la mise à disposition des données au sein de l’entreprise Industrialiser et mettre en production des traitements sur les données (par exemple : mise à disposition de tableaux de bords, intégration de modèles statistiques) en lien avec les équipes métiers et les équipes qui les analysent Activités et tâches : Acheminement de la donnée Mise à disposition de la donnée aux équipes utilisatrices Mise en production de modèles statistiques Suivi de projet de développement Développement job spark Traitement et ingestion de plusieurs formats des données Développement des scripts Développement et Implémentation des collectes de données, des jobs de traitement et Mapping de données Développement des moyens de restitution via génération de fichier et ou API & Dashboarding Collecter toutes les données et les fournir aux clients en tant qu'API ou fichiers Développer de pipelines d'ingestion à partir de différentes sources (streaming et batch) ainsi que des spark jobs le prétraitement des données et calcul des indicateurs de performance (KPI) Développer des API génériques d’ingestion et de traitement de données dans un environnement HDP Participer à la conception, mise en place et administration de solutions Big Data Participation à l’installation, administration et configuration des Hadoop clusters. Mise en place en Spring Boot des services d'extraction de data du système legacy (tera data), la data sera par la suite envoyée au data lake via des topics Kafka Normalisation et agrégation des données afin de produire les rapports sous forme de Business View
Mission freelance
Expert DATA Décisionnel
Lùkla
Publiée le
Informatica
Python
SAS
2 ans
400-570 €
Île-de-France, France
Expert Data spécialisé dans la mise en place d'architectures data et dans création la création de modèles de données décisionnels. Missions et responsabilités : Pilotage, recueil des usages et réalisation de l’analyse fonctionnelle et technique. Conception et/ou évolution des modèles de données décisionnels (modélisation, règles de gestion, cohérence, traçabilité). Contribution à la définition d’une architecture cible permettant une mise à disposition fiable et pérenne des données et indicateurs. Développement du socle des données (ETL, traitements Altair ou Python) et déploiement auprès des métiers utilisateurs. Animation et coordination des ateliers et travaux entre les parties prenantes. Organisation et validation des phases de tests et de recette. Suivi des actions, des risques et des décisions pour garantir le bon déroulement des projets. Livrables attendus : Document de modélisation des données et règles de gestion associées. Dictionnaire de données. Schéma d’architecture applicatif et technique (Altair). Compte rendu des différents ateliers et instances. Documentation de recette et supports d’accompagnement.
Offre d'emploi
Data Designer
CAT-AMANIA
Publiée le
Confluence
Île-de-France, France
Le Data Designer : • sera rattaché au Shared service Data Office • interviendra dans les trains SAFe, pour représenter la composante Data dans le rôle System Architect du train ; Il travaillera avec deux autres architectes (technique & fonctionnel) pour accompagner les équipes agiles. • pourra intervenir sur des sujets transverses, dans le Shared service Data Office Requis • Connaissance des principes de modélisation (UML, Merise, etc) • Connaissance de la gouvernance des données • Connaissance architecture Datacentric • Connaissance Event Driven Architecture • Bonne connaissance du monde bancaire • Capacité à mener des interviews, et à coordonner des contributeurs • Capacité à travailler en mode agile Souhaité : • Connaissance de la modélisation des processus
Offre premium
Mission freelance
Chef de projet SI Finance
MEETSHAKE
Publiée le
Clarity
Cycle en V
Java
6 mois
Paris, France
Née d’un partenariat stratégique entre deux grands groupes bancaires français, une fintech autonome lancée en février 2025. Son ambition : devenir le premier processeur de paiements souverain en France, capable d’opérer à l’échelle européenne. Dans un secteur de paiements en pleine transformation, cette fintech se positionne comme un acteur de rupture, alliant sécurité, agilité technologique et compétitivité économique. L’objectif est clair : intégrer rapidement le TOP 3 des processeurs européens. Dotée d’une plateforme de nouvelle génération, elle couvre l’ensemble de la chaîne de valeur du processing carte, de l’édition logicielle à la gestion opérationnelle, en s’appuyant sur une infrastructure de pointe (cloud). Elle prend en charge tous les grands schemes de paiement (CB, Visa, Mastercard) ainsi que les nouveaux schemes européens, comme Wero. Le poste est rattaché au Responsable du SI Finance et travaille en lien étroit avec la Direction Financière. L’objectif principal : piloter les projets d’évolution et de transformation du Système d’Information Finance, dans un environnement technologique moderne et réglementé. Missions Piloter de bout en bout des projets d’évolution et de transformation du SI Finance (comptabilité, achats, contrôle de gestion, collecte et suivi des temps, gestion des contrats, data prep/viz, reporting & BI, etc.). Garantir la qualité, les délais et le budget, en assurant l’alignement fonctionnel, réglementaire et technique. Gestion de projet : Définir le périmètre, les objectifs et le planning des projets du SI Finance. Assurer le suivi budgétaire et le respect des délais. Animer les comités projets et rédiger les comptes rendus. Analyse et conception : Recueillir et analyser les besoins des équipes Finance et Comptabilité. Rédiger les spécifications fonctionnelles et techniques. Proposer des solutions adaptées (ERP, BI, automatisation, etc.). Coordination des acteurs : Travailler en étroite collaboration avec les équipes métiers, le développeur de l’équipe, et les fournisseurs. Garantir la qualité des livrables et la conformité réglementaire. Tests et déploiement : Établir les cahiers de tests. Organiser et superviser les phases de recette. Assurer la mise en production et le support post-déploiement. Maintenance et exploitation : Assurer le suivi des incidents et des évolutions. Amélioration continue : Identifier les axes d’optimisation et d’industrialisation des processus. Veiller à la sécurité et à la performance des systèmes. Assurer la documentation des processus et la mise à jour régulière de cette dernière.
Offre d'emploi
Développeur Data industrelle/MES H/F
VIVERIS
Publiée le
45k-55k €
France
Contexte de la mission : Dans le cadre de la transformation digitale de ses activités industrielles, notre client, acteur majeur du secteur pharmaceutique, renforce ses équipes en charge des systèmes de gestion de production (MES) et de la valorisation des données industrielles. La mission s'inscrit au sein d'un environnement de production exigeant, avec des enjeux forts autour de la traçabilité, de la performance industrielle et de l'exploitation de données en temps réel. Le consultant interviendra en lien avec les équipes IT, les équipes métiers (production, qualité) ainsi que les systèmes industriels.L'environnement technique repose notamment sur un historian industriel (AspenTech IP.21) permettant de collecter, historiser et exploiter les données issues des équipements de production. Des développements spécifiques sont nécessaires afin de répondre aux besoins métiers en matière de reporting, d'analyse et d'intégration avec les systèmes existants. Responsabilités : Intervenir sur des activités de développement et de gestion des données industrielles, avec un rôle clé dans leur exploitation et leur valorisation Etre en charge de la conception et du développement de requêtes et scripts permettant d'extraire, transformer et structurer les données issues du système IP.21 Contribuer à l'optimisation des performances des traitements et à la fiabilisation des flux de données Participer à la compréhension des besoins fonctionnels et à leur traduction en solutions techniques adaptées Intervenir sur des sujets d'intégration avec d'autres systèmes (MES etc.).
Mission freelance
Développeur BOARD (H/F)
Nicholson SAS
Publiée le
Azure
Board
Data Lake
1 an
350 €
Clermont-Ferrand, Auvergne-Rhône-Alpes
Nous recherchons un Développeur BOARD pour intégrer des projets Data d'envergure. Vous interviendrez de la conception jusqu'au déploiement en production, tout en assurant un support de niveau 3. 📍 Modalités Lieu : Clermont-Ferrand (Hybride : 3 jours/semaine sur site) Date de début : 04/05/2026 Durée : Jusqu'au 03/05/2027 (renouvelable) Budget TJM : 350 € 🎯 Missions principales Conception et configuration d'applications via la solution BOARD. Accompagnement du cycle de vie : du développement jusqu'à la mise en production. Support L3 : support aux tests d’acceptation utilisateurs (UAT) et résolution d'incidents complexes. Communication : vulgarisation de concepts techniques auprès des métiers. 🛠 Compétences techniques Incontournables (Mandatory) : BOARD (Expertise outil) Ecosystème Data : Databricks, Azure Data Lake, Power BI Fondamentaux : Concepts BI, analyse de données. Langues : Anglais opérationnel. Souhaitées (Nice to have) : Méthodologie AGILE. Appétence pour l'analyse fonctionnelle (Business Analysis).
Offre d'emploi
Data Scientist IA
R&S TELECOM
Publiée le
CI/CD
Kubernetes
1 an
45k-55k €
430-470 €
Île-de-France, France
Contexte de la mission Vous serez amené à évoluer dans une équipe pluridisciplinaire et travailler à concevoir, développer ou faire évoluer notre infra et plateforme Big Data dans un environnement Kubernetes. Objectifs et livrables Maintenir et faire évoluer la chaine CI/CD et les différents environnements containerisés. Adapter nos infrastructures et services aux besoins des projets. Concevoir et intégrer de nouvelles solutions sur nos infrastructures conteneurisées Documenter l’architecture, l’administration et l’exploitation Guider nos clients dans l'utilisation de Kubernetes et des pipelines CI/CD Assurer le support de niveau 3 sur les infrastructures supportant la conteneurisation. Veiller à la sécurité de bout en bout dans l’usage des technologies de conteneurisation et des conteneurs. Assurer une veille technologique. Compétences demandées Compétences Niveau de compétence Programmation Python Confirmé Gitlab CI/CD Expert GRAFANA Avancé ANSIBLE Avancé KAFKA Expert KUBERNETES Expert ELASTICSEARCH Confirmé ,
Offre d'emploi
Data Engineer - SPARK/SCALA/DATABRICKS
UCASE CONSULTING
Publiée le
Apache Spark
Azure
Databricks
1 an
40k-66k €
400-600 €
Île-de-France, France
📢 Data Engineer Scala Spark – Environnement Cloud (H/F) 🧩 Contexte Dans le cadre du renforcement d’une équipe Data, nous recherchons un(e) Data Engineer expérimenté(e) afin d’intervenir sur des sujets à forte volumétrie, autour de pipelines de données complexes et d’optimisation des traitements. Vous évoluerez dans un environnement technique exigeant, avec des enjeux de performance, scalabilité et qualité de la donnée. 🚀 Missions principales Développement de pipelines data en Scala / Spark (batch principalement) Optimisation des traitements et gestion de volumétries importantes Mise en place et amélioration des bonnes pratiques de développement Participation à l’architecture et aux choix techniques Collaboration avec les équipes métiers et techniques Contribution au mentoring et partage de connaissances 🧰 Stack technique Scala / Spark Maven Environnement Cloud (AWS ou Azure) Databricks (selon contexte) API HTTP Stack ELK (optionnel) ✅ Must have Solide expérience en Scala / Spark (batch) Maîtrise des optimisations Spark Expérience sur fortes volumétries de données Bonnes pratiques de développement (clean code, build, versioning) Expérience en environnement Cloud (AWS ou Azure) Minimum 5 ans d’expérience en Data Engineering ➕ Nice to have Expérience avec Databricks Développement d’ API HTTP Connaissance de la stack ELK Expérience en environnement multi-projets 🤝 Soft skills Esprit d’analyse et rigueur Autonomie et force de proposition Bon relationnel et esprit d’équipe Capacité à comprendre les enjeux métiers Sens des priorités et gestion des délais 🎓 Profil Formation Bac+3 à Bac+5 en informatique Anglais technique requis 8 ans d'expériences MINIMUM ! 📍 Modalités Télétravail partiel (jusqu’à 3 jours / semaine) Mission longue Démarrage : ASAP
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
2651 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois