L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 197 résultats.
Mission freelance
Data Analyst - Part-time (DBT - GitLab- Looker- BigQuery)
Publiée le
BigQuery
Data analysis
Data cleaning
6 mois
350-470 €
Genève, Suisse
Télétravail 100%
Cette mission est en Mi-Temps Nous recherchons deux data analyst pour une migration de modèles DBT afin de changer une partie du sourcing de la partie principale des Datamarts. Environnement & Contexte : Principalement pour les tables Client & Transactions, mais aussi d’autres modèles (Campaign, Clienteling), nous souhaitons ne plus nous sourcer sur un Datalake central, mais sur des données préparées dans un Datamart par une autre équipe, ce qui permettra de simplifier les scripts et supprimer les transformations. Il est crucial d’assurer la consistance des Data à tous les niveaux. Une analyse de gap sur les outputs principaux (Transaction, Client) a déjà été effectuée, avec un presque alignement au niveaux du nombre de record par Primary Key, mais au cours de la migration, il y aura forcément des différences relevées sur les dimensions/mesures, que vous allez devoir analyser, investiguer et remonter. Le Data Engineer aura pour mission principales : Revoir une bonne partie des modèles DBT dans notre Datamart Client qui contient environ 45 modèles finaux (et 60 modèles intermédiaires), pour modifier le sourcing (au lieu de sources brutes, se reposer sur un Datamart qui contient déjà certains indicateurs que nous préparions de notre côté) Simplifier et supprimer les transformations du script Client pour en simplifier la maintenance, et les investigations. Test de non regression sur le modele final, pour garantir que les outputs sont ISO (ou très proches, avec investigations des écarts et remontée/échanges avec l’équipe en charge du Datamart) Validation dans les outils finaux (explores/dashboards Looker) de la consistance des chiffres. Mise à jour de la documentation des modèles (SQL, Yaml, Confluence, Data Model)
Mission freelance
Data Analyst Senior
Publiée le
Microsoft Analysis Services (SSAS)
Microsoft Power BI
SQL
6 mois
540 €
Paris, France
Télétravail partiel
Data Analyst Senior (Power BI / SSAS) – Mon client bancaire assurance Nous recherchons un Data Analyst Senior (+5 ans d'expérience) pour rejoindre les équipes de Paris, dans le cadre d'un projet d'envergure mêlant maintenance de l'existant et innovation Cloud. Le Contexte de la Mission Au sein du pôle Assurance, vous intégrerez la plateforme Data responsable du Build et du Run d'un parc applicatif décisionnel complexe. Votre rôle sera double : Gestion des cubes SSAS : Création et maintenance des cubes via Visual Studio . Reporting Power BI : Développement de rapports avancés et participation active à la transition vers une plateforme Power BI Cloud . Profil Recherché Expertise technique : Maîtrise confirmée de Power BI et SSAS (Tabular/Multidimensional). Compétences annexes : Très bon niveau en SQL et aisance sur l'IDE Visual Studio. Une expérience sur Power BI Cloud est un plus majeur. Soft Skills : Capacité à animer des ateliers de cadrage avec les métiers, esprit de synthèse et autonomie. Modalités Pratiques Lieu : Paris (Rythme : 3 jours/semaine sur site). Démarrage : Février 2026. Durée : 6 mois + (visibilité longue). Tarif : Maximum 540 € HT/jour.
Mission freelance
PMO Transformation Cloud Hybride
Publiée le
AWS Cloud
Azure
Direction de projet
6 mois
800-1 200 €
Paris, France
Télétravail partiel
Orcan Intelligence recherche pour l’un de ses clients un PMO Transformation dans le cadre d’un projet de transformation Cloud Hybride ambitieuse Vos missions : Agir comme PMO de programme aux côtés du directeur de la transformation cloud (suivi planning, risques, budgets, dépendances, reporting comités). Piloter opérationnellement les streams de transformation liés à la plateforme d’ingénierie : cloud privé OpenShift, cloud public (GCP / Azure / AWS), outillage CI/CD, modèles de déploiement. Coordonner les équipes projet multi‑sites (Niort, Paris, Le Mans…) et les parties prenantes (architectes, équipes de développement, exploitation, sécurité). Contribuer, en tant que expert de l’hybridation d’architectures , à challenger les choix techniques 2/3‑tiers et les modèles de déploiement applicatif. Structurer et animer la gouvernance de la transformation : rituels, indicateurs de progrès, suivi des chantiers (build, migration, run). Préparer et consolider les livrables de pilotage : roadmaps, dashboards d’avancement, comptes‑rendus de comités, plans d’actions. Faciliter l’appropriation de la plateforme par les équipes de développement et d’hébergement (acculturation, accompagnement au changement).
Offre d'emploi
Data Engineer - Lyon
Publiée le
Databricks
DBT
Snowflake
50k-60k €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Ton quotidien chez Komeet sera rythmé par : Animation des ateliers afin d’étudier et cadrer les besoins clients Préconisation, conception et mise en œuvre des plateformes Data (datawarehouse, datalake/lakehouse ) Rédaction de dossiers d’architecture et spécifications techniques Mise en œuvre des stratégies d’exploitation de plateformes Data Construction et déploiement des pipelines de données (ETL / ELT) à l’aide de langage de programmation ou d’outils de type Low-Code Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. Tests, validation et documentation des développements Réalisation d'audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP
Mission freelance
Administrateur bases de données
Publiée le
Azure
Datadog
Google Cloud Platform (GCP)
1 an
Lille, Hauts-de-France
Télétravail partiel
Nous recherchons un expert Base de donnée afin de compléter l'équipe Architectes Techniques de la direction Infrastructures et Technologies. La mission se déroulera sur un rythme de 2 à 3 jours par semaine. Les principales missions seront en collaboration avec notre partenaire infogéreur: - Concevoir les architecture Base de Données Oracle sur un environnement vmware (Standard Edition / Enterprise Edition) - Concevoir les mécanismes de réplication et de haute disponibilité et pour une autre partie concevoir l'architecture DRP - Mettre en place l'automatisation pour le déploiement de cette infrastructure Oracle (Infrastructure As Code) - Accompagner les équipes "applications" dans la résolution des incidents notamment de performance - Concevoir les solutions de monitoring Environnement Techniques: - Oracle - Offre PaaS DBsur Azure (PostgreSQL, Mysql, Mariadb, MangoDB) - Azure / GCP / OVH (Vmware) Des connaissances souhaitées dans ces technologies: - Terraform ou Vmware (Cloud Assmbly, Code Stream, Service Broker) - Datadog/Dynatrace/appdynamics/Splunk/Instana
Offre d'emploi
Data Manager / Coordinateur Data Governance
Publiée le
Data governance
1 an
40k-45k €
220-540 €
Paris, France
Télétravail partiel
Descriptif du poste La mission au sein du Data office d'une institution financière a pour objectif d'accompagner la transformation autour : de la mise en place des Data Domain Manager (DDM) au des équipes Métiers, Fonctions et des tribes (agile) de la démarche des Data products et des Vues organisées métiers pour exposer et consommer la data. Cette mission est là pour accélérer le déploiement des rôles autour de la Data du producteur au consommateur.
Offre d'emploi
Développeur backend Java Core Sénior - Multithreading calculs distribués (7 ans et plus)
Publiée le
Big Data
DevOps
Java
3 ans
50k-70k €
500-600 €
Paris, France
Télétravail partiel
🏭 Secteurs stratégiques : Banque d’investissement PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Au sein d’une équipe qui travaille sur une application d'aide à la décision pour le trading. Elle permet de gérer des données historiques sur les clients, et les données de marché, ainsi que des données intraday et des mesures de risques, il permet aussi de visualiser les axes de trading. L’application utilise Angular 15 comme front end, Java 11 et Python 2 en back end, et Apache ignite pour le calcul distribué, et Mongo DB comme base de données. Pour la partie déploiement, on utilise Docker / Kubernetes et Jenkins
Offre d'emploi
Développeur Java (H/F)
Publiée le
Hibernate
Java
React
1 an
Nantes, Pays de la Loire
Télétravail partiel
Contexte du besoin Dans le cadre du développement et de l’évolution de solutions applicatives, nous recherchons un Développeur Java pour intervenir sur la conception, l’intégration, la maintenance et l’assistance autour d’applications existantes et nouvelles. Missions principales Développement applicatif Développer de nouveaux modules fonctionnels et techniques Réaliser l’écriture du code dans le respect des normes et du cadre défini par les architectes Rédiger la documentation technique Concevoir et exécuter des scénarios de tests Intégration et recette Participer aux phases amont de livraison (cahier des charges, études d’opportunité) Intégrer les solutions informatiques existantes (paramétrages techniques et fonctionnels) Concevoir des scénarios de tests Participer aux phases de recette Maintenance applicative Assurer la maintenance des applications existantes Réaliser des revues de code conformément aux consignes du service Mettre à jour la documentation technique Concevoir des scénarios de tests Support et assistance utilisateurs Assister les utilisateurs dans la résolution de problèmes liés à l’utilisation des logiciels et matériels Rédiger la documentation technique Concevoir des scénarios de tests
Mission freelance
Ingénieur de données GCP (H/F)
Publiée le
Apache Spark
BigQuery
CI/CD
4 mois
400-460 €
Paris, France
Télétravail partiel
Au sein de l'équipe Silver, la prestation se déroulera en collaboration avec les autres équipes de la Data, au cœur de la plateforme Data. Cette équipe est composée d'un productowner, d'un data steward et d'un data ingénieur. Notre technique de stack est principalement constituée de Python, Spark, SQL, dbt, BigQuery, Airflow pour l'orchestration des traitements et Terraform ainsi que Terragrunt pour l'industrialisation. Le stack inclut également d'autres services de la Google Cloud Platform. En interaction avec les membres de l'équipe, la prestation consiste à : • Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l'équipe • Construire et maintenir des pipelines de données robustes et évolutifs • Accompagner les membres de l'équipe dans l'exploitation et le requêtage des données • Organiser et structurer le stockage des données • Mettre en place et maintenir des infrastructures évolutives capables de répondre aux besoins et à l'évolution rapide du volume de données • Participer aux initiatives de gouvernance des données en assurant la qualité, la fiabilité et l'intégrité des données • Construire et maintenir les workflows de la CI/CD • Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur • Assurer l'évolutivité, la fiabilité, la stabilité des environnements • Participer aux différentes instances des data ingénieurs • Contribuer et veiller à la mise à jour de la documentation • Faire de la veille technologique active dans le domaine Livrables attendus : 1. Déployer les datasets normés sur un ou plusieurs des data domain suivants : Utilisateurs, Comportements et Référentiels 2. Accompagner les utilisateurs dans leurs usages 3. Mettre en place le contrôle qualité sur ces datasets Expertises demandées pour la réalisation de la prestation.
Offre d'emploi
Project Manager Digital – Communication
Publiée le
Microsoft Copilot Studio
Azure
Workplace
9 mois
40k-52k €
400-800 €
Le Havre, Normandie
Télétravail partiel
Project Manager Digital – Communication Interne & Digital Workplace 1. Contexte Dans le cadre d’un programme de transformation digitale à l’échelle d’un grand groupe international , le/la Project Manager Digital interviendra sur des projets stratégiques liés à la communication interne et à la digital workplace . La mission couvre notamment : Le pilotage et l’optimisation des outils digitaux de communication interne (réseau social d’entreprise, outils événementiels internes, plateformes collaboratives). La mise en place et l’évolution de la digital workplace du groupe , incluant : migrations de tenants Microsoft pour de nouvelles entités, optimisation de l’usage pour les entités existantes, intégration de solutions d’IA générative (Copilot), développement et déploiement d’agents métiers de niveau L2/L3. 2. Objectifs Communication interne Déployer et optimiser les outils digitaux afin de renforcer la cohésion interne, la fluidité des échanges et l’efficacité opérationnelle. Digital Workplace Piloter les migrations et optimisations des environnements Microsoft 365 pour les filiales. Pour les entités les plus matures (activités industrielles, logistiques, services) : piloter le déploiement et l’adoption de Copilot, optimiser l’usage des nouvelles fonctionnalités, intégrer et gouverner les agents métiers (L2 / L3). Accompagnement au changement Organiser la formation et le support utilisateurs. Faciliter l’adoption des nouveaux outils et processus. Dans ce cadre, le/la Project Manager supervisera une équipe d’environ 12 consultants externes , répartis sur les différents périmètres fonctionnels. Il/elle devra garantir : une compréhension fine des besoins métiers , la traduction de ces besoins en solutions concrètes et adaptées , l’alignement avec les processus de la DSI, la prise en compte des contraintes cybersécurité, architecture, opérations et infrastructures . L’objectif est d’assurer une intégration fluide, sécurisée et à forte valeur ajoutée , dans le respect des standards techniques et de sécurité du groupe.
Offre d'emploi
Product owner
Publiée le
Data analysis
1 an
40k-51k €
400-550 €
Marseille, Provence-Alpes-Côte d'Azur
Télétravail partiel
Qualité des données & Gouvernance Identifier et évaluer les impacts des données manquantes, incohérentes ou de mauvaise qualité sur les opérations Intermodal, le reporting et la prise de décision. Définir, pour les données clés, des pratiques de gestion de la qualité des données , incluant : des KPI et seuils de qualité, des règles et contrôles de monitoring, des processus de traitement des anomalies et de correction, des rôles et responsabilités (responsables, contributeurs, escalades). Prioriser et formaliser les améliorations de la qualité des données sous forme de user stories dans le backlog (nouveaux contrôles, logiques d’enrichissement, workflows de correction). Veiller au respect des politiques et standards de gouvernance des données et contribuer à la clarification des rôles (data owners, data stewards). Pilotage de la livraison & validation Collaborer avec les data engineers, développeurs BI et équipes plateforme pour livrer les incréments du produit data : nouvelles sources, tables, métriques et vues attendues par le métier. Animer les réunions de validation avec les équipes IT et métier afin de confirmer l’alignement des livrables avec les exigences et leur bonne documentation (définitions, lignage, règles de qualité). Revoir et approuver les structures de données et transformations implémentées sur la base de critères d’acceptation clairement définis. Garantir la cohérence et la réutilisation entre les initiatives data , en évitant la duplication des jeux de données et des indicateurs. Préparation des déploiements & support (nouveau TMS et autres systèmes) Pour le projet de nouveau TMS, piloter la phase de préparation et de nettoyage des données avant chaque déploiement, avec l’appui du Référent Master Data : identifier et planifier les chargements, migrations et nettoyages de données nécessaires, coordonner les travaux avec les Product Owners, experts régionaux et équipes IT, valider la disponibilité, la complétude et l’adéquation des données pour le déploiement. Assurer le suivi des incidents liés aux données lors des phases de bascule et de démarrage, en garantissant une résolution rapide et la capitalisation pour les futurs déploiements. Mettre à jour la documentation (catalogue, flux de données, règles de qualité) afin de refléter l’ouverture de nouveaux pays, régions ou périmètres, ainsi que les évolutions des TMS et systèmes sources. Qualifications & expérience requises Diplôme de niveau Licence ou Master en Data / Informatique, Ingénierie, Supply Chain, Business ou domaine équivalent, ou expérience professionnelle équivalente. Plusieurs années d’expérience dans un ou plusieurs des rôles suivants : Data Product Owner / Product Manager, Data Analyst / Business Data Analyst, Projets BI / Data Warehouse dans un contexte opérationnel ou logistique. Expérience confirmée sur des plateformes data, datamarts ou data warehouses (recueil des besoins, modélisation, validation, déploiement). La connaissance des processus transport / logistique / intermodal constitue un atout majeur.
Offre d'emploi
INGÉNIEUR(E) DEVOPS -INFRASTRUCTURE AS CODE (IaC)
Publiée le
Azure Kubernetes Service (AKS)
F5
ITIL
3 mois
40k-45k €
400-550 €
Le Havre, Normandie
Télétravail partiel
INGÉNIEUR(E) DEVOPS -INFRASTRUCTURE AS CODE (IaC) ype de mission : Régie Durée : 3 mois (renouvelable) Démarrage souhaité : Immédiat Localisation : Présentiel 3 j/semaine minimum à prévoir sur site client au Havre Contexte : Éditeur de logiciels, environnement cloud hybride Azure/on premisesCONTEXTE DE LA MISSIONDans le cadre de la consolidation de son infrastructure cloud hybride Azure et de sa transformation vers une architecture microservices, notre client recherche un Ingénieur DevOps / IaC spécialisé en automatisation Terraform/Ansible sur environnements Azure pour reprendre, rationaliser et industrialiser l'existant.L'environnement technique repose sur une infrastructure hybride Azure/on premises à dominante Microsoft et Linux (Red Hat, Debian), avec une trajectoire d'évolution vers des architectures conteneurisées sur des distributions Kubernetes cible à statuer (RKE2, K3s, OpenShift). MISSIONS PRINCIPALES1. Reprise et rationalisation IaC (prioritaire) • Auditer les scripts Terraform et Ansible existants sur environnements Azure/on prem, identifier les dettes techniques et risques • Refactoriser en modules Terraform Azure réutilisables (VNet, NSG, VM, AKS, ACR, Key Vault, etc.) et rôles Ansible avec conventions de nommage/versioning • Identifier et automatiser les tâches récurrentes manuelles/semi-annuelles via Azure DevOps Pipelines ou GitHub Actions • Documenter l'ensemble (guides d'usage, runbooks d'exploitation)2. Automatisation cycle de vie des certificats SSL/TLS• Concevoir et mettre en œuvre des pipelines de discovery, renouvellement et déploiement automatisés intégrant Azure Key Vault • Intégrer avec le PKI existant ou ACME le cas échéantImplémenter mécanismes de validation et rollback• Coordination appréciée avec load balancers F5 (LTM/WAF) et pare feu Check Point3. Contribution à la transformation – architecture microservices• Définir et appliquer les bonnes pratiques IaC/DevOps/GitOps sur Azure (stratégies de branches, PR, promotions multi environnements via Azure DevOps ou GitHub)• Mettre en place et administrer un sandbox Kubernetes agnostique (RKE2/K3s/OpenShift) avec intégration Azure (Azure Arc si pertinent)• Outiller l'évaluation des stacks (ingress, CNI/CSI, Azure Monitor, sécurité)• Produire matrices de critères, recommandations et runbooks MCO (Maintien en Condition Opérationnelle) / MCS (Maintien en Condition de Sécurité)COMPÉTENCES TECHNIQUES REQUISESObligatoires• Microsoft Azure : maîtrise des services IaaS/PaaS (VNet, NSG, VM, Storage, Application Gateway/WAF) et expérience fournie en admin Azure• Azure DevOps ou GitHub Actions : pipelines CI/CD, intégration Terraform, gestion des secrets via Key Vault, policy as code• Systèmes Linux (Red Hat/Debian) et Windows Server, virtualisation (proxmox, hyper-v, nutanix) /bare metal• Maîtrise de développement scripts Terraform, Ansible, bash/sh Appréciées• Kubernetes: automatisation distributions agnostiques (RKE2/K3s/OpenShift), Helm/Kustomize, ingress, RBAC, ARGO/CD• Load balancers F5 (LTM/WAF) et pare feu Check Point• Connaissances développement Python• Certification ITIL et Kubernetes (CKA) PROFIL RECHERCHÉIngénieur(e) DevOps / IaC (5–10 ans d'expérience) orienté automatisation sur cloud-hybrid, capable d'auditer et de rationaliser des patrimoines IaC hétérogènes, alliant vision d'architecture cloud, rigueur documentaire et capacité à élever le niveau des équipes internes Windows/Linux. --
Offre d'emploi
Expert Cybersécurité Cloud & Gen-IA (Azure / Microsoft)-(H/F)
Publiée le
Azure
DevSecOps
GenAI
1 an
Fontenay-sous-Bois, Île-de-France
Contexte Dans le cadre du déploiement de projets d’ Intelligence Artificielle Générative (Gen-IA) au sein d’un grand groupe bancaire international , la mission vise à renforcer la sécurité des implémentations IA sur les environnements Cloud Microsoft (Azure, Microsoft 365, Copilot). L’enjeu principal est d’accompagner les centres de compétences et les équipes métiers dans la sécurisation des usages Gen-IA, tout en maîtrisant les risques spécifiques liés aux LLM (Large Language Models) dans un contexte agile, cloud et international . Objectif de la mission Assurer la sécurisation de bout en bout des projets Gen-IA déployés sur les environnements Microsoft, en combinant cybersécurité cloud, DevSecOps et expertise IA , et en produisant une documentation sécurité complète et exploitable . Missions principales Accompagner les équipes projets et métiers dans la sécurisation des implémentations Gen-IA . Analyser et maîtriser les risques spécifiques aux LLM : Prompt injection Data leakage Model poisoning Concevoir et formaliser les architectures sécurisées IA sur Azure / Microsoft . Définir et produire les livrables sécurité : Dossiers de sécurité Analyses de risques Blueprints sécurité Mettre en œuvre des pratiques DevSecOps adaptées aux projets IA (pipelines CI/CD sécurisés). Intégrer les dispositifs de sécurité Cloud avec les outils SOC / SIEM . Garantir la conformité aux réglementations et normes cybersécurité internationales (RGPD, IA, cloud). Participer à la diffusion des bonnes pratiques de sécurité IA au sein des équipes. Compétences clés (impératives) Sécurité opérationnelle Cloud Azure Expertise DevSecOps Expérience sur architectures Gen-IA Maîtrise des risques propres aux LLM Environnements Microsoft 365 / Copilot Compétences importantes Sécurisation des pipelines CI/CD Documentation cybersécurité (dossiers, blueprints, analyses de risques) Intégration SIEM / SOC sur Cloud Réglementations internationales (RGPD, IA, Cloud) Bonnes pratiques de sécurité IA et Cloud Microsoft Normes de cybersécurité Cloud Capacité à gérer l’ambiguïté et l’incertitude Forte capacité rédactionnelle et analytique Approche agile orientée gestion des risques Compétences rares / expert Sécurité avancée Azure + Gen-IA DevSecOps appliqué aux projets IA Cloud Expertise approfondie sur les risques LLM Architecture sécurisée Azure / Microsoft pour l’IA Sécurisation avancée de Copilot / Microsoft 365
Mission freelance
Data Engineer Manager
Publiée le
Azure
Databricks
Snowflake
6 mois
420-490 €
Libourne, Nouvelle-Aquitaine
Télétravail partiel
Bonjour, Nous recherchons pour l'un de nos clients intégrateurs un Data Engineer Manager. Secteur d'activité du client final : santé Contexte : le Client recherche un profil senior avec une expérience confirmée de Data Engineer en environnement complexe, connaissant les DataPlateforms, maitrisant Databricks et/ou Snowflake, idéalement sur Azure. Démarrage : immédiatement Autre prérequis : Expérience en migration de plateformes Exépérience en gestion d'équipes mixtes (internes, consultants, offshore/AMS)
Offre d'emploi
Architecte Solution - Architecture cloud (AWS, Azure, GCP)
Publiée le
Big Data
Cloud
3 ans
Île-de-France, France
Télétravail partiel
Responsabilités principales Architecture fonctionnelle Collaborer avec les équipes produit pour recueillir et clarifier les besoins métiers. Travailler en équipe avec les architectes d’entreprise et les architectes data pour résoudre des problématiques métier. Analyser les systèmes existants et le code source afin de comprendre les processus actuels. Documenter les besoins fonctionnels et l’architecture dans Confluence. Réaliser une analyse des écarts entre les systèmes existants et les nouveaux besoins métiers. Concevoir des architectures fonctionnelles modulaires, évolutives, ainsi que des stratégies de transition. Définir les points d’intégration pour un fonctionnement en parallèle avec les systèmes existants. Architecture technique Sélectionner les technologies appropriées via des POC (Proof of Concept) et des benchmarks. Concevoir et mettre en œuvre des architectures techniques robustes et évolutives. Garantir la cohérence entre les conceptions fonctionnelles et techniques. Réaliser des revues de code afin de faire respecter les standards architecturaux. Supervision de la mise en œuvre Suivre l’avancement du développement et veiller au respect des lignes directrices architecturales. Accompagner les équipes dans la résolution des défis techniques et l’optimisation des performances. Profils recherchés Expérience requise : 10 ans ou plus dans les domaines suivants Architecture full-stack : infrastructure, données, microservices et front-end. Conception d’API, de plateformes web et d’applications mobiles dans les secteurs du crédit, de l’assurance ou de la conformité. Stratégie, intégration et orchestration des données. Maîtrise des applications supportant le big data, idéalement dans un environnement B2B. Conception et mise en œuvre de moteurs de règles. Migration et modernisation d’infrastructures (on-premise / cloud). Leadership agile et coordination de développements externalisés. Environnement réglementé (services financiers, assurance, etc.). Sécurité, conformité et gestion des incidents.
Offre d'emploi
Data Engineer - SPARK/SCALA
Publiée le
Apache Airflow
Apache Spark
PySpark
12 mois
40k-48k €
400-470 €
Montreuil, Île-de-France
Télétravail partiel
Nous sommes à la recherche d’un Développeur Big Data Java/Scala – Projet Migration DataHub V2 Objectif de la mission : Assurer un service de développement Big Data dans un environnement distribué à forte volumétrie. Accompagnement sur les phases de conception, développement, industrialisation et maintien des traitements. Stack et compétences techniques requises : Apache Spark (maîtrise attendue) Scala (langage principal sur la squad) SQL (avancé) Java (notions de base à confirmées) Kafka (bonnes bases sur les événements, topics) Apache Airflow (idéalement une première expérience) Écosystème Hadoop : HDFS, Hive, Yarn (bonnes bases requises) Cloud (une première expérience Cloud valorisée, idéalement GCP ou AWS) CI/CD : Jenkins, Gitflow, notions de DevOps Méthodologie Agile : backlog, rituels, communication proactive Responsabilités principales : Étude et conception technique des batchs Développement Spark/Scala pour traitement de données volumineuses Récupération, transformation, enrichissement, restitution Création de batchs de publication Kafka Participation à la maintenance de la chaîne CI/CD Collaboration étroite avec les Business Analysts pour garantir qualité et lisibilité des libellés Gestion autonome de certains sujets (reporting, suivi, coordination) Profil recherché : Confirmé (3 à 6 ans d’expérience sur des environnements similaires) Proactif, rigoureux, à l’aise dans les contextes techniques exigeants Capacité à interagir avec des interlocuteurs techniques et fonctionnels Démarrage : ASAP Durée : mission longue (visibilité +12 mois)
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Calcul de l'indemnité de la rupture conventionnelle
- Futur freelance architecte logiciel
- Création de site Wordpress : BIC ou BNC ?
- Comment j'ai décroché une mission en bypassant l'ESN - et l'outil que j'ai créé
- Quel logiciel de compta en ligne avez vous choisi et pourquoi ? Avec quel compte pro en ligne ?
- Passage sasu à eurl: transition mutuelle/prévoyance
2197 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois