L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 250 résultats.
Offre d'emploi
Data Engineer T-SQL (Sqlserver 2019) - 6 ans d'expérience minimum
Publiée le
SGBD
SQL
Transact-SQL
6 mois
Paris, France
Télétravail partiel
L’infocentre commercial de la Banque a pour rôle de collecter (depuis les systèmes front, pour tous les produits), normaliser, enrichir les données (depuis des référentiels) et créer/générer des analyses de l’activité commerciale de la Salle des Marchés à l’aide de différents outils décisionnels. L’infocentre présente principalement 5 types de données : La performance commerciale : décomposée en une partie client et une partie vendeur Hit Ratio : les demandes de prix électroniques, récupérées des plateformes La trésorerie : calculée en fonction des opérations effectuées par la Salle des Marchés CRM : données de meeting, contacts, etc. fournies par l’outil CRM interne Réglementaire (post-trade) : afin de lever des alertes au Front Par ailleurs, l’infocentre est branché à de nombreux référentiels et applications, ce qui permet de fournir différents axes d’analyses de la donnée aux utilisateurs. L'équipe est divisée en plusieurs Business Lines : Salle des Marchés ; Commercial ; Conformité ; Onboarding. Ces Business Lines sont composées de profils Business Analyst, Développeur & BI, organisés en équipe Agile. Les équipes sont principalement localisées en France (80%) et au Portugal (20%). ment en C#
Offre d'emploi
Tech Lead H/F
Publiée le
70k-80k €
75001, Paris, Île-de-France
Je suis Sheeranaze MEHENTAL, Consultante en recrutement au sein de FED IT, cabinet de recrutement spécialisé sur les métiers des systèmes d'information et de la transformation digitale : infrastructure, chefferie de projet, data, cybersécurité, développement et top management. Je recrute pour mon client basé à Paris 8, un Tech Lead H/F dans le cadre d'un CDI. Dans un contexte de forte transformation digitale et au sein d'un groupe internationale de premier plan, je recherche un Tech Lead H/F pour agir en tant que bras droit du Head of IT & Digital. Votre rôle est hybride : à la fois chef d'orchestre technique, garant de la méthodologie projet, et facilitateur business. Pilotage de Projets & Delivery * Traduire la vision stratégique du Head of IT en feuille de route opérationnelle. * Piloter les projets digitaux de bout en bout (du recueil des besoins jusqu'à la mise en production) en garantissant le respect des délais (Time-to-market) et de la qualité. * Animer les rituels Agiles : pilotage des Daily Scrums, sprint planning et revues avec les équipes de développement (internes ou prestataires). * Gérer les priorités au quotidien pour décharger le Head of IT des arbitrages opérationnels. Architecture & Innovation * Concevoir et proposer des solutions innovantes pour répondre aux problématiques métiers complexes, tout en assurant leur intégration avec le système d'information existant (stratégie dual-speed : modernisation vs legacy). * Garantir la cohérence technique des solutions déployées. * Assurer une veille technologique active pour identifier les opportunités de digitalisation. Alignement International & Stakeholder Management * Assurer l'alignement avec les équipes techniques du Groupe et de la Région (contexte international). * Naviguer dans l'organisation matricielle pour débloquer les situations et obtenir les validations nécessaires (Security, Architecture, Compliance). * Vulgariser les enjeux techniques auprès des directions métiers (Souscription, Sinistres, Sales, etc.) pour assurer l'adhésion aux projets
Mission freelance
Expert Qualité des Données CRM
Publiée le
CRM
24 mois
450-900 €
Paris, France
Télétravail partiel
PROPULSE IT recherche un Expert Qualité des Données CRM, avec une expérience significative en projet CRM en mode agile (salesforce) et en projet de migration. L'Expert CRM Data Quality sera intégré à l'équipe qui déploie des produits destinés aux Collaborateurs du client (y compris Salesforce, mais aussi des outils satellites, comme DocuGen / Docusign pour la signature électronique, Hubspot pour l'automatisation du marketing, Medallia pour les enquêtes, MayDay pour les connaissances, Genesys pour distribution de flux omnicanal). Objectifs de la mission : 1. Gestion de la qualité des données : Superviser et maintenir la qualité des données dans Salesforce CRM, en étroite collaboration avec les architectes pour définir et appliquer les normes, les procédures et les processus de contrôle qualité. 2. Expertise Salesforce CRM : Posséder une connaissance approfondie de l'architecture de données Salesforce, des objets standards et personnalisés, des objets relations et les meilleures pratiques en matière de modélisation des données. 3. Gestion de l'intégration : Collaborer avec les équipes techniques pour assurer des intégrations transparentes entre Salesforce CRM et des outils satellites tels que le marketing automation (Hubspot), la signature électronique (DocuGen/DocuSign), enquêtes de satisfaction (Medallia), etc. 4. Migrations de données : - Concevoir et exécuter des projets complexes de migration de données, en travaillant en étroite collaboration avec diverses unités commerciales pour garantir l'intégrité et la cohérence des données. - Assister et diriger les filiales de distribution lors de l'extraction des données. - Identifier les données à nettoyer (individuellement et en masse) et animer les filiales de distribution en nettoyage efforts. - Mettre en place des indicateurs de progression du nettoyage des données. - Expliquer le format pivot utilisé pour la migration des données. - Identifier les améliorations nécessaires aux différentes étapes de la validation des données. - Mettre en place des indicateurs pour suivre les progrès de la migration des données. -Fournir une description détaillée des livrables attendus. 5. Partenariat avec les Business Units : Travailler en partenariat avec différentes équipes métiers pour comprendre leurs besoins, proposer des données solutions et prendre en charge les déploiements de solutions CRM. 6. Documentation et formation : Développer et maintenir une documentation détaillée des processus, des normes de qualité et des meilleures les pratiques. Organiser des formations pour garantir l'adoption et la conformité.
Offre d'emploi
Développeur Big Data Scala / Java (Migration DataHub)
Publiée le
Apache Kafka
AWS Cloud
Big Data
12 mois
45k-56k €
500-530 €
Montreuil, Île-de-France
Télétravail partiel
Contexte / Objectif : Renfort d’une équipe technique en charge de la migration du DataHub vers sa version 2. L’objectif est d’assurer le développement et l’industrialisation de traitements Big Data dans un environnement distribué à forte volumétrie, depuis la conception jusqu’au maintien en production. Missions principales : Étude et conception technique des batchs et pipelines data. Développement Spark/Scala pour traitements batch et streaming. Récupération, transformation, enrichissement et restitution des données (ETL/ELT). Création et publication de batchs Kafka (topics / événements). Participation à l’industrialisation : CI/CD, tests, déploiement et monitoring. Collaboration étroite avec les Business Analysts pour garantir la qualité et la lisibilité des libellés. Gestion autonome de sujets transverses (reporting, suivi, coordination, support niveau 2/3). Stack technique (obligatoire / souhaité) : Obligatoire : Apache Spark (maîtrise), Scala (langage principal), SQL (avancé). Souhaité : Java (notions confirmées), Kafka (bonnes bases), Apache Airflow (expérience appréciée), HDFS/Hive/YARN (bonnes bases), expérience Cloud (GCP ou AWS valorisée), CI/CD (Jenkins, Gitflow), notions DevOps. Méthodologie & environnement : Travail en mode Agile (backlog, rituels, communication proactive). Interaction régulière avec équipes Data, BI, infra et métiers.
Mission freelance
Business Analyst / Confirmé - Senior
Publiée le
Microsoft Excel
MySQL
Python
3 mois
400-650 €
Seine-Saint-Denis, France
Télétravail partiel
Bonjour à tous, Je recherche pour le compte d'un de mes clients un Business Analyst. Voici les missions principales : Réalignement et qualité des données • Cartographier et analyser les données provenant des différentes sociétés du Groupe. • Identifier les écarts, incohérences et redondances. • Réaliser les opérations de nettoyage, harmonisation et migration (via Excel, Python, SQL si nécessaire). • Développer et maintenir des scripts d’automatisation (Python, Pandas, Regex, API). • Expérimenter l’usage de modèles IA (GPT, ML) pour accélérer l’enrichissement, le matching et la classification de données. RUN BI & Reporting • Assurer la disponibilité et la fiabilité des modèles/reports Power BI de publication. • Gérer les incidents et demandes utilisateurs (RUN BI, correctifs, évolutions). • Monitorer les traitements Fabric/Power BI (Data pipelines et Refresh Semantic models) et collaborer avec l’IT pour résoudre les problèmes. • Documenter et optimiser les process de mise à jour et de refresh des dashboards. Analyse métier & accompagnement • Traduire les besoins métiers en spécifications fonctionnelles et data. • Accompagner les équipes locales dans l’adoption des dashboards et outils analytiques. • Proposer des recommandations pour améliorer la gouvernance et la qualité des données. • Être le point de contact privilégié entre équipes Data, IT, BI et filiales.
Offre d'emploi
Data Scientist
Publiée le
Python
6 mois
Liège, Belgique
En tant que Data Scientist Senior , vous participerez à des projets complexes de traitement et d’analyse de données afin de générer des insights exploitables. Vous travaillerez en étroite collaboration avec les équipes métiers, IT et Data Engineering pour construire des modèles prédictifs et des solutions analytiques robustes. Responsabilités principales Concevoir, développer et déployer des modèles de machine learning pour résoudre des problématiques business complexes. Manipuler, transformer et analyser de grands volumes de données provenant de différentes sources (bases relationnelles, Snowflake, APIs…). Garantir la qualité et la cohérence des données en collaboration avec les équipes Data Governance et en utilisant des outils comme Collibra . Développer et maintenir des pipelines ETL et scripts Python pour automatiser le traitement des données. Présenter les résultats et insights de manière claire aux parties prenantes, en français et en anglais. Encadrer et partager vos connaissances avec des profils moins expérimentés (mentorat). Contribuer à la définition des bonnes pratiques Data Science et à l’amélioration continue des processus analytiques. Profil recherché Diplôme supérieur en Statistiques, Informatique, Mathématiques, Data Science ou domaine similaire. Expérience significative (minimum 5 ans) en Data Science, idéalement dans un environnement international. Maîtrise avancée de Python pour le traitement de données et le développement de modèles ML (pandas, scikit-learn, TensorFlow, etc.). Maîtrise de SQL et expérience sur Snowflake pour l’interrogation et l’exploitation des données. Expérience avec des outils de Data Governance , en particulier Collibra . Solide compréhension des statistiques, de l’algorithmique et des méthodes de machine learning. Capacité à travailler en autonomie et à gérer des projets complexes. Excellente communication écrite et orale en français et anglais . Compétences appréciées Expérience avec des outils de visualisation (Tableau, Power BI, Plotly…). Connaissance des bonnes pratiques DevOps/DataOps appliquées à la Data Science. Expérience avec des environnements cloud (AWS, Azure, GCP). Ce que nous offrons Un environnement stimulant et innovant avec des projets à fort impact. Opportunités d’évolution et formation continue. Flexibilité et équilibre vie professionnelle/vie personnelle. Travail dans une équipe dynamique et collaborative.
Offre d'emploi
Expert fonctionnel PLM (H/F)
Publiée le
PLM (Product Lifecycle Management)
1 an
40k-45k €
410-500 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Télétravail partiel
Contexte : Nous accompagnons l’un de nos clients industriels sur un projet clé autour de la plateforme 3DEXPERIENCE / EXALEAD . L’objectif : faire évoluer et optimiser une solution PLM stratégique, tout en garantissant sa stabilité et sa performance. Vous intégrerez une équipe dynamique où le développement Java, la personnalisation de la plateforme et la résolution de problématiques techniques sont au cœur du quotidien. Vos principales missions : Vous serez en charge de l’implémentation, de la gestion et de l’amélioration des processus PLM au sein de l’entreprise, en veillant à aligner les systèmes et processus avec les besoins métiers. Votre rôle -Participer au cadrage lors des appels d’offres en analysant les besoins des clients et en proposant des solutions fonctionnelles adaptées. -Recueillir, analyser et documenter les besoins des clients sur des projets existants, et proposer des améliorations et optimisations dans le cadre d’audits fonctionnels. -Rédiger des spécifications fonctionnelles détaillées en veillant à leur faisabilité technique, en collaboration avec les équipes techniques et les acteurs métiers. -Intervenir auprès des clients sur site lors des phases d'implémentation pour assurer la bonne intégration des solutions PLM et soutenir les équipes en place. -Organiser et animer des ateliers avec les parties prenantes métiers et informatiques pour garantir une bonne compréhension et adoption des solutions proposées. -Concevoir et animer des formations à l'interne et externe. -Élaborer des notices et des documents méthodologiques à destination des utilisateurs et des équipes internes, afin de faciliter la gestion des solutions PLM. Vous serez amené à vous déplacer ponctuellement chez nos clients pour des missions en France. ⚙ Environnement technique du projet : -PLM : Windchill (config, workflows, lifecycle), intégration PDM/CAO -IIoT / Digital Thread : ThingWorx (dashboards, mashups, data model) -ALM : Codebeamer (requirements, test management) – apprécié -Interop / Intégration : ESB, API REST/SOAP, ERP/MES -Systèmes : Windows Server, Linux (selon client) -Méthodologies : Agile/Scrum, ateliers métiers, conduite de changement -Documentation & conception : BPMN, UML, outils de modelling et capture de processus -Outils collaboratifs : Jira, Confluence, Azure DevOps (suivi projet & spécifications)
Mission freelance
Développeur MSBI - Power BI Ms Consultant (Secteur bancaire)
Publiée le
Azure Data Factory
Azure DevOps
BI
12 mois
500-560 €
Île-de-France, France
Télétravail partiel
Au sein de la Direction des Données et des Services Analytiques, le service Analytic assure la mise en œuvre et le support des solutions analytiques et de Business Intelligence de la Banque. L’équipe DEV Rapide MSBI intervient sur des projets de développement agiles et rapides (moins de 20 jours de développement) pour répondre aux besoins métiers en matière d’analyse, de reporting et de visualisation de données. Le consultant interviendra sur l’ensemble du cycle de vie des projets BI : du recueil de besoin jusqu’à la mise en production, tout en accompagnant les utilisateurs et en participant à la promotion de l’offre de services BI. 🎯 Missions Recueil des besoins auprès des équipes métiers et participation aux ateliers techniques et fonctionnels. Conception et développement de solutions BI agiles (SQL, SSIS, SSRS, SSAS, Power BI). Mise en œuvre de prototypes et POC pour valider les choix fonctionnels et techniques. Accompagnement des utilisateurs dans la prise en main des solutions et des outils de datavisualisation. Maintenance et évolution des solutions BI déployées. Avant-vente et conseil : participation à la présentation de l’offre de services BI, réalisation de démonstrations et supports de communication. Animation de communautés BI et partage des bonnes pratiques. Mise à jour documentaire (SharePoint) et suivi des activités (reporting hebdomadaire). Veille technologique sur l’écosystème Microsoft BI et les outils complémentaires.
Offre d'emploi
Data Scientist Senior – E-commerce Opération (H/F)
Publiée le
Apache Airflow
Google Cloud Platform (GCP)
Python
1 an
10k-58k €
100-580 €
Paris, France
Télétravail partiel
Nous recherchons un Data Scientist Senior (H/F) pour rejoindre l'équipe E-commerce, Marketing & Relation Clients d’un acteur du retail. 🎯 L’objectif ? Concevoir, industrialiser et améliorer des solutions de machine learning visant à optimiser la performance opérationnelle et commerciale du e-commerce : qualité des opérations, rentabilité, productivité et personnalisation client. Tu évolueras au sein du pôle Data Science Customer , dans un environnement agile, collaboratif et cloud-native , où les approches data-driven et l’innovation sont au cœur de la stratégie omnicanale du groupe. 🚀 Tes missions principales : Identifier, avec les équipes métier et opérationnelles, les cas d’usage data à fort impact business Explorer et fiabiliser les données : nettoyage, agrégation, étude ad-hoc et préparation de datasets Concevoir, implémenter et évaluer des modèles de machine learning et d’analyse prédictive Définir et conduire des protocoles de test en conditions réelles (magasins, entrepôts, plateformes logistiques) Industrialiser et maintenir les solutions dans les environnements cloud (CI/CD, monitoring, itérations) Assurer la transmission des bonnes pratiques et le mentoring de data scientists juniors Participer activement à la communauté Data Science du groupe (séminaires, retours d’expérience, veille technologique) 🔧 Environnement technique : Langages & outils : Python, SQL, Terraform, Docker, GitLab, Jenkins Cloud & Orchestration : Google Cloud Platform (GCP), Cloud Composer / Airflow, Cloud Run, BigQuery, Cloud Batch, Kubernetes Engine, Vertex AI, Cloud Storage Méthodologies : Agile / Scrum, itérations rapides, revue de code et bonnes pratiques DevOps
Mission freelance
IT Change & Method Manager – Projet Integrated Business Planning (IBP) H/F
Publiée le
Conduite du changement
ServiceNow
12 mois
600 €
Paris, France
Télétravail partiel
Notre client dans le secteur Retail recherche un/une IT Change & Method Manager – Projet Integrated Business Planning (IBP)H/F Description de la mission: Contexte de la mission le client a réalisé une étude en 2023 qui a permis de définir des objectifs métiers clairs devant être supportés par son nouvel outil de planification collaborative. En 2024/25, le client a lancé un processus de RFP (Request For Proposal) pour sélectionner son futur outil Integrated Business Planning (IBP) (Maestro Kinaxis et la couche d’intégration associée), ainsi que l’intégrateur qui mettra en œuvre cet outil chez le client. le client démarre maintenant le projet d’implémentation et finalise la constitution de l’équipe projet IT. Il y a une Core solution team et une Data & Integration team travaillant en parallèle, avec les équipes Business et l’équipe de l’intégrateur, pour construire la solution Integrated Business Planning avec sa couche d’intégration. Ce projet est considéré comme un projet de transformation, et non comme un simple projet d’implémentation IT. Pour soutenir cette initiative clé, le client recherche un IT Change & Method Manager (backfill). Cette personne sera en charge de coordonner les activités de Change & Training délivrées par l’intégrateur en lien avec les équipes Business, de s’assurer que la documentation du projet est complète (tels que les scripts de tests, documents “How To”, documents de capitalisation, livrables du projet…). Cette personne préparera la transition du mode Projet vers le mode Run : Faire le lien avec le Helpdesk pour mettre à jour les procédures et s’assurer que les futurs tickets IBP sont correctement orientés vers les équipes Support Mettre à jour ServiceNow pour gérer le sujet IBP au niveau du ticketing S’assurer que les dashboards et KPIs sont définis pour suivre les activités de support sur IBP Cette personne aidera également à mettre en place la future équipe AMS avec le partenaire sélectionné (définition des SLA & procédures, …). Après le premier Go Live, cette personne travaillera avec l’équipe AMS pour s’assurer que les tickets sont bien traités et que les incidents sont résolus conformément aux SLA, et que les évolutions validées sont livrées. Objectifs et livrables Objectives : • Participer à toutes les phases du projet, pour s’assurer que les méthodes sont respectées, suivre l’avancement et les problèmes • S’assurer que tous les documents livrables du projet sont disponibles et à jour • S’assurer que les scripts de tests sont disponibles et à jour • Préparer la transition du mode Projet vers le mode Run • Préparer la mise en place de la future équipe AMS • Après le premier Go live : coordonner et suivre les activités de l’AMS Livrables : • Reporter et suivre l’avancement et les problèmes, mettre en place des plans d’actions si nécessaire, et fournir des reportings sur le projet • Travailler en étroite collaboration avec l’équipe IT, l’équipe Intégrateur et les équipes Business sur les sujets de Change management et de formation • Travailler en étroite collaboration avec l’équipe IT et l’équipe Intégrateur pour s’assurer que les livrables sont complets et à jour • Travailler en étroite collaboration avec l’équipe IT et l’équipe Intégrateur pour s’assurer que les scripts de tests sont complets et à jour • Aider à mettre en place le mode Run et la future AMS, ainsi que tous les prérequis liés : – Définir les SLA – Mettre à jour les paramètres ServiceNow pour s’assurer que les tickets IBP (Supports, Evolutions…) seront correctement dirigés vers l’équipe AMS – Mettre à jour les procédures de support • Lors de l’entrée en mode RUN, après le premier Go-live : – suivi quotidien des activités de support de l’AMS pour s’assurer que les tickets sont bien traités par rapport aux SLA – revue du backlog des tickets avec le leader AMS – aide à la priorisation des tickets ou incidents – aide à la priorisation des demandes d’évolution Compétences / Qualités indispensables : Gestion du changement IT et coordination de la formation, Pilotage de projet et méthodologie (suivi, risques, plans d’actions, reporting), Gestion du support applicatif / AMS et des SLA, Maîtrise des outils ITSM, notamment ServiceNow, Gestion et mise à jour de la documentation projet et des scripts de tests Compétences / Qualités qui seraient un + : Experience retail/luxe Informations concernant le télétravail : 2 jours
Mission freelance
Ingénieur Production Data
Publiée le
Agile Scrum
AWS Cloud
Data analysis
12 mois
400-550 €
Paris, France
Le Data Office a pour mission de consolider, manager et valoriser le patrimoine de données, qui est un capital stratégique pour mon client, via le développement de produits et services data transverses à l’entreprise et au service du business. Au sein du Data Office, la mission de l’équipe Core Data est de développer et maintenir une plateforme centralisée, sécurisée, fiable et performante au service des usages data de l’ensemble des directions métier de mon client. Elle est notamment responsable d’un datalake opérationnel sur le cloud AWS et d’un patrimoine applicatif de jobs de transformation et production de données (Scala Spark). Elle assure également la maintenance de la plateforme Dataiku. Dans le cadre de son activité, mon client recherche un(e) Ingénieur de Production Data, qui sera amené(e) à intervenir à l’intersection des enjeux Infra DevOps sur AWS et Big Data, et collaborera en étroite synergie avec l’architecte cloud, le tech lead et les data engineers.
Mission freelance
Business analyst (F/H)
Publiée le
Analyse financière
Business Analyst
12 mois
400-510 €
Lille, Hauts-de-France
Télétravail partiel
POSTE SUR LILLE (PROFIL LILLOIS PRIVILEGIE PAR LE CLIENT) Business Analyst (Analytics for Sales) Contexte & Mission Vous contribuerez à challenger et améliorer les performances commerciales à travers la donnée. Votre rôle sera d’analyser, recommander et accompagner la prise de décision au sein des équipes Sales. ⸻ 🔍 Principales responsabilités • Accompagner les équipes commerciales dans la compréhension des dashboards & indicateurs • Identifier les opportunités d’amélioration du pilotage business • Participer à la construction, l’évolution et la pertinence des reportings • Collaborer avec la Data Factory et les équipes Data pour garantir la qualité des données • Animer les rituels de suivi : performance, prévisions, objectifs, etc. • Formaliser des recommandations concrètes et mettre en lumière les axes de performance • Contribuer à la transformation data-driven de l’organisation Sales
Mission freelance
BUSINESS ANALYST SENIOR STRASBOURG
Publiée le
Business Analyst
1 an
400-500 €
Strasbourg, Grand Est
Télétravail partiel
Contexte et détails de la mission Nous recherchons un profil Maitrise d’Ouvrage pour renforcer l’équipe Offre Métier du département Fraude / Litiges / Data. La prestation se situe dans la Direction de la Fabrication de notre client, au sein du département Fraude / Litiges / Data, afin de renforcer l’équipe Offre Métier pour la prise en charge des projets 2026. Description des profils et compétences attendues : P1 : Maitrise d’ouvrage • Prise en charge de la conception fonctionnelle des projets : o Analyse des expressions de besoin des clients o Analyse d’impact et formalisation du besoin fonctionnel • Rédaction des spécifications fonctionnelles o Rédaction des documents de spécifications fonctionnelles, et processus métier o Collaboration avec les équipes de maîtrise d’œuvre • Validation des plans de tests – support à l’homologation fonctionnelle Profil AMOA : • Domaine d’intervention : Conseil / Expertise • Type de prestation : AMOA • Groupe : Prestation classique • Niveau : 3+ : plus de 5 ans d’expérience
Mission freelance
Expert CDP / HDP (Cloudera - Hortonworks)
Publiée le
5 mois
500 €
Montreuil, Île-de-France
Objectifs principaux Garantir la fiabilité, la performance et la sécurité des plateformes CDP & HDP Automatiser et industrialiser les opérations d'exploitation Piloter et traiter les incidents de production Contribuer à la modernisation et l'évolution des environnements Big Data Responsabilités1. Exploitation & amélioration continue Optimiser les performances, configurations et usages des services CDP/HDP Mettre en œuvre des actions d'amélioration continue sur les clusters Gérer les incidents : analyse, diagnostic, résolution et rapports RCA 2. Automatisation / Ansible Maintenir et faire évoluer les playbooks Ansible existants Automatiser les opérations récurrentes : déploiement, gestion de configurations, sécurité, montée de version Contribuer à l' industrialisation via Ansible Tower : workflows, inventaires, délégation 3. Observabilité & monitoring Superviser les clusters via Elastic Stack (ELK) et Dynatrace Mettre en place et optimiser les alertes, dashboards et KPIs Améliorer l'observabilité : logs, métriques et traces 4. Sécurité & conformité Gérer les configurations LDAP : identités et droits Administrer et sécuriser Kerberos Garantir la conformité sécurité des clusters Cloudera/Hortonworks 5. Coordination & collaboration Collaborer quotidiennement avec les équipes techniques en France et en Inde Participer aux comités techniques et points de suivi Contribuer à la documentation, au partage de connaissances et à la montée en compétences des équipes Montreal Associates is acting as an Employment Business in relation to this vacancy.
Mission freelance
Développeur CVA Expert Java/J2EE H/F
Publiée le
Java
3 ans
Paris, France
Télétravail partiel
Un grand acteur des marchés de capitaux renforce son SI Risque de contrepartie et sa chaîne CVA/XVA front . Vous intervenez dans une équipe resserrée, très proche du front-office , sur un périmètre critique mêlant volumétrie élevée , latence très faible et exigences de stabilité . Contexte international (utilisateurs en Asie, Europe, US). Votre rôle Concevoir, développer et optimiser des applications de risque de contrepartie et de CVA au cœur d’une grille de calcul haute performance, avec des SLA millisecondes côté APIs et une base d’utilisateurs large (2000+). Ce que vous ferez Analyse & design : recueillir les besoins, investiguer les issues, proposer des solutions robustes, flexibles et pérennes . Back Java 17 (core) : résolution de problématiques volumétriques & performance sur toutes les couches applicatives. Spring / Spring Boot (security, swagger, configuration, JPA) REST APIs + SOAP (WSDL/XSD), XML parsing avancé (marshalling/unmarshalling) Web/UI : développement de la couche graphique Angular + Bootstrap pour les utilisateurs métier (2000+). Grille de calcul distribuée : gestion des calculs (orchestration, suivi, relance, data management) — Middleware DataSynapse . APIs low-latency : garantir des SLA en millisecondes . Supervision : mise en place de BAM (Business Activity Monitoring) pour les flux d’alimentation & traitements. DevOps/Run : dockerisation , déploiements Kubernetes , scripts Linux (gestion process Java, manip. XML/CSV, tri/filtrage/transfo de données). Caches & stockage : Redis (cache distribué), MongoDB (document store). Contribution architecture : participation aux chantiers de grid computing et data caching de la filière Risque. Stack & compétences clés Indispensables Expertise Java 17 / Spring Boot , REST/SOAP , XML avancé . Angular (front web pour large audience interne), Bootstrap . Grille de calcul & orchestration (idéalement DataSynapse ). Docker , Kubernetes , Linux scripting . Redis , MongoDB . Culture performance/low-latency , résilience et observabilité . Connaissance métier : finance de marché, risque de contrepartie , CVA/XVA front . Anglais courant (équipe/utilisateurs internationaux). Atouts appréciés Architecture SI Risque, patterns de scalabilité et caching . Sensibilité qualité (tests, clean code, CI/CD), sécurité , conformité marché.
Mission freelance
Analytics Engineer Senior H/F
Publiée le
BigQuery
DBT
Google Cloud Platform (GCP)
6 mois
350-500 €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
Notre client dans le secteur High-tech recherche un/une Analytics Engineer Senior H/F Description de la mission: Contexte : Le client déploie un programme stratégique pour fiabiliser et industrialiser ses métriques business. Il recherche un Senior Analytics Engineer Freelance pour piloter la conception et le POC d’un Semantic Layer destiné à +500 utilisateurs internes. Mission : 1. Semantic Layer (mission prioritaire) Concevoir et prototyper l’architecture du Semantic Layer (dbt + BigQuery + GCP). Standardiser et documenter les métriques business clés. Définir une source unique de vérité pour tous les outils analytics (Tableau, BigQuery, GSheets, LLMs…). Intégrer le Semantic Layer aux usages IA (LLM). Produire la documentation technique et les bonnes pratiques. 2. Pipeline Analytics Maintenir et optimiser le pipeline existant (dbt + BI). Développer nouvelles features (qualité, documentation, monitoring). Résoudre incidents & data quality issues. Optimiser coûts et performances BigQuery. Support ponctuel aux équipes internes (code review, mentoring junior). Administration BI (gestion utilisateurs & permissions). Profil recherché : 5+ ans en Analytics Engineering / Data Engineering. Expertise dbt (modélisation, tests, docs) & SQL avancé. Très bonne maîtrise BigQuery (optimisation, coûts). Expérience démontrée Semantic Layer / Metrics Layer (dbt metrics, LookML, Cube.js…). Expérience BI (Tableau, Looker…). Bonus : GCP, modélisation dimensionnelle.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
250 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois