Find your next tech and IT Job or contract role.

Your search returns 1,339 results.
Contractor

Contractor job
Business Analyst expert CVA & Risque de contrepartie sur opérations de marchés

Published on
Business Analysis

12 months
700-730 €
Paris, France
Hybrid
Pour l’un de nos clients du secteur bancaire, nous recherchons un Business Analyst Métier Expert CVA pour intervenir sur les sujets relatifs au Risque de contrepartie sur opérations de marchés. Vous contribuerez aux projets de refonte / optimisation de la chaîne de calcul CVA, à la mise en conformité réglementaire (Bâle III / CRR, FRTB-CVA) et à l’amélioration des indicateurs et reportings de risque. Missions principales : - Recueil des besoins métiers (Risques, FO, Finance) et rédaction de spécifications fonctionnelles - Contribution à la définition / évolution des méthodologies de calcul CVA & risque de contrepartie - Suivi des développements, préparation et réalisation des phases de tests - Analyse des résultats, rapprochements FO / Risques / Finance et production de notes d’impacts MERCI DE NE PAS POSTULER SI NOUS N'AVEZ PAS UNE EXPERTISE CVA
Contractor
Permanent

Job Vacancy
Architecte Data (AWS / Databricks / GénIA)

Published on
Architecture
AWS Cloud
Databricks

12 months
Ile-de-France, France
Hybrid
Dans le cadre du développement de ses activités autour de la Data Platform et de l’Intelligence Artificielle Générative , Hextaem recherche un(e) Architecte Data pour intervenir sur la conception, l’industrialisation et la modernisation d’une plateforme Big Data Cloud bâtie sur AWS , Databricks et des services IA avancés. L’objectif est de définir et de mettre en œuvre une architecture scalable, sécurisée et orientée IA , capable de supporter les cas d’usage analytiques, data science et génAI (RAG, copilotes, modèles internes). Missions principales 1. Conception et architecture de la plateforme Data Définir l’architecture cible sur AWS (S3, Glue, Athena, Lambda, Redshift, etc.). Concevoir les pipelines de données dans Databricks (ingestion, transformation, orchestration). Définir les standards de data quality, gouvernance et sécurité (IAM, encryption, lineage). Structurer les environnements (bronze / silver / gold) selon les meilleures pratiques Lakehouse. 2. Gouvernance et performance Mettre en place des patterns de développement et d’industrialisation (CI/CD Data). Superviser la performance des jobs et optimiser les coûts de la plateforme. Assurer la traçabilité et la conformité des données (RGPD, ISO, sécurité). 3. Génération d’intelligence et IA générative Participer à la conception d’architectures hybrides Data + IA Générative (RAG, embeddings, vector stores). Intégrer des modèles LLM (OpenAI, Anthropic, Hugging Face, Bedrock, etc.) aux pipelines existants. Collaborer avec les Data Scientists pour industrialiser les use cases IA. Évaluer la pertinence d’outils de nouvelle génération (LangChain, LlamaIndex, VectorDB, etc.). 4. Conseil, accompagnement et expertise Être le référent technique sur la plateforme Data pour les équipes internes et clients. Accompagner les Data Engineers et Data Scientists dans la mise en œuvre des bonnes pratiques. Participer aux phases d’avant-vente et d’architecture auprès des clients Hextaem. Assurer une veille technologique active sur les sujets Cloud, Big Data et GénIA. Compétences techniques : Cloud & Data Platform: AWS (S3, Glue, Athena, Redshift, Lambda, IAM, CloudFormation/Terraform) Data Engineering: Databricks (Spark, Delta Lake, MLflow), ETL/ELT, orchestration (Airflow, ADF) Gouvernance & Sécurité: Data lineage, catalog (Glue Data Catalog, Unity Catalog), RBAC, encryption Langages: Python, SQL, PySpark CI/CD & DevOps: Git, Docker, Terraform, GitHub Actions / Jenkins IA Générative (bonus) L:LMs (OpenAI, Bedrock, Hugging Face), LangChain, VectorDB, RAG patterns
Contractor
Permanent
Fixed term

Job Vacancy
Développeur Data NodeJS/Angular/Python

Published on
Angular
Node.js
Python

1 year
50k-55k €
450-500 €
France
Remote
Le projet consiste à maintenir et faire évoluer des plateformes Data. Elles permettent la réutilisation des données et s’inscrivent dans la volonté de valorisation de la data Client. Chaque plateforme possède la donnée propre à son entreprise. Les 2 plateformes sont les copies d’un même code, Les objectifs du projet sont les suivants : •Proposer un vaste catalogue de données téléchargeables sous la forme de jeux de données dont de la donnée confidentielle, et en permettre la commande •Former/informer à la data, et à la data gouvernance : glossaire des termes, dictionnaires des objets, description des filières de données, catalogue des gisements •S’abonner aux Services Web proposant de la donnée et aux flux d’interopérabilité •Proposer des espaces sécurisés, nommés Datarooms pour travailler la donnée •Explorer la donnée des gisements par requêtage L’application est développée avec diverses technologies : Pour la partie Front : Angular Pour la partie Back : Node JS Ingestion des données (micro-service) : Python Pour la communication entre les micro-services : RabbitMq
Contractor

Contractor job
[FBO] Data Engineer avec expertise MLOps

Published on
Planning
Python

3 years
400-590 €
Ile-de-France, France
Hybrid
Le bénéficiaire souhaite une prestation d’accompagnement dans le cadre de la mise en place d'une plateforme AIOPS. Les missions sont : En tant que DataOps Engineer avec expertise MLOps, les missions sont : - Deploiement et maintenance des pipelines de données scalables et résilients (batch/streaming) en utilisant Kafka, Airflow, Kubernetes. - Industrialisation du cycle de vie des modèles ML (de l’entraînement au monitoring en production) via des pratiques MLOps (MLflow, Kubeflow, etc.). - Automatisation de l’infrastructure et les déploiements (IaC avec Terraform/Ansible, CI/CD avec Jenkins/ArgoCD). - Garantie la qualité des données (testing, linéage, observabilité) et la performance des modèles (drift detection, monitoring). - Collaboration avec les Data Scientists, Data Engineers pour aligner les solutions techniques sur les besoins métiers. Responsabilités Clés 1. Pipeline de Données & Orchestration - Développement et optimissation des pipelines Kafka (producteurs/consommateurs, topics ) pour le traitement en temps réel. - Orchestrer les workflows avec Apache Airflow (DAGs dynamiques, opérateurs custom Python/Kubernetes). - Automatisation le déploiement et la scalabilité des pipelines sur Kubernetes (Helm, Operators, ressources custom). - Gérer les dépendances entre pipelines (ex : déclenchement conditionnel, backfills). 2. MLOps & Industrialisation des Modèles - Packager et déployer des modèles ML. - Mettre en place des pipelines MLOps : - Entraînement (MLflow, Pipelines). - Testing (validation des données, tests de modèles avec Great Expectations). - Déploiement (, A/B testing). - Monitoring (drift des features/prédictions, logs avec ELK/Prometheus). - Optimisation des performances des modèles en production (latence, ressources GPU/CPU). 3. Infrastructure as Code (IaC) & CI/CD - Définition l’infrastructure en Terraform (modules réutilisables pour Kafka, Kubernetes, IBM Cloud). - Automatisation les déploiements avec Jenkins/ArgoCD (pipelines multi-environnements : dev/staging/prod). - Configuration les clusters Kubernetes (namespaces, RBAC, storage classes, autoscale HPA/VPA). - Sécurisation des accès (Vault pour les secrets) 4. Qualité des Données & Observabilité - Implémentation des tests automatisés : - Qualité des données (complétude, cohérence, schéma) - Validation des modèles (métriques, biais). - Monitorisation les pipelines et modèles : - Métriques techniques (latence, erreurs) et métiers (précision, recall). - Alertes proactives (ex : Dynatrace ou Grafana). 5. Collaboration & Amélioration Continue Participation aux rituels Agile (refinement, retro) et promouvoir les bonnes pratiques Data/MLOps. Control des équipes sur les outils (Airflow, Kafka) et les processus (CI/CD, testing). Assurance d´une veille technologique (ex : évolutions de Kubernetes Operators pour Kafka/ML, outils comme Metaflow). Collaboration avec les Product Owners pour prioriser les besoins métiers.
Contractor
Permanent

Job Vacancy
DATA Engineer Senior GCP-python

Published on
Gitlab

18 months
10k-55k €
100-550 €
Paris, France
CONTEXTE Au sein de l’équipe Bronze, la mission se déroulera en collaboration avec les autres équipes de la Data, au coeur de la plateforme Data. Cette équipe est composée d’un product owner, d’un data steward et de deux autres data ingénieurs. Notre stack technique est principalement constituée de Python, Spark, SQL pour les traitements de données, Airflow pour l’orchestration et Cloud Storage et Delta lake pour le stockage. La stack inclut aussi les services BigQuery, Dataproc, PubSub et Cloud Storage de la Google Cloud Platform et Terraform et Terragrunt pour la gestion de l’infrastructure. MISSIONS : Prestation de cette équipe 1. Collecter et centraliser les différentes sources de données non homogènes 2. Assurer la conformité et la sécurité des données 3. Participer aux initiatives de gouvernance des données Prestation du data ingénieur En interaction avec les membres de l’équipe, la mission consiste à : • Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l’équipe • Construire et maintenir de pipelines data robustes et scalables • Accompagner les membres de l’équipe dans l’exploitation et le requêtage des données • Organiser et structurer le stockage des données • Mettre en place et maintenir des infrastructures scalables capable de répondre aux besoins et à l’accroissement rapide du volume de données • Construire et maintenir les workflows de la CI/CD • Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur • Assurer l’évolutivité, la sécurité, la stabilité des environnements • Participer aux différentes instances des data ingénieurs • Contribuer et veiller à la mise à jour de la documentation • Faire de la veille technologique active dans le domaine Expertises demandées pour la réalisation de la prestation : • Au moins 3 ans d’expérience en tant que Data Ingénieur dans un environnement data • Compétences solides en data : structures de données, code, architecture • Expériences dans la conception et la réalisation de pipelines data • Expériences dans un environnement du cloud Google (GCP) • Expériences intégrant BigQuery et Dataplex Universal Catalog • Expériences intégrant les langages Python et SQL • Expériences intégrant Spark • Expériences intégrant delta lake • Expériences intégrant Terraform et Terragrunt • Expériences intégrant Gitlab et Gitlab CI/CD • Expériences intégrant les méthodologies Agile : Scrum ou Kanban • Capacité à vulgariser et à communiquer sur des aspects purement techniques
Permanent

Job Vacancy
Consultant Administrateur Applicatif BI / Data

Published on
Microsoft Power BI
Qlik Sense
Sap BO

Paris, France
Hybrid
Le département Data & Applications Métier pilote la conception, le déploiement et la maintenance des solutions de reporting et d’analyse du groupe. Les environnements décisionnels reposent sur SAP BO, BODS, HANA, avec une migration en cours vers GCP / BigQuery. L’objectif est de renforcer l’équipe avec un administrateur applicatif BI confirmé, capable d’assurer la supervision, l’administration et les déploiements sur les plateformes actuelles et d’accompagner la migration vers le cloud. Missions principales Administrer et superviser les plateformes décisionnelles (SAP BO, BODS, HANA, et à terme GCP/BigQuery). Surveiller les traitements et automatisations (batchs, alimentations, planifications). Gérer les accès, habilitations et déploiements applicatifs. Diagnostiquer et corriger les incidents applicatifs (niveau 2/3). Participer à la définition du monitoring et des bonnes pratiques sur les environnements Cloud. Proposer des optimisations (performance, automatisation, qualité des données).
Permanent
Contractor

Job Vacancy
Data Engineer Senior – Palantir Foundry / Databricks – Secteur Assurance

Published on
Databricks
Jenkins
Python

1 year
35k-49k €
360-430 €
Ile-de-France, France
Hybrid
Rejoignez une équipe internationale dans le secteur de l'assurance/réassurance, au sein d’un environnement technique stimulant. Vous serez en charge de la conception et de la mise en œuvre de solutions de données avancées en utilisant des technologies modernes comme Databricks et Palantir Foundry . Le rôle implique une collaboration étroite avec des équipes produit pour développer des pipelines de données, services et APIs performants. Collecter et analyser les besoins métiers pour répondre aux exigences fonctionnelles et techniques. Concevoir, développer et maintenir des artefacts de données (pipelines, services, APIs) basés sur les meilleures pratiques. Implémenter des cas d’usage liés à l’analyse de données, à l’exploration BI et au calcul distribué. Documenter et optimiser les architectures de données suivant des standards éprouvés (architecture médaillon, GitFlow, etc.). Travailler en collaboration avec des équipes pluridisciplinaires pour garantir des livrables de qualité. Compétences obligatoires : Expertise en Databricks , Palantir Foundry , Python , SQL et Data Visualization . Maîtrise des outils MSDevOps , Jenkins , Artifactory , et Container Registry . Connaissances solides en parallélisation et programmation distribuée . Compétences appréciées : Expérience avec Delta Lake , BlobStorage , FileShare , et l’architecture médaillon.
Contractor

Contractor job
Business Analyst Titres (H/F)

Published on
Agile Method

12 months
550-600 €
Paris, France
Hybrid
Nous recherchons un Business Analyst Titres pour intervenir chez un client du secteur bancaire. Vous rejoindrez une équipe pluridisciplinaire d’une dizaine de collaborateurs, au sein du pôle Back Office Titres , pour contribuer aux activités de Build, Run et projets autour des carnets d’ordres Bourse France et Étrangère ainsi que des OPC. Vos principales missions Accompagner les métiers dans la maturation et la formalisation des besoins . Rédiger les Contrats d’Avant-Projet sur les maintenances évolutives (solution, chiffrage, planning). Produire les spécifications fonctionnelles détaillées . Contribuer à la stratégie de recette et à la rédaction des cas de test . Exécuter les tests, identifier et suivre les anomalies . Accompagner les métiers dans le déploiement et la conduite du changement . Maintenir la documentation fonctionnelle (spécifications, cahiers de tests, guides utilisateurs...). Participer à la résolution des incidents et à l’ assistance aux utilisateurs . Piloter et coordonner les projets fonctionnels au sein de la squad.
Contractor

Contractor job
232391/Business Analyst ALM (Gestion d'actif/passif) - Paris

Published on
ALM

3 months
Paris, France
Hybrid
Business Analyst ALM (Gestion d'actif/passif) - Paris Compétences recherchées Connaissances fonctionnelles sur produits bancaires : exigé Capacité à gérer des sujets complexes en autonomie : exigé Connaissances fonctionnelles en ALM : souhaité Connaissances des outils Bureautiques, du SQL et des Bases de Données relationnelles (SQL) : exigé Compétences techniques (Power Query) : souhaité Connaissances méthodo agiles Scrum : souhaité Anglais professionnel : exigé Au sein de la DSI, plus précisément dans l'équipe gestion financière / moteur ALM, le client recherche un BA pour travailler sur la couche d’acquisition OPAL des opérations de marchés, afin d’alimenter notre outil de calcul des indicateurs ALM. Le candidat idéal doit posséder une solide expérience dans les opérations de marchés (Swaps, obligations, Money Market), ainsi que dans leur booking et valorisation. De plus, il est essentiel qu’il soit familier avec les indicateurs ALM et qu’il maîtrise le SQL. Ce poste, très technique, a pour objectif d’améliorer la modélisation des opérations dans notre base d’acquisition. Par conséquent, le consultant devra faire preuve d’autonomie et d’initiative, tout en étant capable de communiquer efficacement en anglais. Objectifs et livrables Objectifs Interfaçage d'OPAL (collecteur de données de gestion et comptable) à BOP / FRAME qui assemble les données comptables et de gestion Remodélisassions des opérations dans le SI ALM afin d'améliorer la précision des écoulements et des calculs d'intérêt Développements dans le reste de la chaine pour spécifier et prendre en compte les impacts de la modélisation des opérations, mais également dans les process Support niveau 2 (1 jour par mois en charge de travail) Tâches Validation des EB avec les métiers Rédaction des spécifications fonctionnelles Travailler en étroite collaboration avec l'équipe IT Déroulement de la phase de recette avec mise en place d'outillage (Excel, Power Query). La mission implique l'analyse d'un grand nombre de données. Rédaction des PV de recette et mesure d'impact sur de larges volumes de données. Méthodes agiles scrum (outil JIRA) Compétences recherchées Connaissances fonctionnelles sur produits bancaires : exigé Capacité à gérer des sujets complexes en autonomie : exigé Connaissances fonctionnelles en ALM : souhaité Connaissances des outils Bureautiques, du SQL et des Bases de Données relationnelles (SQL) : exigé Compétences techniques (Power Query) : souhaité Connaissances méthodo agiles Scrum : souhaité Anglais professionnel : exigé Compétences demandées Compétences Niveau de compétence Gestion d'actif/passif ALM Expert Power Query Élémentaire SQL Expert
Contractor

Contractor job
Technico-Fonctionnel / Scientific Data Engineering - Expert DataOps - R&D - 1117

Published on

6 months
500-530 €
Paris, France
Hybrid
Objectifs de la mission : Le Passenger Cognition Lab modélise les comportements des voyageurs afin d’optimiser les services digitaux et l’information voyageur en Île-de-France. Le Lab recherche un Ingénieur de Recherche DataOps capable de concevoir et enrichir une infrastructure de données permettant des études scientifiques sur la cognition des voyageurs. Enjeux et rôle du consultant - Traduire les besoins théoriques des chercheurs en pipelines de données robustes et architectures cloud performantes (AWS). - Garantir l’intégrité scientifique des traitements : gestion des biais statistiques, fiabilité des séries temporelles, reproductibilité. - Concevoir des environnements d’expérimentation Cloud fiables, orientés production de résultats scientifiques. - Documenter et structurer les travaux pour assurer leur pérennité. - Agir comme le bras technique du Lab dans un contexte de recherche. Environnement & contexte : R&D agile manipulant des volumes de données massifs et hétérogènes. Stack : AWS, Python (Scientific Stack), conteneurisation. Interaction clé avec l’IT Groupe pour favoriser le portage et l’exploitation des données dans d’autres projets. Livrable : Instrumentation des données pour la recherche (Scientific Data Engineering) Architecture Cloud pour l'expérimentation (Scientific Ops) Formalisation technique et Support à la valorisation Obligatoire : Thèse de doctorat (Data, ML ou Mathématiques Appliquées) garantissant sa capacité à dialoguer avec des chercheurs, couplée à une expérience opérationnelle forte en Ingénierie logicielle/Cloud. Expériences entre 7 et 9 années.
Permanent

Job Vacancy
Systems Developer

Published on

£40k-48k
Bloxwich, United Kingdom
Systems Developer Telford Up to £48,000 per annum + 33 Days Holiday + Health Insurance + Life Assurance + Pension (8 Percent) + Benefits Excellent opportunity for a Systems Developer to join a successful and growing manufacturing business where you will play a key role in improving systems, processes, and data across a fast paced site. This company operate one of the most advanced production facilities in their sector and are investing heavily into continuous improvement, automation, and data driven decision making. They are now looking for a Systems Developer to help build, improve, and maintain the systems that sit at the heart of their operations. This is a fully onsite role where you will work closely with operations, engineering, quality, supply chain, IT, and senior stakeholders. In this role you will design and implement systems solutions, improve existing processes, optimise workflows, integrate systems, and maintain databases. You will be hands on with Microsoft SQL Server, build and improve internal tools, support system integrations, and ensure data accuracy across a number of business critical platforms. You will also contribute to web development projects and produce the technical documentation required to support long term improvement. The ideal candidate will be an experienced Systems Developer with strong SQL Server skills, programming experience, understanding of relational databases, and exposure to both front and back end development. You will be confident optimising processes, improving systems, and working directly with stakeholders to understand requirements. Experience within manufacturing or FMCG is desirable but not essential. This is a fantastic opportunity to join a stable and well established business that can offer long term career development, varied project work, job security, and the chance to directly influence how systems and data are used across the operation. The Role: *Design, build, and implement systems solutions to support business operations *Improve processes, optimise workflows, and enhance existing systems *Maintain and support SQL Server databases, internal tools, and integrated systems *Work with internal teams to deliver web and system development projects The Person: *Experience as a Systems Developer or similar role *Strong knowledge of Microsoft SQL Server and relational databases *Programming experience plus exposure to front and back end web technologies *Logical thinker with good communication skills and the ability to work with stakeholders Reference Number: BBBH264799A To apply for this role or to be considered for further roles, please click Apply Now or contact Tommy Williams at Rise Technical Recruitment. Rise Technical Recruitment Ltd acts as an employment agency for permanent roles and an employment business for temporary roles. The salary advertised is the bracket available for this position. The actual salary paid will depend on your level of experience, qualifications, and skill set. We are an equal opportunities employer and welcome applications from all suitable candidates.
Contractor

Contractor job
Chef de Projet Data Client Technico-fonctionnel

Published on
Conceptual Data Model (CDM)
Data quality
Digital transformation

3 months
550-600 €
Guyancourt, Ile-de-France
Hybrid
🔍 Nous recherchons Chef de projet Data / PO Data Client capable de piloter des projets Data transverses dans un environnement digital exigeant et multi-métiers. Un vrai CP/PO Data techno-fonctionnel , à l’aise autant sur la compréhension métier que sur les sujets techniques Data : ✅ Piloter des projets Data transverses (Digital / CRM / Customer Data) ✅ Assurer le mapping de données , la qualité , la modélisation et la cohérence globale ✅ Échanger avec toutes les équipes : Produits, Digital, Data, CRM, Web ✅ S’imposer comme référent Data dans les échanges — leadership indispensable ✅ Produire ou challenger du reporting , des KPIs, des modèles de données ✅ Cadrer les besoins, structurer les cas d’usage et garantir l’alignement métier ✅ Contribuer à la transformation Data/Digital (agile + V, contexte hybride, parfois “pompiers”)
Contractor

Contractor job
Business Analyste / AMO Technico-Fonctionnel expertise Catering/Logistique/ko

Published on
Logistics

6 months
400-430 £GB
Orly, Ile-de-France
Hybrid
Business Analyste / AMO Technico-Fonctionnel expertise Catering/Logistique Localisation : Orly 3 jours sur site (1/2mois de full présentiel le temps de la monté en compétences) C’est le lien clé entre les équipes métiers et IT. Il accompagne les projets de transformation des systèmes d’information liés au catering aérien et à la logistique associée. Ses principales missions sont : Recueillir et analyser les besoins métiers en matière d’interfaçage entre les systèmes d’information existants et cibles. Être le référent de la documentation IT du projet et collaborer étroitement avec le Directeur de Projets IT et les Domain Managers. Réaliser la rétro-documentation des interfaçages actuels (spécifications technico-fonctionnelles). Rédiger les cahiers des charges et les spécifications techniques pour les futurs flux de données. Maintenir et enrichir la cartographie des systèmes d’information pour visualiser les intégrations et dépendances. Planifier et coordonner les tests et recettes des interfaces en fournissant un planning réaliste. Participer à la réflexion sur les étapes de migration des composants inclus dans les projets de migration SI. Proposer des solutions techniques adaptées pour automatiser, fiabiliser et optimiser les processus existants. Profil recherché : Formation Bac+5 en informatique, gestion de projets IT, école d’ingénieurs ou universitaire. Expérience de 4 à 5 ans minimum sur des responsabilités similaires d’AMO ou Chef de projets IT. Capacité à gérer un projet IT ou une problématique de bout en bout. Connaissances techniques solides permettant d’échanger avec les équipes métiers et les prestataires IT. Excellentes qualités relationnelles et capacité d’écoute. Autonomie, rigueur, proactivité et dynamisme. Esprit d’équipe et capacité à travailler en collaboration avec des interlocuteurs variés. Anglais courant (niveau B2/C1), échanges quotidiens avec des équipes internationales. Compétences clés : Analyse et formalisation des besoins métiers. Rédaction de cahiers des charges et spécifications techniques. Cartographie des systèmes d’information et interfaçages. Gestion et coordination de projets IT. Test, recette et validation des interfaces. Connaissance des flux logistiques et catering aérien
Premium Job
Permanent

Job Vacancy
Lead Dev

Published on
PowerBI
SQL

40k-60k €
Saint-Denis, Ile-de-France
Hybrid
Nous recherchons un Lead Developer spécialisé en technologies Microsoft Power BI & Data (H/F) . Il/elle sera associé(e) à l’ensemble des phases de développement de projets organisés en mode agile : appropriation du contexte, chiffrage, conception et développement, optimisation du code, livraison et veille technologique. Il/elle aura également la responsabilité d’accompagner la montée en compétences de développeurs juniors sur cette technologie. Missions : Accompagner et mettre en place une animation de mentoring auprès de nos développeurs BI / Data Analysts Recueillir les besoins utilisateurs, réaliser les études de faisabilité et rédiger les spécifications Concevoir, développer, déployer et maintenir des tableaux de bord et des rapports sous Power BI (Desktop & Service) Concevoir et mettre en place la modélisation des données (modèles en étoile, gestion des relations) Garantir la conformité des développements avec les standards Microsoft et ceux du GPU SNCF Garantir l’intégration des normes de sécurité (RLS – Row Level Security, gestion des accès) Réaliser des tests de cohérence des données (DAX) et assurer le dépannage Tester la qualité des données et publier les rapports (gestion des espaces de travail et des applications) Participer à la rédaction de la documentation technique et fonctionnelle afin de documenter les modèles et indicateurs existants Assurer la transformation et l’enrichissement des données via Power Query à partir des sources de production Optimiser les performances (optimisation du DAX et des temps d’actualisation) Assurer une veille technologique sur Power BI et la Power Platform, et apporter un support aux utilisateurs. Livrables : Mise en place et maintien de la documentation technique sur les projets confiés Réalisation de revues de code Respect de la chaîne de livraison et du versioning des livrables.
Contractor

Contractor job
Développeur ETL (SEMARCHY)

Published on
Azure
ODI Oracle Data Integrator
Semarchy

24 months
100-400 €
Orléans, Centre-Val de Loire
Le client souhaite accélérer la modernisation de sa plateforme décisionnelle pour répondre aux enjeux métiers, réglementaires et technologiques. Pour se faire, Le client a inscrit à sa roadmap 2026 / 2027, différents chantiers permettant de répondre à ces ambitions. D’une part, par la mise en œuvre d’un programme data innovant portant les aspects suivants : Renfort de la qualité de la donnée Mise en place d’une gouvernance de la donnée sur les indicateurs métiers stratégiques Migration des traitements ELT existants vers une solution technologique plus adaptée Refonte du modèle de données du Data Warehouse Et d’autre part, par le maintien en condition opérationnel du système d’information décisionnel existant portant les aspects suivants Analyse et la correction des incidents de production Développement de sujets relatifs à l’évolution de la réglementation
Permanent
Contractor

Job Vacancy
Analyste Opérations / Trade Support / Post-Trade (H/F)

Published on
Finance

3 years
40k-55k €
400-550 €
Ile-de-France, France
Pour notre client dans le secteur financier, nous recherchons un Analyste Opérations (H/F) afin de renforcer les équipes en charge du suivi des transactions et des opérations post-marché. Missions principales Suivre le paiement et la livraison des transactions traitées par les différents desks internationaux. Contrôler et résoudre les désaccords liés aux transactions avec les contreparties, en coordination avec les équipes concernées (Trade Support, Front Office, Réconciliations, etc.). Analyser et résoudre les cash breaks liés à l’activité. Assurer une communication fluide avec les équipes responsables des comptes titres et espèces. Réaliser les réconciliations nécessaires pour les contrôles opérationnels : suivi des écarts internes et externes. Contribuer aux projets métiers , aux évolutions de processus et aux initiatives d’amélioration continue. Participer à la production des reportings d’activité . Compétences & Profil recherché Expérience confirmée en Opérations financières . Connaissances du post-marché , titres, cash management, cash flow, opérations de paiement. Une première expérience avec Summit est un plus. Excellentes capacités relationnelles , sens du service client et goût du travail en équipe. Profil analytique, rigoureux, réactif , capable de gérer des situations complexes. Très bonne maîtrise de l’anglais (oral et écrit). Capacité à collaborer avec de multiples interlocuteurs : opérations, dépositaires, FO, IT.
1339 results

Contracts

Contractor Permanent

Location

Remote type

Hybrid Remote On-site

Rate minimum.

£150 £1300 and more

Salary minimum

£20k £250k

Experience

0-2 years experience 3 to 5 years experience 6 to 10 years experience +10 years experience

Date posted

Connecting Tech-Talent

Free-Work, THE platform for all IT professionals.

Free-workers
Resources
About
Recruiters area
2026 © Free-Work / AGSI SAS
Follow us