L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 852 résultats.
Mission freelance
Tech Lead Java
Publiée le
IA
Java
PL/SQL
12 mois
610-640 €
Paris, France
Voici une proposition de traduction fluide et professionnelle, adaptée au contexte du recrutement et de l'ingénierie logicielle : Renforcement de l'équipe Développement Réconciliations Contexte : L'équipe est actuellement composée de 3 développeurs et 4 Business Analysts (BA). L'équipe de développement intervient sur l'ensemble des applications du périmètre « Réconciliation ». Missions et Services : Immersion opérationnelle au sein d'une équipe de développement pour la fonction IT Middle-Office Stock. Refonte technique globale en cours des applications de réconciliation. Développement et contribution à la montée en compétences techniques de l'équipe. Participation à un projet transverse pour l'implémentation d'une solution globale. Liaison étroite avec les Business Analysts sur toutes les phases de développement. Soutien actif à la production et diagnostic d'incidents (support de niveau 3). Rédaction de spécifications techniques et de documents de conception pour enrichir la base de connaissances. Respect des bonnes pratiques de développement (couverture de code, détection de « code smells », design patterns, tests). Force de proposition et apport d'idées innovantes. Veille à la mise à jour documentaire , en s'assurant qu'elle soit complète et conforme aux standards. Communication fluide et régulière avec les différentes parties prenantes.
Offre d'emploi
Data Engineer Teradata / Big Data, spécialiste du RUN
Publiée le
Apache Hive
Apache Spark
Big Data
12 mois
40k-48k €
400-480 €
Île-de-France, France
Télétravail partiel
La tribu DATA (DAT) construit et développe des applications sur la base de puissantes plateformes DATA à des fins d’usages variés servant toutes les directions métier du groupe bancaire. Pour répondre à ces usages, DAT est au cœur de la stratégie data-centric du groupe bancaire, et intervient aussi bien au niveau de l’architecture Data, sur les dernières technologies data, Big Data, IA, Teradata, SAS, DMP, Oracle ainsi que sur les solutions analytiques et de datavisualisation. La mission consiste à assurer les fonctions suivantes au sein de la Squad Socles Data de la tribu DAT : Veiller au quotidien à la bonne marche des plateformes Data (Teradata et Big Data) Intervenir au quotidien, sous contraintes de délais, lors des incidents d’exploitation (analyse, diagnostic, résolution). Produire le relevé matinal des exécutions des traitements sur les plateformes « Entrepôt et Usages » et « Big Data ». Analyser les actions correctrices à lancer : – court terme (relance rapide) – moyen terme (consignes pour les pilotes de nuit) – long terme (correctifs d’ordonnancement ou de traitements) Créer les incidents selon le process interne (JIRA). Assurer une communication unique pour les deux environnements DATA Vulgariser la communication technico-fonctionnelle auprès des intervenants (équipes internes et métiers). Mettre en place et diffuser les indicateurs de performance et de délais. Mettre en place des états mensuels des incidents et contribuer aux reportings et comités. Analyser les indicateurs d’assurance qualité de données et communiquer auprès des acteurs concernés. Intégrer des méthodes d’amélioration continue Proposer des améliorations du chemin critique en tenant compte des applications sensibles. Maintenir en condition opérationnelle les moyens, dans le respect des normes et critères de performance. Développer des composants d’amélioration. Définir et mettre en place des outils de normalisation, d’automatisation et de sécurisation de la production. Contribuer à la conception de nouveaux projets et évolutions. Contribuer aux états réguliers de contrôle : habilitations, comptes, connexions… Participer aux projets d’optimisation et d’amélioration de la QDF (Qualité de Fonctionnement)
Mission freelance
Développeur Java Angular senior (H/F)
Publiée le
Angular
Apache Kafka
Elasticsearch
2 ans
450-550 €
Lyon, Auvergne-Rhône-Alpes
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Développeur Java Angular senior (H/F) à Lyon, France. Contexte : Le projet construit l'application de suivi des demandes de travaux, ainsi que l'outil de mobilité des techniciens. Il se déroule dans le contexte d'une refonte applicative. Plusieurs grands volets fonctionnels sont couverts : - Référentiel du parc des installations - Suivi des mouvements matériels - Gestion des travaux (Prestations & Maintenance) - Outil de mobilité lors des interventions terrain - Solde des prestations en vue de la facturation L’équipe, composée d’une trentaine de personnes, se décompose en : - Une Core team : Architectes logiciels, intégrateurs Devops, automaticiens de tests et administrateurs fonctionnels - Deux feature teams : Product Owner, testeur et développeurs Ces teams sont pilotées par un chef de projet. Les fonctionnalités sont priorisées au travers d'un train SAFe. Les développements sont menés en Kanban et en Scrum selon les équipes Les missions attendues par le Développeur Java Angular senior (H/F) : Activité principale o Participer à la conception ainsi qu'à la mise en œuvre des développements à partir des spécifications fonctionnelles, de manière robuste et performante o Participer à la couverture des tests, à la correction des anomalies fonctionnelles et/ou techniques o Participer aux revues de code o Participer aux différentes réunions/ateliers de l'équipe o Challenger le besoin vis-à-vis des bonnes pratiques et contraintes techniques Activité secondaire o Rédaction et actualisation de documents techniques o Support aux équipes fonctionnelles o Réalisation de tests croisés Stack technique de l'équipe Back-end : Java 21, Spring, Spring boot 3.5.0, Elastic Search, PostgreSQL 17, Kafka Front-end : Angular 19, Workers, LocalStorage, IndexedDb, Clé PKI Infrastructure bi-site : Haproxy, Apache, Tomcat, VertX, Jenkins, Ansible, docker Maven, Sonar, Idatha IdathaLog Tests : JUnit, Mockito, Jest, Kotlin
Mission freelance
POT8833 - Un Data Analyste Confirmé sur Mer
Publiée le
Java
6 mois
280-400 €
Mer, Centre-Val de Loire
Télétravail partiel
Almatek recherche pour l'un de ses clients Un Data Analyste Confirmé sur Mer. **Contexte :** Le service Modélisation des Données recrute un Data Analyst pour soutenir ses projets et la maintenance liés à la restitution et à l’analyse de données. Ce service gère le Système d'Information Décisionnel, qui repose sur un Datawarehouse alimenté par des traitements ETL et des chaînes Change Data Capture (IBM IDR, Kafka). Ce Datawarehouse est la source de données pour divers outils de reporting et de datavisualisation (Power BI, COGNOS) ainsi que pour la mise en œuvre de cas d’usage IA. **Missions principales :** Le prestataire agira sous la direction du responsable du service Modélisation des Données et ses missions incluront : - Projets de SI Décisionnels : Modélisation de données, conception de rapports, et assistance aux utilisateurs finaux. - Power BI : Point de contact technique pour les utilisateurs finaux et les Publishers de Power BI, réalisation de reportings complexes. - Migration de Dataplatform : Refonte de reporting COGNOS/Power BI vers Superset, refonte de chaînes ETL TALEND vers Dagster, et conception de datamarts. Projet en agilité. Le poste comporte une dimension technique importante ainsi qu’une forte composante relationnelle, nécessitant une analyse des besoins, leur validation, et le suivi en mode projet. Une sensibilité aux problématiques de gouvernance des données est également cruciale. **Compétences requises :** - Organisationnelles : - Suivi de projet en tant que contributeur MOE. - Collaboration avec des équipes sécurité/réseau/etc. - Techniques : - Maîtrise du SQL, de l’indexation et de l’optimisation SQL (4 ans d’expérience minimum). - Power BI Desktop, Power BI Report Server, DAX, RLS (2 ans d’expérience minimum). - Modélisation de données et constitution de datamarts (4 ans d’expérience minimum). - Apache Superset (1 an d’expérience souhaitée). - COGNOS C11 (1 an d’expérience minimum). - Développement Python (2 ans d’expérience minimum). - Connaissance des ETL (SSRS, Talend). - Connaissance de Java. - Savoir-être : - Capacité d’analyse : Comprendre et formuler un besoin, animer des ateliers, et identifier les impacts pour déterminer la meilleure solution. - Excellente capacité rédactionnelle. - Expérience en agilité (Kanban, Scrum). **Connaissances métier :** Une connaissance du monde des Titres et une expérience significative dans le secteur bancaire seraient des atouts supplémentaires, mais ne sont pas obligatoires. Localisation : Mer (proche d'Orleans) + Télétravail
Offre d'emploi
DevOps Engineer Lead Expert
Publiée le
Java
JSON
Python
18 mois
20k-40k €
Paris, France
Télétravail partiel
CONTEXTE : Métiers Fonctions : Production, Exploitation, Infrastructure, Devops Engineer Spécialités technologiques : Infrastructure, Cloud, IA generative, Devops, Transformation digitale Méthodes / Normes TDD Soft skills Leadership Force de proposition Dans le cadre d’une transformation digitale d’envergure internationale, l’organisation développe et opère une plateforme de gestion de contenus de nouvelle génération, basée sur le cloud et intégralement alignée avec les standards groupe en matière d’architecture, sécurité, conformité et résilience. MISSIONS Cette plateforme, propriétaire et stratégique, vise à remplacer des solutions historiques et à fournir des services IT standardisés à l’ensemble des entités du groupe, dans une logique de performance, d’industrialisation et d’innovation continue. Missions principales Développement & outillage - Maintenir, auditer et faire évoluer les outils cœur développés en Python - Refactoriser et stabiliser des scripts existants dans une logique de qualité, performance et maintenabilité - Développer de nouveaux modules traduisant des règles métier en workflows techniques automatisés - Garantir un code propre, testé, documenté et conforme aux standards (PEP8) Innovation & prototypage - Concevoir et piloter des sprints d’innovation courts et ciblés - Prototyper de nouveaux services (ex. : IA générative, tagging automatique, recherche sémantique, contrôle qualité de contenus) - Challenger les besoins métiers, évaluer la faisabilité technique et proposer des trajectoires de mise en production DevOps & industrialisation - Contribuer aux pipelines CI/CD et aux déploiements automatisés - Participer à la mise en œuvre de l’infrastructure as code (Terraform, CloudFormation) - Intervenir sur des environnements cloud et conteneurisés (AWS, Kubernetes, OpenShift) Leadership & bonnes pratiques - Réaliser des revues de code et diffuser les bonnes pratiques d’ingénierie logicielle - Accompagner et mentorer les développeurs sur le TDD, le DevOps et l’architecture propre - Être force de proposition sur les choix techniques et les standards d’équipe Expertise souhaitée Expérience - Environ 10 ans d’expérience en développement Python et ingénierie logicielle - Expérience significative sur des applications data-intensives ou orientées contenus - Positionnement attendu : expert technique / lead, autonome et structurant Compétences techniques - Langages : Python (expert), Bash, Git ; Java et JavaScript (React ou Vue) appréciés - Data & IA : Pandas, regex, parsing JSON/XML, prompt engineering - Bases de données : NoSQL (MongoDB, MarkLogic), graphes, RDF/SPARQL - Cloud & DevOps : AWS (S3, Lambda), CI/CD (Jenkins, GitLab CI), Terraform, Kubernetes, OpenShift, Artifactory - Qualité & tests : Pytest, BDD (Behave/Cucumber), Selenium, revues de code, outils de sécurité (SonarQube, Snyk)
Offre d'emploi
Data Engineer
Publiée le
Apache Hive
Apache Kafka
Apache Spark
6 mois
Vannes, Bretagne
Télétravail partiel
Dans le cadre des travaux à réaliser, nous recherchons un profil Data Engineer confirmé : Participer à la définition de l'architecture Data (en lien avec les architectes et la Squad) Concevoir, Affiner et Développer les solutions de collecte et de stockage des données (provenant de multiples sources) afin de le rendre disponibles pour les usages métiers Mettre en œuvre les tests unitaires et automatisés Déployer le produit dans les différents environnements Garantir le bon fonctionnement du produit en production et assurer le suivi / l'assistance / la gestion des incidents Accompagner l’évolution des pratiques de l’équipe dans une logique d’amélioration continue de la qualité du code
Mission freelance
Data Engineer Senior / Data Product Analyst
Publiée le
Microsoft Power BI
24 mois
370 €
Clermont-Ferrand, Auvergne-Rhône-Alpes
Télétravail partiel
Contexte du poste Dans un contexte industriel et data-driven, le poste vise à renforcer la capacité de l’entreprise à exploiter ses données pour améliorer le pilotage des activités, optimiser les processus et créer de la valeur métier. Le profil interviendra comme référent data opérationnel, à l’interface entre les équipes métiers et les équipes techniques, dans des conditions industrielles exigeantes. Profil recherché Profil autonome avec au moins 5 ans d’expérience en data engineering Forte capacité d’analyse business et de compréhension desseux des enjeux métiers Capacité à concevoir, développer et opérer des solutions data de bout en bout Aisance dans un rôle d’interface entre équipes métiers et équipes techniques Mission Collecter, analyser et exploiter les données pertinentes afin d’améliorer le pilotage des activités et d’identifier les leviers de création de valeur Accompagner les équipes métiers dans le développement, le déploiement et l’exploitation des solutions data Être le référent technique de la solution, avec une maîtrise fine des données manipulées Agir comme point de contact privilégié des équipes métiers pour les sujets liés à l’exposition, à l’exploitation et à la valorisation des données industrielles Garantir la mise à disposition de données fiables, compréhensibles et exploitables Principaux résultats attendus Identification, capture et sélection des données pertinentes pour répondre aux besoins des utilisateurs Optimisation du temps, des ressources et des outils nécessaires à la gestion et à l’analyse des données Mise à disposition des données sous des formats accessibles et exploitables via des visualisations adaptées Production de recommandations et lignes directrices permettant aux métiers de créer de la valeur Optimisation des offres, services ou processus grâce aux analyses et évaluations réalisées Application et respect des règles du groupe en matière d’éthique et de gouvernance des données Présentation et promotion des fonctionnalités des produits data afin de faciliter leur adoption et leur maintenabilité Réalisation de tests conformes à la stratégie de test définie Maintien à jour du catalogue des produits data (datasets) Mise à disposition de kits de formation et d’outils à destination des utilisateurs Compétences fondamentales en Data Engineering Modélisation de données Modèles relationnels Modèles dimensionnels Data Vault ETL / ELT Conception et optimisation de pipelines robustes Gestion des dépendances et de l’industrialisation Qualité et gouvernance des données Data lineage Contrôles de qualité des données Catalogage et gestion des métadonnées Architecture data Compréhension des architectures modernes (Data Lakehouse, Data Mesh, etc.) Langages de programmation SQL avancé Python / PySpark avancé Outils et technologies Dataiku Power BI Databricks Azure Data Factory Azure Logic Apps
Mission freelance
Développeur Fullstack Sénior (Java / Angular) (H/F)
Publiée le
Angular
Java
12 mois
400-450 €
Villeneuve-d'Ascq, Hauts-de-France
Télétravail partiel
Espace Freelance recherche pour l'un de ses clients un : Développeur Fullstack Sénior (Java / Angular) (H/F) Missions Concevoir les solutions techniques Développer les composants applicatifs (Front et Back) Tester les développements Réaliser la conception technique et le développement web (interfaces et/ou services) Programmer les fonctionnalités correspondant aux besoins du client Décliner les choix d’architecture préconisés Développer, documenter et tester les fonctionnalités techniques d’une application Assurer le support technique tout au long de la vie de l’application Corriger les problèmes remontés par les utilisateurs Développer les couches front et back-office de la plateforme, incluant les appels aux données (CRUD), conformément aux spécifications fonctionnelles et techniques détaillées
Offre d'emploi
Data Engineer
Publiée le
BigQuery
Data science
Gitlab
4 ans
45k-70k €
450-570 €
Paris, France
Télétravail partiel
Prestations attendues : Dans un premier temps, la prestation consiste à : • Concevoir et réaliser les contrôles qualité sur les données de la plateforme Data, en exploitant Dataplex Universal Catalog • Industrialiser ces contrôles grâce à Terraform et Terragrunt • Concevoir et réaliser les indicateurs nécessaires au pilotage de la qualité des données • Concevoir et réaliser la remontée de ces indicateurs dans notre data catalog Collibra En marge de l’objectif de livraison de livraison précédent et en interaction avec les membres de l’équipe, la suite de la mission consiste à : • Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l’équipe • Participer aux initiatives de gouvernance des données en développant les contrôles de qualité des données • Construire et maintenir de pipelines data robustes et scalables • Accompagner les membres de l’équipe dans l’exploitation et le requêtage des données • Organiser et structurer le stockage des données • Mettre en place et maintenir des infrastructures scalables capable de répondre aux besoins et à l’accroissement rapide du volume de données • Construire et maintenir les workflows de la CI/CD • Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur • Assurer l’évolutivité, la sécurité, la stabilité des environnements • Participer aux différentes instances des data ingénieurs • Contribuer et veiller à la mise à jour de la documentation • Faire de la veille technologique active dans le domaine
Offre d'emploi
Program Manager – Migration Data Lake
Publiée le
Data governance
Data Lake
Migration
12 mois
Île-de-France, France
Contexte : Nous recherchons un Program Manager expérimenté pour piloter un projet stratégique de migration d’un Data Lake local vers une plateforme globale . Ce programme, à forte visibilité, s’inscrit dans un environnement international et implique des équipes situées en France et aux Pays-Bas. Le périmètre couvre des données critiques pour les reportings réglementaires (France et Global) dans les domaines Finance, Paiements, Transactions et KYC . Vos responsabilités : Coordination globale du programme : Superviser l’ensemble des activités liées à la migration du Data Lake France vers le Data Lake global. Gouvernance et alignement : Mettre en place et maintenir une structure de gouvernance efficace, assurer la cohérence entre les parties prenantes locales, globales et partenaires externes. Planification et suivi : Définir et actualiser les plans de programme, gérer les risques, produire des rapports clairs pour les équipes techniques, métiers et la direction. Collaboration transverse : Travailler étroitement avec les équipes internes et le prestataire offshore pour anticiper les obstacles et garantir la qualité des données et des reportings réglementaires. Leadership et influence : Mobiliser les équipes, résoudre les points de blocage et assurer la livraison des objectifs dans les délais. Communication et engagement : Être le point de contact principal pour les parties prenantes, en veillant à une communication fluide et proactive tout au long du projet. Documentation de gouvernance
Offre d'emploi
Data Engineer
Publiée le
Agile Scrum
Big Data
BigQuery
4 ans
47k-73k €
470-590 €
Paris, France
Télétravail partiel
Prestations attendues : • Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l’équipe • Construire et maintenir de pipelines data robustes et scalables • Accompagner les membres de l’équipe dans l’exploitation et le requêtage des données • Organiser et structurer le stockage des données • Mettre en place et maintenir des infrastructures scalables capable de répondre aux besoins et à l’accroissement rapide du volume de données • Construire et maintenir les workflows de la CI/CD • Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur • Assurer l’évolutivité, la sécurité, la stabilité des environnements • Participer aux différentes instances des data ingénieurs • Contribuer et veiller à la mise à jour de la documentation • Faire de la veille technologique active dans le domaine
Offre d'emploi
Développeur Senior Java / React
Publiée le
Azure
Java
React
1 an
45k-52k €
400-450 €
Île-de-France, France
Télétravail partiel
🎯 Contexte Nous recherchons un Développeur Senior Java / React pour rejoindre un projet dans le secteur Banque / Finance. 🛠 Compétences recherchées Techniques : Java Spring / Spring Boot React SQL (requêtes avancées, optimisation) Azure (déploiement, services cloud, pipelines) Bonnes pratiques de développement (CI/CD, Git, tests, clean code) Profil recherché 8+ ans d'expérience Bon niveau d'anglais Expérience en Banque / Finance très appréciée 📍 Localisation & Conditions Île-de-France 10 jours de télétravail par mois
Offre d'emploi
Data Engineer / Analyst (Secteur des Assurances)
Publiée le
Azure
Oracle
PL/SQL
1 an
45k-52k €
500-550 €
Île-de-France, France
Télétravail partiel
🎯 Contexte Nous recherchons un Data Engineer / Analyst expérimenté pour rejoindre un programme de transformation Data (secteur des assurances). 🔍 Vos missions Analyser et comprendre les scripts existants en PL/SQL / SQL Étudier les flux de données et les transformations entre les couches Bronze, Silver et Gold Piloter la qualité, complétude et fiabilité des données Développer et valider des traitements en PySpark / Spark SQL Participer à la conception et à la validation des dashboards Power BI Mettre en place et promouvoir les bonnes pratiques Data Déployer les rapports auprès d’autres entités métiers Contribuer à la documentation technique et fonctionnelle
Offre premium
Mission freelance
Developpeur confirmé sur EBX
Publiée le
Data quality
Master Data Management (MDM)
TIBCO
1 an
450-550 €
Île-de-France, France
Télétravail partiel
1. Contexte général Notre client est un grand groupe international de logistique et de transport . Dans ce type d’entreprise, les données de référence (ou MDM – Master Data Management) jouent un rôle clé : elles garantissent que toutes les entités (filiales, pays, systèmes) utilisent des informations cohérentes sur les clients, les fournisseurs, les produits, les sites, etc. Vous intégrez l’équipe en charge de : Construire et maintenir les référentiels de données du groupe , S’appuyer sur la solution EBX , un outil MDM édité par TIBCO. 2. Le rôle à pourvoir Notre client recherche 1 développeur confirmé EBX qui viendra renforcer l’équipe MDM. Cette personne travaillera avec les Product Owners et d’autres développeurs sur : la modélisation des données (définition des structures et relations entre entités : clients, fournisseurs, produits, etc.), la mise en place de workflows de validation (processus de validation ou d’enrichissement des données par plusieurs acteurs avant publication), la création ou l’évolution de nouveaux référentiels MDM (certains déjà existants, d’autres à construire). 3. Compétences techniques demandées Maitrise de l’outil EBX avec en particulier : la configuration et le développement dans EBX (data model, formulaires, règles, scripts, vues, etc.), la gestion de workflows complexes (multi-acteurs, étapes de validation, notifications, etc.), une bonne compréhension des concepts MDM : golden record, hiérarchies, gouvernance de la donnée, intégration avec d’autres systèmes. Obligatoire : avoir une expérience significative sur la mise en œuvre de référentiels MDM avec l'outil EBX avec des workflows de validation complexes 4. Compétences fonctionnelles et humaines Travailler en mode agile → participation active aux sprints, daily meetings, collaboration étroite avec PO et autres développeurs. Travail en équipe → capacité à s’intégrer dans une équipe MDM existante. Orientation solution / pragmatisme → ne pas seulement coder, mais proposer des solutions simples et efficaces aux problèmes de gestion de données. 5. Leur besoin réel En résumé, on cherche un profil capable de : développer et paramétrer EBX pour répondre aux besoins métiers, garantir la qualité et la cohérence des données de référence , participer activement aux nouveaux projets MDM du groupe (nouveaux domaines, intégration de filiales, etc.).
Offre d'emploi
Chargé de Revue Indépendante RDS
Publiée le
Data quality
1 an
40k-45k €
550-1k €
Paris, France
Télétravail partiel
Tâches de la Mission : Des rapports de revue sont à réaliser selon les normes de l'équipe type pour un RDS de PD, de LGDS, de LGDD, ou d'EAD/CCF. Pour les RDS cela consiste à s'assurer que le RDS : Est exhaustif au regard du périmètre du nouveau modèle construit Comporte tous les cas de défaut enregistrés avec la bonne date de défaut et la bonne granularité Comporte une qualité de données satisfaisante, pour permettre de construire le modèle
Offre d'emploi
Developeur SENIOR Java 8/11 Angular Devops Protocol FIX - Market execution
Publiée le
Angular
DevOps
Java
3 ans
50k-60k €
500-600 €
Paris, France
Télétravail partiel
🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 💡 Contexte /Objectifs : Au sein de l'équipe IT Equity Market Transverse en charge des applications : - référentiel produits Equity : agrégation et centralisation des données de différents provider autour des produits equity) - application qui gère les descentes d'executions et les reportings associés) La mission sera en majeur sur d'executionet reporting. Le projet consiste à faire évoluer l'application en lien avec le changement de version du software Market access en amont avec descente des executions pour booking dans le système front Sophis Equity. Le projet nécessite une réécriture partielle de l'application sur les modules de connexions et aux exchange via protocole FIX pour récupération des exécutions marchés et broker.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Quelles nouvelles fonctionnalités aimeriez-vous voir sur Free-Work ?
- Questionnement après plusieurs mois de recherche freelance
- domiciliation et etablissement principal
- Mini-série : Les coulisses du portage salarial (épisode 1/9)
- Votre avis retour à la formation face au marché IT et arrivée de l'IA ?
- LE PLUS GRAND ET PUISSANT GUIDE DE L’AFRIQUE 00229 61 00 96 22
2852 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois