Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 2 410 résultats.
Freelance

Mission freelance
Data Scientist (Modélisation statistique, reinforcement learning)-(h/f)

emagine Consulting SARL
Publiée le

36 mois
500-650 €
95700, Roissy-en-France, Île-de-France
Le poste de Data Scientist se concentre sur la modélisation statistique et l'apprentissage par renforcement, visant à renforcer une équipe déjà existante avec un expert capable de concevoir des modèles prédictifs tout en étant capable de contribuer à des mises en production. Responsabilités : Développer et affiner des modèles statistiques pour améliorer la prise de décision. Appliquer des techniques d'apprentissage par renforcement dans des projets d'optimisation. Collaborer avec les équipes de production pour mettre en place des modèles efficaces. Utiliser des outils de data science pour générer des insights à partir des données. Communiquer clairement les résultats de la modélisation aux parties prenantes. Must Have : Expérience significative en modélisation statistique. Expérience avec des moteurs de recommandation. Apprentissage par renforcement (reinforcement learning) Maîtrise de l'anglais. ( entretien en anglais ) Nice to Have : Connaissances en systèmes basés sur le cloud, en particulier GCP. Compétences en industrialisation de modèles. Solides compétences en data science et machine learning. Thèse de doctorat (PhD) en domaine pertinent. Autres détails : Urgence : ASAP. Lieu de travail : Roissy , 95700 Télétravail : 3 jours par semaine, 2 jours sur site
CDI
Freelance

Offre d'emploi
Data Scientist (parlant Japonais ou Coréen)

OBJECTWARE
Publiée le
Large Language Model (LLM)
Natural Language Processing (NLP)
RAG

3 ans
40k-86k €
380-610 €
Île-de-France, France
Mission Concevoir et optimiser des systèmes de recherche intelligente basés sur l’IA générative (RAG) pour un SaaS métier, afin d’améliorer l’accès à l’information et la fiabilité des réponses. 🚀 Responsabilités Développer des pipelines RAG (embeddings, vector search, ranking) Optimiser la pertinence des résultats (precision, recall, MRR) Réduire les hallucinations des LLM Concevoir des architectures multi-agents via Semantic Kernel Industrialiser les modèles (API, intégration backend) 🧰 Stack IA : LLM, NLP, RAG, embeddings Cloud : Azure OpenAI Service Data : Azure Cosmos DB Backend : .NET 8, SignalR Front : React 5+ ans en Data Science / ML Expertise NLP / recherche sémantique Expérience en IA générative (RAG, LLM)
Freelance

Mission freelance
Business Analysts expérimentés sur Workday

Codezys
Publiée le
Business Analysis
Data management
Formation

12 mois
Paris, France
Contexte du projet : Dans le cadre du déploiement international de Workday, SAUR met en œuvre un programme de transformation de son SIRH couvrant environ 20 pays et 12 000 collaborateurs. Ce projet vise à harmoniser, sécuriser et optimiser les processus RH à l’échelle mondiale. Besoins en renfort : Renforcer l’équipe centrale SIRH en intégrant deux Business Analysts expérimentés sur Workday, capables d’intervenir sur les aspects fonctionnels, la configuration et la coordination avec les équipes RH locales. Assurer une assistance opérationnelle auprès de plusieurs filiales pour accompagner l’appropriation de Workday, garantir la qualité des données et des processus RH, et faire le lien entre les besoins métiers locaux et l’équipe centrale. Contexte organisationnel : L’équipe centrale SIRH se compose actuellement de trois personnes intervenant partiellement sur le sujet, ainsi que d’un lead change dédié à la communication. L’ajout de ces consultants est nécessaire pour accompagner efficacement le déploiement dans un contexte sensible et international. Objectifs et livrables : Coordination avec les équipes RH locales : identifier les rôles et responsabilités, comprendre les processus spécifiques à chaque pays, accompagner l’adoption de Workday, et soutenir la gestion des tickets pour assurer un support structuré et harmonisé. Support fonctionnel et optimisation : analyser les problématiques rencontrées, proposer des améliorations métier, et contribuer à la configuration des modules Workday, notamment sur le Core RH et les instances adaptées aux besoins locaux. Gestion de la qualité des données : vérifier, améliorer la cohérence et la fiabilité des informations RH intégrées dans Workday. Formation et accompagnement : former les équipes locales, identifier les points de blocage, et proposer des plans d’action pour faciliter l’utilisation de la plateforme, tout en diffusant efficacement les communications liées au programme.
Alternance
CDI

Offre d'emploi
Ingénieur / Ingénieure data scientist (H/F)

█ █ █ █ █ █ █
Publiée le

Yville-sur-Seine, Normandie

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Data Engineer-Scientist AWS

INSYCO
Publiée le
AWS Cloud
Gitlab
Large Language Model (LLM)

3 ans
500-550 €
Paris, France
Bonjour, Nous recherchons pour notre client grand compte un Data Engineer-Scientist AWS. Nous étudions prioritairement les candidatures adressées par mail à freelance à insyco . fr avec : · Un argumentaire écrit répondant de façon ciblée au besoin ci-dessous · Un CV à jour au format Word · Une date de disponibilité · Un tarif journalier · Merci d’indiquer la référence MDE/DATA/5161 dans l'objet de votre mail Vos responsabilités · Contribuer aux phases d’idéation et de définition de nouveaux concepts innovants, notamment en évaluant leur faisabilité technique · Modéliser et développer des Proofs of Concept (POC) et des prototypes pour matérialiser ces concepts et les tester auprès d’utilisateurs finaux · Prendre une part active aux choix techniques et technologiques des projets innovation de son portefeuille · Évaluer les solutions technologiques proposées par des acteurs externes (startups, ...) qui permettraient de réaliser les projets en Open Innovation · Veiller à ce que les prototypes et projets réalisés puissent être transmis à d’autres équipes de la DSI et industrialisés avec un effort minimum · S’assurer que les projets innovation respectent les bonnes pratiques technologiques et de sécurité de l’environnement SI interne · Effectuer les ateliers de passation vers d’autres équipes, réaliser le support le cas échéant · Effectuer une veille sur les nouvelles technologies et solutions logicielles pertinentes dans le cadre des priorités du Lab · Participer à la définition et à l’amélioration des processus de l’équipe Lab · Solide culture DevOps : CI/CD, conteneurisation (Docker, Kubernetes, Gitlab) · Bases solides en data engineering (Python / SQL) & cloud PaaS/IaaS (AWS, API Gateway, Terraform) · Expériences en data processing / engineering (Panda, Pyspark, multi-threading, AWS batch) · Curiosité et pratique des outils d’IA générative et d’automatisation (ex. GitHub Copilot, Claude Code, LLM, NLP, AWS Bedrock) pour identifier les véritables opportunités d’amélioration · Expérience de travail en méthodes agiles (Scrum, SaFe, Kanban)
CDI

Offre d'emploi
Data Analyst (F/H)

CELAD
Publiée le

Montpellier, Occitanie
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 2 jours de télétravail par semaine – Montpellier (34) – Expérience de 7 ans min Envie de rejoindre une équipe où la tech et les projets stimulants sont au rendez-vous ? Cette opportunité est faite pour vous ! Voici un aperçu détaillé de vos missions : Collaborer étroitement avec le Business / PO / BA afin d’identifier et transcrire les besoins métiers en KPI (Valoriser les données / aider à la décision en menant des analyses d’indicateurs et des restitutions visuelles) Analyse exploratoire de données en vu d'aide à la décision Business : calcul, production, explication d'indicateurs/KPI bancaire Production de Data Viz en réponse à besoin métier de pilotage d'activités bancaire.
CDI

Offre d'emploi
Data Analyst (F/H)

CELAD
Publiée le

40k-49k €
Montpellier, Occitanie
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 2 jours de télétravail par semaine – Montpellier (34) – Expérience de 7 ans min Envie de rejoindre une équipe où la tech et les projets stimulants sont au rendez-vous ? Cette opportunité est faite pour vous ! Voici un aperçu détaillé de vos missions : Collaborer étroitement avec le Business / PO / BA afin d’identifier et transcrire les besoins métiers en KPI (Valoriser les données / aider à la décision en menant des analyses d’indicateurs et des restitutions visuelles) Analyse exploratoire de données en vu d'aide à la décision Business : calcul, production, explication d'indicateurs/KPI bancaire Production de Data Viz en réponse à besoin métier de pilotage d'activités bancaire.
CDI

Offre d'emploi
Data architect / Administrateur SAP BO BI H/F

VIVERIS
Publiée le

40k-55k €
Dijon, Bourgogne-Franche-Comté
Contexte de la mission : Viveris accompagne les grands acteurs du secteur bancaire dans leurs programmes de transformation métier et IT, avec une forte dimension data et décisionnelle. Dans ce contexte, nous recherchons un Administrateur / Data Architect SAP BusinessObjects (SAP BO BI) pour intervenir sur un chantier stratégique de la Data Factory. Vous intégrerez l'équipe Solutions BI et participerez à l'administration, l'optimisation et l'évolution des plateformes décisionnelles basées sur SAP BO, au coeur des usages data des métiers. Votre rôle consistera notamment à garantir la performance, la disponibilité et la gouvernance des environnements BI, tout en accompagnant les équipes dans l'architecture et l'évolution des solutions décisionnelles. Ce poste vous permettra d'évoluer dans un écosystème data exigeant, sur des sujets à fort impact métier, aux côtés d'équipes expertes engagées dans la valorisation de la donnée. Responsabilités : * Assurer le suivi opérationnel des plateformes SAP BO BI 4.3 ;Prendre en charge l'assistance de niveau 2 et 3 des multiples plateformes SAP BO BI 4.3 ; * Proposer des solutions d'optimisation des rapports ; * Participer aux différents projets à venir de conversion des univers, de pointage des WebI vers ces univers, de migration à terme vers SAP BO BI 2025 ; * Faire évoluer l'outillage pour industrialiser la gestion des plateformes (Scripting, Datamart de supervision/audit).
CDI
Freelance

Offre d'emploi
Data Pipeline Analyst - NL / FR

AEROW
Publiée le
Data analysis
Data management
Data visualisation

2 ans
Bruxelles, Bruxelles-Capitale, Belgique
Attention, le poste est basé à Bruxelles, avec une présence de 2 jours minimum sur site. La mission combine analyse de données , modélisation sémantique (Linked Data) , compréhension des data pipelines et pilotage de petits projets data , en lien étroit avec les équipes métier , Data & Digital et ICT . Objectif : garantir la cohérence, l’interopérabilité et la réutilisabilité des données et livrer des analyses et dashboards exploitables. Responsabilités clés Cadrage & pilotage : recueil/analyse des besoins, définition du scope, objectifs, livrables et planning pour projets data de petite à moyenne envergure ; suivi d’avancement, coordination fonctionnelle et communication vers les parties prenantes ; respect du scope, délais et qualité. Analyse de données & pipelines : analyse des sources/flux/transformations et modèles ; contribution à la définition/optimisation des data pipelines ; identification d’axes d’amélioration (qualité, fiabilité, performance, réutilisabilité). Modélisation sémantique : conception/évolution de modèles RDF/OWL (Linked Data) pour l’interopérabilité. Livrables analytiques : réalisation d’analyses pour cas d’usage opérationnels ; développement de rapports, KPI et tableaux de bord ; validation avec les utilisateurs. Coordination transverse : interface fonctionnelle entre Business, Data & Digital et ICT ; animation d’ateliers et facilitation de la décision ; alignement avec la roadmap Data & Digital et les standards. Documentation & transfert : documentation des analyses, choix fonctionnels et modèles via Sparx Enterprise Architect ; formalisation des bonnes pratiques ; transfert de connaissances vers les équipes internes
CDI

Offre d'emploi
Data Ingénieur - Expert Spark H/F

CONSORT GROUP
Publiée le

Tassin-la-Demi-Lune
Chaque moment compte. Surtout ceux que vous vivez à fond. Bienvenue chez Consort Group. Consort Group, accompagne depuis plus de 30 ans les entreprises dans la valorisation de leurs données et infrastructures. Elle s'appuie sur deux leaders, Consortis et Consortia, et place l’humain et la responsabilité sociétale au cœur de ses valeurs. Data Ingénieur - Expert Spark H/F Vous êtes passionné·e par les architectures de données à grande échelle et le traitement temps réel ? Ce poste est fait pour vous. En tant qu' Expert Spark Data Engineer , vous êtes responsable de l'analyse, de l'optimisation et de l'évolution de notre pipeline de données au cœur de notre écosystème BI et statistiques. Côté build Conception et préconisations d'architecture Réaliser l'analyse et l'état des lieux technique de la solution existante (Kafka Connect, Spark, Kubernetes, MongoDB sur OVH) Produire les préconisations d'amélioration du Spark streaming pour le traitement temps réel Définir le dimensionnement infrastructure adapté au streaming temps réel (350 bases, 5 000 req/s, 1 To/an) Proposer une stratégie de dimensionnement MongoDB et de structuration de la donnée (standardisation des patterns) Rédiger le document d'architecture cible et le dossier de préconisations Côté run Optimisation et maintien en condition opérationnelle Assurer la fiabilité et la performance du pipeline de données en production sur l'infrastructure OVH Superviser les flux Kafka Connect et garantir la continuité du traitement des données entrantes Monitorer les performances Spark et intervenir sur les axes d'optimisation identifiés Veiller à la cohérence et à la qualité de la donnée stockée dans MongoDB Participer aux revues techniques et accompagner les équipes internes ENOVACOM dans la montée en compétences C'est votre parcours Vous avez au moins 5 ans d'expérience dans des environnements Data Engineering exigeants, avec une forte exposition aux architectures de traitement temps réel et à la gestion de volumétries importantes. Vous aimez diagnostiquer, optimiser et concevoir sans jamais cesser d'innover. Vous cherchez un cadre où vos idées comptent et où la technique va de pair avec la collaboration. C'est votre expertise Apache Spark – maîtrise avancée du streaming et du batch, tuning et optimisation des performances MongoDB – modélisation, structuration de la donnée et bonnes pratiques de dimensionnement Kafka / Kafka Connect – conception et exploitation de pipelines de données en flux continu Déploiement Apache Spark sur Kubernetes – configuration, orchestration et gestion des ressources OVH Cloud – déploiement et exploitation d'infrastructures cloud dans un contexte de production C'est votre manière de faire équipe Capacité d'analyse et de synthèse : vous transformez des états des lieux complexes en préconisations actionnables Rigueur documentaire : vos livrables (architecture cible, dossiers techniques) sont clairs et exploitables Posture conseil : vous savez challenger l'existant et proposer des axes d'amélioration concrets Esprit de collaboration : vous travaillez en proximité avec les équipes internes et partagez vos expertises Autonomie et sens des priorités dans un environnement technique à fort enjeu de performance C’est notre engagement Chez Consort Group, vous êtes un·e expert·e qu’on accompagne pour que chaque mission devienne une étape qui compte. Un onboarding attentif et humain Une vraie proximité managériale Des formations accessibles en continu Des engagements concrets : inclusion, égalité, solidarité Un package RH complet : mutuelle, carte TR, CSE, prévoyance Une culture du feedback et des projets qui font sens C’est clair Le process de recrutement : Un premier échange téléphonique avec notre team recrutement Un entretien RH ainsi qu’un échange métier avec un.e ingénieur.e d’affaires Un test ou un échange technique avec un.e de nos expert.es Un dernier point avec votre futur.e manager ou responsable de mission Et si on se reconnaît : on démarre ensemble C’est bon à savoir Lieu : Marseille Contrat : CDI Télétravail : Hybride Salaire : De 40000 € à 45000 € (selon expérience) brut annuel Famille métier : Data Ce que vous ferez ici, vous ne le ferez nulle part ailleurs. Ce moment, c’est le vôtre.
CDI

Offre d'emploi
Data Engineer (F/H)

CELAD
Publiée le

Montpellier, Occitanie
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 3 jours de télétravail par semaine – Montpellier (34) – Expérience de 4/5 ans min Envie de rejoindre une équipe où la tech et les projets stimulants sont au rendez-vous ? Cette opportunité est faite pour vous ! Voici un aperçu détaillé de vos missions : Dans le cadre de l'industrialisation des migrations de données d'un ERP vers un autre, l'équipe Data renforce son pôle ETL / ELT. Le poste s'inscrit dans un environnement industriel, orienté delivery, avec des contraintes fortes de qualité, reproductibilité et traçabilité. Le Data Engineer interviendra au cœur de la plateforme de migration et travaillera en étroite collaboration avec : Le Tech Lead Data et un data engineer Les équipes produit Les équipes métier (migration / fonctionnel) Les équipes infra / DevOps 1. Modèles de données (dbt) Concevoir et maintenir des modèles dbt (RAW → REFINED → TRUSTED) Implémenter les règles métier de façon explicite et documentée Centraliser les règles communes (mapping, normalisation, référentiels) 2. Robustesse & fiabilité des pipelines Pipelines reproductibles, OS-agnostiques, déployables via CI/CD Tests dbt (schéma, unicité, volumétrie), contrôles de cohérence inter-modèles Alertes sur écarts ou régressions, optimisation des performances 3. Contributions applicatives Maintenir les endpoints API (FastAPI) et les interfaces (Vue.js 3 / Quasar) liés aux flux de migration et d'import Contribuer au système IA de suggestions en cascade (pattern matching, embeddings, LLM) Gérer les migrations de schéma (Alembic) et les connecteurs de données (ODBC / SQL Server) 4. Documentation & collaboration transverse Documenter modèles, règles de transformation, conventions de nommage Participer aux code reviews et aux ateliers de validation fonctionnelle post-migration Collaborer avec les équipes métier, produit et infra Transformation : dbt, SQL avancé, Python Bases de données : SQL Server, PostgreSQL (+ pgvector), Snowflake / équivalent Orchestration : Airflow (ou équivalent) Application : FastAPI, Vue.js + TypeScript + Quasar IA : scikit-learn, embeddings vectoriels, NLP, LLM Infra / CI/CD :Docker, AWS ECS , ECR, S3, Bitbucket & Azure Pipelines Data quality :Tests dbt, Pytest
Freelance

Mission freelance
Data Engineer (F/H)

CELAD
Publiée le

1 an
450-550 €
Montpellier, Occitanie
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 3 jours de télétravail par semaine – Montpellier (34) – Expérience de 4/5 ans min Envie de rejoindre une équipe où la tech et les projets stimulants sont au rendez-vous ? Cette opportunité est faite pour vous ! Voici un aperçu détaillé de vos missions : Dans le cadre de l'industrialisation des migrations de données d'un ERP vers un autre, l'équipe Data renforce son pôle ETL / ELT. Le poste s'inscrit dans un environnement industriel, orienté delivery, avec des contraintes fortes de qualité, reproductibilité et traçabilité. Le Data Engineer interviendra au cœur de la plateforme de migration et travaillera en étroite collaboration avec : Le Tech Lead Data et un data engineer Les équipes produit Les équipes métier (migration / fonctionnel) Les équipes infra / DevOps 1. Modèles de données (dbt) Concevoir et maintenir des modèles dbt (RAW → REFINED → TRUSTED) Implémenter les règles métier de façon explicite et documentée Centraliser les règles communes (mapping, normalisation, référentiels) 2. Robustesse & fiabilité des pipelines Pipelines reproductibles, OS-agnostiques, déployables via CI/CD Tests dbt (schéma, unicité, volumétrie), contrôles de cohérence inter-modèles Alertes sur écarts ou régressions, optimisation des performances 3. Contributions applicatives Maintenir les endpoints API (FastAPI) et les interfaces (Vue.js 3 / Quasar) liés aux flux de migration et d'import Contribuer au système IA de suggestions en cascade (pattern matching, embeddings, LLM) Gérer les migrations de schéma (Alembic) et les connecteurs de données (ODBC / SQL Server) 4. Documentation & collaboration transverse Documenter modèles, règles de transformation, conventions de nommage Participer aux code reviews et aux ateliers de validation fonctionnelle post-migration Collaborer avec les équipes métier, produit et infra Transformation : dbt, SQL avancé, Python Bases de données : SQL Server, PostgreSQL (+ pgvector), Snowflake / équivalent Orchestration : Airflow (ou équivalent) Application : FastAPI, Vue.js + TypeScript + Quasar IA : scikit-learn, embeddings vectoriels, NLP, LLM Infra / CI/CD :Docker, AWS ECS , ECR, S3, Bitbucket & Azure Pipelines Data quality :Tests dbt, Pytest
CDI

Offre d'emploi
Data Engineer (F/H)

CELAD
Publiée le

45k-55k €
Montpellier, Occitanie
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 3 jours de télétravail par semaine – Montpellier (34) – Expérience de 4/5 ans min Envie de rejoindre une équipe où la tech et les projets stimulants sont au rendez-vous ? Cette opportunité est faite pour vous ! Voici un aperçu détaillé de vos missions : Dans le cadre de l'industrialisation des migrations de données d'un ERP vers un autre, l'équipe Data renforce son pôle ETL / ELT. Le poste s'inscrit dans un environnement industriel, orienté delivery, avec des contraintes fortes de qualité, reproductibilité et traçabilité. Le Data Engineer interviendra au cœur de la plateforme de migration et travaillera en étroite collaboration avec : Le Tech Lead Data et un data engineer Les équipes produit Les équipes métier (migration / fonctionnel) Les équipes infra / DevOps 1. Modèles de données (dbt) Concevoir et maintenir des modèles dbt (RAW → REFINED → TRUSTED) Implémenter les règles métier de façon explicite et documentée Centraliser les règles communes (mapping, normalisation, référentiels) 2. Robustesse & fiabilité des pipelines Pipelines reproductibles, OS-agnostiques, déployables via CI/CD Tests dbt (schéma, unicité, volumétrie), contrôles de cohérence inter-modèles Alertes sur écarts ou régressions, optimisation des performances 3. Contributions applicatives Maintenir les endpoints API (FastAPI) et les interfaces (Vue.js 3 / Quasar) liés aux flux de migration et d'import Contribuer au système IA de suggestions en cascade (pattern matching, embeddings, LLM) Gérer les migrations de schéma (Alembic) et les connecteurs de données (ODBC / SQL Server) 4. Documentation & collaboration transverse Documenter modèles, règles de transformation, conventions de nommage Participer aux code reviews et aux ateliers de validation fonctionnelle post-migration Collaborer avec les équipes métier, produit et infra Transformation : dbt, SQL avancé, Python Bases de données : SQL Server, PostgreSQL (+ pgvector), Snowflake / équivalent Orchestration : Airflow (ou équivalent) Application : FastAPI, Vue.js + TypeScript + Quasar IA : scikit-learn, embeddings vectoriels, NLP, LLM Infra / CI/CD :Docker, AWS ECS , ECR, S3, Bitbucket & Azure Pipelines Data quality :Tests dbt, Pytest
Freelance

Mission freelance
Directeur de Programme Data

CONCRETIO SERVICES
Publiée le
Data management
Jira Align

12 mois
400-600 €
Pays de la Loire, France
Dans le cadre d'une stratégie de digitalisation ambitieuse, notre client — un grand groupe financier — lance la Saison 2 d'un portefeuille de 15 solutions nativement digitales à déployer en 18 mois. L'objectif : mettre à disposition des clients des parcours de souscription et de gestion de produits 100% digitaux, à grande échelle. Un programme transverse qui mobilise 24 tribus, 10 Pôles Utilisateurs et plus de 12 entités du groupe. Une machine en mouvement, forte des succès de la Saison 1, qui cherche maintenant à accélérer. Votre mission Au cœur du dispositif de pilotage, vous êtes le garant de la delivery : Sécuriser le lancement de la Saison 2 : cadrage des Business Epics, structuration dans les outils (JIRA Align), embarquement des parties prenantes Piloter la fabrication en lien direct avec les Leaders de Tribu : planification, suivi des engagements délais/budget/qualité, arbitrages Animer la gouvernance : comités de pilotage, reporting Direction Générale, coordination faîtière Groupe Gérer les risques : identification, qualification, plans de mitigation, escalade si nécessaire Contribuer à la capitalisation : post-mortem, bonnes pratiques, recommandations pour les programmes futurs
Freelance
CDI

Offre d'emploi
Gestion de Projets Data

VISIAN
Publiée le
Gestion de projet

1 an
Bruxelles, Bruxelles-Capitale, Belgique
Descriptif du poste Dans le cadre de l'intégration des activités au sein d'une grande banque de gestion d'actifs, nous recherchons une expertise en gestion de projets data (au sein d'un asset manager), associée à une bonne connaissance des données de référence (instruments financiers et benchmarks). Le consultant retenu jouera un rôle clé dans la transition des données et des processus vers la plateforme data de l'entreprise – Aladdin. Cela inclut notamment : Accompagner la migration et l'intégration des référentiels Security Master et des données de benchmarks dans Aladdin. Collaborer avec les équipes internes afin de définir et valider les besoins en données, les mappings et les standards de gouvernance. Garantir l'intégrité et la cohérence des données migrées. Participer aux phases de tests, de réconciliation et de validation des processus.
Freelance

Mission freelance
Développeur Java orienté Data H/F

ODHCOM - FREELANCEREPUBLIK
Publiée le
Java
Python
SQL

6 mois
Neuilly-sur-Seine, Île-de-France
Descriptif de mission – Développeur Fullstack orienté Data Nous recherchons un développeur fullstack ayant une forte sensibilité à la data, pour intervenir sur une application interne stratégique dédiée à la gestion de données complexes et volumineuses. L’environnement technique s’appuie sur : des interfaces de consultation de données, un back-end en Java, une base de données SQL avec un modèle riche et structuré, des traitements batch automatisés (Java / SQL). Dans ce contexte, la qualité, la fiabilité et la structuration des données sont au cœur des enjeux. Vos responsabilités En vous appropriant les enjeux fonctionnels et la base de code existante, vous interviendrez sur l’ensemble du cycle de vie de l’application : Analyse & compréhension des données Manipuler et analyser des modèles de données complexes Garantir la cohérence, la qualité et l’intégrité des données Identifier des axes d’optimisation du data model Conception & développement Implémenter des fonctionnalités en lien avec les besoins métier Participer à la conception technique et à l’évolution de l’architecture Réaliser des prototypes et contribuer aux choix techniques Data & performance Écrire et optimiser des requêtes SQL complexes Participer à l’optimisation des traitements batch et des performances globales Qualité & tests Mettre en place et exécuter des tests (unitaires, intégration, end-to-end) Identifier, analyser et corriger les anomalies Maintenance & amélioration continue Assurer la maintenance corrective et évolutive Participer à la rétro-ingénierie du code existant Contribuer à la documentation et aux bonnes pratiques (versioning, code review…)
2410 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous