Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 104 résultats.
CDI

Offre d'emploi
Développeur Tibco EBX - F/H

AVANISTA
Publiée le

France

Depuis 2012, nous mettons notre expertise au service des secteurs de l'IT et l'Ingénierie pour accompagner nos clients dans des projets ambitieux et innovants. Notre force ? Un management de proximité qui valorise vos aspirations, des opportunités de carrière concrètes et un engagement sincère pour le bien-être et l'épanouissement de nos collaborateurs. Rejoignez-nous sur des projets à fort impact au sein d'une entreprise où chaque talent compte ! Avanista recrute ! Toujours en recherche de nouveaux talents, nous souhaiterions intégrer un Développeur Tibco EBX (H/F) au sein de nos équipes pour l'un de nos clients. Vos missions ? Nous recherchons un développeur pour prendre en charge techniquement l'outil de gestion des référentiels de l'entreprise (outil MDM == master data management) - Développement des demandes d'évolution et prise en charge la maintenance et l'exploitation du périmètre - Développement des analyses techniques sur son périmètre - Préparation des mises en production et la documentation associée Développement TIBCO EBX

CDI

Offre d'emploi
Chef de projet Tibco EBX - F/H

AVANISTA
Publiée le

France

Depuis 2012, nous mettons notre expertise au service des secteurs de l'IT et l'Ingénierie pour accompagner nos clients dans des projets ambitieux et innovants. Notre force ? Un management de proximité qui valorise vos aspirations, des opportunités de carrière concrètes et un engagement sincère pour le bien-être et l'épanouissement de nos collaborateurs. Rejoignez-nous sur des projets à fort impact au sein d'une entreprise où chaque talent compte ! Avanista recrute ! Toujours en recherche de nouveaux talents, nous souhaiterions intégrer un Chef de Projet Tibco EBX (H/F) au sein de nos équipes pour l'un de nos clients. Vos missions ? Votre rôle sera de prendre en charge l'outil de gestion des référentiels de l'entreprise (outil MDM == master data management) - Encadrer les développement des demandes d'évolution des demandes d'évolution - Prendre en charge la maintenance et l'exploitation du périmètre - Développer des analyses techniques sur son périmètre TIBCO EBX gestion de projet

Freelance
CDI

Offre d'emploi
BUSINESS DATA ANALYSTE

UCASE CONSULTING
Publiée le
Databricks
MySQL

6 mois
40k-45k €
400-550 €
Paris, France

Je recherche pour un de mes clients un consultant Business Data Analyste : Missions : a. Participer aux réunions de cadrage et de suivi avec le chef de projet et les équipes internes. b. Participer aux tests et à la recette fonctionnelle (vérification des données, complétude, cohérence par rapport à l’existant). c. Contribuer à la mise à jour des documentations internes (Operating model, procédures si besoin). d. Suivre l’avancement des actions liées à son périmètre et remonter les points de blocage éventuels. Assurer une bonne coordination des actions. Contribution aux projets de migration en cours : e. Participer aux ateliers de convergence avec les équipes internes dans le cadre des projets en cours. f. Contribuer aux nettoyages de données pour faciliter les transferts, avec un objectif de gain d’efficacité et de réduction des coûts. g. Assurer la coordination avec les équipes Front Office pour éviter les divergences. h. Réaliser des extractions de données et collaborer avec les équipes IT / Data pour préparer les étapes suivantes (automatisation) en fonction des besoins. i. Assurer la remontée des informations et des éventuels points de blocage. Livrables attendus : Documentation des processus et procédures opérationnelles. Documentation des changements. Checklists de recette fonctionnelle. Fiches de suivi des anomalies / points ouverts. Comptes rendus de réunion (PowerPoint, Word, PDF). Vérification de la non régression des données en production après livraison des évolutions. Handover réalisé à l’équipe Data Management Operations pour assurer le bon fonctionnement en mode BAU et suivi. Travail en proximité avec les autres équipes (Regulatory Reporting, IT, Data Management, etc.) pour garantir la transparence de la communication et le respect du calendrier des livrables. Durée et modalités : Mission longue à démarrer dès que possible. Langues : Français et Anglais. Compétences techniques : Connaissance de l’environnement réglementaire de la gestion d’actifs en France, en Europe et au Royaume-Uni. Une connaissance de la réglementation bancaire et assurance est un plus. Bonne compréhension des enjeux de qualité de données. Maîtrise des outils Pack Office, VBA, SQL, Python, Neoxam Data Hub, Tableau Desktop, Databricks est un plus. Forte capacité à documenter précisément les processus, contrôles et anomalies. Expérience : Expérience dans un rôle de Business/Data Analyst, idéalement dans l’Asset Management ou en cabinet de conseil. Expérience en support fonctionnel dans un environnement Front, Middle ou Back Office. Compétences personnelles : Orientation résultat et client. Esprit structuré, rigueur, autonomie, et orientation process. Bonne communication et capacité à maintenir des relations étroites avec les parties prenantes. Capacité d’analyse et de résolution de problèmes. Travail en équipe et sens du service. Esprit d’initiative, réactivité et gestion de plusieurs tâches en parallèle.

Freelance

Mission freelance
Dynasys Application Specialist (h/f)

emagine Consulting SARL
Publiée le

1 mois
600-650 €
69000, Sainte-Foy-lès-Lyon, Auvergne-Rhône-Alpes

Summary The Dynasys Application Specialist is responsible for the day-to-day management and support of the Dynasys software platform, ensuring its smooth operation while supporting business users with data management, system access, and troubleshooting. Main Responsibilities User Access Management (10%): Manage user access requests and permissions within Dynasys, ensuring appropriate and timely access for all users. Interface Issue Resolution (20%): Troubleshoot interfacing problems in collaboration with the SAP team. Scope Adjustments (30%): Implement scope changes in Dynasys to reflect organizational changes, ensuring accurate data visibility for users and management. Mass Data Uploads (40%): Perform large-scale data uploads and updates in Dynasys, supporting business processes such as forecasting, budgeting, and data clean-up initiatives. Key Requirements Proven experience with Dynasys. Attention to detail and ability to troubleshoot and resolve technical issues efficiently. Effective communicator with the ability to work with both technical teams and business users. Autonomous and capable of operating remotely with fully remote teams. Nice to Have Experience with SAP systems. Prior experience in business process management. Knowledge of forecasting and budgeting processes. Other Details Duration: > 12 months. Start: ASAP. Location: FULL REMOTE.

Freelance

Mission freelance
Data Engineer / DevOps Big Data – CIB Données Client (Hadoop/Spark, Jenkins, DevSecOps)

CAT-AMANIA
Publiée le
API
Control-M
DevOps

1 an
400-490 €
Île-de-France, France

Contexte & mission Grand groupe bancaire – pôle IT Data Management & BI . Au sein de la squad Big Data & API (domaine CIB / Données Client ), vous renforcez l’équipe pour tenir la production , résorber la dette technique , faire évoluer l’architecture et livrer les développements projets. Vos responsabilités Moderniser : upgrades ( Spring Boot , Spark 2→3 ), optimisation du code (APIs & traitements). Industrialiser : CI/CD Jenkins (migration depuis TFS , création de pipelines from scratch), pratiques DevSecOps . Automatiser : déploiements via XLDeploy/XLRelease , orchestrations Control-M . Exploiter : Hadoop on-prem , Spark/PySpark , Hive/SQL/HQL , Unix/Bash . Développer : APIs et traitements data en Python/Java/.NET .

Freelance

Mission freelance
Architecte Technique Data -

Freelance.com
Publiée le
Cloudera
TOGAF

6 mois
400-750 €
Issy-les-Moulineaux, Île-de-France

Architecte Technique Data – 📍 Localisation : Issy-les-Moulineaux 📅 Démarrage : 01/10/2025 ⏳ Durée : Mission longue 💰 TJM max : 760 € 📌 Réponse attendue avant le 08/09 à 16h 🎯 Contexte de la mission Au sein XXX, vous interviendrez dans un environnement structuré autour de normes, standards et patterns d’architecture. L’objectif : concevoir des solutions robustes, efficaces et adaptées aux enjeux métiers, en vous appuyant sur des référentiels reconnus (ArchiMate, TOGAF, etc.) et des technologies avancées du monde de la data. Vous serez intégré au sein des équipes d’urbanisation du SI, et participerez activement à la définition, l’étude et la mise en œuvre de solutions techniques autour de la donnée. 🧠 Vos missions Participer aux ateliers d’architecture et produire les livrables associés (CR, dossiers d’étude, analyses spécifiques…) Contribuer à l’amélioration du cadre de référence sur votre périmètre Intervenir dans les instances de gouvernance (CAVT, comités d’engagement, PI Safe…) Proposer des solutions adaptées aux besoins métiers, en tenant compte des contraintes techniques et de sécurité 🛠️ Compétences attendues Indispensables : ArchiMate Data Management & Data Quality Big Data / IA Sensibilisation numérique Support & services client Atouts complémentaires : TOGAF, SaFe Urbanisation des SI Architecture applicative IOT ⚙️ Environnement technique Cloudera (CDSW, CML) SAP HANA Hive, Impala, Dremio Hue, Zeppelin Nifi, Kafka Stream CFT (Axway), ZEUS

Freelance
CDI

Offre d'emploi
Développeur Alteryx Power BI

Nexius Finance
Publiée le
Alteryx
Microsoft Power BI

3 ans
40k-45k €
400-550 €
Montrouge, Île-de-France

Mission en coordination avec les départements Sales/e-business/Client Data Management des Marchés de Capitaux. Les principales missions sont : • Assimiler les besoins client et la finalité des fonctionnalités à développer • Intégrer de manière fluide les nouvelles fonctions dans les workflows existants •Produire des développements de qualité, clairs et documentés •Proposer des solutions générant une maintenance minimale •Proposer des améliorations des modules et process existants •Analyser et corriger les anomalies dans le cadre de l’amélioration continue •Maintenir à jour la base documentaire projet et rédiger les spécifications techniques •Maintenance et amélioration du pipeline de CI/CD L’ENVIRONNEMENT APPLICATIF Intervention sur un système de pilotage de la consommation de bilan et de production d’indicateurs de liquidité, embarquant des fonctions d’acquisition de données, un moteur de calcul métier et des interfaces de restitution de type dashboards et reports. Techno Alteryx / Power BI / MS SQL. La mission se déroulera au sein de l’équipe GIT/CMI/Sales/Reporting & Referentials et sera basée à Montrouge.

Freelance

Mission freelance
Développeur SEMARCHY XDM – Projet Stratégique de Transformation Digitale – Nantes (H/F)

EASY PARTNER
Publiée le
Big Data
ETL (Extract-transform-load)
JSON

3 mois
460-510 €
Nantes, Pays de la Loire

Localisée à Nantes, notre entreprise s'emploie à intégrer et à optimiser une solution de Master Data Management de pointe. Au sein de notre Business Unit "Service", composée d'une vingtaine de collaborateurs, vous travaillerez sur des projets de grande envergure. Ce poste est créé dans le cadre de notre transformation numérique continue et de l'évolution de nos projets de gouvernance de données. Missions Missions principales Concevoir, configurer et déployer des modèles de données dans SEMARCHY XDM. Développer et maintenir des règles de gestion, workflows et interfaces utilisateur. Intégrer SEMARCHY XDM avec les autres systèmes de l’entreprise (ERP, CRM, etc.). Missions annexes Collaborer étroitement avec les équipes métiers pour traduire leurs besoins en solutions efficaces. Documenter techniquement et fonctionnellement les processus en place. Offrir le support nécessaire et résoudre les incidents liés aux solutions mises en place. Stack technique À maîtriser SEMARCHY XDM. Compétences avancées en scripting Python. Bases de données (SQL, NoSQL) et formats de données (XML, JSON). Outils d’intégration de données (ETL/ELT). Environnement technique global Environnements cloud (AWS, Azure, GCP) appréciés. Connaissance des standards de données (ISO, GS1, etc.).

CDI

Offre d'emploi
Data analyst R&D (données cliniques)

INFOGENE
Publiée le

50k-60k €
Neuilly-sur-Seine, Île-de-France

Missions principales En pratique, vos responsabilités seront les suivantes : Recueillir et analyser les besoins utilisateurs (équipes métier et R&D). Développer ou améliorer des solutions d’acquisition et de visualisation innovantes. Concevoir et optimiser des rapports de tests, validations et suivis financiers (P&L, KPIs). Élaborer et maintenir la documentation technique, fonctionnelle et les guides utilisateurs. Conseiller et accompagner les utilisateurs dans l’exploitation des solutions. Participer à la mise en place et l’évolution de processus et d’outils de data management. Réaliser des études de faisabilité (données, systèmes, outils, développements). Assurer des formations utilisateurs et produire le matériel pédagogique associé. Compétences techniques attendues Reporting & DataViz Power BI (certification souhaitée) : DAX, Power Query, Report Builder. Streamlit (Python) et Shiny (R) pour des applications interactives. Data storytelling et adaptation des visualisations selon les profils utilisateurs (métiers, data science, direction). Programmation & Analyse de données Python (pandas, matplotlib, seaborn, Streamlit). R (packages de data processing, dashboards interactifs via Shiny). SAS (traitement, analyse et transformation de données structurées, contexte analytique ou clinique). SQL / DBT (structuration, transformation et exploitation de données relationnelles). Bonnes pratiques de développement Maîtrise de Git / GitLab (versionning, branches, merge requests, revues de code). Respect des bonnes pratiques de structuration, modularité et documentation du code. Travail en mode agile (Kanban, Scrum) avec PO, Tech Lead, Data Engineers. Big Data & Cloud Transformation et industrialisation de la donnée sur Google Cloud Platform (GCP) . Développement de datamarts en collaboration avec les Data Engineers.

Freelance

Mission freelance
Lead DATA DATABASE - DATA Engineer Bases de Données

Cherry Pick
Publiée le
Data analysis
Database
ETL (Extract-transform-load)

1 an
550-600 €
64000, Pau, Nouvelle-Aquitaine

Dans le cadre d’un projet de développement visant à construire une base de données interne intégrant des workflows opérationnels, le Tech Lead Data Base interviendra au sein d’une équipe projets de données . Il aura pour rôle d’assurer la coordination technique , la conception data et l’ intégration de la base dans l’environnement SI de l’entreprise. Responsabilités principales Cadrer les besoins et proposer des évolutions techniques et fonctionnelles du produit existant. Assurer la liaison avec des sociétés de développement externalisées : suivi des exigences, respect des délais, qualité des livraisons. Piloter les scripts de développement et définir la stratégie de déploiement (intégration continue, automatisation, mise en production). Concevoir et intégrer la base de données dans l’architecture SI et la stratégie globale de données. Produire la documentation et les rapports, assurer une communication régulière auprès des parties prenantes. Profil recherché Compétences techniques Ingénierie de données (Data Engineering) : pipelines de données, modélisation, intégration ETL/ELT. Architecture de données (Data Architecture) : modèles de données, urbanisation SI, intégration dans un écosystème complexe. Solide maîtrise des bases de données relationnelles (PostgreSQL, Oracle, SQL Server). Connaissances en gouvernance des données : qualité, sécurité, conformité. Familiarité avec le Cloud (Azure, AWS, GCP) appréciée. Compétences fonctionnelles & méthodologiques Expérience en gestion de projets Data/IT et coordination de prestataires externes. Bonne compréhension des rôles Data Owner / Data Steward et des enjeux de data management . Capacité à documenter et produire des rapports clairs et synthétiques. Pratique des méthodes Agile / Scrum . Expérience & formation 5 à 10 ans d’expérience en ingénierie et architecture de données dans des environnements SI complexes. Expérience confirmée en pilotage technique et coordination multi-acteurs. Formation supérieure en informatique, data engineering ou équivalent . Anglais professionnel. Qualités personnelles Leadership technique, autonomie et rigueur. Excellentes capacités de communication et de coordination. Esprit d’analyse, de synthèse et orientation résultats. Conditions Poste basé à Pau , avec 2 jours maximum de télétravail par semaine .

Freelance

Mission freelance
Machine Learning Engineer Lead Expert

KEONI CONSULTING
Publiée le
AWS Cloud
Python
Pytorch

18 mois
100-500 €
Paris, France

CONTEXTE EXPERIENCE : 5 ans et plus Métiers Fonctions : Data Management, Machine Learning Engineer Spécialités technologiques: Cloud, Machine learning, Big Data, Simulation Deep learning Description et livrables de la prestation Notre client, dans le secteur de l’assurance, est à la recherche d’un Machine Learning Engineer Lead Expert pour un projet de recherche appliquée sur les événements climatiques extrêmes à l’aide de modèles d’IA. Les équipes travaillent sur des simulations météo afin d’identifier les risques de catastrophes, avec pour objectif de développer et d’entraîner des modèles de Machine Learning dédiés. Il s’agit de gestion de big data sur de très gros modèles, avec un code intégralement en Python. La maîtrise du cloud AWS et des environnements on-premise est indispensable. - Permettre à l’équipe R&D de développer et d’évaluer des modèles en fournissant et en gérant du code et des données de qualité. - Refactoriser, structurer et documenter la bibliothèque existante en Python pour les simulations, l’inférence de modèles et l’analyse. - Développer des pipelines robustes pour la simulation, la détection d’événements extrêmes, l’entraînement et l’évaluation des modèles (y compris sur GPU). L’accent sera mis sur le développement logiciel (les modèles seront fournis par l’équipe). - Mettre en œuvre et appliquer les meilleures pratiques de développement logiciel scientifique (tests, CI/CD, conception modulaire, reproductibilité). - Optimiser l’utilisation d’un serveur (multi-)GPU pour les simulations et entraînements IA à grande échelle (I/O, planification, parallélisme). - Former et accompagner l’équipe sur les bonnes pratiques de développement scientifique et d’utilisation des GPU. Expertise souhaitée Obligatoires : - Python avancé et meilleures pratiques de développement logiciel - Pipelines scientifiques : orchestration, traitement en lots, suivi d’expérimentations - Outils : Git, Docker - Cloud AWS et environnements on-premise Souhaitées : - Gestion de données climatiques ou géospatiales : xarray, Zarr, S3 - Deep learning sur GPU : PyTorch, entraînement multi-GPU, optimisation des performances - Ingénierie logicielle scientifique, MLOps ou infrastructures de données en environnement R&D - Expérience avérée en collaboration sur des bases de code robustes, performantes et scalables - Familiarité ou fort intérêt pour les sciences du climat, la simulation ou la modélisation physique est un plus - Solides compétences en transmission de connaissances et en communication - Exigence élevée en termes de qualité et de clarté du code

Freelance

Mission freelance
Expert Mobilité, MDM N3 Workspace ONE - Paris/Toulouse/télétravail/Vortsone

VORSTONE
Publiée le
Android
Application mobile
Cybersécurité

12 mois
500-750 €
France

Expert Mobilité, MDM N3 Workspace ONE, anglais Vorstone recherche un Expert Mobilité, MDM N3 Workspace ONE, anglais requis, pour un de ses clients localisé à Paris et Toulouse. Remote possible. l' Expert Mobilité, MDM N3 Workspace ONE Assurera le support de niveau 3, la gestion avancée, l’évolution et le maintien en condition opérationnelle de la solution MDM Workspace ONE, avec un focus particulier sur les environnements Android Enterprise et Apple iOS/iPadOS. Contribuer à l'amélioration continue des processus de gestion de la flotte mobile. Missions principales 1)Support N3 & Expertise Technique Prendre en charge les incidents et problèmes de niveau 3 liés à la solution Workspace ONE. Analyser les dysfonctionnements complexes et piloter leur résolution avec VMware si nécessaire. Assurer le support avancé pour les équipes N1/N2 (escalade, documentation, conseil) 2)Administration et Ingénierie MDM Administrer, configurer et optimiser la plateforme Workspace ONE UEM. Gérer les profils, politiques de conformité, applications (publics, internes, VPP), et la sécurité des terminaux Android & iOS. Participer aux projets de migration, d’upgrade de version, ou de refonte de l’architecture MDM. 3)Gestion de flotte mobile Définir et mettre en œuvre les stratégies de sécurisation des appareils mobiles. Suivre les KPIs de conformité et l’état de santé des terminaux. Documenter les procédures et les configurations. 3)Veille & Conseil Assurer une veille technologique sur les évolutions MDM, Android Enterprise, Apple Business Manager (ABM) Participer aux choix d’architecture, de design et d’évolution de la solution. Être force de proposition dans l’amélioration continue des services mobilité.

Freelance

Mission freelance
Développeur Big Data

Signe +
Publiée le
.NET
Apache Hive
Apache Spark

3 mois
400-480 €
Paris, France

La mission va se dérouler au sein de l'IT Data Management & BI dans l'équipe Big Data & API / Squad CCO qui aujourd'hui gére l'Entrepôt des données client de la CIB à travers l'application INDIXIS utilisée par les équipes IT et métiers. L'objectif de la mission est de renforcer l'équipe avec un rôle de Développeur / Data Engineer orienté DevOps au sein de la Squad : - Gestion de la production - Gestion de la dette technique - Revoir l'architecture actuelle et proposer des évolutions - Développements liés aux projets Concrètement : la mission principale de la prestation aura pour but de : - traiter nos obsolescences de Framework (ex : springboot , spark2 ) - moderniser et industrialiser nos pipelines de build en intégrant les bonnes pratiques devsecops : - migration depuis tfs vers jenkins - création directe sur jenkins Le but étant d'optimiser notre code , d'assainir et d'automatiser nos déploiements via xldéploy. Le code concerne nos apis et nos process de transformation hadoop/spark ( en java , python ) Expertises spécifiques : - Spark / PySpark /Python / Java / SpringBoot / .net - Hadoop sur infra on premise - Hive / SQL/HQL - Unix/Bash - Pipeline CI/CD jenkins - XLDeploy/XLRelease - Control-M - API

CDI

Offre d'emploi
Consultant Reporting et Analyse de performance en Asset Management

Mon Consultant Indépendant
Publiée le
MOA

50k-60k €
Paris, France

Depuis plus de 20 ans, nous accompagnons les institutions financières dans leurs grandes transformations métier, technologiques et réglementaires. Grâce à notre expertise de la chaîne Front to Back to Reporting , nous intervenons sur des projets complexes à forte valeur ajoutée, dans les univers Asset Management, Banque d’investissement et Services financiers . Notre positionnement unique nous permet de conjuguer vision stratégique, maîtrise opérationnelle et compréhension technologique des écosystèmes financiers. C’est ce qui fait de nous un acteur de référence auprès des directions métiers, opérationnelles et transformation de nos clients. Vos missions Au sein d’une équipe en charge du reporting commercial, réglementaire et client , vous interviendrez sur des projets stratégiques et opérationnels, mêlant expertise MOA et production. Vos missions principales seront : Apporter un support fonctionnel et technique à l’équipe reporting. Gérer les incidents liés à la production en lien avec le partenaire externe et les équipes internes (Data Management, Middle Office, Front Office…). Rédiger les spécifications fonctionnelles et techniques pour les besoins de reporting. Réaliser des développements dans divers outils ( SQL, Coric Layout Builder, Birt ). Contribuer à des projets de transformation (migration d’outils, refonte de la gamme reporting, reprise de fonds). Collaborer avec la DSI et les éditeurs ( Simcorp, StatPro Revolution ) pour l’ automatisation des flux et processus . Documenter et optimiser les processus de reporting (procédures, délais, outils). Profil recherché Diplômé(e) d’une grande école de commerce, d’ingénieur ou d’un master universitaire de haut niveau. Vous justifiez de 3 à 6 ans d’expérience en MOA et reporting dans le secteur financier, idéalement en Asset Management. Vous disposez de solides compétences en SQL et avez déjà travaillé avec des outils de reporting (Coric, Birt ou équivalent). Vous comprenez les environnements financiers liés au reporting réglementaire, contrôle de données, middle/back office . Vous êtes rigoureux(se), analytique et orienté(e) solutions, avec une réelle capacité à travailler en équipe et à coordonner différents interlocuteurs. La maîtrise de l’ anglais professionnel est un plus dans un contexte international. Ce que nous vous offrons Des missions visibles et stratégiques au sein de grands acteurs de l’Asset Management. Un rôle complet mêlant expertise MOA et opérationnelle . Un environnement stimulant où votre initiative et votre esprit d’équipe seront valorisés. Des opportunités de développement professionnel et de montée en compétences rapides. Une structure à taille humaine, favorisant la proximité, l’évolution et la contribution active aux projets du cabinet. 👉 Vous avez une vision. Nous vous donnons les moyens de la concrétiser. Rejoignez un cabinet à impact, où expertise rime avec exigence et sens. Postulez dès maintenant.

Freelance

Mission freelance
Dynasys (QAD DSCP) Application Specialist (h/f)

emagine Consulting SARL
Publiée le

6 mois
600-700 €
75001, Paris, Île-de-France

Vous êtes un spécialiste expérimenté des applications Dynasys (QAD DSCP) avec une solide expérience dans la gestion des données et le support système? emagine a une opportunité pour vous de soutenir le bon fonctionnement et l'amélioration continue de la plateforme logicielle Dynasys au sein d'une équipe internationale. Are you an experienced Dynasys (QAD DSCP) Application Specialist with a strong background in data management and system support? emagine has an opportunity for you to support the smooth operation and continuous improvement of the Dynasys software platform with a global team. Key Tasks & Deliverables: User Access Management (10%) : Handle user access requests and permissions, ensuring timely and appropriate access. Interface Issue Resolution (20%) : Collaborate with SAP teams to troubleshoot and resolve interfacing issues. Scope Adjustments (30%) : Implement scope changes to reflect organizational shifts and maintain accurate data visibility. Mass Data Uploads (40%) : Execute large-scale data uploads and updates to support forecasting, budgeting, and data clean-up initiatives. You’ll play a pivotal role in maintaining and enhancing a critical business platform, working remotely with collaborative and enabling teams. Your contributions will directly support business continuity and decision-making processes. Key Skills & Experience: Proven experience with Dynasys (QAD DSCP). Strong attention to detail and troubleshooting capabilities. Effective communication with both technical and business stakeholders. Autonomous and comfortable working in remote environments. Nice to Have: Experience with SAP systems. Background in business process management. Familiarity with forecasting and budgeting workflows. Remote role for consultants based in Europe, ideally France. Teams are collaborative and enabling, with a need for autonomous/self-starting candidates. Apply with your latest CV or reach out to Brendan to find out more.

Freelance

Mission freelance
Analytics Engineer Senior

CAT-AMANIA
Publiée le
Amazon S3
Databricks
DBT

1 an
100-450 €
Lille, Hauts-de-France

Nous changeons d’ ERP comptable + achats indirects + notes de frais pour les remplacer par une solution unique SaaS Workday. L’Analytics Engineer : Sera responsable de la transformation des données des outils legacy pour leur mise à disposition auprès de l’intégrateur chargé de déployer la solution Workday. Analyse et compréhension des systèmes sources / données existantes : Collaborer étroitement avec les PM, BI Engineers, les métiers et les Data Owners afin d’identifier les besoins, exigences et contraintes liées aux données, ainsi que les datasets à transformer et les pipelines de transformation à créer. Documenter les sources, les données et les règles de transformation existantes. Conception et développement de transformation de données sécurisés : Concevoir et développer des pipelines de données robustes et évolutifs pour transformer, garantir la qualité/intégrité de la donnée et charger la donnée des systèmes sources à destination de notre intégrateur partenaire. Mettre en œuvre des règles de transformation complexes pour adapter les données aux standards / templates définis par l’intégrateur. Mise à disposition des données et contrôles qualités : S'assurer que les données transformées sont conformes aux spécifications de l'intégrateur, respectent les formats, les structures et les règles de validation. Avec le Data Quality manager, mettre en place des mécanismes de contrôle pour garantir la conformité des données. Effectuer/Collaborer sur les tests unitaires, d’intégration, UAT

104 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

France

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous