Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 2 565 résultats.
Freelance

Mission freelance
POT8785 - Un Product Owner Data Sénior sur Paris.

Publiée le
Méthode Agile

6 mois
400-460 €
Paris, France
Télétravail partiel
Almatek recherche pour l'un de ses clients, un Product Owner Data Sénior sur Paris. Objectif de la mission Assurer le Product Ownership des socles Data pour le programme Data Performance, afin de : maximiser la valeur business, garantir l’adoption des produits par les métiers, sécuriser la performance des traitements et le passage en RUN. Le consultant sera également amené à collaborer avec le Product Manager transverse et à accompagner la transformation Data dans l’organisation. Missions principales 1. Product Ownership des socles Piloter le backlog des socles et prioriser les évolutions en fonction des besoins métiers. Rédiger user stories et spécifications fonctionnelles pour les fonctionnalités critiques. Assurer la cohérence fonctionnelle avec les objectifs métiers : CA, performance commerciale, nouveaux services marketing. Préparer le passage en RUN et accompagner l’adoption des produits par les métiers. Suivre les traitements existants, le legacy, les référentiels et les adhérences. 2. Collaboration avec le Product Manager transverse Participer à la structuration et pilotage industriel des socles Data. Contribuer à la roadmap Data à 3 ans, et à la mise en place du PI Planning. Déployer des KPIs orientés valeur business pour mesurer l’impact des socles et des cas d’usage. Préparer les supports de COPIL / CEB / COPROJ, incluant avancement, risques et indicateurs de valeur. 3. Accompagnement de la transformation Data Décliner les orientations de la transformation (audit plateforme Data) dans les pratiques des socles et zones business. Suivre les pilotes New SAPO et Distribution, sécuriser leur mise en œuvre et généraliser les bonnes pratiques. Contribuer à la conduite du changement : acculturation, formation, communication et montée en maturité des équipes métiers et SI. Livrables clés: Backlog et priorisation des évolutions des socles User stories / spécifications fonctionnelles Roadmap Data à 3 ans KPI de valeur business et supports de pilotage pour COPIL / CEB Documentation sur la transformation Data et accompagnement au changement Profil recherché: Expérience Product Owner Data dans des grands groupes ou environnements complexes Connaissance en transformation Data et Data Office Capacité à travailler avec les métiers et la DSI pour traduire les besoins en solutions Data opérationnelles Maîtrise des concepts modernes de data architecture, notamment Data Mesh et gestion de référentiels Expérience Agile / PI Planning / gestion de roadmap Data Orientation forte valeur business, capacité à mesurer et suivre l’impact des socles et produits Data Idéalement : connaissance environnement transport (données clients, données commerciales / financières)
Freelance

Mission freelance
Data Engineer

Publiée le
Data analysis
Dataiku
ELK

3 mois
300-550 €
Châtillon, Île-de-France
Télétravail partiel
Context La prestation s'incrit dans la mission de MCO/MCS et de développement de la solution Denodo. L'equipe centrale a la responsabilité de fournir une plateforme opérationnel et d'optimiser sont fonctionnement pour rendre le meilleur service possible aux métiers / clients. Il faut également que le prestataire soit en capacité de réalisé des vues dans la solution pour assister les projets qui souhaitent utiliser Denodo mais n'ont pas de compétences dans leur équipe. Mission Infrastructures de données : * Cartographie et documente les sources de données. * Assure la maintenance des différentes applications données (Data) déployées en production et des infrastructures. * Conçoit les solutions permettant le traitement de volumes importants de flux de données et ceci en toute sécurité. * Structure les bases de données (sémantique, format, etc.). * Contribue à la gestion des référentiels de données. Intégration des données : * Capte et stocke, en toute sécurité, les données (structurées ou non) produites dans les différentes applications ou venant de l'extérieur de l'entreprise. * Assure la supervision et l'intégration des données de diverses nature qui proviennent de sources multiples. * Vérifie la qualité des données qui entrent dans le Data Lake et s'assure de leur sécurité. * Nettoie la donnée (élimination des doublons?) et la valide pour une utilisation aval. Animation des communautés : * Anime la communauté technique qui met en œuvre les dispositifs prévus ou nécessaires à l'application de la politique de la donnée de l'entreprise. Veille technologique : * Reste en alerte sur les technologies liées au traitement de la manipulation de la donnée et identifie les solutions utilisables. * Propose des évolutions pour les infrastructures et solutions de données en place Exemple de livrables * Dossier d'architecture (ou cadre technique) des solutions (plateformes) de traitement des données. * Un data lake adapté aux besoins actuels et futurs de l'entreprise. * Une cartographie des données. * Les éléments permettant de garantir la qualité de la donnée.
CDI

Offre d'emploi
Data Ops

Publiée le
DevOps
Python

40k-70k €
Levallois-Perret, Île-de-France
Télétravail partiel
Notre équipe, dynamique et internationale, au profil « start-up » intégrée à un grand groupe, rassemble des profils de data scientist (computer vision, NLP, scoring), un pôle ML engineering capable d'accompagner les DataScientists lors de l'industrialisation des modèles développés (jusqu'à la mise en production) ainsi qu’une équipe AI Projects. AI Delivery met aussi à disposition des lignes de métiers Personal Finance la plateforme de Datascience « Sparrow », qui comporte - Une plateforme d'exploration et de développement Python, Sparrow Studio, développée in-house par une équipe dédiée. - Un framework d'industrialisation des modèles de Datascience, Sparrow Flow, ainsi qu'une librairie InnerSource “pyPF” facilitant les développements des Data Scientist. - Une plateforme d'exécution des modèles de Datascience, Sparrow Serving. - Un outil de Community Management, Sparrow Academy. L’équipe, composée de MLOps engineers, de back et front end engineers a pour principale mission d’être garante de la qualité des livrables de l’ensemble de la direction, de les déployer sur le cloud privé du Groupe, « dCloud » et enfin d’assurer la haute disponibilité de l’ensemble de nos assets. Cette équipe conçoit, développe et maintient des plateformes et des frameworks de data science. PF fait appel à une prestation en AT pour assurer l’évolution et la haute disponibilité de l'ensemble de nos assets. Dans ce contexte, nous faisons appel à une prestation en assistance technique. les missions sont : - Administration/Exploitation/Automatisation système d’exploitation de nos clusters - Build et optimisation d’images Docker + RUN de nos 400 containers de production (>500 utilisateurs). - Construire, porter la vision technique de la plateforme et piloter les choix technologiques et d’évolution de l’architecture. - Faire de la veille et se former aux technologies les plus pertinentes pour notre plateforme de data science afin de continuer à innover. - Rédaction de documents techniques (architecture, gestion des changes et incidents). - Production de livrables de qualité et partage des connaissances à l’équipe. Notre stack technique : - Infrastructure / DevOps : GitLabCI/CD, GitOps ( ArgoCD ). Cloud privé BNP. - Containers: Docker, Kubernetes. Profil recherché : - Compétences avancées sur Kubernetes (Architecture, Administration de Clusters) - Connaissances sur la gestion des secrets (Vault) - Bonnes compétences réseau : reverse proxy (Traefik), authentification (Keycloak, JWT, OIDC). - Bonnes connaissances de GitLab et des processus de CI/CD. - Connaissances de l’approche GitOps ( ArgoCD ) - Compétences sur l’observabilité dans un contexte Kubernetes ( Prometheus, AlertManager, Grafana ) - Connaissances en bases de données relationnelles (PostgreSQL) appréciées. - Anglais correct à l’écrit et à l’oral. - Profil rigoureux. Les sujets traités par l’équipe sont variés : - Participer à la maintenance/l’évolution des frameworks de data science existants (Python) ; - Participer à la maintenance/l’évolution des pipelines de CI/CD (Gitlab CI, GitOps) ; - Participer à la maintenance/l’évolution de l’Observabilité des plateformes (logging, monitoring, traçabilité); - Participer à la mise en production des outils et des solutions IA déployées sur la plateforme ; - Être force de proposition et participer aux POCs. Stack Technique de l’équipe : - Langages : Python, Golang, Bash - GNU/Linux - Kubernetes - Observabilité : Prometheus, Thanos, AlertManager, Grafana - Sécurité : Vault - DevOps tooling : Docker, Buildkit, Gitlab, GitlabCI, Artifactory, ArgoCD, Helm, Kustomize, CUE/Timoni - Cloud services : Certmanager, Redis, Jaeger, ELK, MinIO, PostgreSQL, ClickHouse, External-DNS
Freelance

Mission freelance
Ingénieur DevOps Cloud Azure – Confirmé / Expert (Data & BI)

Publiée le
Architecture ARM
Azure
Azure DevOps

6 mois
Île-de-France, France
Description du poste : Intégré au Data Lab de la Direction Digital & Data d'un grand groupe Retail, vous pilotez l'architecture et l'industrialisation des projets BI et Data sur le Cloud Microsoft Azure. Au sein d'une équipe Agile d'une dizaine de personnes, vous assurez la liaison entre les équipes techniques (Dev, Sécurité, Ops) et projets. Vos missions s’articulent autour de trois axes majeurs : Construction et Déploiement : Vous concevez et dimensionnez les infrastructures Cloud Public (Azure). Vous déployez les architectures cibles pour les projets Big Data (DataLake, EventHub, Databricks). Industrialisation (DevOps) : Vous garantissez l'approche "Infrastructure as Code" (IaC) via ARM et YAML. Vous configurez et maintenez les pipelines CI/CD (Azure DevOps, Git) pour automatiser les déploiements. Exploitation et Sécurité : Vous mettez en place la supervision et assurez la haute disponibilité des services. Vous gérez le Maintien en Condition Opérationnelle (MCO), les sauvegardes, les accès et la sécurité, tout en participant aux validations techniques et aux audits.
Freelance
CDI

Offre d'emploi
Data Ops

Publiée le
Apache Spark

1 an
40k-45k €
400-550 €
Quartier du Montparnasse, France
Télétravail partiel
· Déploiement et administration avancée des applications Spark, Trino ou Jupyter sur Kubernetes. · Tuning et optimisation des performances : ajustement des configurations, analyse des logs, debugging avancé, optimisation des requêtes SQL (Trino), tuning des jobs Spark. · Gestion du RUN et support applicatif : diagnostic et résolution des incidents, amélioration continue des performances, accompagnement des utilisateurs sur l’optimisation des requêtes. · Mise en place de l’approche GitOps : automatisation complète du déploiement et de la gestion des applications avec Terraform, Ansible, Git, ArgoCD/FluxCD. · Sécurisation et monitoring avancé : implémentation de métriques et alertes sur Prometheus, Grafana, Loki, gestion des accès et des logs applicatifs.
Freelance
CDI

Offre d'emploi
Data Science/Analyse

Publiée le
BigQuery
SQL

1 an
40k-45k €
310-450 €
Île-de-France, France
Télétravail partiel
Data Science/AnalyseContexte La Direction Data, au sein de la Direction du Numérique, a été créée avec la volonté de faire de la Data un levier de croissance des offres numériques. La Direction du Numérique a en effet de forts enjeux de développement des usages numériques de contenus propres ou issus des chaînes d'une grande organisation audiovisuelle. La Direction Data a 3 grandes missions : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l'expérience utilisateurs et mettre à disposition auprès des équipes internes des outils d'aide à la décision et des outils de pilotage. Description du poste L'équipe Data Science recherche une prestation de Data Science Analyse - Edito & Produit. Une expérience de 2 ans est requise pour cette prestation. Déroulement des analyses Être à l'écoute et comprendre les besoins métier Proposer des méthodes et des axes d'analyses pertinents pour y répondre Tirer des enseignements et faire des recommandations en se basant sur les résultats de l'analyse Synthétiser les résultats, les mettre en forme (Excel, Power Point) et les restituer à l'oral aux équipes métier Communiquer régulièrement sur les résultats des analyses réalisées à l'ensemble de la direction Analyses pour enrichir l'animation et la stratégie éditoriales Profiling utilisateurs : par catégories de contenus, programmes, par chaînes, par device… Analyses de parcours : programmes ou catégories recrutants, fidélisants Segmentation des utilisateurs selon leurs préférences de contenus, les moments de consommation… Analyses pour enrichir la stratégie produit Audit des données issues des nouvelles fonctionnalités Analyse de l'usage des fonctionnalités, profiling Analyse de l'impact de nouvelles fonctionnalités sur le comportement utilisateur : recrutement, engagement Analyse des parcours des utilisateurs sur les différentes offres digitales : entrée sur la plateforme, accès aux contenus… Dashboards Être référent sur les dashboards de connaissance utilisateurs Garantir la maintenance et la bonne mise à jour des dashboards existants Ajustement des existants (nouveaux indicateurs, modifications de calculs…) Être force de proposition sur les évolutions des dashboards existants Créer de nouveaux Dashboards : prise de besoin avec le métier, identification des indicateurs pertinents, maquette de visualisation, définition de la structure de la donnée, création du dashboard Power BI Communiquer sur les dashboards, accompagner les équipes métiers dans leur utilisation, mettre en place des démos…
Freelance

Mission freelance
Chef de Projet Data Client Technico-fonctionnel

Publiée le
Data quality
Modèle Conceptuel des Données (MCD)
Transformation digitale

3 mois
550-600 €
Guyancourt, Île-de-France
Télétravail partiel
🔍 Nous recherchons Chef de projet Data / PO Data Client capable de piloter des projets Data transverses dans un environnement digital exigeant et multi-métiers. Un vrai CP/PO Data techno-fonctionnel , à l’aise autant sur la compréhension métier que sur les sujets techniques Data : ✅ Piloter des projets Data transverses (Digital / CRM / Customer Data) ✅ Assurer le mapping de données , la qualité , la modélisation et la cohérence globale ✅ Échanger avec toutes les équipes : Produits, Digital, Data, CRM, Web ✅ S’imposer comme référent Data dans les échanges — leadership indispensable ✅ Produire ou challenger du reporting , des KPIs, des modèles de données ✅ Cadrer les besoins, structurer les cas d’usage et garantir l’alignement métier ✅ Contribuer à la transformation Data/Digital (agile + V, contexte hybride, parfois “pompiers”)
Freelance

Mission freelance
237039/Data Engineer Powercenter (Informatica), SQL Developper, Dbvisualizer Niort

Publiée le
Informatica

3 mois
380-410 £GB
Niort, Nouvelle-Aquitaine
Data Engineer Powercenter (Informatica), SQL Developper, Dbvisualizer Niort Activité : Analyse, spécification, développement, test et maintenance Outil de dev : Powercenter (Informatica), SQL Developper, Dbvisualizer Langage: SQL, PL/SQL, SGBD : Oracle, Hive Méthode : SAFE Data Engineer Powercenter (Informatica), SQL Developper, Dbvisualizer Niort Activité : Analyse, spécification, développement, test et maintenance Outil de dev : Powercenter (Informatica), SQL Developper, Dbvisualizer Langage: SQL, PL/SQL, SGBD : Oracle, Hive Méthode : SAFE
CDI

Offre d'emploi
Data Scientist

Publiée le
Azure
Data science

Paris, France
Télétravail partiel
Vous êtes passionné·e par la donnée, l’intelligence artificielle et l’impact business ? Rejoignez une équipe innovante qui met la data au cœur des décisions stratégiques et participez à la conception de modèles prédictifs et de solutions à fort impact pour des projets internationaux. 🚀 Vos missions En tant que Data Scientist , vous serez au cœur de la transformation data. Vos principales responsabilités : Concevoir, développer et industrialiser des modèles de machine learning et d’ IA répondant à des problématiques concrètes (prévision de la demande, optimisation marketing, performance industrielle, etc.) Collaborer avec les équipes Data Engineering et les métiers pour traduire les besoins business en solutions data performantes Analyser, structurer et valoriser de grands volumes de données issues de sources multiples Garantir la qualité, la robustesse et l’interprétabilité des modèles déployés Participer activement à la diffusion d’une culture data-driven au sein de l’entreprise
Freelance

Mission freelance
Ingénieur DataOps / SRE Data

Publiée le

5 mois
500 €
France
Objet de la prestation Le consultant interviendra pour assurer le support opérationnel et contribuer à la fiabilité, la performance et la bonne utilisation des plateformes Big Data. Missions principales Assurer le support de niveau 2 en production (PROD) sur les plateformes Spark, Airflow et Starburst. Prendre en charge la gestion des incidents , l'analyse des causes racines ( RCA ) et la résolution. Contribuer à l' optimisation des traitements Spark sur Kubernetes : tuning, configuration, dimensionnement, gestion des ressources. Optimiser et fiabiliser l' orchestration Airflow/Astronomer . Participer à la gestion des catalogues Starburst (Trino) et au suivi des performances des requêtes distribuées. Accompagner les équipes métiers pour un usage efficace, sécurisé et performant des plateformes. Maintenir et enrichir la documentation d'exploitation , procédures et guides utilisateurs. Participer à l' amélioration continue de l'écosystème : automatisation, standardisation, observabilité, fiabilité. Compétences techniques attendues Expertise en environnement Data / Production Expérience confirmée en exploitation Big Data en production . Technologies (au moins 2 maîtrisées) Kubernetes / IKS / OpenShift Apache Spark Apache Airflow / Astronomer Starburst (Trino) Compétences associées Maîtrise du support et du troubleshooting sur des services déployés sur Kubernetes (Helm charts, opérateurs…). Solide expertise en monitoring / observabilité : logs, métriques, dashboards. (Dynatrace, Kibana, Grafana…) Bonnes pratiques d'exploitation de traitements distribués. Connaissances approfondies en : Tuning Spark Profiling applicatif Gestion fine des ressources (executor, driver, mémoire, shuffle…) Compétences en scripting : Bash, Python, Ansible (appréciées). Maitrise des chaînes CI/CD : Git, Jenkins, GitLab CI… Compétences en sécurité : Hashicorp Vault Secrets , PKI, gestion des certificats. Compétences transverses Excellente capacité d'analyse et de diagnostic d'incidents complexes. Rigueur et fiabilité en environnement de production critique. Capacités rédactionnelles pour formaliser procédures, guides et rapports. Bon relationnel et capacité à accompagner les équipes métiers. Français et anglais opérationnel. Montreal Associates is acting as an Employment Business in relation to this vacancy.
CDI

Offre d'emploi
Data Analyst

Publiée le
Microsoft SQL Server
Microsoft SSIS
Tableau Desktop

Paris, France
Télétravail partiel
En tant que Data Analyst au sein de la division e-banking d’une des principales institutions financières européennes, vous serez chargé·e de transformer des données complexes en insights exploitables, afin d’orienter les décisions stratégiques et l’innovation dans la banque digitale. Vous travaillerez en étroite collaboration avec des équipes pluridisciplinaires, en exploitant des outils analytiques avancés pour améliorer l’expérience client, optimiser la performance opérationnelle et soutenir la conformité et la sécurité dans un environnement dynamique et exigeant. Vos missions principales Concevoir, développer et maintenir des tableaux de bord et rapports interactifs pour soutenir l’intelligence décisionnelle. Extraire, transformer et charger (ETL) les données issues de divers systèmes bancaires via SSIS, en garantissant leur qualité et leur cohérence. Réaliser des analyses approfondies sur des bases MSSQL : requêtage, modélisation, nettoyage. Collaborer avec les parties prenantes pour recueillir les besoins métier et les traduire en solutions techniques. Surveiller et évaluer les flux de données, résoudre les problèmes et proposer des améliorations. Documenter les processus, standards et méthodologies pour assurer la transparence et la reproductibilité. Réaliser des analyses ponctuelles pour soutenir la conformité réglementaire, la gestion des risques et le développement produit. Participer à la migration et à l’intégration de systèmes legacy vers des plateformes analytiques modernes.
Freelance

Mission freelance
Data Analyst – Skywise / Data Products / Substances

Publiée le
Product management
Reporting
SAP

3 ans
Toulouse, Occitanie
Télétravail partiel
Nous recherchons un Data Analyst pour rejoindre une équipe Data engagée dans l’optimisation et la valorisation des Data Products au sein de la plateforme Skywise. 📍 Toulouse - 3-4 jours de TT 📅 Démarrage ASAP ou Janvier possible Votre rôle : garantir la qualité, la cohérence et la disponibilité des données, tout en soutenant la création de nouveaux Data Products et le reporting associé. ✅ Créer et améliorer les Data Products (80+ existants) ✅ Maintenir le lien entre HazMat (SAP) et les données Skywise ✅ Concevoir des Data Products Composites (ex. : Chemicals x Logistics) et assurer leur officialisation dans le catalogue Skywise ✅ Développer et maintenir les cockpits et rapports Substances ✅ Fournir des extractions et analyses pour les clients internes
Freelance

Mission freelance
Ingénieur Système & Data – Monitoring / Maintenance / Big Data

Publiée le
Angular
Apache Spark
Hadoop

3 ans
Île-de-France, France
Télétravail partiel
Contexte de la mission : Au sein de la Direction des Systèmes d’Information d’un grand groupe du secteur financier, vous intégrerez une équipe en charge du pilotage des risques structurels et du reporting financier . L’objectif de la mission est de maintenir et faire évoluer une plateforme technique basée sur la technologie ClickHouse® , en garantissant sa stabilité, ses performances et sa sécurité . Missions principales : La prestation consiste à contribuer aux activités suivantes : Surveillance et monitoring de l’infrastructure ; diagnostic des incidents et anomalies Maintien en conditions opérationnelles de la plateforme (composants, performances, dette technique, montées de version) Rédaction et exécution de scripts de maintenance de l’infrastructure (équilibrage des disques, tuning système, automatisation) Application des exigences de sécurité et des procédures internes (remédiation des vulnérabilités, patching, CI/CD) Définition, estimation et planification des activités techniques Rédaction de spécifications et documentation techniques Support et accompagnement des équipes internes dans la gestion quotidienne de la plateforme
Freelance
CDI

Offre d'emploi
DATA ENGINEER GCP (480€ MAX)

Publiée le
Google Cloud Platform (GCP)

3 mois
40k-81k €
370-480 €
Paris, France
Télétravail partiel
• Au moins 3 ans d’expérience en tant que Data Ingénieur dans un environnement data • Compétences solides en data : structures de données, code, architecture • Expériences dans la conception et la réalisation de pipelines data • Expériences dans un environnement du cloud Google (GCP) • Expériences intégrant BigQuery • Expériences intégrant les langages Python et SQL • Expériences intégrant PySpark • Expériences intégrant Terraform et Terragrunt • Expériences intégrant Gitlab et Gitlab CI/CD • Expériences intégrant les méthodologies Agile : Scrum ou Kanban • Capacité à vulgariser et à communiquer sur des aspects purement techniques 1 . Déployer les cas d’usages en lien avec la personnalisation de l’expérience utilisateur 2. Accompagner les utilisateurs dans leurs usages 3. Mettre en place le contrôle qualité sur ces datasets
Freelance

Mission freelance
POT8789 - Consultant(e)s Senior MOA SI / Product Owner Data sur Saint Denis

Publiée le
MOA

6 mois
400-550 €
Saint-Denis, Île-de-France
Télétravail partiel
Almatek recherche pour l'un de ses clients, des Consultant(e)s Senior MOA SI / Product Owner Data sur Saint Denis Expérience : Confirmée en maîtrise d’ouvrage SI, idéalement dans des environnements complexes ou en Asset Management. Missions principales : Analyse et rédaction des besoins métier Identifier les données impliquées et leurs typologies. Définir les indicateurs de qualité et prioriser les enjeux. Élaboration des spécifications fonctionnelles Formaliser les besoins en spécifications générales et détaillées. Pilotage et exécution des recettes Définir la stratégie, les cas de test, constituer les jeux de données et suivre les résultats. Assurer les tests fonctionnels et de non-régression. Maintien en condition opérationnelle (MCO) Garantir la continuité et l’actualisation des offres SI existantes. Product Owner / Backlog Management Identifier et prioriser les besoins fonctionnels et les évolutions de données. Rédiger users stories et spécifications détaillées. Suivi du portefeuille et comitologie Produire la météo projet, suivre le budget, la feuille de route et la commande de production annuelle. Communication et conduite du changement Diffuser l’information, rédiger articles ou supports de démonstration, et accompagner les utilisateurs. Outils collaboratifs Maintenir SharePoint et produire des indicateurs via Power BI. Profils recherchés : Consultant(e) senior MOA SI, autonome et proactif, capable de gérer des sujets complexes. Expérience confirmée en environnement complexe, idéalement en Asset Management ou gestion de portefeuille SI. Capacités d’analyse, de synthèse, d’organisation et d’animation de réunions. Maîtrise des outils collaboratifs (SharePoint, Teams), Power BI et méthodologies Agile/Product Owner. Capacité à vulgariser les sujets techniques et à produire des livrables clairs et rigoureux.
Freelance
CDI

Offre d'emploi
Business Analyst ERP / D365 Finance

Publiée le
ERP
Microsoft Dynamics
Power Automate

6 mois
Île-de-France, France
Télétravail partiel
Nous recherchons un Business Analyst ERP Finance (Microsoft Dynamics 365) confirmé pour rejoindre une équipe IT dédiée au domaine Finance dans un environnement international. Vos missions principales : Recueillir, analyser et documenter les besoins métiers auprès des équipes Finance. Rédiger les spécifications fonctionnelles et participer à la conception des solutions. Accompagner les chefs de projet dans la mise en œuvre des évolutions ERP. Élaborer les plans de tests et piloter les UAT . Former et accompagner les utilisateurs clés. Contribuer à l’amélioration continue des processus et outils Finance. Compétences requises : Maîtrise confirmée d’un ERP Finance – Microsoft Dynamics 365 (D365) . Bonne connaissance des processus comptables et de contrôle de gestion . Connaissances en workflow / Power Automate et reporting électronique appréciées. Notions de gestion de projet (planification, suivi, coordination). Anglais professionnel impératif.
2565 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous