Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 141 résultats.
Freelance

Mission freelance
Développeur CVA Expert Java/J2EE H/F

Nexius Finance
Publiée le
Java

3 ans
Paris, France

Un grand acteur des marchés de capitaux renforce son SI Risque de contrepartie et sa chaîne CVA/XVA front . Vous intervenez dans une équipe resserrée, très proche du front-office , sur un périmètre critique mêlant volumétrie élevée , latence très faible et exigences de stabilité . Contexte international (utilisateurs en Asie, Europe, US). Votre rôle Concevoir, développer et optimiser des applications de risque de contrepartie et de CVA au cœur d’une grille de calcul haute performance, avec des SLA millisecondes côté APIs et une base d’utilisateurs large (2000+). Ce que vous ferez Analyse & design : recueillir les besoins, investiguer les issues, proposer des solutions robustes, flexibles et pérennes . Back Java 17 (core) : résolution de problématiques volumétriques & performance sur toutes les couches applicatives. Spring / Spring Boot (security, swagger, configuration, JPA) REST APIs + SOAP (WSDL/XSD), XML parsing avancé (marshalling/unmarshalling) Web/UI : développement de la couche graphique Angular + Bootstrap pour les utilisateurs métier (2000+). Grille de calcul distribuée : gestion des calculs (orchestration, suivi, relance, data management) — Middleware DataSynapse . APIs low-latency : garantir des SLA en millisecondes . Supervision : mise en place de BAM (Business Activity Monitoring) pour les flux d’alimentation & traitements. DevOps/Run : dockerisation , déploiements Kubernetes , scripts Linux (gestion process Java, manip. XML/CSV, tri/filtrage/transfo de données). Caches & stockage : Redis (cache distribué), MongoDB (document store). Contribution architecture : participation aux chantiers de grid computing et data caching de la filière Risque. Stack & compétences clés Indispensables Expertise Java 17 / Spring Boot , REST/SOAP , XML avancé . Angular (front web pour large audience interne), Bootstrap . Grille de calcul & orchestration (idéalement DataSynapse ). Docker , Kubernetes , Linux scripting . Redis , MongoDB . Culture performance/low-latency , résilience et observabilité . Connaissance métier : finance de marché, risque de contrepartie , CVA/XVA front . Anglais courant (équipe/utilisateurs internationaux). Atouts appréciés Architecture SI Risque, patterns de scalabilité et caching . Sensibilité qualité (tests, clean code, CI/CD), sécurité , conformité marché.

Freelance
CDI

Offre d'emploi
Proxy Product Owner (H/F)

CITECH
Publiée le
Proxy

6 mois
40k-45k €
400-550 €
Paris, France

CITECH recrute ! 👌 ✨ Si vous souhaitez apporter vos compétences dans la réalisation d’un projet important, nous avons LA mission pour vous ! Nous recherchons en effet un(e) Proxy Product Owner (H/F) 🚀 Vous interviendrez pour un client international dans le domaine pharmaceutique, leur mission est de favoriser le progrès thérapeutique au service des patients. Il emploie plus de 21 400 personnes dans le monde dont 4 500 en France. Afin de servir la stratégie de digitalisation de la direction R&D, de nouvelles solutions LIMS et Data sont en train d’être mises en place au sein du Système d’Information de la Recherche. La direction « Business Solutions & Services » de la DDSI Servier recherche ainsi un Proxy Product Owner (PPO) capable de s’insérer dans une équipe SCRUM existante. Vous devrez notamment aider le PO à tester les US développées en collaboration avec les ingénieurs data/système ainsi qu’avec le métier (data management et experts opérationnels) dans le cadre des attentes imposées par le département d’assurance qualité. 🙌🔽 Vous aurez les missions principales suivantes : 🔽🙌 🔸 Analyse des US du backlog ainsi que celles embarquées dans les sprints. Travail de compréhension et de recommandations en amont en lien auprès des acteurs métiers (experts en pharmacologie et toxicologie, histologie, pathologie, biochimie) afin de s’assurer de leur « testabilité » 🔸 Écriture des procédures de tests en amont des sprints 🔸 Assistance dans la progression du développement des US afin d’anticiper la période des tests en récoltant le plus d’éléments de preuves 🔸 Test des US 🔸 Travail avec le département assurance qualité en collaboration avec le Scrum Master pour s’assurer du respect des procédures 🔸 Suivi de la mise en prod 🔸 Formalisation des sprints, produire les graphiques de performance des sprints

Freelance
CDI

Offre d'emploi
BUSINESS ANALYST DATA CONFIRME - 9 ans d'expérience dont 3min en tant que BA IT

SMILE
Publiée le
Agile Scrum
Confluence
Data analysis

6 mois
Paris, France

Merci d’envoyer vos propositions en précisant votre méthodologie d’intervention et vos références sur des projets similaires. Implémentation d'une Application ESG (Environnement, Social et Gouvernance). Contexte et Objectifs Nous recherchons un prestataire pour implémenter un nouveau composant technique, une application de collecte et de distribution des données ESG pour la Corporate and Investment Banking (CIB), ainsi que son interface graphique. En parallèle, il s'agira d'assurer la maintenance des applications de gestion du Green Weighting Factor. Le reporting ESG présente les données des entreprises sur les aspects environnementaux, sociaux et de gouvernance. L’objectif de ce reporting est d’assurer la transparence des entreprises sur ces aspects afin d'évaluer la gestion des risques et plus largement la responsabilité des entreprises vis-à-vis de l’environnement et de leurs parties prenantes (salariés, partenaires, sous-traitants, clients, investisseurs...). Pour ce faire, un référentiel comprenant l'ensemble des données ESG sera mis en place pour répondre aux besoins des différents métiers. Le premier cas d'usage de ce référentiel sera le Green Weighting Factor, un indicateur clé pour piloter la trajectoire climat de la CIB et un facteur différenciant par rapport à la concurrence. Descriptif du Poste :Missions : Intégré au sein de l'équipe ***** - Data Management & BI - ESG & GWF, vous travaillerez à la gestion des données ESG, notamment leur collecte, leur gestion et leur distribution afin de répondre aux besoins croissants de divers cas d'usage. Vos principales missions seront : Interagir avec une grande diversité d'interlocuteurs ITet préserver un climat serein Interview des métiers être capable de retranscrire leur besoins Comprendre le DATA Management Comprendre les sujets techniques DATA Etre en capacité de discuter avec des developpeurs Big Data et Business Analysts Power BI, Etre en capacité de récupérer de la donnée ou Comprendre et challenger les besoins actuels Anticiper les changements nécessaires et leurs conséquences ; Coordonner l'équipe de développement ; Respecter le cadre des projets (coût, délai, performance). Nous appliquons une méthodologie de travail agile, et vous serez intégré à notre communauté de business analysts. Profil et Compétences Requises De formation supérieure en informatique, vous justifiez d'au moins 9 ans d’expérience en tant que Business Analyst et d'une expérience significative en Corporate and Investment Banking (CIB). Compétences techniques requises : Excel ; Jira ; Confluence ; SQL ; Méthodologies agiles (Scrum, Kanban). Postman, Swagger seraient un grand plus Compétences comportementales : Proactif et force de proposition ; Excellent esprit de synthèse ; Aisance à l'écrit et à l'oral. Un niveau d’anglais C1 est requis. Conditions Poste basé à Paris ; 2 jours de télétravail par semaine ; Environnement de travail hybride, inclusif et collaboratif. Merci d’envoyer vos propositions en précisant votre méthodologie d’intervention et vos références sur des projets similaires.

Freelance

Mission freelance
Expert Etudes Salesforce

KEONI CONSULTING
Publiée le
Apex

18 mois
100-500 €
Le Mans, Pays de la Loire

CONTEXTE Mission chez Solution Salesforce MISSIONS - Le patrimoine Salesforce de est géré au sein de la Factory Salesforce qui comprend 4 entités : Intervenant sur les perimètres Community, plan de travail utilisateur, Gestion de personne, vision 360, découverte client, gestion des demandes (service cloud), Gestion commerciale (sales cloud), Analytics, gestion des droits, ... * La Factory Salesforce Chartres, * La Factory Salesforce Paris, Cette entité porte également la structure transverse « Design Authority », Product Owner, Data Management - La Factory Salesforce Niort, Cette entité porte également l’équipe transverse en charge du Maintien en Condition Opérationnelle (MCO) - La Factory Salesforce , Cette entité porte également la structure transverse « System Team » MISSIONS : Concepteur/développeur Salesforce - et SCRUM (double rôle) pour l'une de nos 3 équipes Agile Avoir minimum de 5 ans d'expérience sur Salesforce. Connaissance technique : - APEX - LWC - GIT/Copado Expérience aguerrit dans l'agilité à l'échelle et grand compte (domaine fonctionnel

Freelance

Mission freelance
CONSULTANT MOA / DATA QUALITY

PARTECK INGENIERIE
Publiée le
Microsoft Excel
Python
SQL

12 mois
400-550 €
Paris, France

Contexte de la mission Dans le cadre d’un programme de mise en conformité réglementaire et d’amélioration de la qualité des données, la mission vise à renforcer la fiabilité du référentiel client et à assurer sa cohérence avec les autres référentiels du groupe. Objectifs principaux Identifier et formaliser les améliorations techniques et opérationnelles à mettre en œuvre pour fiabiliser le référentiel. Définir et piloter les actions fonctionnelles (MOA) en coordination avec les équipes IT et métiers. Intégrer et suivre les indicateurs de qualité produits par les équipes Data et les programmes de gouvernance. Exploiter les outils d’analyse et de reporting (bases de données, Python, Excel, Business Object, Tableau) pour produire les indicateurs de pilotage de la qualité. Participer aux instances de gouvernance : préparation des réunions, rédaction de comptes rendus, synthèses et supports. Produire la documentation fonctionnelle et procédurale (spécifications, procédures, guides utilisateurs). Profil recherché Consultant MOA / Data Quality disposant d’une solide expérience en gestion de référentiels et gouvernance de données. Bonne connaissance des processus de qualité et d’intégrité des données dans un environnement réglementaire (type Bâle III, conformité groupe, etc.). Maîtrise des outils de pilotage et d’analyse de données : SQL, Python, Excel, Business Object, Tableau ou équivalents. Capacité à interagir avec des interlocuteurs variés (IT, métiers, data management) et à formaliser des besoins fonctionnels complexes . Excellentes compétences rédactionnelles (spécifications, procédures, synthèses de réunions). Esprit analytique, rigueur, autonomie et sens de la coordination. ASAP ANGLAIS

Freelance

Mission freelance
Ingénieur de production - Data / GCP

Cherry Pick
Publiée le
Big Data
Google Cloud Platform (GCP)
Production

12 mois
450-500 €
Paris, France

Notre client, un grand groupe bancaire, souhiate intégrer un profil d"ingénieur de production au sein de sa plateforme Data & Analytics Cloud , qui centralise les usages de reporting, data science et data management pour l’ensemble du groupe. Au sein du service Power BI Cloud et Data Platform , vous intégrerez l’équipe en charge de l’exploitation et de la fiabilité des environnements de production supportant plusieurs milliers d’utilisateurs et applications Missions : En tant qu’ Ingénieur de Production , vous participerez à la supervision, au maintien en conditions opérationnelles et à l’automatisation des services data et BI du groupe. Vos activités clés : Assurer l’ exploitation courante de la plateforme Power BI Cloud et des environnements Data (GCP). Gérer les déploiements applicatifs et les changements via XL Deploy . Participer à la mise en place d’infrastructures automatisées (Infrastructure as Code – Terraform ). Superviser les traitements de données et les flux d’ingestion sur BigQuery . Contribuer à la gestion des accès utilisateurs et à la sécurisation des environnements . Participer au diagnostic et à la résolution d’incidents en lien avec les équipes projet et data. Collaborer aux activités Build et à la mise en production de nouveaux services en mode Agile / DevOps . Être force de proposition pour l’amélioration continue , l’ industrialisation et la fiabilité des process d’exploitation Stack technique : Power BI Cloud (SaaS, administration et gouvernance) GCP : BigQuery, IAM, monitoring, déploiement de services Data Terraform (IaC) XL Deploy , intégration et automatisation des déploiements Scripting : Bash / Python / PowerShell Supervision et observabilité (outils du marché ou internes)

Freelance

Mission freelance
Architecte Solution Azure

Sapiens Group
Publiée le
Azure

1 mois
600-700 €
Hauts-de-France, France

Assurer la cohérence, la robustesse et la scalabilité de l’architecture cible autour de Microsoft Business Central et de son écosystème Azure , dans un contexte de déploiement international multi-BU . L’ Architecte Azure sera le garant de la vision technique globale , capable de challenger les choix proposés par Microsoft et l’intégrateur, et d’assurer la maîtrise de l’architecture finale . Responsabilités clés 1. Conception et définition de l’architecture cible Concevoir et documenter l’architecture cible sur Azure intégrant Business Central , Power Platform , Microsoft Fabric , Entra ID et les solutions de Data Management . Challenger les propositions de Microsoft et de l’intégrateur sur les axes scalabilité , sécurité , coûts et intégration . Garantir la cohérence des déploiements inter-BU tout en prenant en compte les spécificités locales. Identité, sécurité et conformité En collaboration avec l’architecte sécurité / RSSI : Piloter l’intégration Microsoft Entra ID avec l’ Active Directory on-premise (IAM, RBAC, authentification, habilitations). Assurer la conformité aux standards Zero Trust , RGPD et aux politiques de sécurité du groupe. Définir et faire respecter les principes de gouvernance API et de gestion des habilitations cross-BU . Intégration applicative et gouvernance API Superviser la mise en œuvre du Hub API (Twoday, API Management) et son intégration avec Business Central, MDM, Power Apps, Snowflake, etc. Définir et appliquer les standards d’API (sécurité, monitoring, SLA). Garantir la maintenabilité , la performance et l’ observabilité des flux inter-systèmes. Data & Analytics En lien avec les équipes Data : Définir ou appliquer les patterns d’intégration des données ERP vers Snowflake , Microsoft Fabric , Power BI et Tableau . Assurer la qualité , la gouvernance et la performance des architectures data internationales. Optimiser les coûts et la performance des flux data. Support aux BU internationales Adapter l’architecture aux contraintes locales (réglementaires, techniques, organisationnelles, métiers). Définir une architecture modulaire et composable garantissant la cohérence groupe. Accompagner et coacher les équipes locales sur l’usage des composants Azure et Power Platform. Pilotage et collaboration Travailler en étroite collaboration avec les équipes produit Business Central , les intégrateurs , et les équipes IT locales et globales . Maintenir à jour la cartographie applicative et technique en coordination avec l’architecture d’entreprise. Représenter la vision technique du programme dans les comités d’architecture et de sécurité (CAS) . Compétences attendues Cloud & Azure : maîtrise avancée (Entra ID, Azure DevOps, API Management, Azure Files, Fabric). ERP & Dynamics : bonne compréhension de Business Central et de son extensibilité (AL, DevOps, modules). Data & Analytics : intégration avec Snowflake, Power BI, Tableau, Fabric. Sécurité & IAM : expertise Active Directory, AD Connect, RBAC, Zero Trust. Intégration & API : gouvernance, middleware, monitoring, performance. Architecture & Méthodologie : TOGAF, Zachman, DevOps, Agile, conception modulaire/composable. Soft skills : leadership transverse, capacité à challenger partenaires et intégrateurs, communication claire, sens politique dans un contexte international. Livrables attendus Schéma directeur de l’architecture cible (global + déclinaisons BU). Cadre de gouvernance API et data . Standards d’habilitations et de sécurité. Blueprint de déploiement international (Azure + Business Central). Cartographie applicative et technique à jour. Roadmap technique alignée avec la roadmap produit.

Freelance

Mission freelance
Data Engineer (PySpark)

KEONI CONSULTING
Publiée le
PySpark

18 mois
100-400 €
Paris, France

CONTEXTE Métiers Fonctions : Data Management, Data Engineer Spécialités technologiques : Big Data Compétences Technologies et Outils : HadoopPyspark (2 ans) Dans le cadre d’un projet stratégique autour du recouvrement et de la lutte contre la fraude, nous recherchons un Data Engineer confirmé spécialisé en PySpark, pour rejoindre une équipe technique pilotée par un Tech Lead expérimenté. Le projet s’appuie sur des volumes massifs de données critiques (plusieurs milliards d’événements par jour) et vise à développer des cas d’usages à fort impact dans la détection d’anomalies et l’optimisation des processus de recouvrement. MISSIONS Missions principales - Participer à la construction et l’optimisation des pipelines de données sous PySpark. - Contribuer à la mise en place d’architectures Big Data sur un environnement Hadoop (bonus). - Assurer la qualité, la fiabilité et la performance des flux de données. - Collaborer étroitement avec les équipes data science et métier pour industrialiser les cas d’usage (fraude, scoring, recouvrement automatisé…). - Intervenir sur des problématiques de scalabilité et de traitement en temps réel / batch. - Garantir la sécurité et la conformité des traitements sur des données sensibles.

Freelance

Mission freelance
Product Owner Data

Cherry Pick
Publiée le
Data science
MLOps
Product management

12 mois
500 €
Niort, Nouvelle-Aquitaine

En quelques mots Cherry Pick est à la recherche d'un "Product Owner Data" pour un client dans le secteur de l'assurance Description Contexte de la mission Au sein du groupe, la Direction des Systèmes d’Information Métier assure la maintenance et l’évolution du système d’information assurance vie et finance. Dans le cadre de la stratégie de transformation Data 2025–2026 , le groupe renforce son équipe de développement Data et recherche un Product Owner Data expérimenté . Rattaché(e) au Centre de Data Management , vous serez un acteur clé du déploiement des cas d’usage Data et de la valorisation de la donnée. Votre rôle consistera à identifier, prioriser et piloter les produits Data (RPA, IA, Data Science, MLOps, DataViz) en lien avec les directions métiers (actuaires, conseillers, gestionnaires, etc.) et les équipes techniques. Vous interviendrez sur l’ensemble du cycle de vie des produits, de la détection des besoins métiers jusqu’à la mise en production, dans une approche orientée valeur et amélioration continue. Objectifs et livrables Placer la valeur au centre des usages Data : challenger les directions métiers sur leurs besoins quotidiens et leurs priorités. Animer les comités Data et les ateliers de cadrage autour des sujets Data Science, IA, RPA et MLOps. Identifier les besoins techniques et fonctionnels en lien avec les domaines Data (RPA | IA | Data Science | MLOps | DataViz). Définir les éléments de valeur (quantitatif, qualitatif, expérience collaborateur) et produire les supports de cadrage associés. Accompagner la rédaction et la priorisation des solutions Data et IA. Définir, suivre et piloter les indicateurs de performance (KPIs) des produits livrés. Contribuer à la construction d’une culture Data IT forte au sein du groupe. Être force de proposition sur les orientations techniques, fonctionnelles et méthodologiques.

Freelance

Mission freelance
Ingénieur Data - Nantes

Codezys
Publiée le
Azure
Azure Data Factory
Cloud

12 mois
420-450 €
Loire-Atlantique, France

Métier et Fonction Data Management Ingénieur Data Spécialités technologiques BI (Business Intelligence) Type de prestation Assistance Technique avec facturation au taux journalier Compétences requises Technologies et Outils : Azure Data Factory, Power BI Soft skills : Autonomie Langues : Anglais Description de la prestation Intégration dans l'équipe BI Entreprise pour répondre aux besoins des métiers tels que Finance, AdV, Comptabilité, RH, Recrutement, Commerce, Services Généraux. La mission consiste à moderniser l'architecture décisionnelle en migrant les packages SSIS vers Azure Data Factory (ADF) et à développer des pipelines cloud. Objectifs principaux : Migrer les traitements SSIS vers ADF en assurant performance, robustesse et conformité. Concevoir et développer des pipelines ADF pour la collecte, l’intégration dans l’entrepôt SQL Managed Instance ou Snowflake. Créer et maintenir des Data Flows ADF (nettoyage, enrichment, transformation). Mettre en place et gérer des triggers conditionnels pour orchestrer des traitements complexes. Optimiser les coûts et performances des modèles BI (Power BI, modèles sémantiques, DAX). documenter les développements et assurer la maintenance opérationnelle (MCO) de l'existant.

Freelance

Mission freelance
Recetteur/Testeur SIRH Expérimenté

KEONI CONSULTING
Publiée le
MySQL

18 mois
100-400 €
Paris, France

CONTEXTE : Expérience : 5 ans et plus Métiers Fonctions : Tests, recette et Qualité logicielle,Testeur Spécialités technologiques : Poste de travail, Workplace,Outils de Supervision,API,Data management Système d'exploitation Compétences Technologies et Outils Excel Easyvista Access Unix Oracle SQL MISSIONS Le prestataire interviendra en appui du Responsable SIRH et en collaboration étroite avec la Direction RH, en apportant une expertise technique et fonctionnelle sur HR Access. Son rôle consistera à accompagner et challenger les demandes des équipes métiers ainsi que celles de l’éditeur. Missions principales 1. Expertise fonctionnelle et accompagnement de la Direction RH - Apporter une analyse critique et des conseils sur les demandes métiers et les propositions de l’éditeur ; - Rédiger les spécifications fonctionnelles détaillées ; - Concevoir les stratégies et cahiers de recette, à la fois fonctionnels et techniques ; - Exécuter les phases de recette DSI et participer aux recettes métiers ; - Contribuer à la rédaction et à la mise à jour de la documentation détaillée et des modes opératoires utilisateurs. 2. Interfaces et intégration - Comprendre le fonctionnement des interfaces existantes afin de pouvoir contribuer à leur débogage ou à leur évolution. 3. Paramétrage et exploitation - Réaliser le paramétrage des queries ; - Participer au suivi des livraisons et des mises en production de l’éditeur ; - Assurer le suivi des traitements en exploitation, et analyser les anomalies ou rejets identifiés. 4. Support utilisateur - Contribuer à l’assistance aux utilisateurs et au traitement des tickets via l’outil EasyVista.

Freelance

Mission freelance
Architecte Admin Cloud

Trait d'Union Consulting
Publiée le
Architecture
Azure
FinOps

12 mois
180-600 €
Seine-Saint-Denis, France

Contexte : Notre client a fait le choix stratégique de migrer l’ensemble de son écosystème vers Microsoft Azure. L’objectif est aujourd’hui de structurer et industrialiser l’infrastructure cloud, tout en renforçant la gouvernance FinOps et les bonnes pratiques de sécurité et de data management. Le poste se situe à l’intersection entre Cloud / Infrastructure (70%) et Data (30%). Missions principales : Administration et optimisation de l’environnement Azure Gestion des infrastructures cloud et des réseaux Supervision des clusters Kubernetes (6 clusters) Mise en œuvre de bonnes pratiques de sécurité et de gestion des accès Gestion et monitoring des API, debug et analyse d’incidents niveau 3 Industrialisation & automatisation Mise en place et industrialisation de l’Infrastructure as Code Cadrage global de l’environnement Azure Déploiement d’une démarche FinOps (actuellement peu structurée) Data & monitoring Optimisation du système de régulation des bus (en partenariat avec INEO) Gestion et reroutage des flux de données en temps réel Suivi et amélioration des KPI de performance Utilisation d’ADF et Databricks sur la plateforme Data Administration des droits et supervision des environnements BI / databases Stack technique : Azure – Kubernetes – Terraform / Bicep – Databricks – Azure Data Factory – Power BI – React / Angular – CI/CD – API Management

Freelance
CDI

Offre d'emploi
Business Analyste

VISIAN
Publiée le
Business Analysis
User story

1 an
40k-45k €
260-550 €
Paris, France

Contexte Le client est à un tournant crucial où l'exploitation des données doit devenir un levier central de transformation et de compétitivité. Plusieurs défis structurels doivent être adressés pour réussir cette transition vers une organisation véritablement axée sur les données (insuffisance du Data Management existant, dépendances fortes à des systèmes legacy qui ont vocation à être décommissionnés à court et moyen termes, limites structurelles des outils et solutions actuels). Le projet doit permettre de valider la capacité de mise en œuvre du projet de data science depuis sa phase exploratoire jusqu'à sa phase d'industrialisation, plus particulièrement pour le projet AVE de refonte de l'application Amect de valorisation d'assets avancée. Responsabilités Analyse des besoins métiers et définition des User Stories : Collaborer avec les équipes métiers et le Data Office pour comprendre les besoins en matière de données, d'analyses, et de reporting, et les traduire en user stories claires et compréhensibles pour les équipes de développement. Définition des user journeys pour chaque cas d'usage métier, en s'assurant que les expériences utilisateurs soient optimisées et que les solutions proposées apportent une réelle valeur ajoutée. Travaille pour le Product Owner pour prioriser les user stories dans le backlog, en fonction de l'impact métier, de la complexité technique et des objectifs de chaque projet et du programme dans sa globalité. Interface entre les équipes métiers / Data Office et les équipes IT : Participation en tant qu'intermédiaire entre les équipes métiers et les équipes IT, en s'assurant que les besoins métiers sont bien compris et traduits en solutions techniques adéquates. Participation aux cérémonies agiles (daily stand-ups, sprint planning, sprint reviews, rétrospectives) pour assurer la continuité et la bonne compréhension des exigences tout au long du développement de la solution. Accompagnement des équipes IT pour s'assurer que les solutions livrées répondent aux critères d'acceptation des user stories et aux objectifs métier. Suivi des sprints et validation des incréments : Suivi des sprints et l'avancement des incréments de produit, en veillant à ce que chaque fonctionnalité développée soit alignée avec les attentes des utilisateurs et des parties prenantes. Teste et validation des incréments produits à chaque fin de sprint, en s'assurant que les critères d'acceptation définis dans les user stories sont respectées et en recueillant les retours des utilisateurs. Proposition pour des améliorations et des ajustements en continu en fonction des retours d'expérience, des évolutions des besoins, et des nouvelles priorités métier. Documentation et gestion du backlog : Suivi de la création et la mise à jour en continu des user stories et des acceptance criteria dans le backlog, en collaboration avec le Product Owner et les parties prenantes métiers et Data Office. Documentation des processus métiers, les user journeys et les flux de données associés, afin d'assurer une compréhension commune et de faciliter les développements futurs.

Freelance
CDI

Offre d'emploi
Architecte Solutions Cloud AWS – Expertise Data & Architecture Résiliente

ANAFI CONSULTING
Publiée le
Apache Spark
AWS Cloud
DevOps

18 mois
60k-80k €
500-740 €
Île-de-France, France

Qui sommes-nous ? Anafi Consulting est un cabinet de conseil basé à Paris, spécialisé dans l’accompagnement des transformations technologiques et organisationnelles. Nous intervenons auprès de grands comptes dans les domaines de la finance, de l’IT, des télécommunications et de l’énergie , sur des projets à fort impact stratégique. Nos expertises couvrent le Cloud, le DevOps, la Data, la sécurité , et la conduite du changement . Dans le cadre d’un projet de modernisation d’infrastructures Cloud et Data, nous recherchons un(e) Architecte Solutions Cloud AWS expérimenté(e) . Vous interviendrez sur la conception, l’implémentation et la gouvernance de solutions Cloud, tout en accompagnant les équipes internes dans l’adoption des bonnes pratiques AWS et Data Management. Votre rôle combinera expertise technique, accompagnement au changement et acculturation Cloud auprès d’équipes d’architectes et de développement. Vos missions principales Concevoir et faire évoluer des architectures Cloud AWS sécurisées, performantes et évolutives. Participer à la conception de solutions hybrides permettant la réversibilité et la consommation de données entre cloud et on-premise. Déployer et accompagner des solutions Data Management sur AWS (Snowflake, Starburst, Minio, Apache Spark). Fournir expertise et conseil sur les bonnes pratiques AWS et l’optimisation des investissements cloud. Réaliser et présenter les dossiers d’architecture auprès des instances de gouvernance. Acculturer et former les équipes internes sur les services et principes fondamentaux d’AWS. Participer à l’ implémentation et au déploiement des solutions conçues. Promouvoir les principes d’ architecture résiliente , la culture DevOps et les méthodes Agile

Freelance
CDI
CDD

Offre d'emploi
Data Steward

LEVUP
Publiée le
Data governance

12 mois
Liège, Belgique

1. Contexte du poste Dans le cadre de la mise en place d’un data warehouse Snowflake alimenté par SAP et d’autres sources, le Data Steward assure la qualité, la cohérence et la documentation des données critiques pour l’entreprise. Il joue un rôle central dans la gouvernance des données et dans le support aux équipes métier et techniques. 2. Missions principalesa) Qualité et gouvernance des données Définir et appliquer les standards de qualité des données (complétude, exactitude, cohérence). Identifier, analyser et corriger les anomalies ou incohérences dans les données SAP et Snowflake. Mettre en place des indicateurs de qualité et suivre leur évolution. b) Gestion des métadonnées et documentation Maintenir un dictionnaire de données à jour pour toutes les tables critiques. Documenter les flux, transformations et règles métier appliquées lors des extractions SAP → Snowflake. Garantir la traçabilité et la conformité des données (ex. RGPD, audits internes). c) Support aux projets ETL/ELT Collaborer avec les data engineers et analystes BI pour assurer la bonne réplication et transformation des données. Valider les mappings et règles métier lors de l’intégration dans Snowflake. d) Collaboration et sensibilisation Être l’ interlocuteur privilégié pour les questions de données auprès des équipes métier et IT. Former et sensibiliser les utilisateurs aux bonnes pratiques de gestion des données. Participer aux comités de gouvernance de données. 3. Profil recherchéCompétences techniques Connaissance des systèmes SAP (FI, MM, SD, ou modules liés au master data). Expérience avec un data warehouse cloud (Snowflake de préférence) et outils ETL/ELT. Maîtrise des concepts de data governance, qualité et master data management . Bonnes compétences en SQL et manipulation de données. Connaissance des outils de documentation et data catalog (ex. Collibra, Alation) est un plus. Compétences comportementales Esprit analytique et rigueur. Capacités à communiquer avec les équipes métiers et techniques. Sens de l’organisation et autonomie. Capacité à prioriser et à gérer plusieurs sujets transverses. Télétravail 2 jours par semaines et 3 jours sur site. La maitrise de l'anglais courant est nécessaire. Formation Bac+3/5 en informatique, statistiques, gestion des données, ou disciplines équivalentes. Certification en data governance ou MDM est un plus.

Freelance

Mission freelance
PMO automatisation reporting

Cherry Pick
Publiée le
Microsoft Excel
Reporting

24 mois
500-550 €
Paris, France

Contexte & Objectifs de la mission Le consultant rejoindra une équipe transverse de trois personnes , en charge : du pilotage du plan de moyens (en euros et en jours-hommes), du reporting et de la comitologie , ainsi que des processus et de la qualité . La mission a pour objectif d’ industrialiser et d’automatiser les tableaux de bord actuellement gérés sous Excel, dans une logique de performance et de fiabilité des données . Missions principales Industrialiser les tableaux de bord d’indicateurs (financiers, DSI, DORA). Gérer le processus de changements : validation et animation du CAB. Assurer la gestion budgétaire et des achats IT (licences, maintenance, BDC, engagements). Effectuer le suivi des comptes rendus d’activité (outil Orchestra) et la saisie annuelle de la structure. Être le référent DAF : participation aux clôtures mensuelles et élaboration de prévisionnels. Produire le reporting DSI (indicateurs de performance et alertes). Être l’interlocuteur référent des auditeurs internes et externes. Rédiger les processus associés et modes opératoires. Animer le COMOP DSI et contribuer à la documentation du reporting. Livrables attendus Documentation complète sur le reporting et les processus associés. Tableaux de bord mensuels et trimestriels automatisés. Comptes rendus hebdomadaires du COMOP DSI. Documentation des processus de gestion du changement. Compétences attendues Indispensables Expérience confirmée dans l’ industrialisation du reporting . Compétences en gestion budgétaire et achats IT (licences, maintenance, BDC, engagements). Maîtrise avancée d’Excel et des outils de data management . Animation de réunions et bonne connaissance des mécanismes de gestion de projet . Esprit d’analyse , rigueur et sens de l’organisation . Esprit d’équipe et posture de facilitateur . Appréciées Bonne compréhension des principes comptables . Connaissance du secteur assurantiel .

141 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous