Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 816 résultats.
Offre d'emploi
Chef de Projet / BA AML Data (H/F)
EXMC
Publiée le
AML (Anti-Money Laundering)
BI
Know your customer (KYC)
1 an
75k-80k €
700-750 €
Luxembourg
Chef de Projet / BA AML Data Mission Le consultant rejoindra l’équipe Data Intelligence et jouera un rôle clé dans le développement d’un programme stratégique AML. La mission consistera à accompagner les équipes Data Management et Compliance dans la définition des besoins et la mise en œuvre des projets AML, en assurant le suivi et la coordination avec les parties prenantes. Activités principales : En tant que Chef de Projet & Business Analyst Data, le consultant(e) aura la charge de : • Gestion de projet & coordination : § Piloter et coordonner le programme de reporting et dashboards sur les thématiques AML, KYC, § KYT et Surveillance Financière. § Recueillir et challenger les besoins métiers Compliance / Risk / AML Office. § Élaborer et suivre le planning projet (jalons, livrables, dépendances) § Coordonner les parties prenantes et assurer le suivi des développements IT § Gérer les risques et escalader les points de vigilance au Team Manager § Organiser et animer la gouvernance projet (comités de suivi, steering committees) Analyse et accompagnement fonctionnel : § Définir le périmètre fonctionnel et assurer la rédaction du cahier des charges § Concevoir et valider le cahier de recette § Assister les utilisateurs métier dans les phases de tests et validation § Qualifier les livrables DAM avant le démarrage de la recette utilisateur § Assurer l’assistance post-déploiement pour stabiliser la solution Communication et reporting : § Assurer la gestion de la communication projet avec les différentes parties prenantes § Produire des reportings réguliers sur l’avancement et les risques § Être force de proposition pour optimiser les processus et apporter de la valeur ajoutée Qualifications requises : § Expérience probante sur des projets BI en tant que consultant fonctionnel (5 ans minimum) dans un environnement bancaire. § Aptitude à travailler sur plusieurs projets en parallèle, et à relever des challenges au quotidien § Connaissance fonctionnelle Reporting réglementaire Risk & Compliance § Autonome et force de proposition auprès de vos interlocuteurs afin d’apporter une valeur ajoutée à vos projets § Rigueur, esprit analytique, orientation résultats & sens de la confidentialité. § Excellentes capacités rédactionnelles et communicationnelles § Maîtrise des langues française et anglaise.
Offre d'emploi
Data Engineer | Databricks | AWS
Hexateam
Publiée le
AWS Cloud
Databricks
Python
Île-de-France, France
Contexte Dans le cadre de la mise en place et de l’évolution d’une plateforme DATA centralisée, nous renforcons son équipe avec un Data Ingénieur confirmé. Cette plateforme permet l’intégration, la mise en qualité et la mise à disposition de données brutes ou retravaillées issues de différents producteurs, afin de répondre à des besoins métiers opérationnels et analytiques à grande échelle. Rôle et responsabilités Développement et ingestion de données Concevoir, développer et optimiser des jobs d’ingestion et de transformation de données en Python et Spark sur Databricks , avec gestion de gros volumes. Mettre en place et maintenir des flux de données entre sources externes (ex. bases Oracle) et Delta Lake sur AWS S3 . Orchestration et supervision Créer et orchestrer des workflows avec AWS Airflow et automatiser les traitements. Mettre en place des mécanismes de contrôle qualité et de validation des données pour garantir cohérence et fiabilité. Développer des jobs de monitoring pour détecter et corriger automatiquement les anomalies. Maintien en condition opérationnelle Assurer la disponibilité et la performance des jobs en production. Analyser et corriger les incidents et anomalies détectées. Contribution stratégique Participer aux ateliers de conception technique et fonctionnelle. Promouvoir les bonnes pratiques de développement et d’optimisation Big Data. Documenter les processus, architectures et scripts. Compétences techniques requises MUST : Python Spark Databricks SQL SHOULD : AWS (S3, Glue, Airflow, CloudWatch, Lambda, IAM) COULD : Big Data (gestion et traitement de très gros volumes de données) WOULD : Git Méthodologies et outils : CI/CD avec GitLab JIRA / Confluence Méthodologie agile Scrum
Mission freelance
Data Engineer / Analyste Azure (MSBI) :
Cherry Pick
Publiée le
Azure
MSBI
SQL
12 mois
450-500 €
Paris, France
Dans le cadre de projets Data en environnement Full Microsoft, Altarea souhaite renforcer ses équipes sur des sujets d’ingestion, traitement et restitution de données. Les projets consistent à : ingérer de nouvelles données depuis des bases Oracle ou PostgreSQL, Les stocker et traiter sur Azure, Produire des rapports décisionnels via Power BI. Mission Ingestion de données depuis Oracle / PostgreSQL vers Azure Utilisation de SSIS (infra locale) ou Azure Data Factory selon les contraintes techniques et de coûts Traitement et transformation des données Modélisation et restitution via Power BI Travail majoritairement en SQL (pas de besoin Python) Capacité à challenger les choix techniques et à proposer des optimisations Veille technologique et posture de consultant Environnement technique Stack Full Microsoft (MSBI) SQL Server / SSIS Azure (Data Factory, stockage) Power BI Sources : Oracle, PostgreSQL Profil recherché Data Engineer / Data Analyst Azure 5 à 10 ans d’expérience Très bon niveau SQL À l’aise en environnement MSBI Capacité de recul, force de proposition Posture conseil Une expérience dans la promotion immobilière est un gros plus
Mission freelance
POT8873 - Un Data Engineer sur Lyon
Almatek
Publiée le
SQL
6 mois
260-430 €
Lyon, Auvergne-Rhône-Alpes
Almatek recherche pour l'un de ses clients, un Data Engineer sur Lyon. Compétences : ORACLE impératif SQL impératif Python : c’est un plus mais pas obligatoire Expérience : Participation à des projets liés à la Data et aux Bases de données (injection et exposition des données) Bonne compréhension fonctionnelle Utilisation de GIT pour la gestion de version Niveau recherché : Confirmé (surtout Oracle et SQL, ok pour junior/intermédiaire sur Python) Compétences appréciées (Bonus) : Airflow Apache (ordonnanceur de traitements de données en Python) Trino (exposition des données depuis sources multiples en SQL) Méthodologie Agile SAFE & Scrum Outils de gestion de projet : Jira, Confluence Profil orienté Data Ingénieur On ne recherche pas de profil devsecOps, ni de data architecte Activités : Build 80% & MCO/RUN 20% Conditions de travail : Présentiel souhaité : 2 jours par semaine chez le client Savoir-être : Bonnes compétences en communication Esprit d’équipe : capacité à collaborer efficacement Force de proposition : aptitude à apporter des idées et solutions proactives
Mission freelance
Responsable d’Application (RUN & DATA GCP)
Codezys
Publiée le
Git
Reporting
Shell
6 mois
Lille, Hauts-de-France
Localisation : Lille Contexte : International 1) Description de la mission Située dans un contexte international, cette mission concerne la gestion de plusieurs produits digitaux récemment déployés, avec des enjeux clés tels que : la fiabilité la continuité de service la qualité des données la performance opérationnelle Le poste de Responsable d’Application combine une responsabilité majeure dans le domaine du RUN applicatif (support, gestion des incidents, maintien en conditions opérationnelles, performance) et une contribution technique liée aux composants DATA sur GCP. Il s’inscrit dans une démarche d’amélioration continue et de développement progressif des compétences sur la stack technologique. Le profil recherché doit être à la fois technico-fonctionnel, avec une orientation vers le pilotage du RUN et du support applicatif, plutôt que vers un rôle exclusivement de développement. 2) Objectifs & responsabilités principales Pilotage du RUN applicatif Assurer la gestion des incidents et des problèmes Garantir le maintien en conditions opérationnelles (MCO) Suivre la performance à l’aide de KPI et produire un reporting régulier Maintenir la stabilité et la continuité du service pour le périmètre concerné Pilotage opérationnel & coordination transverse Animer les instances de projet et de run : COMOP / COPIL Coordonner les différentes parties prenantes : équipes IT, métiers, TMA, éditeurs, pays Gérer le pilotage opérationnel global et assurer le suivi des actions Mise en production & évolutions Accompagner les mises en production (MEV) Suivre l’avancement des projets et évolutions du périmètre Garantir la maîtrise à la fois fonctionnelle et technique des outils Assurer la maintenance évolutive Contribution DATA (GCP) Analyser et comprendre les flux de données et leurs usages Intervenir techniquement sur des aspects tels que SQL ou troubleshooting data Développer ou faire évoluer certains composants sous GCP si nécessaire Participer activement à l’amélioration continue et à la montée en compétences sur la stack DATA 3) Livrables attendus Suivi du RUN avec : – Tableaux de bord KPI – Reporting régulier (incidents, performance, disponibilité) Comptes rendus et supports d’instances : – COMOP / COPIL – Plan d’actions pour le RUN et l’amélioration continue Suivi des mises en production (MEV) : – Préparation, coordination, validation et accompagnement Documentation opérationnelle et technique du périmètre Analyses des flux DATA et résolution d’anomalies
Mission freelance
Data Ingénieur Spark - Rennes
Net technologie
Publiée le
Apache Spark
3 mois
Rennes, Bretagne
Dans le cadre de la création d’une nouvelle plateforme Data , le Data Engineer Senior intervient sur l’ensemble du cycle de vie de la donnée . Il conçoit, développe et maintient des pipelines de données batch et streaming en Spark et Python , contribue à la mise en place d’une architecture Lakehouse moderne , et garantit la qualité, la fiabilité et la sécurité des données . Le rôle inclut l’ industrialisation des traitements (CI/CD, DataOps), l’observabilité, la documentation et une forte collaboration avec les équipes techniques et métiers.
Offre d'emploi
Ingénieur Data Event Management
VISIAN
Publiée le
Apache Kafka
Java
Python
1 an
40k-45k €
230-540 €
Paris, France
Intégration au sein de l'équipe Data Event Management Intégration au sein de l'équipe Data Event Management qui gère les trois offres de services suivantes : Offre Infra. Kafka sur ITCloud OnPremise Offre Infra. Kafka sur IBMCloud/dMZR Activités principales Construction/Déploiement/Support/MCO des offres autour de la technologie de messaging kafka Méthodologie de Travail ITIL Agile/Scrum à l'échelle Product Based Projets principaux en cours Transition vers un Nouvel Orchestrateur sur l'Offre Infra Kafka IBMCloud/dMZR basé sur Python et Airflow, Terraform Extension de l'offre Kafka sur IBMCloud/dMZR avec l'intégration du produit Lenses Migration du monitoring de l'infrastructure OnPremise de Splunk vers une solution Dynatrace combinée avec ELK Technologies Utilisées Outils administratifs: ServiceNow, Jira, Confluence Infrastructure as Code: Ansible, Terraform Langages: Bash, Java (Spring/JHipster), Python Repository: Artifactory Database: SQL Server, PostgreSQL Conteneurisation: Docker/Kubernetes Provider Cloud: ITCloud, IBMCloud Orchestration: Airflow, Autosys, BPM Versionning: Git Messaging: Kafka CI/CD: GitLab CI Operating system: Redhat Monitoring: ELK, Dynatrace, LogDNA, Sysdig Sécurité: HashiCorp Vault, Cyberarc
Offre d'emploi
DATA ANALYST RESEAUX SOCIAUX MI-TEMPS
KEONI CONSULTING
Publiée le
Data analysis
IA
Web
18 mois
20k-60k €
100-450 €
Paris, France
CONTEXTE Collaborer avec l’équipe de la direction de la communication digitale. MISSIONS : - Assurer une veille continue et réactive des sujets de discussions sur les réseaux sociaux et le web, au travers d’outils de social listening - Rédiger en temps limité des notes d'analyse des retombées sur ces sujets (des notes quotidiennes, mensuelles, thématiques, ad hoc…) - Assurer une veille en temps réel des sujets de crise et, régulièrement, d’émissions en direct durant leur diffusion en soirée -Assurer une veille à hauteur de 1 à 2 week-ends par mois (9h30 – 18h30) – A discuter en fonction de vos disponibilités - Effectuer des études réputationnelles dans le cadre d’opérations de marketing d’influence - Construire des recommandations stratégiques et éditoriales à l'attention de l'équipe de la Direction de la communication digitale et des autres Directions du Groupe PROFIL & Expertises demandées: - Une expérience d’au moins trois ans dans le secteur des médias et/ou dans le secteur public sont un prérequis. - Au moins 5 ans d’expériences spécifiques, en social listening. Une maîtrise complète de Talkwalker (requêtage et paramétrage complexes) et X Pro est attendue ; la maîtrise d’autres outils de social listening ou de monitoring sera appréciée. Une expérience avancée en matière de suivi en direct des retombées est attendue, ainsi que des connaissances relatives à la création de cartographies de comptes RS sous Gephi. -Une expertise en communication de crise est nécessaire. Le consultant devra pouvoir évaluer l’ampleur, la gravité d’une crise réputationnelle et formuler des recommandations. - Une expérience avancée en matière d’études réputationnelles et de marketing d’influence est attendue pour la prestation. L’utilisation extensive d’outils de référencement de créateurs de contenus et le recours régulier à des méthodologies complexes d’analyse réputationnelle sont attendus. - Une excellente aisance rédactionnelle, à tout niveau de synthèse et d’analyse, est nécessaire. -La capacité de création de prompts avec une IA générative et de cas d’usages professionnels, à l’appui des différentes expertises attendues, sera valorisée. - Des connaissances étendues sur les sujets politiques, géopolitiques, sociétaux, médiatiques et numériques devront pouvoir être mobilisées. Spécifiquement, des connaissances sur le fonctionnement des principaux réseaux sociaux sont attendues.
Mission freelance
Data Engineer Recyclage & Valorisation (Dep92)
EterniTech
Publiée le
Google Cloud Platform (GCP)
Java
Python
3 mois
300-400 €
Hauts-de-Seine, France
Mission : transformer les données en un véritable actif pour les métiers du Recyclage et de la Valorisation. Missions principales Maintenir et faire évoluer la plateforme Data : intégration de flux, suivi des batchs, performance et sécurité. Gestion des droits d’accès et interactions avec les consommateurs de données. Proposer des améliorations techniques (indexation, datamarts, pré-calculs KPI). Participer à l’amélioration continue de la qualité des données et assurer le support N3. Référent technique du socle Data et coordination avec la data gouvernance. Environnement technique Bases de données : SQL Server, BigQuery, PostgreSQL Langages : SQL, Python, Java, C++ DevOps : CI/CD, Azure DevOps, Git Cloud : Azure, GCP Outils BI et visualisation : Power BI, reporting Gouvernance et data management
Mission freelance
Profil Data Azure (modernisation applicative)
Signe +
Publiée le
ETL (Extract-transform-load)
12 mois
400-550 €
Gémenos, Provence-Alpes-Côte d'Azur
Contexte général Mission de modernisation Data dans un environnement industriel (Industry 4.0). L’application concernée est une solution critique de traçabilité industrielle, aujourd’hui basée sur des bases Oracle et des systèmes legacy. Elle présente des limites en termes de performance, monitoring, sécurité et coûts. L’objectif est de transformer cette solution en une application PaaS sur Microsoft Azure. Le consultant interviendra sous pilotage interne, avec des instances de validation formelles et un cadre projet structuré (réunions hebdomadaires et revues mensuelles). Objectifs de la mission Étudier l’existant et identifier les limitations techniques et fonctionnelles Définir une architecture cible Azure (coûts, sécurité, performance, gains attendus) Migrer les données et traitements depuis Oracle et systèmes legacy vers Azure Moderniser les pipelines Data (cloud-native, automatisés, sécurisés) Mettre en place le monitoring, la sécurité et les processus DevOps Documenter et assurer le transfert de connaissances Missions principales Conception et implémentation de pipelines ETL / ELT (Azure Data Factory / Fabric) Migration de données Oracle vers Azure Refactoring et automatisation de scripts legacy Mise en place de CI/CD pour les workflows Data (GitLab ou Azure DevOps) Supervision, logging, alerting des pipelines et services Gestion de la sécurité : RBAC, chiffrement, conformité Rédaction de la documentation technique et accompagnement des équipes Compétences clés attendues Forte expertise Azure Data Factory / Microsoft Fabric Expérience concrète de projets de modernisation Data Très bonne maîtrise des bases de données Oracle (admin, optimisation) Bonne pratique des environnements Windows Mise en place de pipelines CI/CD Data Sensibilité forte aux enjeux sécurité et coûts cloud Capacité à travailler en autonomie avec des interlocuteurs variés (IT, sécurité, sites industriels) Organisation & gouvernance Réunions techniques : hebdomadaires + à la demande Suivi d’avancement : hebdomadaire Présentations management / stakeholders : trimestrielles Forte autonomie attendue dans la conduite des échanges (en anglais) Planning prévisionnel Étude de l’existant et définition de la cible : 1 mois Mise en place de l’environnement cible : 1 mois Implémentation des pipelines ETL : 2 mois Monitoring, sécurité et DevOps : 1 mois Documentation et support : 1 mois Contraintes Localisation : Gemenos Démarrage : ASAP Télétravail : 1 à 2 jours maximum par semaine
Mission freelance
Concepteur/Rédacteur, Pôle Data & IA
Codezys
Publiée le
Conception
Intelligence artificielle
Rédaction
6 mois
Paris, France
Le prestataire aura pour mission principale d’assister la Responsable de la communication dans les activités suivantes : Activités principales : Recueil des besoins internes : Participer et animer des comités éditoriaux afin d’identifier les besoins et priorités internes. Collaborer avec différents interlocuteurs internes pour collecter des informations clés. Conception et rédaction de contenus : Identifier les thématiques pertinentes liées à la Data et à l’Intelligence Artificielle. Proposer des idées innovantes pour des contenus engageants et attractifs. Rédiger des articles, des publications pour les réseaux internes et divers supports de communication. Gestion et création de contenus multimédias : Produire des supports variés tels que articles, podcasts, vidéos, newsletters, Datalks, et événements. Traiter des demandes spécifiques en cohérence avec la stratégie de communication du Pôle. Concevoir et organiser des contenus adaptés à chaque canal pour optimiser leur impact. Organisation d'événements : Coordonner la planification et la logistique d’événements internes (Forum Data & IA, Datalks, etc.). Veiller à la qualité des interventions et au choix des thématiques, en collaboration avec les parties prenantes. Assurer la promotion des événements via les différents canaux de communication. Suivi de la production : Gérer la relation avec les prestataires externes (briefs, suivi, validations, etc.). Garantir le respect des délais et la qualité des livrables. Veille sectorielle : Rester informé des tendances et évolutions liées à la Data et à l’Intelligence Artificielle afin d’enrichir les contenus et d’ajuster la stratégie. Refonte de la newsletter interne : Imaginer, concevoir et piloter une refonte complète de la newsletter trimestrielle. Supports de communication à gérer : Le concepteur/rédacteur sera chargé de créer et d’administrer les contenus pour les supports suivants : Newsletter trimestrielle (tous les 3 mois) Newsletters thématiques (tous les 6 mois) Podcasts (tous les 2 mois) Datalks (tous les 2 mois) Portraits mensuels Forum Data & IA (événement annuel) Livre blanc (publication annuelle) Autres supports à développer en fonction des besoins du Pôle Data & IA
Offre d'emploi
Ingénieur Développement Java N3
REACTIS
Publiée le
API REST
Java
Oracle
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Contexte Nous recherchons un Ingénieur Développement Java N3 pour rejoindre la squad InStore d’un acteur majeur de la pré-acquisition en France. La mission vise l’intégration d’un nouveau client (services, protocoles, IHM) dans un environnement PCI-DSS, avec un focus sur l’innovation (omni-canal, instant payment, nouveaux services). Missions principales Développement et maintenance : Analyser les besoins et proposer des solutions techniques adaptées. Développer de nouvelles fonctionnalités en respectant les normes et standards. Assurer la maintenance corrective et évolutive des applications existantes. Collaboration et amélioration continue : Travailler avec les équipes projets (Développeurs, PO, QA, DevOps). Participer à l’amélioration continue des processus de développement. Rédiger et maintenir la documentation technique. Compétences techniques (MUST HAVE) Java 17+ (expert) – obligatoire. Spring 6 (incluant Spring Boot 3 et Spring Data 3) – obligatoire. Bases de données : Oracle, PostgreSQL, MySQL – important. API REST et Web Services – important. Outils : Git/GitLab, IntelliJ.
Offre d'emploi
Data Engineer Opensearch/Kafka/Elasticsearch
OBJECTWARE
Publiée le
Apache Kafka
Elasticsearch
3 ans
38k-85k €
400-660 €
Île-de-France, France
Objectif de la mission Dans le cadre de l'équipe Data Analytic , nous créons et maintenons des architectures Big Data pour les besoins internes de l’entreprise. Pour renforcer notre équipe support, nous proposons une mission de DATA ENGINEERING sur ELASTIC/OPENSEARCH et KAFKA Les principales technologies utilisees • Elastic Stack (Elasticsearch / Logstash / Kibana / Beats) • Open Search et Kafka L'équipe mettant en avant une approche d'automation, les technologies suivantes sont notamment couramment utilisées • Ansible • Git/Bitbucket • Développement Python et REST APIs Prestations demandées La mission consiste à: Support, automatisation et maintien en conditions opérationnelles des plateformes ELK/Opensearch/Kafka ( ELK etant la priorite) Participation aux developpmenent de l equipe data Analytics Support plateforme WWW Environnement anglophone
Mission freelance
Data analyst AGILE,DBT,Analyste Fonctionnel,Informatica Power Center NIORT
WorldWide People
Publiée le
DBT
Informatica PowerCenter
12 mois
490-620 £GB
Niort, Nouvelle-Aquitaine
Data analyst AGILE,DBT,Analyste Fonctionnel,Informatica Power Center NIORT- Expérimenté Niort - 2 jours de télétravail AGILE,DBT,Analyste Fonctionnel,Informatica Power Center La mission s’inscrit au sein des activités Data Solutions et Intelligence Artificielle, dont les objectifs sont d’améliorer la valorisation des données et de développer des usages IA responsables. L’équipe a pour rôle : de collecter, organiser et transformer les données afin qu’elles puissent être exploitées efficacement par l’ensemble des métiers, d’être un acteur clé de l’exécution de la stratégie Data, et de favoriser l’adoption de cas d’usage IA performants et fiables, au service des collaborateurs et des clients internes. L’environnement est structuré autour d’un écosystème Data riche, en constante évolution, nécessitant une bonne compréhension technique et une capacité à intervenir sur différents leviers data & IA. Objectifs et livrables Dans le cadre de cette mission, le consultant interviendra sur plusieurs volets critiques : Analyse d’incidents – OMC Personne Analyse approfondie des incidents liés à l’OMC Personne. Identification des causes racines, propositions de corrections et suivi des actions associées. Intégration des évolutions nécessaires dans le fonctionnement de la plateforme. Développements Data Participation aux développements prévus sur les briques Informatica et DBT. Intégration et transformation des données dans le respect des bonnes pratiques data engineering. Contribution à l’industrialisation et à la qualité des pipelines. Contribution à l’amélioration continue Participation aux rituels et travaux data transverses. Proposition d’optimisations techniques et fonctionnelles. Veille active sur les bonnes pratiques et les outils data & IA.
Offre d'emploi
Data Engineer Elastic/OpenSearch et Kafka
VISIAN
Publiée le
Ansible
Elasticsearch
1 an
40k-45k €
400-620 €
Île-de-France, France
Descriptif du poste Dans le cadre de l'équipe Data Analytic, nous créons et maintenons des architectures Big Data pour les besoins internes de l'entreprise. Pour renforcer notre équipe support, nous proposons une mission de Data Engineering sur Elastic/OpenSearch et Kafka. Technologies principales Elastic Stack (Elasticsearch / Logstash / Kibana / Beats) OpenSearch et Kafka Technologies couramment utilisées L'équipe mettant en avant une approche d'automation, les technologies suivantes sont notamment couramment utilisées :
Mission freelance
Chef de projets IT – Data / BI / IoT ( Systèmes connectés )
AVALIANCE
Publiée le
Agile Scrum
Gestion de projet
IoT
3 ans
400-550 €
Maurepas, Île-de-France
Dans le cadre du renforcement de la DSI d’un grand groupe, nous recherchons un Chef de projets IT Senior pour intervenir au sein du service Systèmes connectés. La mission s’inscrit dans un environnement Data / BI / IoT, avec des enjeux forts autour de la modernisation des plateformes, de la BI et du décommissionnement d’anciens systèmes. Le consultant interviendra sur plusieurs projets en BUILD et RUN, notamment autour d’une nouvelle plateforme IoT et de solutions BI / Reporting associées. Il jouera un rôle clé de Chef de projets avec une casquette Product Owner, en charge du pilotage opérationnel, du cadrage des besoins et de la coordination des équipes. -Missions principales Pilotage de plusieurs projets IT (Data / BI / Interfaces) Cadrage des besoins métiers et animation des ateliers Rédaction des Features et User Stories Organisation et pilotage des recettes fonctionnelles Suivi des développements, des plannings et des budgets Animation des comités projets et production des supports de reporting Coordination d’équipes multi-localisées (France / offshore) Participation aux cérémonies Agile / SAFe (daily, review, PI Planning…)
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
1816 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois