L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 5 662 résultats.
Offre d'emploi
Expert EasyVista F/H
AIS
Publiée le
EasyVista
1 mois
38k-45k €
225-450 €
Niort, Nouvelle-Aquitaine
🎯 MISSIONS : Intégré(e) aux équipes d'un de nos clients grands comptes vos missions seront les suivantes : Au sein d'un collectif agile et sous la responsabilité d'un PO, les principales missions sont : - Administrer, maintenir et faire évoluer les solutions de ticketing : EasyVista - Garantir la cohérence du paramétrage des produits en responsabilité - Collaborer avec les équipes IT et les autres collectifs pour adapter ces outils aux processus de l'entreprise - Accompagner le changement vers les « utilisateurs » - Réaliser une veille technologique active et proposer de nouveaux usages - Apporter le support de niveau 3 sur les incidents et les problèmes
Mission freelance
Workday Data Lead
INVESTIGO
Publiée le
600-700 £GB
Angleterre, Royaume-Uni
We are seeking an experienced Workday Data Lead to oversee all data-related activities for a greenfield Workday implementation covering HCM, Financials (FINS), and Professional Services Automation (PSA). The role will be accountable for defining and delivering the end-to-end data strategy, ensuring data quality, integrity, and overall readiness across all Workday modules. Working closely with functional leads, reporting, integrations, security teams, and business stakeholders, the Data Lead will provide leadership across data conversion, validation, testing, and go-live phases of the programme. Required Skills & Experience Proven experience operating as a Workday Data Lead or Senior Data Manager on large-scale Workday implementations. Strong hands-on expertise across Workday HCM, Workday Financials, and Workday Professional Services Automation (PSA). Demonstrated experience delivering greenfield Workday implementations from initiation through go-live. Deep understanding of Workday data models, data governance, and data conversion strategies. Strong leadership, communication, and stakeholder management capabilities. Experience identifying, managing, and mitigating data-related risks within complex, multi-stream programmes. At Investigo, we make recruitment feel easy. Let’s keep this simple. We’re all about your success, as your success is our business. We are part of The IN Group, a collection of six award-winning specialist brands that supply the globe with end-to-end talent solutions. With recruitment at the core of our business, we’ve been connecting people since 2003. Data & Privacy By applying, you consent to Investigo collecting and processing your data for the purpose of recruitment and placement, in accordance with applicable data protection laws. For more information, please refer to our Privacy Notice at weareinvestigo.com.
Offre d'emploi
Ingénieur test et logiciel (H/F)
Amiltone
Publiée le
32k-38k €
Niort, Nouvelle-Aquitaine
Vos missions ? Intégré à nos équipes sur notre Factory ou chez nos clients, vous interviendrez en tant qu'Ingénieur de test et validation logiciel (H/F), vous assurerez les missions suivantes : · Mettre en place des stratégies de tests · Rédiger et exécuter des scénarios de tests · Assurer la non-régression d'un produit · Piloter et suivre l'exécution des tests · Identifier les anomalies et définir un scénario de reproduction · Créer des rapports d'anomalie et en assurer le suivi · Réalisation de démonstrations produit · Organiser des sessions de bêta-tests avec les utilisateurs finaux La stack technique : · Selenium · Postman ou équivalent · Langage SQL · Format Gherkin
Mission freelance
Data Engineer Spark/Scala
CAT-AMANIA
Publiée le
Apache Spark
Scala
12 mois
400-550 €
Hauts-de-Seine, France
Au sein de l'équipe Data, vos fonctions consisteront notamment à : Participer à l'estimation de la complexité des chantiers techniques liés à la montée de version SPARK (3.4) Concevoir et développer les traitements applicatifs en collaboration avec les intervenants internes à l'équipe, ou externes à celle-ci (architectes techniques, architectes data, experts sur des technologies liées...) Rédiger les dossiers de conception et documentations techniques nécessaires Concevoir et exécuter les cas de tests unitaires / d'intégration Faire des revues de code croisées avec les collègues de l'équipe Contribuer à l'installation et au déploiement des composants Participer activement aux rétrospectives afin de garantir le process d’amélioration continue Assurer la qualité et le suivi des développements, en participant à la correction des problèmes de production
Offre d'emploi
Release Manager solution IARD (F/H)
FIRST CONSEIL
Publiée le
Business Analyst
Java
Service Delivery Management
10 mois
40k-50k €
400-450 €
Niort, Nouvelle-Aquitaine
Vous souhaitez contribuer à la transformation digitale d’un acteur majeur du secteur de l’assurance ? Rejoignez la Direction du Digital et des Systèmes d’Information (DDSI) en tant que Release Manager Solutions IARD , au sein du département Solutions Métiers IARD de la DSI, dans l’entité Services Delivery. Poste basé à NIORT Au sein d’une équipe pluridisciplinaire de près de 30 collaborateurs, vous aurez la responsabilité d’assurer le respect des normes et standards dans la mise en œuvre des services et applications du SI. Vous serez un acteur clé garantissant la qualité, la performance et la conformité des solutions mises en place, en lien avec les équipes de développement, la chefferie de projets, les architectes et le département Opérations. Dans ce cadre, vous serez amené à : Réaliser la planification des releases en cohérence avec la méthodologie Agile en lien avec les métiers et les différentes parties prenantes Assurer la communication entre les équipes de développement, QA, sécurité, infrastructure, sécurité et métier Gérer la qualité et les risques en vérifiant la complétude des livrables (tests, documentation, conformité) et en identifiant les risques liés à la MEP Participer à la définition des ENF (sécurité, performance, scalabilité, disponibilité…) Suivre des Exigences Non Fonctionnelles (ENF) pour les applications du SI Garantir leur implémentation dans les projets et les applications en production Relayer ces exigences auprès des équipes techniques et fonctionnelles (développement, architecture, chefferie de projet) Piloter et suivre la remise en conformité en cas de non-respect des normes Gérer et suivre les corrections lourdes et les problèmes techniques Analyser dans les incidents les causes racines et suivre les plans de remédiation Réaliser un audit des applications dans le cadre de l’amélioration continue Participer aux audits des fournisseurs externes sur les aspects techniques et d’exploitation Assurer un suivi des recommandations issues des audits et piloter les plans d’actions correctives
Offre d'emploi
Développeur/Data Engineer Python & Lambda AWS
OBJECTWARE
Publiée le
Python
3 ans
40k-50k €
260-400 €
Île-de-France, France
Mission En qualité de développeur python / Data Engineer, votre rôle et vos missions consistent à : * Participer à la conception/développement sur le projet Portfolio Clarity pour NIM (python sur lambdas AWS) * Réaliser les tests unitaires et d'intégration * Revue du code et amélioration de l'architecture applicative existante * Documenter les réalisations * Intégrer les développements à la chaine de CI/CD La bonne réalisation de la prestation exige les compétences suivantes : * Maitrise des développements et lntégration python * Connaissance et utilisation des outils de développements (Visual Studio Code ou autre IDE) * Connaissance et utilisation des outils d'intégration et de tests continus (Bitucket/git, Jenkins, junit, XLDeploy, XLRelease) * Connaissance et utilisation des outils collaboratifs (Confluence, Jira) Compétences personnelles : • Appétence technique • Structuré, bon esprit d’équipe, autonomie, curiosité • Capacité d’écoute, de synthèse. * Anglais professionnel
Offre d'emploi
Data Engineer Databricks - Lyon
KOMEET TECHNOLOGIES
Publiée le
Apache Spark
Databricks
45k-55k €
Lyon, Auvergne-Rhône-Alpes
En tant que Data Engineer, vous intervenez sur la conception, le développement et l’optimisation de pipelines de données robustes et scalables. Vous travaillez au cœur des plateformes Data afin de garantir la qualité, la disponibilité et la performance des données utilisées par les équipes métiers, BI et Data Science. Expérience attendue : 3 à 8+ ans en ingénierie Data. Vous correspondez au/à la Data Engineer que nous recherchons si : Vous évoluez efficacement au sein d’équipes agiles et pluridisciplinaires , en collaboration étroite avec les équipes Data, IT et métiers Vous faites preuve d’un fort esprit analytique et d’une grande rigueur Vous êtes autonome , proactif et doté d’un solide sens des responsabilités Vous êtes capable de communiquer clairement avec des interlocuteurs techniques comme non techniques Vous savez prioriser vos tâches , gérer les contraintes et respecter vos engagements Vous disposez d’un bon esprit de synthèse et êtes orienté résultats et valeur métier Vous avez une bonne connaissance des environnements Business Intelligence , Big Data et des architectures Lakehouse Vous avez déjà travaillé sur des plateformes Data modernes (Cloud) Vous maîtrisez SQL comme langage d’interrogation des données et avez des notions de modélisation de données (architecture médaillon, modèle en étoile …) Vous disposez d’un bagage en software engineering , vous permettant d’écrire un code robuste, lisible, maintenable et testable, notamment en Python Vous appliquez les bonnes pratiques de développement : structuration du code, modularité, gestion des dépendances, conventions de nommage Vous êtes sensibilisé aux principes de qualité logicielle (tests unitaires, tests d’intégration, revue de code) Vous êtes à l’aise avec les outils de versioning ( Git ) et les workflows collaboratifs associés Vous savez concevoir des pipelines Data comme de véritables produits logiciels, en tenant compte de la maintenabilité, de l’évolutivité et de l’observabilité
Mission freelance
Data Engineer - Secteur Assurance et Prévoyance (H/F)
EASY PARTNER
Publiée le
Apache NiFi
Bash
Gitlab
230 jours
420-450 €
Lyon, Auvergne-Rhône-Alpes
Contexte du poste Dans le cadre d'un projet de refonte de son SI, notre Groupe renforce son dispositif Data au sein de la Direction des Systèmes d’Information. L’objectif est de concevoir, développer et maintenir des flux de données fiables et industrialisés au service des équipes métiers Épargne et Services Financiers. Le poste est rattaché au DAS Épargne & Services Financiers et s’inscrit dans un environnement orienté data, qualité et automatisation. Missions Missions principales En tant que Data Engineer, vous interviendrez sur la conception, le développement et l’industrialisation des flux de données, dans un contexte finance / assurance à forts enjeux de qualité, de traçabilité et de performance. Concevoir et implémenter le socle data du Master Data Management (MDM) Intégrer et transformer les données issues de différentes sources Sécuriser et industrialiser les flux dans le respect des standards de qualité et de traçabilité attendus Mettre en œuvre des traitements de données (collecte, transformation, stockage) Garantir la qualité, la fiabilité et la performance des flux Travailler en lien étroit avec les équipes métiers et IT Contribuer aux bonnes pratiques de développement, d’automatisation et de CI/CD Stack technique Compétences requises (niveau confirmé) Data & traitement : Apache NiFi, requêtage et traitement de données (SQL / NoSQL) Connaissance des formats et protocoles : JSON, XML, CSV, REST API Base de données & stockage : PostgreSQL, Stockage objet (S3) DevOps & industrialisation : GitLab, GitLab CI, Pratiques CI/CD Compétences appréciées Langages & scripting : Python, Bash
Offre d'emploi
Chef de projet Data (Expert Power BI)
AVALIANCE
Publiée le
Agile Scrum
Alteryx
DAX
Nanterre, Île-de-France
Description de la mission : Globalement votre mission pourra être de plusieurs niveaux : - Participer aux différents sujets ayant traits à Power BI - Accompagner les métiers dans l’assistance, avec animation formation au besoin, sur Power BI - Organiser des ateliers de best practices avec les métiers sur Power BI - Contribuer à enrichir et consolider le socle Power BI Et plus précisément : - Maîtrise et pratique de SQL sous Oracle indispensable - Participer et réaliser les développements sur Power BI (où vous serez également force de proposition) - Développement des Datasets sous Power BI - Modélisation des tables de faits/Dimensions et optimisation de scripts et modèles de données - Utilisation du langage DAX pour l’ajout des champs calculés et le calcul des mesures (KPI) - Gestion des sécurités et des habilitations dans Power BI - Collaborer au quotidien avec les autres développeurs de notre équipe - Rédaction des documents des spécifications techniques et livrables - Assister les utilisateurs internes pour gérer leurs demandes (analyse et traitement de données, rapports…) Compétences en Chefferie de Projet & Gouvernance DATA : - Proposer et Harmoniser un cycle de vie des développements sur power BI - Coordonner et animer réunions, ateliers et comités liés à la DATA - Concevoir des supports (présentations, synthèses, reportings) - Gérer l’organisation complète des réunions et le suivi d’actions - Faire preuve d’autonomie et être force de proposition - Participer activement à la gouvernance DATA et promouvoir les bonnes pratiques
Mission freelance
Expert Fortinet
ALLEGIS GROUP
Publiée le
F5
Fortinet
Réseaux
3 mois
160-650 €
Toulouse, Occitanie
Bonjour, je suis à la recherche d'un expert Fortinet, dont vous trouverez la fiche de poste ci-dessous: Fiche de Poste – Expert Fortinet (N3) – Infrastructures de Sécurité Datacenter Contexte du poste Dans le cadre d’un projet stratégique autour de la modernisation et de la sécurisation d’un Datacenter critique , l’Expert Fortinet prendra en charge le build, le run, le design et l’industrialisation des infrastructures de sécurité réseau. Le poste requiert une très forte expertise technique et une capacité à intervenir dans des environnements sensibles à haute disponibilité. Missions principales Assurer le build , le run et le design des plateformes de sécurité reposant sur l’écosystème Fortinet (FortiGate, FortiManager, FortiAnalyzer…). Réaliser l’ ingénierie avancée sur les solutions Fortinet : architecture, intégration, optimisation, troubleshooting N3. Contribuer à l’ automatisation et à l’industrialisation (scripts, API, Ansible, pipelines CI/CD…). Intégrer les solutions au sein d’un réseau d’entreprise complexe (concepts avancés L2/L3, segmentation, zones, politiques de sécurité…). Participer au traitement des incidents majeurs, à l’analyse de cause racine et aux plans d’amélioration continue. Contribuer aux projets de transformation : modernisation, refonte, migration, montée de version… Rédiger et maintenir la documentation technique, les schémas, les procédures d’exploitation. Participer à la veille technologique sur les solutions réseau & sécurité.
Offre d'emploi
Senior Data Scientist
LIANEO
Publiée le
ClickHouse
Kubernetes
Python
55k-75k €
75009, Paris, Île-de-France
Au sein d'un acteur à la pointe de l'innovation dans le secteur des médias de détail, en tant que plateforme SaaS pionnière. Votre mission 👇 Vous intégrerez la nouvelle équipe data basée à Paris et serez chargé(e) de concevoir les premiers algorithmes d'apprentissage profond qui rendront les produits plus intelligents. La plateforme traite des milliards de logs par jour et alimente un data mart partagé entre toutes les équipes. Les produits de données sont déployés sur un cluster Kubernetes qui orchestre les tâches Python, en collaboration avec un cluster ClickHouse. Vous aurez l'opportunité de travailler en partant de zéro, sans contraintes ni dépendances vis-à-vis des systèmes existants, dans un environnement dynamique et ouvert où votre contribution sera significative. Vous collaborerez avec un ingénieur de données déterminé à développer les outils et solutions nécessaires au fonctionnement de nos algorithmes. Ce que vous ferez ✏️ Mettre en place les premiers composants d'apprentissage automatique et statistiques de la plateforme de science des données Traduire les problèmes commerciaux et les besoins en fonctionnalités en problèmes d'apprentissage automatique Ont un impact important sur la mise en œuvre des modèles ainsi que sur leur déploiement. Mettre en place des pipelines de formation continus Déployer et surveiller les modèles et mettre en œuvre les bonnes pratiques en matière d'apprentissage automatique
Mission freelance
Governance & Data Management Lead
Intuition IT Solutions Ltd.
Publiée le
IA
Microsoft Power BI
Qlikview
6 mois
500-550 €
Paris, France
La mission principale est : • Piloter et coordonner la collecte, la gestion et le reporting des cas d'utilisation des données de sécurité et de l'IA entre les entités, en garantissant la conformité, l'engagement des parties prenantes et la gouvernance au niveau de la sécurité du groupe. Les activités de service connexes sont : • Piloter le processus de collecte de la posture de sécurité des entités sur une base trimestrielle. Préparer, exécuter et tester les activités en coordination avec l'equipe off shore (en Inde) tout en apportant un soutien aux entités et aux propriétaires de données. • Servir de contact principal pour les parties prenantes de la sécurité afin de suivre et de suivre les exigences liées à la collecte de données et au développement de tableaux de bord, aux cas d'utilisation de l'IA, à coordonner l'exécution avec l'équipe en mode agile • Gérer la communication avec les entités et les équipes de sécurité concernant les délais de reporting et les améliorations • Fournir les rapports nécessaires aux comités et conseils d'administration • Organiser et diriger le conseil de gouvernance des données et de l'IA au niveau de la sécurité du groupe, assurer l'alignement avec le GO Data Office et contribuer aux communautés Data & AI • Améliorer le niveau de maturité de la gestion des données dans les différents départements de la sécurité du groupe, coordonner la revue de la documentation incluant le dictionnaire de données, le glossaire et les cartes d'identification des cas d'utilisation au sein de l'équipe • Coordonner le processus annuel d'examen d'accès pour le champ d'action du Security Data Hub
Offre d'emploi
OPS /OPS AZURE - Niort
CAT-AMANIA
Publiée le
Azure
Azure Kubernetes Service (AKS)
Openshift
2 ans
40k-45k €
320-550 €
Niort, Nouvelle-Aquitaine
Nous sommes à la recherche d'un OPS et d'un OPS AZURE pour l'un de nos clients sur le bassin niortais : - Accompagner les utilisateurs (développeurs, experts, OPS, BA, testeurs…) au quotidien : support, conseil, formation - Administrer / superviser les solutions hébergés sur RHEL 8.10, Azure et Openshift - Accompagner les squads sur les dimensions performance, robustesse, sécurité et fiabilité tout au long du cycle de vie des produits SI - Contribuer à la mise à disposition des environnements - Automatiser et industrialiser dans une logique « DevOps » pour servir le déploiement continu - Contribuer à, et garantir, l’exploitabilité et l’observabilité des produits - Préconiser les éléments liés au Capacity planning - Etre garant de la complétude du dossier d'exploitabilité - Contribuer à l'amélioration continue du produit
Offre d'emploi
Développeur Java Angular habitant déjà à Niort
HR DNA
Publiée le
Angular
J2EE / Java EE
2 ans
40k-52k €
400-450 €
Niort, Nouvelle-Aquitaine
! BESOIN URGENT ! Nous recherchons actuellement, pour un client du secteur de l'assurance basé à Niort, un DEVELOPPEUR JAVA ANGULAR HABITANT DEJA A NIORT (INDISPENSABLE). - Minimum 4 ans d'XP - 50% de télétravail - Démarrage ASAP Envoyez-moi votre CV par mail. Cordialement, ! BESOIN URGENT ! Nous recherchons actuellement, pour un client du secteur de l'assurance basé à Niort, un DEVELOPPEUR JAVA ANGULAR HABITANT DEJA A NIORT (INDISPENSABLE). - Minimum 4 ans d'XP - 50% de télétravail - Démarrage ASAP Envoyez-moi votre CV par mail. Cordialement,
Mission freelance
Proxy PO build - Snowflake + Power BI
FF
Publiée le
Azure Data Factory
Microsoft Power BI
Snowflake
1 an
Paris, France
Bonjour à tous, Mission longue 1 an ou + à Paris. Télétravail : 2 jours par semaine Date de démarrage : courant février Contexte de la mission Nous recherchons un Proxy Product Owner expérimenté pour accélérer la phase de BUILD de notre plateforme data. Cette mission vise à répondre à un besoin critique : face à un volume important de demandes utilisateurs et une incapacité à tout traiter faute de bande passante, ce PPO sera en charge de structurer et accélérer la livraison de nouvelles fonctionnalités, KPI et spécifications fonctionnelles. Cette personne doit être capable de s'adapter au contexte technique mais n'a pas besoin d'être un expert technique approfondi. L'enjeu principal est de faire le lien entre les utilisateurs métiers et les équipes de développement, en fournissant des spécifications fonctionnelles claires et exploitables. Objectif principal Accélérer le BUILD produit data : spécifications, nouveaux KPI, structuration des demandes utilisateurs. Le PPO BUILD devra gérer un fort volume d'échanges avec les utilisateurs, recueillir et formaliser les besoins métiers, définir et cadrer de nouveaux KPI, et travailler en étroite collaboration avec le Product Owner Data et les équipes de développement. Responsabilités clésGestion du backlog et cérémonies Agile • Participer aux cérémonies Agile et supporter le PO dans la gestion d'équipe • Gérer et opérer le backlog BUILD • Créer et maintenir les tickets Jira pour les équipes de développement avec des informations complètes : spécifications d'intégration de données, sources de données requises pour la construction des KPI, règles de transformation et critères d'acceptation Recueil et formalisation des besoins • Recueillir les besoins métiers auprès des utilisateurs clés • Mener des interviews utilisateurs à haut volume pour comprendre et cadrer les demandes • Formaliser les besoins sous forme de spécifications fonctionnelles claires et exploitables Analyse et construction des KPI • Analyser les sources de données nécessaires pour construire les KPI • Définir et cadrer de nouveaux KPI dans la plateforme data • Effectuer l'analyse technique et optimiser la logique de calcul des KPI • Concevoir des modèles de données dans Snowflake et Power BI Tests et validation • Effectuer des tests UAT (User Acceptance Testing) avec les parties prenantes dans Snowflake et Power BI • Tester et valider les fonctionnalités et améliorations livrées Suivi et optimisation • Surveiller et examiner l'orchestration et la planification des sources • Construire et affiner les modèles de données Power BI • Contribuer à la documentation fonctionnelle Qualifications requisesHard Skills • Expérience data significative : minimum 4 ans dans des projets de données et de business intelligence • Stack technique : Azure Data Factory, Snowflake (compréhension fonctionnelle), Power BI (KPI, dashboards) • SQL : connaissance fonctionnelle pour effectuer l'analyse de données, validation et compréhension des données • Méthode Agile : expérience prouvée en tant que Product Owner dans des environnements Agile (Scrum) avec JIRA • Spécifications fonctionnelles : capacité à rédiger des spécifications fonctionnelles claires et exploitables • Connaissances IT générales : protocoles, API, réseau, etc. Soft Skills • Excellentes capacités de communication avec les utilisateurs et les équipes de développement • Aisance dans les échanges avec des utilisateurs exigeants et capacité de facilitation et négociation avec les parties prenantes • Esprit de synthèse et structuration pour transformer des besoins complexes en spécifications claires • Autonomie forte et curiosité – capacité à apprendre rapidement le contexte métier • Décisif et axé sur les résultats • Esprit collaboratif Langues • Anglais : courant / bilingue obligatoire Profil recherché • Niveau d'expérience : 4 à 7 ans (profil plutôt junior à confirmé) • Expérience data indispensable dans des projets de données et de business intelligence • Compréhension fonctionnelle de Snowflake Objectifs et livrables • Assurer une approche centrée utilisateur dans toutes les décisions produit • Construire et maintenir la roadmap produit en collaboration avec le Product Owner Data • Définir des spécifications fonctionnelles claires et complètes • Planifier, piloter et prioriser les développements en utilisant la méthodologie Agile • Tester et valider les fonctionnalités et améliorations livrées • Fournir formation, support et communication aux utilisateurs Compétences clés demandées • AGILE • Snowflake (fonctionnel) • Microsoft Power BI : Niveau Expert Attentes clés • Forte autonomie : capacité à prendre des initiatives et à gérer son périmètre de manière indépendante • Excellente communication : travailler efficacement avec différentes équipes • Apporter de la valeur immédiate : être une aide réelle et opérationnelle • Profil responsable et proactif A bientôt,
Mission freelance
chef de projet DATA ETL - Checy/su
WorldWide People
Publiée le
ETL (Extract-transform-load)
Pilotage
12 mois
370-400 €
Chécy, Centre-Val de Loire
chef de projet DATA ETL Checy Localisation : Chécy, 2 jours de TT apres 3 mois de full présentiel. Profil recherché : Consultant confirmé en gestion de projets et maintenance applicative. Expérience significative dans les activités décisionnelles (alimentation et restitution d'informations). Connaissance des fonctionnalités ETL (idéalement XDI, ODI, Talend/Sas/Azure/Snowflake). La maitrise d’un outil de gestion de projet (Clarity), de ticketing (Jira) est nécessaire. La maitrise d’un outil de recette (Squash) serait un plus. Très bon communiquant, grande rigueur, méthodologie et bon relationnel seront les atouts du candidat. Ci joint le descriptif de mission : La mission consiste à gérer les projets et la maintenance sur le périmètre métier «Décisionnel» en délégation du pilote de projets référent du domaine. Il interviendra en tant qu’interlocuteur privilégié de l’AMOA Décisionnel pour l’exécution des projets et de la maintenance applicative du domaine. Le chef de projet participera à toutes les phases, du cadrage à la préparation de la mise en production. Il prendra en charge la mise à jour hebdomadaire du planning, le suivi des charges et le reporting associé. Il assurera la préparation et le passage en Comité d’architecture en collaboration avec l’équipe d’architectes Thélem. Il assurera également le pilotage quotidien de l’avancement auprès des équipes de réalisation et de recette, préparera et animera les ateliers et instances de pilotage (COMOP, daily, …). Profil recherché : Consultant confirmé en gestion de projets et maintenance applicative. Expérience significative dans les activités décisionnelles (alimentation et restitution d'informations). Connaissance des fonctionnalités ETL (idéalement XDI, ODI, Talend/Sas/Azure/Snowflake). La maitrise d’un outil de gestion de projet (Clarity), de ticketing (Jira) est nécessaire. La maitrise d’un outil de recette (Squash) serait un plus. Très bon communiquant, grande rigueur, méthodologie et bon relationnel seront les atouts du candidat. Début de mission : Début mars 2026
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
5662 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois