Trouvez votre prochaine offre d’emploi ou de mission freelance ETL (Extract-transform-load)
Votre recherche renvoie 285 résultats.
Mission freelance
Analyste développeur SQL, ETL (Semarchy ou base VERTICA), BO, SSRS (h/f)
emagine Consulting SARL
Publiée le
1 mois
450-530 €
75009, Paris, Île-de-France
Introduction & Résumé : Nous recherchons un Analyste développeur SQL expérimenté pour rejoindre notre équipe au sein du secteur de la Salle des Marchés. Le candidat idéal possède au moins 5 ans d'expérience dans des missions similaires et maîtrise SQL, ETL Semarchy ou VERTICA, ainsi que Business Objects et SSRS. Ce poste nécessite la capacité à développer et intégrer des solutions complexes tout en collaborant avec une équipe dédiée à l'extraction et à l'exploitation des données. Principales responsabilités : Le candidat sera chargé de : Développer et intégrer des solutions front-to-back pour le secteur de la Salle des Marchés. Participer à la finalisation du projet « Installation sur des infrastructures décisionnelles ». Alimenter une base de données VERTICA à partir de données actuelles via BusinessObjects. Créer des interfaces d'alimentation avec l'ETL Semarchy. Migrer des procédures SQL existantes et ajuster des univers pour interroger la nouvelle base. Développer de nouveaux rapports SSRS ou Business Objects. Mettre en place des procédures stockées pour l'extraction de données. Exigences clés : Minimum 5 ans d'expérience dans des missions similaires. Excellente maîtrise de SQL (procédures stockées, requêtes complexes). Connaissance de l’ETL Semarchy ou de la base VERTICA. Familiarité avec la suite Business Objects, notamment Information Design Tools et Universe Design Tools. Expérience avec SSRS. La connaissance du domaine des Titres dans la Salle des Marchés est un atout appréciable. Atouts : Expérience dans des outils de gestion de transactions financières. Connaissance des services d'analyse de coûts ou de reporting réglementaire. Autres détails : Ce poste est idéal pour un professionnel cherchant à évoluer dans un environnement dynamique, axé sur le développement de solutions décisionnelles. Une excellente collaboration avec des experts en données est attendue.
Mission freelance
Data Ingénieur H/F
Insitoo Freelances
Publiée le
ETL (Extract-transform-load)
HFSQL
JIRA
2 ans
380-511 €
Hauts-de-France, France
Basée à Lille, Lyon, Nantes, Grenoble, Marseille, Paris et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data Ingénieur H/F à Hauts-de-France, France. Contexte : L’équipe Data Engineering recherche un développeur flux Stambia / Semarchy xDI confirmé pour renforcer ses capacités de conception et d’industrialisation de flux de données. Cette équipe intervient dans un environnement fonctionnel riche couvrant plusieurs domaines stratégiques (supply, commerce, customer, etc.). L’activité se concentre exclusivement sur des échanges de données opérationnels, hors périmètre décisionnel. Vous évoluerez dans une équipe expérimentée, sur des enjeux variés de BUILD (conception, création, évolutions) et de RUN (exploitation, optimisation, astreinte). Les missions attendues par le Data Ingénieur H/F : La mission se structure de la manière suivante : ● Analyse des besoins : ○ Comprendre les besoins en matière d'intégration de données en collaborant avec le Product Owner et les parties prenantes. ● Conception : ○ Concevoir des flux complexes en utilisant l’outil Stambia / Semarchy xDI. ○ Capacité à modéliser une base de données. ● Développement : ○ Développer les flux en appliquant les meilleures pratiques de développement. ○ Produire des scripts (Python, Beanshell, Shell...) pour enrichir ou personnaliser des traitements spécifiques. ○ S’appuyer sur Git pour faciliter la collaboration entre développeurs. ● Tests : ○ Tester ses développements (performance, robustesse, non-régression...) pour garantir qualité et fiabilité. ● Documentation : ○ Documenter et partager les connaissances. ○ Réaliser des spécifications techniques. ● Maintenance : ○ Assurer la maintenance (suivi de production, monitoring, support, astreinte) des flux de données et les mises à jour en cas de besoin.
Offre d'emploi
Data Quality Analyst h/f
Ela Technology
Publiée le
Alteryx
Batch
ETL (Extract-transform-load)
6 mois
Seine-Saint-Denis, France
🎯 Contexte & Enjeux Dans le cadre d’un programme de transformation d’envergure autour des processus KYC , une équipe dédiée à la qualité des données intervient au cœur du dispositif pour sécuriser la migration vers un outil cible commun et garantir l’intégrité des données entre plusieurs systèmes historiques. L’enjeu est double : accompagner les déploiements tout en assurant une continuité opérationnelle sans rupture , dans un environnement international et fortement industrialisé. Suite à un départ à la retraite programmé en milieu d’année , une mission clé est ouverte afin d’assurer la reprise, la stabilisation et l’évolution des processus existants. 🚀 Mission Au sein de l’équipe Data Quality, vous êtes garant(e) de la fiabilité des données , du bon déroulement des réconciliations et de la continuité de la chaîne de valeur , depuis les systèmes legacy jusqu’à la solution cible. Votre mission s’articule autour de deux piliers équilibrés : 🧩 50 % Développement | ⚙️ 50 % Production & Pilotage opérationnel Vos responsabilités principales Qualité & Migration des données Piloter les réconciliations quotidiennes , en mode run the business , pour assurer un flux de données continu. Piloter les réconciliations hebdomadaires , préparer et suivre les indicateurs de performance (KPI) . Superviser les processus de bulk permettant la remédiation des données dans l’outil cible. Garantir la conformité des données migrées tout au long du programme. Développement & Maintenance Maintenir, faire évoluer et sécuriser un socle VBA existant (lecture, débogage, amélioration, mises en production). Assurer la stabilité et la traçabilité des évolutions de code. Environnement collaboratif Assurer l’ administration et la migration de SharePoint vers la version Online : Organisation documentaire Gestion des accès et permissions Migration des environnements et livrables. Gouvernance & Continuité opérationnelle Être le/la garant(e) de la rigueur opérationnelle , du respect des SLA et des processus. Veiller à ne jamais interrompre l’activité des Task Forces internationales (Inde & Portugal). Documenter les procédures et accompagner la structuration des processus pérennes vers l’architecture cible.
Offre d'emploi
Expert Talend ETL (FR/ALL)
TALAN
Publiée le
ETL (Extract-transform-load)
Talend
12 mois
Genève, Suisse
En tant qu’Expert Talend, vous interviendrez sur l’ensemble du cycle de traitement des données : Conception & développement Concevoir et développer des flux ETL Talend performants et industrialisés Garantir la robustesse, la performance et la maintenabilité des traitements Reprise et migration de données Piloter les activités de data migration Réaliser les processus d’extraction, transformation, nettoyage et normalisation Mettre en place des mécanismes de contrôle et de traçabilité des traitements Data Quality Définir et implémenter des règles de qualité des données Mettre en place des contrôles automatisés et indicateurs de suivi Identifier et corriger les anomalies de données Documentation & qualité Maintenir la documentation technique et fonctionnelle Documenter les mappings de données et règles de gestion Participer à l’automatisation des tests et à l’amélioration continue des pipelines
Mission freelance
Consultant ETL Semarchy Orleans/su
WorldWide People
Publiée le
Semarchy
6 mois
350-400 €
Orléans, Centre-Val de Loire
Consultant ETL Semarchy pour renforcer un dispositif chez un client à Orléans. Le collaborateur devra résider dans la région : aucune possibilité de télétravail durant les trois premiers mois, puis 2 jours de télétravail par semaine. Le client retient uniquement des candidats ayant déjà travaillé auprès de clients locaux à Orléans. Vous trouverez ci-dessous une liste non exhaustive des travaux attendus dans le cadre de cette mission : · Apporter des préconisations sur les choix de conception & réalisation · Concevoir et développer les évolutions, en tenant compte des besoins métiers actuels et futurs. · Identifier les impacts sur les applications dépendantes · Rédiger des livrables projets du chantier (Note de livraison, bon de livraison, dossier de création de chaines) · Donner de la visibilité aux membres de l'équipe de développement (via des Compte rendu, de l’animation de comité) · Interagir avec un nombre important d’acteurs : développeurs, chefs de projets SI, MOA, urbanistes SI, experts techniques, correspondants métiers, etc. Pour mener cette prestation, le dispositif proposé doit présenter au minimum les aptitudes suivantes : · Avoir des compétences techniques avérées : o Maîtriser les outils développements : XDI semarchy · La maitriser des compétences techniques suivantes est un plus : o Maitriser l’environnement Snowflake o Connaitre le fonctionnement de la moulinette de migration fournie par Semarchy afin de réaliser la bascule du code ODI vers XDI de Semarchy o Maitriser l’environnement Oracle o Maîtriser les outils développements : ODI o Maitriser les outils de déploiements : Jenkins, Git, Terraform, Sqitch o Maitriser l’interfaçage avec le cloud Azure o La maitriser du langage SAS est un plus · Autonomie · Être force de proposition · Disposer d’une capacité d’adaptation · Être rigoureux et organisé · Appétence au travail en équipe
Mission freelance
Chef de Projet Talend Data Integration – ETL & Streaming (Talend / Kafka) -- 92
Montreal Associates
Publiée le
Apache Kafka
API
Confluence
7 mois
550-700 €
Puteaux, Île-de-France
🚀 Chef de Projet Talend Data Integration – ETL & Streaming (Talend / Kafka) Dans un contexte grand groupe international et multiculturel, vous pilotez les services d’intégration data autour des plateformes Talend (Cloud & hybride) et Kafka Confluent , avec des enjeux forts de scalabilité, performance et gouvernance data . • Pilotage du RUN et des projets (CRM, PIM, annuaire…) • Cadrage des besoins, architecture et conception des flux data • Management d’une équipe offshore (Inde) • Suivi opérationnel des plateformes Talend & Kafka (monitoring, upgrade, incidents) • Gestion du capacity planning & facturation • Définition et diffusion des bonnes pratiques data & intégration 🔎 Ce que l’on recherche Un Chef de Projet Data très opérationnel , capable de piloter à la fois le RUN et les projets, avec une vraie expertise technique ETL/streaming et une capacité à gérer des environnements complexes à grande échelle. #Data #ETL #Talend #Kafka #Streaming #DataEngineering #ProjectManager #Freelance
Mission freelance
Chef de projet GMAO / data senior - H/F - 93
Mindquest
Publiée le
Databricks
ETL (Extract-transform-load)
Python
3 mois
Seine-Saint-Denis, France
Pilotage de projets: - Piloter des projets décisionnels autour de la GMAO, de la phase de cadrage à la mise en production - Garantir la livraison des projets dans le respect des délais, des coûts et des exigences de qualité - Assurer un reporting régulier auprès du management sur l’avancement des projets Coordination & gouvernance: - Faire le lien entre les équipes d’architecture, d’intégration et de développement - Définir et faire appliquer les normes, méthodes et bonnes pratiques - Être garant du respect des processus de gouvernance de la donnée - Veiller au bon usage des données dans les projets Cadrage fonctionnel & expérience utilisateur: - Contribuer à la définition des besoins métiers - Participer à la conception des solutions en intégrant les enjeux d’expérience utilisateur - Définir les fonctionnalités à implémenter Data engineering & performance: - Développer et maintenir des traitements de données robustes sur Databricks - Optimiser les performances des jobs et des rapports existants - Assurer la fiabilité, la qualité et la disponibilité des données Suivi & amélioration continue: - Remonter de manière proactive les risques, alertes et points de blocage à votre manager - Maintenir et enrichir la documentation projet (technique et fonctionnelle) - Contribuer à l’amélioration continue des processus et des outils
Mission freelance
Chef de Projet Informatique Senior Finance / Facturation Électronique
MGT Conseils
Publiée le
API
E-Invoicing
E-reporting
6 mois
500-650 €
Hauts-de-Seine, France
Contexte : Dans le cadre de la réforme de la facturation électronique, la DSI, de notre client du secteur immobilier, conduit plusieurs projets stratégiques impactant l’ensemble du SI Finance. Le poste vise à structurer et sécuriser ces transformations dans un environnement multi applications (P2P InVoice Share, Outils comptables DMI, Anael, ERP Primpromo, Outil de Génération des honoraires Espace Affaires, Implémentation de PA entrante/PA sortante) Responsabilités générales : Animation des ateliers métiers et techniques Rédaction des spécifications fonctionnelles et techniques détaillées Coordination avec les équipes internes, éditeurs et intégrateurs Reporting Gestion et réalisation des tests Encadrement des mises en production Support post-MEP Missions spécifiques – Facturation électronique : Montée en compétence sur le SI / compréhension des flux, APIs, référentiels et intégrations Implémentation PA entrante : analyse d’impacts, spécifications détaillées, suivi des développements, tests, mise en production Implémentation PA sortante : cadrage, spécifications techniques, suivi des développements, tests complets, mise en production Connexion ERP Métier ↔ PA sortante : analyses, conception, tests Connexion Outil de Génération des honoraires Espace Affaires ↔ PA sortante : analyses, conception, tests, MEP Portail DMI (interface comptable / couche existant en interne à interfacer avec futures PA) : rédaction SFD, pilotage des développements, tests et évolutions Chantier qualité de données Interactions clés : Direction Financière (comptabilité, contrôle de gestion) DSI – équipes intégration, développement TALEND, ERP, infrastructure Prestataires, éditeurs, AMOA Utilisateurs finaux et key-users
Mission freelance
Développeur DataStage
ARGANA CONSULTING CORP LLP
Publiée le
Big Data
ETL (Extract-transform-load)
IBM DataStage
12 mois
450 €
Joinville-le-Pont, Île-de-France
🔎 Contexte de mission Dans le cadre des projets de la Direction Informatique Groupe (périmètre Sécurité Financière), vous interviendrez sur la mise en œuvre des indicateurs AML au sein de nouveaux outils en cours de développement. La mission s’inscrit dans un environnement bancaire exigeant, avec des enjeux liés à la conformité et au traitement de données financières. 🎯 Missions principales et rôle En tant que Concepteur / Développeur DataStage , vous serez en charge de : Développer les contrats d’interface entre le SI, le DRE et les Datamarts Concevoir et faire évoluer les flux de données liés aux projets AML (LAB, TRACE, etc.) Créer et maintenir les composants d’intégration de données (CI) Développer les packages DataStage associés Participer aux phases de tests et de recette Accompagner les mises en production (MEP) 🚀 Objectifs Assurer la bonne intégration des flux de données dans l’écosystème SI Garantir la qualité, la fiabilité et la conformité des données AML Contribuer à l’évolution des outils de lutte contre le blanchiment 🛠️ Compétences requises Expérience de 3 à 5 ans en développement, idéalement en environnement bancaire ou marchés financiers Maîtrise des environnements Big Data et expertise en ETL DataStage Bonne connaissance de JIRA (obligatoire) Connaissance du périmètre fonctionnel comptabilité multinormes Expérience en méthodologie Agile Anglais professionnel requis
Mission freelance
Développeur Senior - Expert Intégration Salesforce
CAT-AMANIA
Publiée le
AWS Cloud
ETL (Extract-transform-load)
Microsoft SQL Server
6 mois
400-510 €
Île-de-France, France
Nous recherchons un consultant senior spécialisé en intégration de données pour accompagner un acteur majeur de la protection sociale dans la refonte de ses flux inter-applicatifs. L'objectif principal est la conception et le déploiement d'une trentaine de flux ETL SSIS permettant d'alimenter Salesforce FSC à partir de sources hétérogènes. Responsabilités : Conception et développement de flux SSIS (dont 5 flux complexes). Extraction de données depuis des fichiers CSV stockés sur des buckets AWS S3. Transformation des données vers un format pivot cible. Injection des données dans Salesforce FSC via le connecteur KingswaySoft. Réalisation des tests unitaires et d'intégration. Rédaction de la documentation technique et des dossiers de mise en production. Profil recherché : Expertise confirmée sur la suite SQL Server Integration Services (SSIS). Expérience impérative sur le connecteur KingswaySoft pour Salesforce. Maîtrise des environnements Cloud (AWS S3). Capacité à travailler de manière autonome sur des problématiques de mapping complexes. Rigueur dans la documentation et le respect des référentiels de développeme
Mission freelance
Développeur Boomi / Intégration
VISIAN
Publiée le
Boomi
ETL (Extract-transform-load)
1 an
Paris, France
La mission est à réaliser au sein de la Direction des Systèmes d’Information – Domaine OPS AI, pôle OFFRE AI qui déploie et exploite les applications métier et les infrastructures de production associées. L’intégration portera sur la qualification technique des applications, leur déploiement sur les infrastructures d’hébergement, l’ordonnancement des traitements (Automic, TWS), la rédaction des consignes d’exploitation. L’intégrateur sera amené à développer des scripts pour automatiser les traitements et les déploiements. Le suivi de la production consistera à intervenir pour la résolution des incidents, en niveau 2, et à veiller à l’optimisation de l’exploi
Offre d'emploi
Data Engineer Snowflake DBT ELT Senior
Atlanse
Publiée le
DBT
ETL (Extract-transform-load)
Microsoft Power BI
1 an
55k-65k €
400-550 €
Guyancourt, Île-de-France
En tant que Data Engineer Senior, vous intervenez au sein d’un environnement data en forte structuration pour concevoir, industrialiser et faire évoluer les flux de données dans un écosystème Snowflake / dbt / ELT. Votre rôle Conception et industrialisation des flux data dans Snowflake · Concevoir, développer et maintenir des pipelines ELT dans un environnement Snowflake / dbt · Intégrer et transformer des données issues de différents environnements · Concevoir des modèles de données · Contribuer à l’industrialisation des traitements et à la fiabilisation de l’alimentation du data warehouse Snowflake Qualité, traçabilité et performance data · Fiabiliser les chaînes de transformation dbt · Optimiser les traitements dans Snowflake · Surveiller le bon fonctionnement des flux en production, analyser les anomalies de chargement ou de qualité de données, mettre en œuvre les actions correctives Evolution du socle data · Accompagner les projets de transformation ou de migration de solutions data existantes vers un socle plus moderne, notamment autour de Snowflake · Travailler en lien étroit avec les équipes data, IT et métiers · Contribuer à l’amélioration continue des standards de développement, de documentation, de gouvernance et de sécurité
Mission freelance
249595/DATA Q Ingenieur - Snowflake , Dataiku , 'ELT ou ETL, Python et SQL
WorldWide People
Publiée le
Snowflake
6 mois
Saint-Denis, Île-de-France
DATA Q Ingenieur - Snowflake Confirmed, Maitrise de Dataiku Confirmed, Familier avec le concept d'ELT ou ETL Expert, Modélisation de données Confirmed, Expertise SQL, Python Expert, Connaissance technique de l'environnement Data (architecture medaillon, principe des data mesh) Confirmed , Votre rôle axé Analytics Engineer sera de : - Transformer, modéliser et documenter les données brutes pour les rendre exploitables - Développer des modèles et produits de données axés conformité pour alimenter la base graphe en partant des données brutes des applications - Maintenir en condition opérationnel nos flux d'ingestion vers la base de données graphes - Améliorer des processus de traitement des données pour gagner en rapidité et en efficacité. - Créer et mettre à jour de la documentation pour aider à l’utilisation des produits de données. - Automatiser des tests de contrôle et surveillance de la qualité pour garantir l’intégrité des données traitées. - Produire des analyses à destination de nos métiers pour le calibrage de scénarios de fraude ou vigilance LCB-FT - Collaborer avec les différentes parties prenantes (notamment les Data Engineers et les métiers de la fraude et LCB-FT) pour enrichir les données de la base de données graphes en fonction de leur besoin - Collaborer avec l'équipe Data Plaform en mettre en production les différents produits de données"
Offre d'emploi
Ingénieur étude et développement Talend ETL
Ela Technology
Publiée le
Oracle
PostgreSQL
SQL
6 mois
40k-60k €
400-560 €
Île-de-France, France
I. Contexte : Dans le cadre d’un projet d’intégration de l'Oracle Cloud ERP, notre organisation souhaite renforcer son équipe avec un expert en développement ETL utilisant la plateforme Talend Cloud Data Management. L’objectif de la mission est d’assurer la conception, le développement, l’optimisation et la maintenance des flux d’intégration de données dans un environnement complexe, en interaction avec plusieurs systèmes sources (ERP, bases de données, fichiers plats, API, etc.). II. Missions : • Recueil et analyse des besoins en termes de flux de données • Rédaction des spécifications techniques (en collaboration avec les équipes MOA/MOE) • Développement de jobs ETL sous Talend • Optimisation des performances des traitements ETL • Mise en place de processus d’automatisation, de contrôle qualité et de reprise sur incident • Participation aux tests, à la recette et à la mise en production • Support et maintenance corrective/évolutive des flux existants • Rédaction de la documentation technique
Offre d'emploi
Interopérabilité : Ingénieur Intégration, Data & Cloud
1PACTEO
Publiée le
ETL (Extract-transform-load)
Google Cloud Platform (GCP)
Intégration
12 mois
44k-94k €
400-750 €
75000, Paris, Île-de-France
Dans le cadre de ses activités, notre client recherche un Ingénieur Intégration, Data & Cloud. L’ingénieur intervient sur la conception, le développement et l’exploitation de solutions d’intégration, de traitement de données et d’architectures cloud, dans un contexte orienté automatisation, data et DevOps. Il contribue directement à la mise en place de solutions d’interopérabilité entre systèmes hétérogènes (on-premise et cloud), en assurant la fiabilité, la fluidité et la sécurisation des échanges de données. Missions principales Intégration & Orchestration Développement et orchestration de flux d’intégration avec Magic xpi Automatisation des échanges de données entre systèmes (on premise ↔ cloud) dans une logique d’interopérabilité Intégration de services via APIs REST (authentification, appels sécurisés, transformation des données) Conception et orchestration de workflows d’intégration avec Application Integration (GCP) Cloud & Architecture (Google Cloud Platform) Conception et déploiement de solutions cloud sur Google Cloud Platform (GCP) Mise en place et gestion d’architectures data et d’intégration favorisant l’interopérabilité entre applications Gestion des environnements dev / recette / production Data Engineering & Analytics Modélisation de données et conception de pipelines ETL / ELT Traitement de volumes de données importants Optimisation de requêtes SQL avancées Analyse et data warehousing avec BigQuery Transformation et modélisation analytique avec dbt (staging, intermediate, marts, tests de qualité, documentation, versioning) ETL & Outils Data Conception et développement de flux ETL avec SQL Server Integration Services (SSIS) Automatisation des traitements d’intégration de données multi-sources Développement & Scripting Programmation Python SQL avancé Scripting et automatisation (batch processing, jobs automatisés) DevOps & CI/CD Mise en place et maintenance de pipelines CI/CD avec GitHub Automatisation des tests, builds et déploiements via GitHub Actions Gestion du versioning et des bonnes pratiques de développement Automatisation Low-Code Création de flux Power Automate (cloud et desktop) Utilisation de connecteurs et intégrations avec des systèmes tiers Méthodologies & Qualité Travail en méthodologie Agile / Scrum Application des bonnes pratiques de développement et de data engineering Contribution à la documentation technique et à l’amélioration continue
Mission freelance
Data Analyst (H/F) - 92 + Remote
Mindquest
Publiée le
AI
CRM
ETL (Extract-transform-load)
3 mois
250-450 €
Neuilly-sur-Seine, Île-de-France
Contexte Au sein de la fonction IT Commercial Excellence, le poste s’inscrit dans la mise en œuvre de la stratégie et de la feuille de route Digital Front-End, en étroite collaboration avec les parties prenantes métiers. Le rôle contribue également à l’innovation sur les processus, les outils et les technologies afin de soutenir la performance commerciale et la transformation digitale Mission principale La mission prioritaire consiste à piloter de bout en bout les activités de reporting et d’analytics pour un projet stratégique Route to Market en France, de la phase de définition jusqu’à la mise en œuvre opérationnelle. Le poste vise à fournir des solutions analytiques, stables, scalables et orientées métier, en s’appuyant sur les meilleures technologies du marché Responsabilités principales Piloter les activités de reporting et d’analytics de bout en bout sur des projets stratégiques Mettre en œuvre des solutions analytiques et technologiques en approche Agile Développer les capacités analytics et enrichir le portefeuille applicatif Concevoir des solutions adaptées aux besoins métiers, avec une forte orientation utilisateur Intégrer les technologies avancées de Data & AI dans les plateformes et processus Garantir la qualité, l’exploitabilité et l’organisation des données Définir les processus cibles et accompagner leur adoption par les métiers Identifier les tendances du marché, les meilleures pratiques et proposer des axes d’amélioration Évaluer les solutions aussi bien d’un point de vue conceptuel qu’opérationnel Soutenir les projets commerciaux clés au niveau local et européen Gérer les priorités locales et porter une vision régionale sur les processus et leur adoption Faire le lien entre la conception des processus et la capacité de delivery des solutions Interactions clés En interne : Parties prenantes Digital Front-End des différentes BU et BPO Équipes régionales centrales, solutions et digitales Responsables IT locaux et membres de l’équipe de direction IT Centre d’excellence Commercial Excellence Responsable IT Commercial Excellence Analyste IT Commercial Excellence En externe : Fournisseurs tiers AMS Parties prenantes Enjeux du poste Assurer un delivery agile et rapide de solutions adaptées aux besoins Stimuler l’innovation sur la donnée, les outils et les modes de fonctionnement Tirer parti des capacités digitales et analytiques internes et externes Concevoir une expérience utilisateur de qualité Mettre la donnée au cœur des dispositifs de pilotage et de transformation Intégrer l’analytics avancée et l’IA dans les usages métiers
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Passer de freelance en portage : quelle société choisir
- imposition des dividendes
- Passer de micro à SASU avec des factures en attente : comment récupérer son reliquat ARE ?
- Etat du marché 2026: rebond ou stagnation ?
- Mission à 600 km de chez moi - Frais de double résidence
- Facturation electronique 2026
285 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois