Trouvez votre prochaine offre d’emploi ou de mission freelance Azure Data Factory
Mission freelance
Data Engineer confirmé
Hello, Pour le compte de l'un de mes clients parisiens dans le secteur de la sous traitance de services, je suis à la recherche d'un data engineer confirmé. Expériences et/ou skills mandatory : - Expérience en Data Engineering/Data Modelling (Pipelines + structuration Bases de données). -Expérience sur Azure + DataBricks (DB nice to have). -A déjà travaillé sur un ou plusieurs Use Cases Machine Learning et/ou IA (ou bonnes notions/compréhension). -Bon communicant (car proche du business),
Offre d'emploi
Data Engineer Azure Data Factory
Intitulé du poste : Data Engineer Azure Contexte du poste Au sein du Centre de Compétences Data, le Data Engineer participe activement aux différents projets de transformation digitale du groupe. Il conçoit, développe et déploie des solutions data et reporting permettant aux utilisateurs métiers d’analyser efficacement leurs activités à travers des tableaux de bord et indicateurs de performance. Missions principales Participer à la conception et à la mise en œuvre des architectures Data (Data Lake, Data Warehouse, Data Marts, Cubes). Concevoir et développer des processus ETL/ELT performants et automatisés avec Azure Data Factory , SQL Server Integration Services et Azure SQL Database . Garantir la qualité, la disponibilité et la performance des données. Modéliser les données (dimensionnelles et relationnelles) selon les besoins métiers. Maintenir en conditions opérationnelles les flux ETL et les environnements de données. Participer à l’industrialisation et à l’automatisation des pipelines via CI/CD Azure DevOps . Collaborer étroitement avec les équipes DevOps , Product , Design , Data et Management pour assurer la cohérence technique et fonctionnelle des solutions. Documenter les réalisations techniques, rédiger les spécifications et enrichir le catalogue de composants réutilisables. Fournir un support technique et fonctionnel aux utilisateurs finaux. Responsabilités complémentaires Réaliser des études de faisabilité et des cadrages techniques. Optimiser les performances des requêtes SQL, DAX et MDX. Mettre en œuvre la sécurité des données (Row Level Security sur toute la chaîne). Gérer la supervision, le debugging et le monitoring des flux BI. Contribuer à l’amélioration continue et à la standardisation des pratiques Data au sein du Centre de compétences Data. Compétences techniques requises Langages / Outils : T-SQL, DAX, MDX Technologies : Azure Data Factory, Azure SQL Database, Azure Analysis Services, Azure Data Lake Gen2, Power BI, SSIS Environnements : GitLab / Azure DevOps, Visual Studio, SQL Server Management Studio, Tabular Editor, DAX Studio Méthodologies : Agile, CI/CD, DataOps Compétences clés : Data Modeling, Data Warehousing, ETL, Data Visualization, Performance Tuning Profil recherché Diplôme Bac+5 (Master) en Informatique , Statistiques ou Mathématiques appliquées . Expérience significative en développement et maintenance de solutions BI/Data sur environnement Microsoft Azure . Maîtrise des concepts de Data Warehouse et de modélisation dimensionnelle. Excellente capacité d’analyse et rigueur technique. Aisance relationnelle, sens du travail en équipe et esprit collaboratif. Niveau d’anglais professionnel (écrit et oral). Goût pour la transformation digitale et l’innovation. Qualités attendues Sens du service et orientation client. Capacité à gérer plusieurs interfaces dans un contexte international. Esprit d’initiative et autonomie. Curiosité technologique et volonté d’amélioration continue. Outils et technologies principales Azure Data Factory – Azure SQL Database – Azure Analysis Services – Power BI – ADLS Gen2 – GitLab – Azure DevOps – Visual Studio – SSMS – DAX Studio – Tabular Editor

Offre d'emploi
Data Engineer
Contexte : Dans le cadre d’un vaste programme de transformation Data, nous recherchons un Data Engineer pour rejoindre une équipe en pleine évolution. Le projet vise à moderniser les infrastructures de données, à industrialiser les flux et à renforcer la valorisation de la donnée au service des métiers (pilotage, relation client, performance opérationnelle, IA et analytique). L’environnement de travail est stimulant, avec une forte culture d’innovation autour du cloud, du Big Data et de l’intelligence artificielle. L’équipe Data est composée de profils complémentaires : data engineers, data analysts, data scientists et experts gouvernance.

Offre d'emploi
CHEF(FE) DE PROJET FLUX DATA AZURE DATABRICKS (H/F)
ACCROCHE SI TU SAIS QUE LES DONNÉES BRUTES NE DEMANDENT QU’À ÊTRE AFFINÉES, VIENS SAISIR CETTE OPPORTUNITE ... CE QUE TU RECHERCHES : Piloter des projets data et big data ambitieux Travailler sur des architectures innovantes et des volumes de données massifs Relever des défis techniques et fonctionnels pour transformer les données en valeur Accompagner les métiers dans leur transformation Rejoins une équipe où ton expertise en gestion de projets data sera un atout Au sein d’un acteur majeur du secteur , tu participeras : Recueil et analyse des besoins métiers, tu réaliseras Conception et pilotage des architectures data et big data, tu assureras Gestion des phases de développement et d’intégration, tu coordonneras Mise en place de pipelines de données performants, tu garantiras Industrialisation et sécurisation des traitements, tu superviseras Accompagnement des équipes techniques et métiers, tu animeras Veille technologique et anticipation des évolutions, tu effectueras QUI TU ES : Diplômé(e) en informatique, data science ou équivalent Tu justifies d’une expérience de ans minimum en gestion de projets data et big data Maîtrise des plateformes Expertise en outils de gestion et traitement des données AU-DELÀ DES COMPÉTENCES TECHNIQUES, TU ES / AS : Analytique, tu sais exploiter les données pour prendre des décisions éclairées Méthodique, tu structures et pilotes les projets avec rigueur Pragmatique, tu proposes des solutions adaptées aux enjeux métier Communicant(e), tu sais vulgariser les concepts data auprès des différentes équipes Autonome, tu es capable de gérer plusieurs projets en parallèle Visionnaire, tu anticipes les évolutions des technologies big data Orienté(e) performance, tu optimises les infrastructures pour garantir efficacité et scalabilité

Mission freelance
Data Analyst Azure Data Factory
CONTEXTE Experience : 5 ans et plus Métiers Fonctions : Data Management, Data Analyst Spécialités technologiques ERP, SI Financier, Progiciels Dans le cadre du renforcement de l’équipe Data Factory de notre client, au service des équipes Finance & Procurement, la mission vise à transformer les données issues de l’ERP Oracle Cloud en indicateurs fiables et tableaux de bord Power BI permettant le pilotage opérationnel et financier. Les travaux s’inscrivent dans l’environnement Azure (Azure Data Factory, Azure Databricks, Power BI) et suivent les bonnes pratiques de qualité, de performance et de gouvernance des données. MISSIONS Objectifs de la mission : - Analyse des besoins Finance / Procurement et formalisation des exigences fonctionnelles (KPI, règles de gestion, périmètres analytiques). - Mapping des données depuis la source Oracle vers les modèles analytiques Power BI (modèle en étoile, dictionnaire de données, règles de transformation). - Développement et industrialisation des data pipelines dans Azure . - Conception et développement des tableaux de bord Power BI (datasets, DAX, RLS, UX) prêts à être déployés et adoptés par les métiers. Responsabilités principales : 1) Analyse de besoins et cadrage - Conduire des ateliers avec les key users Finance (Comptabilité générale, Fournisseurs/AP, Clients/AR, Contrôle de gestion) et Achats. - Produire les spécifications fonctionnelles et le backlog associé. 2) Cartographie & modélisation des données (Oracle → Power BI) - Identifier tables, vues et colonnes Oracle pertinentes ; définir la granularité et les jointures. - Rédiger le document de mapping et le dictionnaire de données (définitions, sources, règles de calcul). - Concevoir le modèle sémantique (étoile) pour Power BI, avec dimensions conformes et mesures DAX documentées. 3) Développement des pipelines (Azure Databricks / ADF) - Développer notebooks et jobs (PySpark/SQL) pour ingestion, nettoyage, transformations et calculs d’indicateurs. - Mettre en place des contrôles qualité (règles, reconciliations, gestion des écarts) et optimiser coûts/performance. 4) Développement des dashboards Power BI - Créer les datasets (mesures DAX, hiérarchies, rôles RLS) et les rapports (navigation, filtres, drill, bookmarks). - Réaliser la recette avec les utilisateurs, intégrer les retours, publier et organiser le partage (Apps, workspaces). 5) Documentation, gouvernance & transfert - Tenir à jour la documentation (spécifications, mapping, checklist de qualité). - Contribuer aux bonnes pratiques (naming, versioning Git/Azure DevOps, sécurité & conformité). Domaines de données concernés : - Finance : Comptabilité générale (GL), Comptabilité fournisseurs (AP), Comptabilité clients (AR), Contrôle de gestion (actuals, budget, forecast). - Achats / Procurement : données fournisseurs, familles d’achat, contrats, engagements, réceptions, paiements. Expertise souhaitée - Expérience avérée d’au moins une mission de reporting financier incluant : Comptabilité générale, AP, AR, Contrôle de gestion, Achats. - Maîtrise d’Azure Data Factory, Azure Databricks et Power BI (datasets, DAX, RLS, publication). - Compétences en modélisation décisionnelle (modèle en étoile, granularité, dimensions conformes) et qualité des données. - Capacité à animer des ateliers, rédiger des spécifications claires et collaborer avec des profils métiers et techniques. - Anglais courant indispensable (ateliers, documentation, échanges avec parties prenantes).

Offre d'emploi
Product Owner data
Nous recherchons un Product Owner expérimenté pour intervenir sur le Datalake Cybersécurité, en collaboration avec l’équipe Data de Saint-Gobain. Ce projet repose sur la dataplateforme Snowflake et PowerBI. Missions principales : Rédiger le cahier des charges et définir les plannings. Définir et analyser les KPIs avec le métier. Optimiser le calcul des KPIs et analyser les sources de données. Modéliser les données dans PowerBI et Snowflake. Définir les règles de gestion des accès et de data gouvernance. Suivre l’ordonnancement des sources et définir les règles d’historisation. Garantir la qualité et les performances des données. Gérer le backlog et les cérémonies Agile dans Jira. Réaliser les tests unitaires sur Snowflake et les tests end-to-end sur PowerBI. Rédiger la documentation fonctionnelle et technique. Mettre en place le monitoring et l’alerting des sources et de la qualité de la donnée. Assurer la communication, la formation et le support auprès des utilisateurs. Organiser des comités de pilotage et suivre le run.
Mission freelance
Responsable d’Applications Data
Responsable d’Applications Data Localisation : Île-de-France Durée : mission longue Langue : Français courant (impératif) 🎯 Objectif global Piloter et sécuriser les évènements de production au sein du Datalab. ⚙️ Contexte et responsabilités Le/la Responsable d’Applications assure et coordonne la maintenance corrective et évolutive des applications dont il/elle a la charge. Il/elle est garant(e) : De la qualité de service dans le respect des contrats (support, qualité, sécurité…). Du maintien des connaissances fonctionnelles et techniques nécessaires à la pérennité des applications. De la relation entre les équipes techniques et les métiers , en lien avec le Responsable SI Métier et le Chef de Projet. Le périmètre couvre l’ensemble des éléments applicatifs : programmes, données, paramétrages, services exposés (API), infrastructures techniques, interfaces et flux interapplicatifs. 📦 Livrables Analyse des incidents pour en déterminer les causes et les solutions. Documentation et suivi des évolutions. Reporting sur la qualité de service et les indicateurs de performance. 🧠 Compétences techniques requises CompétenceNiveauCaractèreMéthode ITIL (gestion incidents, problèmes, changements)Expert Impératif Méthode AgileConfirmé Impératif Azure Data FactoryConfirméImportantDatabricks (Spark SQL, Scala)ConfirméImportantOutils ITSM (ServiceNow ou équivalent)ConfirméApprécié 🧩 Missions détaillées Conception et évolution du SI Être l’interlocuteur principal des métiers et de la DOSI pour la vie courante des systèmes. Gérer et prioriser les demandes d’évolution. Participer aux cadrages et projets d’adaptation ou de refonte. Analyser les impacts fonctionnels et techniques sur les interfaces et applications connexes. Anticiper les montées de version et piloter les mises à jour en lien avec les éditeurs. Mise en œuvre et exploitation Piloter les évolutions applicatives depuis la conception jusqu’à la mise en service. Rédiger les spécifications fonctionnelles et techniques. Garantir la qualité des développements réalisés. Contribuer à la stratégie de recette et aux plans de tests (en lien avec la Test Factory). Superviser les livraisons de corrections en cas d’anomalies. Qualité et performance Appliquer les normes, méthodes et outils de référence du domaine. Maintenir la documentation et les connaissances applicatives. Produire et suivre les indicateurs de performance et les SLA. Évaluer et améliorer en continu le niveau de service. Communication et coordination Conseiller les utilisateurs sur l’utilisation du système applicatif. Assurer la coordination avec la production informatique. Participer activement à la gouvernance et aux échanges inter-domaines. 💡 Soft skills Rigueur et sens de l’analyse. Force de proposition et autonomie. Esprit d’équipe et excellentes qualités relationnelles. Bonne capacité à comprendre des sujets métiers variés.
Mission freelance
Dev' AZURE DATABRICKS
Bonjour, Pour le compte de l'un de mes clients parisiens, pour un démarrage dès début octobre, je suis à la recherche d'un développeur Azure - Databricks. La centrale d'achats de mon client mène un projet de datalake pour centraliser, trier & exploiter les données fournisseurs et clients sous une dimension européene. Dans ce cadre là, il est recherché sur Paris d'un développeur Azure Databricks avec toute la stack azure maitrisée. Curiosité, envie d'apprendre & apétence pour l'IA mandatory.
Mission freelance
Tech Lead DATABRICKS (Lyon)
Hello, Pour le compte de l'un de mes clients Lyonnais, je suis à la recherche d'un leader technique. QUALITES RECHERCHEES : • Connaissances avancées fonctionnelles des technologies suivantes : Postgres, PowerBI, Databreaks, Angular/React en mode Cloud et On Primise au possible • Pilotage / Supervision technique haut niveau de l’équipe en fonction des besoins • Expérience significative dans la mise en oeuvre de besoin impliquant plusieurs SI • Force de proposition sur l’amélioration de la surveillance de l’application et sur les évolutions techniques de l’application • Capacité à prendre du recul et à avoir une vision globale sur les technologies utilisées • Capacité à gérer les contraintes de délai et les périodes de stress inhérentes au projet • Expérience dans l’analyse des besoins techniques et dans l’animation d’ateliers techniques • Bonne communication et bonne capacité à s’adapter à ses interlocuteurs • Une expérience dans l'énergie serait un plus

Offre d'emploi
INGENIEUR DATA NATIONALITE FRANCAISE
Ingénieur·e Data En tant qu’Ingénieur·e Data, vous participerez aux différentes phases des projets de transformation digitale de client. Vous serez responsable du développement et de la mise en œuvre de solutions de données et de reporting, en collaboration avec l’équipe DevOps, afin d’aider les utilisateurs finaux à analyser efficacement leur activité à travers des rapports et des tableaux de bord. Vous utiliserez différentes technologies Microsoft telles que : SQL Server Integration Services, Azure Analysis Services, Azure Data Lake, Azure SQL Database, Azure Data Factory et Power BI. Responsabilités principales : Construire des Data Warehouses, Data Marts et Data Cubes. Solide compréhension des concepts de Data Warehousing et de modélisation de données. Identifier, concevoir et mettre en œuvre des améliorations internes : refonte d’infrastructures pour une meilleure évolutivité, optimisation des flux de données et automatisation des processus manuels. Développer des jobs ETL réutilisables et des cas d’usage. Développer, déployer et mettre en service des interfaces Azure Data Factory. Assembler de larges ensembles de données répondant aux exigences fonctionnelles et non fonctionnelles. Gérer les mécanismes d’alimentation ETL (chargement Delta/Complet, historique). Maintenir les ETL en condition opérationnelle. Construire des outils analytiques exploitant les pipelines de données pour fournir des insights exploitables sur les indicateurs de performance clés. Maîtrise de SQL, DAX, MDX et optimisation des requêtes. Excellente maîtrise de T-SQL, tuning des performances et gestion de bases de données. Gestion de la sécurité au niveau des lignes sur chaque couche de la chaîne de données. Compétence en débogage, supervision, tuning et dépannage de solutions BI. Familiarité avec les pipelines CI/CD entièrement automatisés pour le déploiement, l’intégration, les tests et la qualité du code. Expérience de l’utilisation de GIT pour le contrôle de source dans Azure DevOps. Capacité à gérer plusieurs interfaces et à travailler dans un contexte international. Connaissance des design patterns de produits Data. Collaboration avec les parties prenantes (équipes Data, Design, Produit, Direction) pour résoudre les problématiques techniques liées aux données. Support à la qualification des projets, extraction, transformation et chargement des données (Data Scoping / Discovery). Compétences techniques : Outils : Azure Data Factory, ADLS Gen2, Azure SQL DB, Analysis Services, GitLab, Azure DevOps, Visual Studio, SQL Server Management Studio, DAX Studio, Tabular Editor, Power BI. Expertise : Modélisation de données, Data Warehousing, gestion de bases de données, ETL, visualisation de données, méthodologie Agile, notions de CI/CD. Formation : Master en informatique, statistiques ou mathématiques. Compétences comportementales : Maîtrise de l’anglais (oral et écrit). Excellentes compétences en communication et présentation. Esprit d’équipe et sens de la coopération.

Mission freelance
Responsable d'application data H/F
Vous aimez être au cœur des projets Data et avez une appétence pour les environnements techniques modernes ? Vous appréciez autant la vision stratégique que la rigueur opérationnelle ? Alors cette opportunité est faite pour vous. 🎯 Votre mission En tant que Responsable d’Applications au sein du Datalab, vous jouerez un rôle clé dans la maintenance , l’ évolution et la performance des applications Data. Vous serez le lien privilégié entre les équipes métiers et techniques, garantissant la qualité de service et la fiabilité des solutions en place. Vos principales responsabilités : Assurer et coordonner la maintenance corrective et évolutive des applications. Garantir la qualité de service (SLA, sécurité, performance) en lien avec les équipes transverses. Piloter et prioriser les demandes d’évolution en collaboration avec les responsables métiers. Conduire les projets d’évolution de bout en bout, de la conception jusqu’à la mise en service. Contribuer à la stratégie de tests et de recette, et piloter les livraisons correctives. Produire et suivre les indicateurs de performance, tout en assurant une documentation rigoureuse. Être un interlocuteur privilégié pour la production informatique et les parties prenantes métier. 🧰 Votre boîte à outils idéale Méthodologie ITIL Expert Impératif Méthodologie Agile Confirmé Impératif Azure Datafactory Confirmé Important Databricks (Spark SQL, Scala) Confirmé Important Outil ITSM (ServiceNow ou équivalent) Confirmé Souhaité

Mission freelance
Tech Lead Data
Mission Freelance – Tech Lead Data Client : secteur Minéraux / Industrie Localisation : Paris 16ᵉ Télétravail : 1 à 2 jours par semaine Équipe : environ 10 collaborateurs Durée : 6 mois minimum Contexte et enjeux Le client engage une transformation data ambitieuse avec la mise en place d’une Data Factory moderne et scalable basée sur Microsoft Fabric . Le dispositif repose sur trois volets complémentaires : Program Management – pilotage global et coordination. Tech Enablers – construction des fondations techniques de la plateforme. Data Use Cases – livraison de cas d’usage métiers à fort impact (supply chain, finance, production, etc.). L’objectif est double : livrer rapidement 2 à 3 cas d’usage prioritaires et structurer une organisation agile et durable , intégrée à l’écosystème Azure. Rôle : Tech Lead Data En tant que référent technique , vous jouerez un rôle clé dans la conception, la structuration et la mise en œuvre de la Data Factory. Vous serez le garant de la cohérence technique et du bon niveau d’exécution des équipes. Missions principales : Piloter la mise en œuvre technique des cas d’usage et assurer leur intégration dans la plateforme cible. Encadrer et accompagner une équipe de 2 Data Engineers et 1 Analytical Engineer. Définir les standards d’architecture, bonnes pratiques et guidelines techniques. Garantir la qualité du code, des pipelines et des livrables. Participer activement aux décisions d’architecture et aux revues techniques. Contribuer à la mise en place d’une gouvernance agile structurée (PI Planning, rituels d’équipe). Environnement technique Cloud & Data Platform : Microsoft Fabric, Azure Traitement & Intégration : Spark, Data Factory, Synapse Langages : Python, SQL, Scala CI/CD & Infrastructure as Code : Git, Terraform Méthodologie : Agile SAFe / Scrum Profil recherché Expérience confirmée en tant que Tech Lead ou Architecte Data (5+ ans) , idéalement dans un environnement Microsoft. Maîtrise des architectures cloud Azure et des pipelines de données (ETL/ELT). Leadership technique, sens du collectif et goût du mentoring. Bonne compréhension des enjeux d’intégration et de gouvernance data. Anglais courant, environnement international. Atouts de la mission Projet stratégique et structurant : construction d’une Data Factory from scratch. Rôle clé dans la définition de l’architecture et des standards techniques. Environnement de travail moderne et exigeant, favorisant l’excellence technique.
Mission freelance
Technical Leader (Lyon)
Hello, Pour le compte de l'un de mes clients Lyonnais, je suis à la recherche d'un leader technique. QUALITES RECHERCHEES : • Connaissance à minima fonctionnelle des technologies suivantes : Postgres, PowerBI, Databreaks, Angular/React en mode Cloud et On Primise au possible • Pilotage / Supervision technique haut niveau de l’équipe en fonction des besoins • Expérience significative dans la mise en oeuvre de besoin impliquant plusieurs SI • Force de proposition sur l’amélioration de la surveillance de l’application et sur les évolutions techniques de l’application • Capacité à prendre du recul et à avoir une vision globale sur les technologies utilisées • Capacité à gérer les contraintes de délai et les périodes de stress inhérentes au projet • Expérience dans l’analyse des besoins techniques et dans l’animation d’ateliers techniques • Bonne communication et bonne capacité à s’adapter à ses interlocuteurs • Une expérience dans l'énergie serait un plus
Offre d'emploi
Développeur Senior BI / Data (MSBI / Azure Data Factory)
🎯 Contexte Nous recherchons un Développeur Senior BI / Data pour renforcer l’équipe Support Fund Management. Vous serez intégré(e) à l’équipe support et travaillerez en étroite collaboration avec les Business Analysts. 🔎 Missions Intégré(e) à l’équipe projet, vous serez en charge de : Participer au cadrage des solutions à implémenter. Développer les User Stories (US). Contribuer à la recette, l’UAT et la mise en production. Assurer la maintenance des applications. Rédiger la documentation technique. Améliorer en continu le modèle de développement. 🛠 Compétences recherchée Maîtrise des outils Microsoft BI (SQL Server 2019/2022, SSIS, SSRS). Maîtrise des bases de données relationnelles et SQL. Expérience avec Azure BI Data Factory. Compétences en Python, librairie Pandas appréciée. Bon niveau sur Azure DevOps. Expérience en Asset Management / finance de marché souhaitée. 📍 Localisation & Conditions Basé à Paris Démarrage : dès que possible

Offre d'emploi
DATA ENGINEER AZURE / DATABRICKS F/H | MARIGNANE (13)
VOTRE QUOTIDIEN RESSEMBLERA A… Vous rejoignez notre client et serez en charge de : Configurer, structurer, déployer Azure Data Lake et DataBricks Développer et industrialiser des pipelines d’ingestion robustes sur Apache NiFi à partir des différentes sources, en tenant compte des contraintes techniques (mémoire, réseau…) Mettre en place et maintenir une instance Unity Catalog pour renforcer la gouvernance et permettre le Data self-service Environnement Technique : Azure Data Lake, Databricks, Apache NiFi, Unity Catalog, Python, Pyspark, SQL Le poste est basé en périphérie de Marignane (13) . Dans le cadre de vos fonctions, vous pourrez bénéficier de 1 jour de télétravail par semaine après votre intégration. Vous devez impérativement être véhiculé.e pour pouvoir accéder sur site.

Mission freelance
Data Project Manager
Responsable du pilotage global de la roadmap technologique en lien avec les objectifs business. Vous gérez le budget, le planning et l’animation des instances de gouvernance (COMEX et opérationnelles), tout en assurant l’alignement des jalons techniques avec les jalons métiers. Vous supervisez la réalisation des projets techniques (design, développement, tests, mise en production) en coordonnant les équipes internes et externes (développement, infrastructure, architecture, sécurité). Vous assurez le suivi des développements et des recettes, notamment sur les flux de données. Vous réalisez les cadrages et spécifications techniques : traduction des besoins fonctionnels, définition des flux entre les systèmes (PRM, Salesforce, back-offices, filiales), validation des choix d’architecture, conformité RGPD et sécurité des échanges. Enfin, vous pilotez la stratégie de migration des systèmes existants, en collaboration avec les SI producteurs et consommateurs de données.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.