Trouvez votre prochaine offre d’emploi ou de mission freelance Azure Data Factory
Votre recherche renvoie 59 résultats.
Mission freelance
développeur Rust
Publiée le
Azure Data Factory
Rust
3 mois
400-550 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Télétravail 100%
* Full remote possible, avec déplacements ponctuels à prévoir (région Aix-en-Provence). Nous recherchons pour notre client, un acteur majeur de l’e-commerce en forte croissance, un(e) développeur(se) Rust confirmé(e) à senior pour renforcer une équipe technique en pleine transformation. L’entreprise amorce une modernisation progressive de son système d’information (legacy C#.NET & PHP). L’objectif est de migrer les fonctionnalités critiques vers un nouveau socle moderne, scalable et robuste, basé sur Rust. Intégré(e) au sein d’une équipe à taille humaine (4 développeurs) fonctionnant en mode Agile (sprints de 2 semaines, daily meetings), vous contribuerez à la maintenance évolutive et à l’optimisation de nos solutions de gestion de flux. Ces solutions, développées en no code à l’aide d’Azure Data Factory et de Logicap, permettent la génération automatisée de fichiers CSV en vue du transfert de référentiels entre différents systèmes d’information. Vos missions : - Contribuer à la maintenance des flux existant - Réaliser des refontes des solutions existantes no code vers du Rust - Contribuer aux migrations fonctionnelles du legacy vers le nouveau socle Rust. - Revoir et challenger les bases de données et workflows existants. - Collaborer étroitement avec le lead développeur et les autres membres de l’équipe pour sécuriser la réussite des projets.
Offre premium
Mission freelance
TECH LEAD ENGINEER (AZURE/DATABRICKS) H/F
Publiée le
Azure Data Factory
CI/CD
Databricks
3 mois
500-580 €
La Défense, Île-de-France
Télétravail partiel
Axone by Synapse, cabinet de conseil IT innovant, recherche pour l’un de ses clients pour une mission de longue durée un Tech Lead/Data Engineer spécialisé Databricks / Azure H/F . Vous piloterez techniquement une squad transverse de 5 à 10 personnes, garantirez la qualité logicielle, la cohérence d’architecture, la performance des pipelines data et la bonne mise en production. Vous jouerez un rôle clé dans la conception, l’optimisation et l’industrialisation de produits data à grande échelle dans un environnement Cloud Azure et Databricks exigeant. Vous animerez les rituels techniques, accompagnerez les membres de la squad et assurerez la communication fluide avec les parties prenantes métier et IT. Objectif et livrables: Architectures data (ingestion, transformation, serving) validées et documentées. Pipelines Databricks productisés, monitorés, optimisés. Modules réutilisables / librairie d’ingénierie data. Pipelines CI/CD + scripts Terraform prêts pour déploiement. KPIs mensuels (qualité données, SLA, latence, incidents). Plan de montée en compétences de la squad. Compétences attendues : Maîtrise avancée de Databricks (jobs, clusters, notebooks, optimisation). Expertise PySpark pour traitements batch & streaming. Excellente pratique Python et bonne connaissance Java . Très bonne maîtrise Azure Data Services : ADLS, Blob, Data Factory, Synapse, Event Hubs. Pratique confirmée de Terraform , CI/CD (GitHub Actions, Azure DevOps). Compétences en monitoring (Datadog, Prometheus, Log Analytics), tests automatisés, code review. Connaissances SQL et bases NoSQL. Architecture data, bonnes pratiques de sécurité, RBAC, performance tuning.
Offre d'emploi
Data Product Owner
Publiée le
Azure Data Factory
Data cleaning
IA
3 ans
40k-45k €
400-610 €
Issy-les-Moulineaux, Île-de-France
Télétravail partiel
Détails pratiques Poste : Data Product Owner (3 postes) Expérience requise : 6 ans minimum TJM d’achat max : 600 € Localisation : Issy les Moulineaux (92) Date limite de réponse : 05/12/2025 Date de début de mission : 05/01/2026 Durée de la mission : 1 an Description du client Notre client est une entreprise de grande envergure opérant dans le secteur des services . Il compte un grand nombre d'employés et est reconnu pour son expertise dans son domaine. Mission Dans le cadre du déploiement de la roadmap DATA/IA pour la , notre client cherche à être accompagné par un consultant pour gérer les projets DATA/IA de bout en bout. Le consultant sera responsable de la mise en œuvre de projets de valorisation des données, assurant la synergie entre les équipes métiers et les équipes de développement. Il sera également responsable du budget alloué à ses projets, du suivi de la réalisation et de la mise en place des boucles courtes de feedback clients. Compétences requises Expérience confirmée en gestion de produits (Product Ownership, Product Management) Très bonne maîtrise des frameworks Agile et des cérémonies associées Expérience en gestion budgétaire et calcul de ROI Compréhension des bases technologiques pour les applications Data & IA Orienté clients, pédagogue Rigueur et capacité de formalisation et de communication Culture du résultat et orientation business
Mission freelance
Data Engineer
Publiée le
Azure Data Factory
BI
Databricks
12 mois
400-550 €
Île-de-France, France
Télétravail partiel
Les livrables sont Code Source Documentation KPI qualité Compétences techniques Python / Pyspark / SQL - Expert - Impératif Databricks - Expert - Impératif Datafactory - Confirmé - Important Modélisation BI - Confirmé - Souhaitable Description détaillée Contexte : Le projet Data-RH vise à centraliser et modéliser les données issues des systèmes dans un modèle unifié, permettant des analyses transverses et une exploitation optimale des données métier. Environnement technique : Azure Data Factory, Databricks, Python, PySpark, SQL, Azure DevOps et Power BI. Missions : - Concevoir et développer des pipelines d’ingestion de données via Azure Data Factory. - Créer et optimiser des flux de transformation de données en PySpark/Python. - Maintenir et développer de nouveaux indicateur de qualité de données - Mettre en œuvre et industrialiser les pipelines CI/CD avec Azure DevOps. - Participer au refactoring du code existant pour améliorer sa performance et sa maintenabilité. - Garantir la qualité du code et veiller au respect des normes de développement au sein de l’équipe. - Implémenter des tests unitaires et assurer la fiabilité des solutions. - Mettre en place des solutions de monitoring et de supervision pour l’application Data-RH. Profil recherché : - Maîtrise avérée de SQL, Python, PySpark et Spark. - Expérience confirmée sur l’écosystème Microsoft Azure (Data Factory, Databricks, DevOps). - Bonne connaissance de Git et des pratiques DevOps. - Sens de la communication, force de proposition et capacité à travailler en équipe. - Rigoureux, attaché aux bonnes pratiques de développement et à la qualité du code. Définition du profil : Il est garant du bon fonctionnement et de la disponibilité des données dont il a la responsabilité. Il assure la prévention des dysfonctionnements des données et contribue à la bonne utilisation de celles-ci
Mission freelance
Tech Lead DATABRICKS (Lyon)
Publiée le
Azure Data Factory
Java
1 an
500-650 €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Hello, Pour le compte de l'un de mes clients Lyonnais, je suis à la recherche d'un leader technique. QUALITES RECHERCHEES : • Connaissances avancées fonctionnelles des technologies suivantes : Postgres, PowerBI, Databreaks, Angular/React en mode Cloud et On Primise au possible • Pilotage / Supervision technique haut niveau de l’équipe en fonction des besoins • Expérience significative dans la mise en oeuvre de besoin impliquant plusieurs SI • Force de proposition sur l’amélioration de la surveillance de l’application et sur les évolutions techniques de l’application • Capacité à prendre du recul et à avoir une vision globale sur les technologies utilisées • Capacité à gérer les contraintes de délai et les périodes de stress inhérentes au projet • Expérience dans l’analyse des besoins techniques et dans l’animation d’ateliers techniques • Bonne communication et bonne capacité à s’adapter à ses interlocuteurs • Une expérience dans l'énergie serait un plus
Offre d'emploi
Data engineer MSBI Python Azure (7-8 ans minimum)
Publiée le
Azure Data Factory
Azure DevOps
Microsoft SSIS
3 ans
50k-65k €
500-580 €
Paris, France
Télétravail partiel
🏭 Secteurs stratégiques : Asset management 🗓 Démarrage : ASAP PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 💡 Contexte /Objectifs : Dans le cadre d'un projet au sein d'un client grand compte, nous sommes à la recherche d'un Data engineer avec une expertise sur la suite MSBI. Le profil recherché, Bac + 4/5 idéalement issu d’une école d’ingénieur, aura une expérience au minimum de 7/8 ans. Passionné par le développement, il aura la capacité de travailler en équipe et saura apporter une vraie valeur ajoutée par ses compétences techniques et humaines
Mission freelance
Développeur Python Senior
Publiée le
Azure
Azure Data Factory
Azure DevOps Services
12 mois
Hauts-de-Seine, France
Télétravail partiel
Secteur d'intervention : Assurance Type de prestation : Assistance Technique avec facturation journalière Métiers et fonctions impliqués : Études & Développement, Développeur Compétences techniques requises : Technologies et outils : Python, React (React JS) Méthodes / Normes : IFRS17; Adapter Soft skills : Rigueur Description de la mission : Le projet concerne un client dans le secteur de l'assurance, pour lequel le développeur sera intégré à une équipe Data à mi-temps (2/3 jours par semaine). La mission principale est le développement d'outils pour soutenir les activités métiers telles que la modélisation, projection actuarielle et études statistiques, notamment pour répondre à la norme IFRS17. Les responsabilités incluent : Développement en Python des études actuarielle sur le produit Maintenance du front de l'application (React) – connaissances en React appréciées Recueil, analyse et formalisation des besoins utilisateurs Coordination avec les Engineering Managers pour assurer le delivery (développement, tests, opérations) en respectant les exigences de sécurité du client Communication et application des standards et bonnes pratiques au sein de la tribu et des équipes métier
Mission freelance
[MDO] Data & AI - Data Engineer (5 ans minimum)
Publiée le
Azure Data Factory
Azure Logic Apps
Databricks
1 an
400 €
Clermont-Ferrand, Auvergne-Rhône-Alpes
Télétravail partiel
Data Engineer - Collecter, analyser et exploiter les données disponibles et pertinentes pour améliorer le pilotage des activités et identifier les leviers de création de valeur pour l'entreprise. - Aide aux équipes métier à développer, déployer et opérer les solutions pour permettre d’atteindre leurs objectifs. Principaux résultats attendus : • Les données pertinentes pour répondre aux besoins des utilisateurs sont identifiées, capturées et choisies • Le temps et les ressources/outils nécessaires à la gestion et à l'analyse des données sont optimisées. • Les données sont analysées et partagées dans un format accessible à tous grâce à des visualisations de données • Les activités métier disposent des lignes guides et recommandations pour créer de la valeur • Les offres, services ou processus de l'entreprise sont optimisés grâce aux connaissances acquises par l'analyse et l'évaluation des données • Les prescriptions du groupe en matière d'éthique et de gouvernance des données sont appliquées et respectées. • Présentation des fonctionnalités du ou des « produits » pour les promouvoir et pour faciliter la maintenance dans la durée • Résultats de tests conforme à la stratégie de test • Catalogue des produits data (dataset) à jour • Kit de formation et outils pour les utilisateurs Compétences fondamentales en Data Engineering : • Modélisation de données : conception de modèles relationnels, dimensionnels et Data Vault • ETL / ELT : conception et optimisation de pipelines robustes, gestion des dépendances • Qualité & gouvernance des données : data lineage, data quality checks, catalogage, gestion des métadonnées • Architecture data : compréhension des patterns modernes (Data Lakehouse, Data Mesh, etc.)
Mission freelance
Data Engineer confirmé
Publiée le
Azure Data Factory
6 mois
400-500 €
Paris, France
Télétravail partiel
Hello, Pour le compte de l'un de mes clients parisiens dans le secteur de la sous traitance de services, je suis à la recherche d'un data engineer confirmé. Expériences et/ou skills mandatory : - Expérience en Data Engineering/Data Modelling (Pipelines + structuration Bases de données). -Expérience sur Azure + DataBricks (DB nice to have). -A déjà travaillé sur un ou plusieurs Use Cases Machine Learning et/ou IA (ou bonnes notions/compréhension). -Bon communicant (car proche du business),
Offre d'emploi
Manager Data / Lead Data
Publiée le
Azure
Azure Data Factory
Python
60k-80k €
Paris, France
Descriptif du poste Une filiale d'un grand groupe recherche une personne pour prendre en charge la responsabilité des activités Data & Intégration au sein de son département IT. Objectif de la mission La mission a pour objectif de couvrir les activités data existantes, en assurant la continuité des activités tout en identifiant les axes d'amélioration potentiels. Missions de Responsabilité des Activités Data Le candidat présenté par le prestataire sera chargé de : Accompagnement Technique "Tech Lead" : Fournir un support technique à l'équipe Data et Intégration, composée d'une dizaine de collaborateurs data engineers et product owners data. Le profil devra encadrer, orienter et développer les compétences techniques de l'équipe. Choix Technologiques et Architecture Transverse : Conseiller sur les choix technologiques et architecturaux pertinents (stockage, exposition de la data, …), et participer activement à la mise en place d'une plateforme data robuste et scalable permettant l'industrialisation des projets d'IA. Participation aux échanges techniques : Participation active aux échanges et choix techniques et organisationnels sur l'industrialisation des produits data, conjointement avec les équipes Data & Analytics. Positionnement Vis-à-Vis des Partenaires : Collaborer étroitement avec les partenaires et se positionner sur les orientations techniques et architecturales pertinentes. Arbitrer sur les synergies éventuelles à envisager. Choix des Fournisseurs : Contribuer au processus de sélection des fournisseurs en veillant à ce que les choix soient alignés avec les objectifs stratégiques et opérationnels. Pilotage et Conception des Produits Structurants : Participer au pilotage et à la conception de produits structurants et la construction d'un middleware. Cela inclut la priorisation et le dimensionnement des activités.
Offre d'emploi
INGENIEUR CLOUD AZURE (H/F)
Publiée le
Azure Data Factory
Azure DevOps Services
Git
50k-55k €
Châtillon, Île-de-France
Télétravail partiel
ACCROCHE CE QUE TU RECHERCHES : Evoluer au sein d’une équipe dynamique Participer à des projets innovants d’envergure Relever des défis Donner un nouveau souffle à ta carrière Alors nous avons la mission idéale pour toi.Au sein d’un acteur majeur du secteur , tu participeras : Analyse des besoins, tu feras Spécifications techniques, tu rédigeras L’architecture et/ou socle technique, tu définiras Bonnes pratiques, tu instaureras De nouvelles fonctionnalités, tu développeras Zéro bug, tu laisseras Ton équipe, tu accompagneras Aux instances de pilotage, tu participeras QUI TU ES : Diplômé(e) de la formation qui va bien Surdoué(e) ou dôté(e) d’une expérience de ans minimum Expert(e) en solutions cloud Habile avec les outils AU-DELÀ DES COMPÉTENCES TECHNIQUES, TU ES / AS : Dynamique : tu n’aimes pas rester les deux pieds dans le même sabot Autonome : un guide du Routard te suffira Esprit de synthèse : tu sais aller à l’essentiel Capacité d’adaptation : tu es un vrai caméléon Sens de la communication : les mots n’ont pas de secret pour toi Force de proposition : tu es l’Aladdin de l’informatique Esprit d’équipe : un pour tous et tous pour un !
Offre d'emploi
Data Engineer Azure Data Factory
Publiée le
Azure Data Factory
Azure DevOps
DAX
1 an
45k-55k €
550-650 €
Île-de-France, France
Télétravail partiel
Intitulé du poste : Data Engineer Azure Contexte du poste Au sein du Centre de Compétences Data, le Data Engineer participe activement aux différents projets de transformation digitale du groupe. Il conçoit, développe et déploie des solutions data et reporting permettant aux utilisateurs métiers d’analyser efficacement leurs activités à travers des tableaux de bord et indicateurs de performance. Missions principales Participer à la conception et à la mise en œuvre des architectures Data (Data Lake, Data Warehouse, Data Marts, Cubes). Concevoir et développer des processus ETL/ELT performants et automatisés avec Azure Data Factory , SQL Server Integration Services et Azure SQL Database . Garantir la qualité, la disponibilité et la performance des données. Modéliser les données (dimensionnelles et relationnelles) selon les besoins métiers. Maintenir en conditions opérationnelles les flux ETL et les environnements de données. Participer à l’industrialisation et à l’automatisation des pipelines via CI/CD Azure DevOps . Collaborer étroitement avec les équipes DevOps , Product , Design , Data et Management pour assurer la cohérence technique et fonctionnelle des solutions. Documenter les réalisations techniques, rédiger les spécifications et enrichir le catalogue de composants réutilisables. Fournir un support technique et fonctionnel aux utilisateurs finaux. Responsabilités complémentaires Réaliser des études de faisabilité et des cadrages techniques. Optimiser les performances des requêtes SQL, DAX et MDX. Mettre en œuvre la sécurité des données (Row Level Security sur toute la chaîne). Gérer la supervision, le debugging et le monitoring des flux BI. Contribuer à l’amélioration continue et à la standardisation des pratiques Data au sein du Centre de compétences Data. Compétences techniques requises Langages / Outils : T-SQL, DAX, MDX Technologies : Azure Data Factory, Azure SQL Database, Azure Analysis Services, Azure Data Lake Gen2, Power BI, SSIS Environnements : GitLab / Azure DevOps, Visual Studio, SQL Server Management Studio, Tabular Editor, DAX Studio Méthodologies : Agile, CI/CD, DataOps Compétences clés : Data Modeling, Data Warehousing, ETL, Data Visualization, Performance Tuning Profil recherché Diplôme Bac+5 (Master) en Informatique , Statistiques ou Mathématiques appliquées . Expérience significative en développement et maintenance de solutions BI/Data sur environnement Microsoft Azure . Maîtrise des concepts de Data Warehouse et de modélisation dimensionnelle. Excellente capacité d’analyse et rigueur technique. Aisance relationnelle, sens du travail en équipe et esprit collaboratif. Niveau d’anglais professionnel (écrit et oral). Goût pour la transformation digitale et l’innovation. Qualités attendues Sens du service et orientation client. Capacité à gérer plusieurs interfaces dans un contexte international. Esprit d’initiative et autonomie. Curiosité technologique et volonté d’amélioration continue. Outils et technologies principales Azure Data Factory – Azure SQL Database – Azure Analysis Services – Power BI – ADLS Gen2 – GitLab – Azure DevOps – Visual Studio – SSMS – DAX Studio – Tabular Editor
Offre d'emploi
Data Engineer
Publiée le
Azure Data Factory
Big Data
1 an
49k-55k €
400-550 €
Île-de-France, France
Contexte : Dans le cadre d’un vaste programme de transformation Data, nous recherchons un Data Engineer pour rejoindre une équipe en pleine évolution. Le projet vise à moderniser les infrastructures de données, à industrialiser les flux et à renforcer la valorisation de la donnée au service des métiers (pilotage, relation client, performance opérationnelle, IA et analytique). L’environnement de travail est stimulant, avec une forte culture d’innovation autour du cloud, du Big Data et de l’intelligence artificielle. L’équipe Data est composée de profils complémentaires : data engineers, data analysts, data scientists et experts gouvernance.
Offre d'emploi
Product Owner Data
Publiée le
Azure Data Factory
Microsoft Power BI
Méthode Agile
12 mois
43k-56k €
290-390 €
Lille, Hauts-de-France
CITECH recrute ! 👌 ✨ Si vous souhaitez mettre vos compétences au service d’un projet Data innovant et à fort impact, nous avons LE poste qu’il vous faut ! Nous recherchons un(e) Product Owner Data (H/F) 🚀 ☘️ Votre mission est pour un acteur reconnu du secteur public, dans un environnement où la donnée est au cœur des décisions stratégiques. Vous intégrerez une équipe Data Factory dynamique, dédiée à la modernisation et à l’exploitation intelligente des données, dans un cadre agile et collaboratif. Rattaché(e) à la DSI et intégré(e) à l’équipe Data Factory, vous interviendrez en tant que Product Owner Data pour piloter et valoriser les produits Data de l’entreprise. 🧩 Vos principales missions : Cadrage et expression des besoins : Recueillir, formaliser et prioriser les besoins métiers auprès des différentes directions. Identifier les cas d’usage Data à forte valeur ajoutée. Gestion de produit et pilotage : Définir la roadmap produit et assurer le suivi des livrables. Prioriser les sujets selon la valeur métier et la stratégie Data. Participer activement aux rituels agiles (Daily, Sprint Review, Planning, Rétrospective). Data & Reporting : Accompagner la finalisation de la migration des rapports depuis l’ancien outil (Microsoft SSRS). Piloter la création de nouveaux rapports liés aux chantiers stratégiques (apprentissage, lutte contre la fraude, automatisation des processus…). Contribuer à l’intégration progressive de l’Intelligence Artificielle dans les rapports pour améliorer l’analyse sémantique des données. Recette et accompagnement : Réaliser la recette fonctionnelle des développements. Préparer et déployer les solutions auprès des utilisateurs. Assurer la communication et le reporting auprès du management IT et des métiers.
Offre d'emploi
Responsable d'applications RUN confirmé
Publiée le
Azure Data Factory
Databricks
ITIL
12 mois
50k-70k €
400-550 €
Châtillon, Île-de-France
Télétravail partiel
Bonjour, Nous recherchons pour notre client basé en région parisienne un Responsable d’Applications – confirmé (4 - 10 ans d’expérience) Objectif : Piloter et sécuriser les évènements de production Les livrables sont Analyser des incidents pour en comprendre la cause afin de déterminer la solution à appliquer Avoir une bonne capacité d'analyse afin de pouvoir comprendre des sujets métiers divers et variés Compétences techniques méthode ITIL - Expert - Impératif méthode Agile - Confirmé - Impératif Azure Datafactory - Confirmé - Important Databricks - Confirmé – Important Description détaillée Responsable d'application au Datalab : Assure et coordonne les activités de maintenance corrective et évolutive des applications dont il est responsable. * Il est responsable de la qualité de service délivrée dans le respect des contrats (support, qualité, sécurité, …) vis-à-vis des entités métiers en s’appuyant sur les équipes transverses. * Il est aussi le garant du maintien des connaissances fonctionnelles et techniques nécessaires à la pérennité de l’application. * Il est en interface avec le métier et répond aux demandes d’évolution ou des projets en lien avec le Responsable SI Métier et le Chef de Projet. (*) On entend par « applications » : les programmes, les données, les paramétrages, les services exposés (API), les infrastructures techniques et les interfaces/flux inter applicatifs. Compétences requises : * Faire preuve de rigueur et être force de proposition * Savoir travailler en équipe et avoir de bonnes qualités relationnelles * Excellentes compétences techniques : Connaissance et application de la méthode ITIL (Gestion des incidents, problèmes, etc..) Connaissance et application de la méthode Agile Connaissance Azure Datafactory Connaissance Databricks (Spark SQL, Scala) Connaissance d'outils ITSM (Service Now ou équivalent) Données complémentaires Date de démarrage 03/11/2025 Lieu de réalisation Châtillon Déplacement à prévoir non Le projet nécessite des astreintes nonw Nombre de jours souhaitables sur site 3 jours par semaine Dans le cas où vous êtes intéressé par ce poste, pourriez-vous SVP m'envoyer votre CV au format Word en indiquant votre disponibilité ainsi que vos prétentions salariales ou votre tarification journalière si vous êtes indépendant ?
Mission freelance
RESPONSABLE D'APPLICATION - Confirmé (H/F)
Publiée le
Azure Data Factory
Databricks
ITIL
4 mois
400-490 €
Châtillon, Île-de-France
Télétravail partiel
Responsable d'application au Datalab : o Assure et coordonne les activités de maintenance corrective et évolutive des applications dont il est responsable. o Il est responsable de la qualité de service délivrée dans le respect des contrats (support, qualité, sécurité, …) vis-à-vis des entités métiers en s’appuyant sur les équipes transverses. o Il est aussi le garant du maintien des connaissances fonctionnelles et techniques nécessaires à la pérennité de l’application. o Il est en interface avec le métier et répond aux demandes d’évolution ou des projets en lien avec le Responsable SI Métier et le Chef de Projet. CONCEPTION D'ÉVOLUTION DU SYSTÈME D'INFORMATION o Est l'interlocuteur des métiers / DOSI lors de la vie courante des systèmes o Est responsable de l'évolution des applications dont il a la charge o Gère les demandes, les priorise, et gère les lots d'évolutions de ses applications en lien avec le Responsable SI métier et le Responsable de Domaine/Pôle o Participe aux cadrages et projets d'adaptation et d'évolution du SI o Effectue l'analyse fonctionnelle des besoins et détermine les impacts sur les interfaces avec les produits environnants dans le système d'information de l'entreprise o Suit les roadmaps de l'Editeur, en analyse les impacts sur son périmètre et anticipe et pilote les montées de versions MISE EN ŒUVRE DU SYSTÈME D'INFORMATION o Conduit, dans le cadre des projets, l'évolution cohérente de son système depuis la conception jusqu'à la mise en service o Réalise les spécifications de ses applications o S’assure de la qualité attendue des développements réalisés o Contribue à la stratégie de recette des projets sur son périmètre o Est responsable de la définition, avec le métier/DOSI et l'équipe Test Factory, des plans de tests nécessaires à la recette de ses applications o Pilote les livraisons de corrections en cas d'anomalies détectées sur ses applications QUALITÉ DU SYSTÈME D'INFORMATION (PERFORMANCE, COHÉRENCE, COÛT, DÉLAI? ) o Applique les normes, méthodes et outils de référence définis au sein du Domaine ou de la Direction de référence o Est le garant du maintien des connaissances fonctionnelles et techniques nécessaires à la pérennité de ses applications o Est responsable de la gestion documentaire des applications o S'assure de la production et du suivi des indicateurs de performances de ses applications en lien avec le Responsable de Domaine/Pôle, le Chargé de Pilotage SI o S'assure que les SLA définis contractuellement avec l'éditeur et les Domaines sont suivis et respectés
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
59 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois