Find your next tech and IT Job or contract DBT

Your search returns 45 results.
Contractor
Permanent

Job Vacancy
DATA MANAGER

UCASE CONSULTING
Published on
DBT
Snowflake

3 years
28k-70k €
450-950 €
Paris, France

Bonjour; Pour le compte de notre client, nous recherchons un DATA MANAGER. Description du Rôle Le Data Manager est responsable de la définition des politiques de gestion des données, de la modélisation et de la garantie de l'architecture fonctionnelle de la plateforme de données utilisée pour répondre aux besoins métier. __________ Compétences Clés ✅ Accompagnement à la définition, conception et livraison des produits Data : • Clarifie les besoins • Identifie les manques de données et évalue la faisabilité • Aligne le périmètre du Feature Team (FT) • Collabore avec les Product Owners et les Data Engineers • Co-conçoit les solutions data • Valide les choix de modélisation des données • Garantit la cohérence avec les standards • Assure la scalabilité et la maintenabilité ✅ Co-définition, diffusion et pédagogie des standards de Data Management : • Collabore avec les acteurs de la gouvernance, de l’architecture et des produits • Définit les conventions de nommage • Établit les exigences en matière de documentation • Fixe les règles de modélisation • Garantit la conformité • Organise des formations, ateliers et sessions de support • Apporte un accompagnement opérationnel et répond aux questions • Joue un rôle d’ambassadeur des principes de gestion des données au sein de la tribu ✅ Gestion du portefeuille et des actifs Data au niveau de la tribu : • Garantit la qualité et l’exhaustivité des métadonnées • Documente les tables, champs et processus • Met à jour la traçabilité (lineage) et le glossaire métier • Vérifie l’application cohérente des standards • Produit et partage des reportings sur le portefeuille data • Met en lumière les écarts, risques et opportunités • Permet une prise de décision éclairée sur les usages et les priorisations __________ Responsabilités • Excellentes capacités de communication pour vulgariser les concepts techniques et aligner les parties prenantes sur les décisions • Fortes compétences en résolution de problèmes, capable de traiter rapidement des informations complexes et de les présenter de manière claire et concise • Capacité à collaborer efficacement en équipe pour répondre aux besoins de manière agile • Organisation rigoureuse pour gérer les sujets en cours et à venir, les délais et les décisions associées __________ Compétences Individuelles • Ouvert et coopératif, avec un esprit de service facilitant les échanges entre parties prenantes • Orienté solution et livraison du résultat attendu • Curiosité et ouverture d’esprit sur des sujets hors périmètre habituel (ex : nouvelles techniques d’analyse) __________ État d’Esprit et Comportements • Expérience en développement Agile • Expérience au sein d’équipes produits collaboratives en environnement Agile __________

Contractor

Contractor job
Analytics Engineer Senior - Workday Finance (localisation Lille)

Cherry Pick
Published on
DBT
SQL

12 months
470-530 €
Lille, Hauts-de-France

Contexte du poste L’Analytics Engineer est chargé de délivrer des datasets modélisés pour un domaine métier afin d'accélérer les cas d’usage. Il en assure la qualité , la disponibilité , le suivi et l’ accessibilité , pour permettre aux utilisateurs d’exploiter efficacement les données (Self Service Analytics, analyses, modèles, dashboards). Missions principales 1. Délivrer les bonnes données, à temps Assurer le rafraîchissement fréquent et fiable des données pour soutenir la prise de décision. Garantir la stabilité et la fiabilité des datasets exposés. Corriger rapidement les données corrompues. Anticiper et planifier l’évolution des datasets. Déployer les évolutions avec un délai court mais soutenable. 2. User Centric Connaître les utilisateurs et comprendre leurs usages métiers. Collaborer avec les PM Analytics, Data Analysts, Data Scientists et BI Engineers. Automatiser puis industrialiser les datasets nécessaires aux use cases. Suivre et mesurer l’utilisation réelle des datasets. Définir et communiquer le niveau de confiance dans les données. Informer sur l’état et les éventuelles corruptions des datasets. 3. Playmaker / Team player Participer au recrutement et à l’onboarding des nouveaux membres. Contribuer à la communauté Data (partage d’expérience, ateliers, revues de code, pair programming). Collaborer avec les équipes Core Data Products pour fiabiliser les pipelines. Être force d’entraide et de transmission auprès des autres Analytics Engineers. 4. Better Way Améliorer en continu les pratiques de delivery data. Faire évoluer la stack et les outils. Être proactif sur l’amélioration des processus. Contribuer à la réduction de l’impact écologique et économique des solutions déployées. Compétences techniques : Data modeling dbt SQL Tests and expectations Git Airflow Python Spark Data Architecture Databricks Redshift Indicateurs de performance Fiabilité et fraîcheur des données exposées Temps de correction des anomalies Fréquence des déploiements et time to market des datasets Satisfaction et autonomie des utilisateurs Contribution à la communauté Data et aux rituels d’équipe

Contractor

Contractor job
[FBO] Concepteur Développeur Testeur DBT - 893

ISUPPLIER
Published on

1 month
1-400 €
Lille, Hauts-de-France

Contexte de la mission Objet Nous recherchons un profil confirmé (3 ans minimum d’expérience) de concepteur/développeur/testeur pour travailler sur le développement d’applications sous DBT, réaliser les tests et assurer le maintien en conditions opérationnelles. Les tâches suivantes seront requises sur la mission : - Analyse des besoins métier et réalisation des spécifications - Développement des applications - Maintien de la documentation Une connaissance du monde de l’assurance serait un plus. La ressource devra être autonome, collaborative, ouverte, avoir l’esprit d’équipe. Objectifs et livrables Livrables attendus - Développements DBT - Spécifications Fonctionnelles et Techniques - Analyse et traitements des incidents de Production - Support sur les outils groupe - Plan de tests Localisation Mons en Baroeul Compétences recherchées : ▪ Analyse ▪ Maîtrise du développement DBT ▪ Autonome Domaines d’expertise Outils & Technologies: - DBT - GCP

Contractor

Contractor job
Data Engineer – GCP / BigQuery / DBT

Intuition IT Solutions Ltd.
Published on
BigQuery
DBT
Google Cloud Platform (GCP)

12 months
Toulouse, Occitania

Contexte de la mission Nous recherchons un Data Engineer expérimenté afin de renforcer l’équipe Data et contribuer à la mise en place, l’optimisation et l’industrialisation de la plateforme de données sur Google Cloud Platform (GCP) . Vous interviendrez sur des problématiques de modélisation, transformation et exploitation de données avec BigQuery et DBT , en collaboration avec les équipes métier et analytics. Vos missions Concevoir, développer et maintenir les pipelines de données dans un environnement GCP. Implémenter et optimiser des modèles de données dans BigQuery . Mettre en place et maintenir les transformations avec DBT (Data Build Tool). Garantir la qualité, la performance et la fiabilité des traitements de données. Participer aux choix techniques et bonnes pratiques (CI/CD, documentation, monitoring). Collaborer avec les équipes Data Analysts / Data Scientists pour assurer la disponibilité et la pertinence des données.

Permanent

Job Vacancy
Data Engineer - Lyon

KOMEET TECHNOLOGIES
Published on
Databricks
DBT
Snowflake

50k-60k €
Lyon, Auvergne-Rhône-Alpes

Ton quotidien chez Komeet sera rythmé par : Animation des ateliers afin d’étudier et cadrer les besoins clients Préconisation, conception et mise en œuvre des plateformes Data (datawarehouse, datalake/lakehouse ) Rédaction de dossiers d’architecture et spécifications techniques Mise en œuvre des stratégies d’exploitation de plateformes Data Construction et déploiement des pipelines de données (ETL / ELT) à l’aide de langage de programmation ou d’outils de type Low-Code Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. Tests, validation et documentation des développements Réalisation d'audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP

Contractor
Permanent
Fixed term

Job Vacancy
Lead Data Engineed Snowflake - DBT

IT CONSULTANTS
Published on
Agile Method
Snowflake

12 months
Levallois-Perret, Ile-de-France

Cherchons un profil expert Snowflake pour participer activement à la structuration de l'offre de notre client, à l'élaboration des architectures avant-vente et à la montée en compétence de leurs équipes. Lead Data Engineer passionné par Snowflake et DBT vous travaillerez chez des clients leaders dans leurs secteurs afin de moderniser leur infrastructure de données. Vous travaillerez sur des projets stimulants, de l'implémentation initiale de Snowflake à l'optimisation de pipelines complexes avec dbt, en passant par l'intégration d'écosystèmes data avancés. Votre rôle sera crucial pour le succès de ces transformations. Missions principales : * Développer nos assets technologiques et nos accélérateurs pour des déploiements plus rapides et efficaces. * Participer activement aux phases d'avant-vente, en concevant des architectures innovantes et en présentant nos solutions aux clients. * Accompagner nos clients dans la conception, le développement et le déploiement d'architectures data modernes basées sur Snowflake et dbt. * Mettre en place et optimiser des pipelines de données robustes et performants avec dbt. * Conseiller nos clients sur les meilleures pratiques de la Modern Data Stack et les accompagner dans la migration et l'intégration de leurs données. * Encadrer et faire monter en compétences une équipe de data engineers sur les technologies Snowflake et dbt. Compétences attendues : - Une expérience significative en tant que Lead Data Engineer ou Architecte Data, avec une expertise approfondie de Snowflake et dbt (certifications bienvenues). - Une excellente compréhension des concepts de la Modern Data Stack et de ses meilleures pratiques (Snowflake Openflow, Fivetran, dbt, Airbyte…). - Une expérience dans un projet de migration de plateforme Data vers une Modern Data Stack est un vrai plus Maîtrise des langages SQL et Python. - Une expérience réussie en Streamlit et/ou Generative AI est un atout sérieux. - Capacité à travailler en équipe, à communiquer efficacement et à vous adapter aux environnements clients avec une forte orientation conseil.

Contractor

Contractor job
Lead Data Snowflake/AWS

DEVATSCALE
Published on
AWS Cloud
CI/CD
DBT

3 months
400-650 €
Paris, France

Hello, Est-ce que tu es en recherche d'une de lead data pour: Établir les standards de développement et de gouvernance : définir les bonnes pratiques, workflows et principes DataOps/CI-CD. Assurer la qualité et la conformité des environnements : veiller à la sécurité, la fiabilité et la maintenabilité des flux de données. Encadrer et accompagner les équipes : animer des sessions de code review, transmettre les bonnes pratiques et construire des référentiels d’usage partagés. Réaliser des audits techniques pour identifier les axes d’amélioration sur la performance, la stabilité et la maîtrise des coûts.

Contractor
Permanent

Job Vacancy
Data Engineer GCP DBT LOOKER (H/F)

NSI France
Published on
DBT
Google Cloud Platform (GCP)
Looker Studio

3 years
Paris, France

En tant que Data Engineer, vous intégrerez une feature team pour participer aux différents projets de développement. Pour cela vous aurez en charge : · Compréhension des besoins métiers · Conception des solutions nécessitant l’utilisation de technologies cloud & data pour répondre aux besoins métier · Déploiement, optimisation et industrialisation au quotidien des pipelines de données dans le Cloud · Travaille avec différents profils data du groupe (Data Scientist, data engineer, data architect, data analyst) · Assurer le monitoring des modèles en production · Contribuer au développement et à l’amélioration continue des outils data interne

Contractor

Contractor job
DATA ENGINEER GCP

CHOURAK CONSULTING
Published on
Apache Spark
BigQuery
DBT

1 year
400-600 €
Ile-de-France, France

Dans le cadre d’un projet stratégique autour de la donnée , nous recherchons un Data Engineer expérimenté pour renforcer l’équipe de notre client, au cœur de la plateforme Data. La Direction Data joue un rôle clé dans la transformation numérique du groupe, avec trois missions principales : Maximiser la collecte et la valorisation des données tout en respectant la réglementation. Développer la connaissance et l’expérience utilisateur . Mettre à disposition des outils d’aide à la décision pour les équipes internes. 🎯 Vos missions principales : Concevoir, développer et maintenir des pipelines data robustes et scalables sur GCP. Déployer des datasets normés sur plusieurs domaines (Utilisateurs, Comportements, Référentiels). Mettre en place des contrôles qualité sur les datasets. Structurer et organiser le stockage des données dans une logique d’architecture évolutive. Participer à la mise en place des workflows CI/CD et à l’industrialisation via Terraform / Terragrunt. Collaborer avec les équipes Data pour assurer la qualité, la fiabilité et la gouvernance des données. Partager les bonnes pratiques et contribuer à la documentation technique .

Contractor

Contractor job
Data Engineer (GCP / Python / DBT)

ESENCA
Published on
Agile Method
Apache Kafka
API

1 year
400-430 €
Lille, Hauts-de-France

Nous recherchons un Data Engineer confirmé pour accompagner les produits data de notre périmètre Connaissance Client et Commerce Animation Performance . 🎯 Objectif de la mission Mettre en place une cartographie des données . Concevoir un Datamesh adapté et partagé , incluant son dimensionnement. Déployer un Datamesh avec sondes de contrôle qualité garantissant la fiabilité des données. 🚀 Responsabilités Créer des pipelines robustes et optimisés afin de mettre à disposition les données de manière efficace et avec un coût FinOps maîtrisé. Maintenir et faire évoluer les produits data existants. Collaborer avec les équipes métier dans un environnement Agile (Scrum/Kanban) . 🛠️ Compétences attendues Python (Flask, appels API, Kafka) – Confirmé (impératif). GCP (BigQuery, GCS, Cloud Run, …), DBT – Confirmé (impératif). Github (CI/CD, versioning) – Confirmé (important). Méthodologies agiles (Scrum, Kanban) – Confirmé. Anglais courant – Impératif. ❌ À noter Nous recherchons un Data Engineer , et non un Data Scientist. 📍 Mission longue durée – Démarrage rapide – Contexte stimulant au sein d’une équipe data en structuration.

Permanent

Job Vacancy
Data Architect

Inventiv IT
Published on
Architecture
AWS Cloud
Azure

65k-80k €
Paris, France

Au sein de la Data Fabric d'INVENTIV IT, nous recherchons un Data Architect pouvant nous accompagner sur nos différents projets clients, notamment dans la mise en place et l'évolution de Data Market Place et Platform Data complexe. Ce poste requiert une expérience technique et architecturale solide, ainsi qu'une solide expérience pratique des technologies cloud, du développement de microservices et de l'architecture événementielle. Vous aurez à collaborer étroitement avec les équipes informatiques INVENTIV IT et de nos clients (à l'international) ,les partenaires commerciaux, les partenaires métiers, les partenaires externes et l'ensemble des membres de l'équipe d'intégration. Dans le cadre de nos projets une excellente compréhension et communication en Français/Anglais est indispensable - Engagement sur les sujets - Capacité à effectuer une restitution documentaire dans le cadre d'un audit, d'une preuve de concept (POC) ou en matière de normes et d'architecture Nos environnements techniques : AWS/AZURE, Databricks, Snowflake, DBT, Big Data, BI, intégration continu, DataSecOps ... Notre offre : Fixe + Variables + avantages Exemple d'objectif et de livrables attendus : Design and propose solutions on Data using Azure Cloud technologies within our framework Design and propose solutions on Snowflake Apply the “Data as a Service” strategy in accordance with architectural best practices Design and develop APIs / Micro services to enrich our solutions framework Support the Event Driven Architecture strategy based on Azure Event Hub and Azure IoT Hub Contribute to our catalog of services for self-service enrichment Contribute to modernization and technology awareness within Data Capture team and across Data & Analytics organization Be the referent in the team for all cloud subjects Conduct workshops and facilitate requirement gathering Support Data Engineers to Cloud related topics Support Security team for related topics Contribute to Data Capture roadmap and evolution Challenge and support external vendors Au plaisir d'échanger et de collaborer ensemble

Contractor
Permanent

Job Vacancy
Consultant MLOps GenAI

UCASE CONSULTING
Published on
DBT
Generative AI
Google Cloud Platform (GCP)

6 months
40k-65k €
400-620 €
Paris, France

Contexte Dans le cadre du renforcement de notre pôle Data & IA, nous recherchons un(e) Consultant(e) confirmé(e) Data Engineer / MLOps spécialisé(e) GenAI . Le profil idéal se situe à mi-chemin entre le Data Engineering et le MLOps , avec une solide expertise sur GCP, une appétence pour la GenAI , et la capacité à résoudre des problématiques de production . Missions principales Concevoir, industrialiser et maintenir des pipelines data sur GCP (BigQuery, Dataflow, Pub/Sub). Mettre en place et optimiser des modèles et services IA/GenAI via Vertex AI . Assurer l’ industrialisation et la mise en production de modèles (CI/CD, monitoring, optimisation). Développer en Python des outils et composants réutilisables pour les projets Data/IA. Implémenter des transformations et orchestrations de données avec DBT . Diagnostiquer et résoudre les incidents de production liés aux pipelines, modèles ou API IA. Collaborer avec les équipes Data Science, DevOps et métiers pour assurer la qualité, robustesse et performance des solutions. Compétences techniques recherchées Langages : Python (avancé), SQL. Cloud : GCP (BigQuery, Dataflow, Pub/Sub, Vertex AI). Data Engineering : DBT, orchestration (Airflow, Cloud Composer). MLOps / GenAI : Vertex AI pipelines, modèles LLM/GenAI, monitoring et déploiement en prod. CI/CD : GitLab CI/CD, Terraform, Docker, Kubernetes. Observabilité : Logging, monitoring, optimisation de pipelines et modèles en prod. Soft skills Esprit analytique et orienté résolution de problèmes . Capacité à travailler en transverse avec des équipes Data Science, IT et métiers. Autonomie, proactivité et rigueur , avec une approche pragmatique. Intérêt marqué pour les dernières évolutions IA et GenAI . Profil recherché Expérience : 3 à 6 ans en Data Engineering et/ou MLOps, avec une exposition significative à GCP. Bonus : une première expérience réussie sur des projets GenAI (LLM, Vertex AI, APIs d’IA générative).

Contractor

Contractor job
Ingénieur de données GCP (H/F)

SMARTPOINT
Published on
Apache Spark
BigQuery
DBT

6 months
400-500 €
Paris, France

o Déployer les ensembles de données normés sur un ou plusieurs des domaines de données suivants : Utilisateurs, Comportements et Référentiels o Accompagner les utilisateurs dans leurs usages o Mettre en place le contrôle qualité sur ces ensembles de données En interaction avec les membres de l'équipe, la prestation consiste à : o Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l'équipe o Construire et maintenir des pipelines de données robustes et scalables o Accompagner les membres de l'équipe dans l'exploitation et le requêtage des données o Organisateur et structurer le stockage des données o Mettre en place et maintenir des infrastructures scalables capables de répondre aux besoins et à l'autonomie rapide du volume de données o Participer aux initiatives de gouvernance des données en assurant la qualité, la fiabilité et l'intégrité des données o Construire et maintenir les workflows de la CI/CD o Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur o Assurer l'évolutivité, la sécurité, la stabilité des environnements o Participer aux différentes instances des data ingénieurs o Contribuer et veiller à la mise à jour de la documentation o Faire de la veille technologique active dans le domaine Expertises demandées pour la réalisation de la prestation.

Contractor

Contractor job
Data Engineer confirmé GCP / dbt / Looker | Full remote (Maghreb)

skiils
Published on
DBT
Google Cloud Platform (GCP)

3 years
130-230 €
Paris, France

Nous recherchons un Data Engineer pour intervenir en prestation (nearshore) dans le cadre d’un projet de transformation data ambitieux chez un acteur majeur du retail . L’objectif ? Concevoir, piloter et opérer des systèmes analytiques robustes, scalables et sécurisés, tout en encadrant techniquement une équipe de data engineers. 📍 Localisation : Nearshore (Full remote) 📅 Démarrage souhaité : 3 juin 2025 ✨ Ce que tu feras au quotidien Concevoir et opérer des pipelines data de bout en bout (ingestion, traitement, modélisation, valorisation, restitution) Développer et maintenir les applications back-end d’une plateforme data & analytics Garantir la qualité, la sécurité, l’observabilité et la scalabilité des solutions déployées Implémenter des couches sémantiques et des modèles de données pour la visualisation Participer activement à toutes les étapes du cycle de développement logiciel (conception, code, tests, CI/CD, déploiement) Collaborer avec les équipes business, produit et design dans une méthodologie Scrum 🔧 Les technologies et outils que tu utiliseras : Cloud : GCP (BigQuery, Cloud Functions, Pub/Sub, Cloud Composer) Transformation : DBT (data build tool) Visualisation : Looker (LookML) Langages : SQL, Python CI/CD & Qualité : Git, GitLab, tests automatisés, linting, Sonar Observabilité : monitoring, alerting, logging

Permanent

Job Vacancy
Data Architect

Inventiv IT
Published on
AWS Cloud
Azure
BI

65k-80k €
Paris, France

Rejoignez la Data Fabric d'INVENTIV IT pour concevoir et faire évoluer des Platform Data et Data Market Place complexes pour nos clients internationaux. En tant qu'Architecte Solution Data Senior, vous serez le garant de l'architecture Cloud Hybride (AWS/Azure) , de la performance Big Data et de la Gouvernance de nos solutions. 🎯 Vos Missions et Livrables Clés (Alignement Technique) 1. Architecture Cloud Hybride et Stratégie Conception Hybride : Définir et concevoir l'architecture de la plateforme Cloud Data cible en tirant parti des services de données d' AWS et AZURE . Feuille de Route : Élaborer la roadmap d'implémentation et de migration vers ces plateformes en intégrant les solutions Snowflake et Databricks . Gouvernance Data : Définir et implémenter la Gouvernance des Données (qualité, sécurité, accès) au sein de la Data Fabric et du Data Market Place. BI & Analytics : Auditer les systèmes BI historiques et concevoir des solutions modernes d'analyse et de BI sur la nouvelle plateforme. 2. Industrialisation et Ingénierie Avancée DataOps & DataSecOps : Mettre en œuvre et garantir les meilleures pratiques DevOps et DataSecOps dans le cycle de vie des données (CI/CD, sécurité par conception). Transformation Modulaire : Standardiser et industrialiser les transformations de données critiques en utilisant l'outil DBT ( Data Build Tool ). Augmentation/ML : Évaluer et intégrer des outils d'aide à la conception ou d'analyse avancée comme Dataiku dans l'écosystème du Datalab. FinOps : Intégrer les pratiques FinOps pour optimiser les coûts sur les plateformes AWS et AZURE . 3. Leadership, Conseil et Design Animation : Mener des ateliers collaboratifs et de Design Thinking pour traduire les besoins métier en architectures techniques précises. Support & Référentiel : Être le référent technique Snowflake/Databricks et fournir un support d'expertise aux Data Engineers et aux équipes Sécurité Cloud. Audit et Documentation : Réaliser des audits complets et garantir une restitution documentaire de haut niveau (normes, architectures cibles). 🛠️ Environnement Technique Vous évoluerez sur un environnement Cloud et Big Data complet : DomaineTechnologies et Concepts Cloud PublicAWS (Architecture) & AZURE (Architecture) Plateformes DataSnowflake (Data Warehouse), Databricks (Engineering/ML), DBT (Transformation) Outils AvancésDataiku , Big Data , Solutions BIMéthodes & OpsDevOps , DataSecOps , Gouvernance , FinOps

Contractor

Contractor job
Chef de projet Data / BI

Sapiens Group
Published on
DBT
ETL (Extract-transform-load)

6 months
450-560 €
Nord, France

Dans le cadre de la modernisation et de l’industrialisation de la plateforme Data de notre client et de ses applications métier, nous recherchons un chef de projet Senior spécialisé dans la data. Le candidat aura deux principales missions : Mettre en place une démarche de pilotage projet et piloter les projets stratégiques pour en garantir la maîtrise de bout en bout des processus dans une vision consolidée à la fois sur la partie métier et DSI : •Définition et suivi des jalons à respecter pour le bon déroulement du projet • Suivi de la bonne livraison des livrables, ainsi que la vérification de la qualité, de la cohérence et de complétude de ces derniers. • Respect des engagements Cout / Délai/ Qualité/ Charge de l’ensemble des interlocuteurs sur les différents périmètres d’intervention. • Préparation et animation des comités de pilotage stratégique et opérationnels avec les directions métiers et des différentes équipes • Formalisation de la démarche projet, des indicateurs en déclinaison de la démarche groupe adapté au SI de la rémunération • Proposer une démarche agile sur certains projets ou périmètre du chantier et accompagner la transformation agile en coordination avec l’équipe agile. • Aligner la capacité à faire avec les enjeux business et les contraintes internes •Organiser et participer activement aux phases de cadrage et d’études et de conception avec les différentes parties prenantes pour apporter la solution qui réponds aux exigences Adopter une démarche processus puis solution en lien avec les architectes pour apporter la meilleure solution possible et dans le respect du SDSI du périmètre. • Être force de propositions de solutions techniques et fonctionnelles pour répondre aux besoins métiers. • Veiller au maintien des différents référentiels documentaire • Vérifier la qualité des livrables des prestataires internes ou externes. • Travailler en étroite collaboration

45 results

Contracts

Contractor Permanent

Location

Remote type

Hybrid Remote On-site

Rate minimum.

£150 £1300 and more

Salary minimum

£20k £250k

Experience

0-2 years experience 3 to 5 years experience 6 to 10 years experience +10 years experience

Date posted

Connecting Tech-Talent

Free-Work, THE platform for all IT professionals.

Free-workers
Resources
About
Recruiters area
2025 © Free-Work / AGSI SAS
Follow us