Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 2 006 résultats.
CDI

Offre d'emploi
Expert data H/F

HAYS France
Publiée le

Monaco
Vos missions sont les suivantes : Accompagner la modernisation de l'environnement data aujourd'hui basé sur MyReport et de nombreux fichiers Excel. Mettre en place une architecture plus fiable et automatisée pour centraliser et structurer la donnée. Participer au choix de la future plateforme data et aux premières étapes de son implémentation. Construire les premiers flux de données (ETL/ELT) et organiser les modèles de données. Produire des tableaux de bord fiables pour le comité de direction et les équipes métiers. Améliorer la qualité, la cohérence et la disponibilité de la donnée. Préparer l'arrivée de cas d'usage IA (prévisions, automatisations).
Freelance

Mission freelance
Lead Data Engineer - Financial

Phaidon London- Glocomms
Publiée le
AWS Cloud
DBT
Git

6 mois
400-550 €
Paris, France
Piloter l'ingénierie des données de bout en bout sur Snowflake, dbt et SQL, de l'ingestion et la transformation des données sources jusqu'aux jeux de données analytiques prêts pour la production. Concevoir, implémenter et maintenir des modèles de données évolutifs et alignés sur les besoins métiers, en garantissant la cohérence, la réutilisabilité et la performance pour de multiples cas d'utilisation d'analyse et de reporting. Assurer des normes d'ingénierie élevées, notamment en matière de qualité du code, de tests, de documentation et de revues de code par les pairs, tout en promouvant activement les bonnes pratiques au sein de l'équipe. Fournir des jeux de données optimisés pour Tableau et compatibles avec la BI, permettant un reporting en libre-service fiable et des informations exploitables pour les parties prenantes. Agir en tant que contributeur technique senior, en assumant progressivement des responsabilités de leadership technique, notamment : - Encadrer et soutenir les ingénieurs de données juniors et intermédiaires. - Conseiller sur les décisions relatives à l'architecture et à la modélisation des données. - Être le référent technique pour les initiatives axées sur l'analyse.
Offre premium
Freelance
CDI
CDD

Offre d'emploi
QA Data confirmé (Databricks / Azure)

VADEMI
Publiée le
Azure
Databricks

3 ans
Châtillon, Île-de-France
Testeur confirmé avec compétences Data Analyste Compétences techniques Méthodologie de tests - Confirmé - Important Test technico fonctionnels/tests d'intégration - Confirmé - Important DataBricks - Confirmé - Important Environnement azure microsoft - Confirmé - Important Description détaillée Au sein de la Direction des Systèmes d’Informations Mutualisés, vous rejoindrez le Train DATA, en charge des projets BI et Data. En tant que QA doté de compétences en analyse de données, vous intégrerez le pôle Qualité Data . Votre rôle consistera à préparer et exécuter les cas de tests, constituer les jeux de données nécessaires, assurer le suivi des défauts identifiés et contribuer à l’amélioration continue de la qualité des données. Le Data Lab fonctionne en organisation agile et réunit des équipes pluridisciplinaires favorisant la collaboration et l’autonomie. Vous travaillerez avec des rituels agiles, cadrés, trimestriels et des cycles de réalisation de 3 semaines (sprint planning, affinage, sprint review et daily meeting). Vos missions : - Participer aux ateliers/rituels agiles - Réaliser la stratégie de test - Identifier et réceptionner les environnements de test - Analyser et évaluer les cas d'usage/User Story - Rédiger les plans de test, identifier les prérequis et spécifier les jeux de données - Exécuter les cas de tests - Créer et suivre les défauts avec les différentes parties prenantes - Maintien du référentiel de test - Réaliser le PV de recette - Présentation des sujets en CAB pour passage en production - Une expérience/compétence dans le retail serait un plus. En plus du test fonctionnel, vous serez amené à effectuer des tests d’intégration 2 à 2, des tests de bout en bout ainsi que des tests de surface dans un contexte Data. J’accorde une importance particulière à l’amélioration continue, un principe clé de l’agilité, afin de progresser en permanence et de gagner en efficacité.
Freelance
CDI
CDD

Offre d'emploi
DATA ENGINEER CONFIRME / SENIOR (H.F)

NSI France
Publiée le
Azure
Cloud
Data Engineering

6 mois
Île-de-France, France
Contexte Dans le cadre de projets de transformation et de modernisation des systèmes d'information chez de grands acteurs de la distribution et de la grande consommation, nous recherchons un Data Engineer confirmé / sénior pour intervenir sur une migration de plateforme Data vers le Cloud. Vous intégrerez une squad Agile dédiée, au sein d'une organisation Data Factory, dont la mission est de concevoir et déployer des produits Analytics innovants à destination des fonctions support, des équipes logistiques et des points de vente. Vos missions En tant que Data Engineer, vous interviendrez sur tout ou partie des missions suivantes : Analyse des traitements existants dans le cadre de projets de migration on-premise vers le Cloud Conception et construction de pipelines de données pour transformer, enrichir et traiter les données au sein d'un Data Lake Développement de notebooks Databricks pour des traitements avancés de données Mise en œuvre de solutions de Cloud Data Warehousing (optimisation des traitements et tuning des requêtes SQL) Rédaction de la documentation technique (dossiers d'analyse, release notes, etc.) Réalisation de revues de code dans une logique de qualité et de bonnes pratiques Conception et exécution de tests unitaires Livraison des développements dans un environnement DevOps intégrant des processus CI/CD Environnement technique Azure / Databricks / Spark Python / SQL CI/CD, Azure DevOps Outils Agile (JIRA)
CDI
Freelance

Offre d'emploi
Data Engineer / BI Analyst

VISIAN
Publiée le
BigQuery
Composer
DBT

3 ans
40k-45k €
400-490 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Dans le cadre du renforcement d’une équipe en charge de la transformation d’une infrastructure décisionnelle existante, nous recherchons un Data Analyst Senior spécialisé Power BI et Google Cloud Platform. La mission consiste à accompagner la migration des rapports BI (Power BI) ainsi que des flux de données SSIS vers un environnement cloud moderne basé sur Google Cloud Platform. Le consultant interviendra sur les sujets de modélisation, transformation, industrialisation et exploitation des données, avec une forte dimension analytique et BI. Le poste nécessite une bonne maîtrise des environnements GCP, des outils de traitement et d’orchestration de données, ainsi qu’une capacité à structurer, analyser et restituer efficacement les données pour répondre aux enjeux métiers et décisionnels. Compétences techniques attendues BI / Data Power BI SSIS SQL Analytics / BI Cloud & Data Engineering Google Cloud Platform (GCP) BigQuery Composer dbt Python Data Modélisation de données Industrialisation des traitements Analyse de données Exploration et restitution des données
CDI
Freelance

Offre d'emploi
QA DATA

KOUKA
Publiée le
Cypress
Data quality
Gherkin

6 mois
40k-53k €
400-450 €
Île-de-France, France
La définition et la mise en œuvre de stratégies de tests sur les flux de données La validation des données (contrôles SQL, cohérence, complétude, intégrité) La rédaction et l’exécution de cas de tests fonctionnels et techniques L’automatisation des tests (API, UI, data pipelines) La collaboration avec les équipes Data, Dev et Produit Le suivi des anomalies et leur résolution Langages / Data : SQL Gestion des tests : JIRA / XRAY Méthodologie : BDD – Gherkin Tests automatisés : Cypress Tests API : Postman / Newman CI/CD : GitLab Versioning : Git
CDI

Offre d'emploi
Data Engineer H/F

JEMS
Publiée le

45k-55k €
Nantes, Pays de la Loire
Nous recherchons un(e) Data Engineer capable de trouver des solutions innovantes et robustes à l'ensemble des problématiques Data. Vous aurez la charge de : • Participer à la conception et réalisation d'une solution Data depuis l'acquisition jusqu'à l'exploitation de la donnée en accompagnant la réflexion des directions métiers • Identifier, collecter et intégrer les données nécessaires à la résolution de problématiques métier et opérationnelles • Garantir la qualité des données en mettant en place les outils de mesure et de suivi adéquats en appliquant les règles de Data Gouvernance et de Data Management • Transcrire des besoins métier en règles de gestion data • Industrialiser le déploiement de vos réalisations à travers l'implémentation de tests unitaires, d'intégration et de non-régression Référence de l'offre : a10nad07cd
Freelance
CDI
CDD

Offre d'emploi
DataOps & Administrateur Hadoop TJM MAX 580

Craftman data
Publiée le
Ansible
Apache Hive
Apache Spark

1 an
40k-45k €
400-580 €
Paris, France
Missions et responsabilités principales1. Déploiement et industrialisation des clusters Big Data Déploiement automatisé de clusters via des pipelines CI/CD Utilisation d’outils d’automatisation pour l’installation et la configuration des composants Adaptation des architectures selon les besoins projets (dimensionnement, sécurité, performance) Contribution à l’industrialisation des processus (CI/CD, Infrastructure as Code) Déploiement et configuration d’outils de gestion de plateforme Installation et configuration d’interfaces utilisateurs pour les environnements analytiques 2. Stack Big Data administrée Administration et intégration des composants suivants : Service d’annuaire : gestion des identités Service d’authentification : sécurisation des accès Système de fichiers distribué : gestion du stockage Framework de traitement distribué : gestion des ressources et exécution Outil de gestion des accès : politiques de sécurité Moteur de calcul distribué Moteur SQL pour l’accès aux données Base de données relationnelle associée aux services Service de coordination distribué Responsabilités associées : Installation, configuration et paramétrage avancé Gestion des dépendances inter-services Maintien de la cohérence des versions Optimisation des performances et de la stabilité 3. Provisionnement et préparation des environnements Provisionnement des machines virtuelles Préparation des prérequis systèmes (OS, stockage, réseau) Automatisation des installations via scripts et outils d’orchestration Gestion des environnements (développement, test, production) 4. Observabilité et supervision Mise en place et maintien de la supervision : Collecte des métriques Gestion et routage des alertes Centralisation et exploitation des logs Visualisation via tableaux de bord Définition et amélioration des indicateurs de supervision Analyse proactive des alertes Diagnostic et résolution d’incidents 5. Maintien en Condition Opérationnelle (MCO) Administration quotidienne des plateformes Big Data Support technique aux équipes projets et utilisateurs Gestion des incidents et demandes d’évolution Montées de version et correctifs Suivi de la capacité (CPU, RAM, stockage) Documentation technique et mise à jour des procédures Rituels et interactions Participation aux rituels d’équipe Coordination avec : Équipes infrastructure et exploitation Équipes projets data / métiers Référents sécurité Accompagnement des équipes dans l’usage de la plateforme Environnement technique global CI/CD & DevOps : outils d’intégration et de déploiement continus, gestion de code, qualité Automatisation : outils d’orchestration et scripting Infrastructure : virtualisation, conteneurisation Big Data : écosystème de traitement distribué Observabilité : outils de monitoring, logs et visualisation Points de vigilance Forte interdépendance des composants de la plateforme Sensibilité aux problématiques de capacité et de performance Importance de l’anticipation via la supervision Respect strict des standards de sécurité et des procédures internes Coordination transverse nécessaire pour les déploiements et évolutions majeures Charge estimative Déploiement d’un cluster complet : variable selon dimensionnement et spécificités projet MCO : charge récurrente hebdomadaire Incidents critiques : charge ponctuelle selon criticité
CDI
Freelance

Offre d'emploi
Data Engineer

Signe +
Publiée le

24 mois
40k-45k €
286-450 €
Niort, Nouvelle-Aquitaine
Mission : Un profilData ingénieur / Software ingénieur orienté Data avec une expérience significative sur Azure Databricks, python (software engineering) et PySpark. La connaissance des concepts de Machine Learning, notamment des algorithmes de type bagging et boosting, constitue un atout apprécié. En tant que Data/Software ingénieur, le prestataire interviendra au sein d'une équipe agile SAFe et contribuera, au travers de user stories, aux activités suivantes : -Conception et développement des pipelines Data et ML industrialisées et robustes o Pipelines Batch sous Azure Databricks o Utilisation avancée de PySpark, Delta Lake, MLFlow, , Workflows o Optimisation des performances : partitionnement, gestion mémoire, exploitation GPU o Mise en place de mécanismes de reprise d'erreur, de traçabilité et de monitoring o Collaboration étroite avec les data scientists pour transformer les prototypes en solutions industrielles -Développement logiciel et services o Conception et développement de packages python o Respect des standards de développement du socle (qualité du code, tests unitaires, CI/CD, documentation, …) o API sous Azure Function et/ou Azure Container Apps -Contribution aux phases projets (étude de faisabilité, architecture, conception, réalisation, MEP) et aux différents activités de RUN et d'amélioration continue -Participation active aux rituels agiles 3j/semaine sur site Compétences techniques requises : Azure Databricks PySpark Delta Lake Python
CDI

Offre d'emploi
Consultant Senior Data Catalog Collibra (H/F)

ASTRELYA
Publiée le
Collibra
Data governance
IA

92800, Puteaux, Île-de-France
Votre mission : En tant que Consultant Data Catalog spécialisé Collibra, vous accompagnerez nos clients dans la structuration, l’opérationnalisation et la gouvernance de leur Data Catalog. Vous interviendrez sur des projets stratégiques visant à renforcer la maîtrise, la qualité et la valorisation des données, en vous appuyant sur les capacités avancées de Collibra Data Intelligence Platform. Votre rôle sera clé pour aider les organisations à déployer un Data Catalog robuste, gouverné, adopté et aligné avec les enjeux Data & IA Concrètement, vous allez : 1. Structurer & Opérationnaliser le Data Catalog · Définir la stratégie Data Catalog et accompagner les clients dans leur transformation Data Governance. · Paramétrer Collibra : communautés, domaines, rôles, workflows, policies, règles de qualité, operating model. · Concevoir et adapter le métamodèle Collibra : Data Domains, Data Sets, Data Elements, Data Owners, Stewards, modèles IA, indicateurs de qualité… · Mettre en place les connecteurs d’ingestion (Collibra Connect, Collibra Data Quality, ingestion automatisée). · Modéliser les objets métiers et assurer leur documentation dans Collibra. · Déployer les workflows de gouvernance (validation, certification, demandes d’accès, gestion des changements). 2. Assurer la valorisation & l’adoption du Data Catalog · Définir et déployer les cadres de Data & AI Governance. · Structurer les Data Domains, Data Objects, Data Contracts, glossaires métier et usages IA. · Accompagner les Data Owners, Stewards et équipes IT dans la prise en main de Collibra. · Concevoir des parcours d’acculturation : formations, vidéos, kits, communautés Data, webinaires. · Promouvoir les bonnes pratiques d’usage et faire évoluer la culture Data. Votre futur environnement de travail : · Data Catalog : Collibra (Data Governance, Data Quality, Lineage, Workflow, Operating Model). · Outils de documentation & IA Responsable : Model Cards, risk matrices, AI Act traceability. · Outils collaboratifs : Notion, Miro.
Alternance

Offre d'alternance
Analytics Engineer/Data Analyst (f/m/d) - Data Pricing - Alternance

█ █ █ █ █ █ █
Publiée le
Git
Python
SQL

Fierville-les-Parcs, Normandie

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI

Offre d'emploi
Architecte Data (H/F) - CDI

GROUPE ARTEMYS
Publiée le

76000, Rouen, Normandie
Qui sommes-nous ? Artemys, acteur de la transformation numérique est une entreprise à taille humaine, avec plus de 30 ans d’expérience composée de plusieurs entités, chacune spécialisée dans leur domaine (Système, data, réseaux/sécu…) Ce qui nous distingue vraiment ? Ce n’est pas de dire que nous valorisons nos collaborateurs, c’est de le montrer chaque jour. Chez Artemys, l’humain est au cœur de tout ce que nous faisons. Nos valeurs, concrètes et vécues au quotidien : Convivialité : travailler dans une bonne ambiance, ça change tout Proximité : chaque membre de l’équipe a sa place et sa voix Écoute : vos idées comptent autant que votre travail Agil-IT , située à Isneauville (près de Rouen) est une entité spécialisée en Data, Développement et pilotage de projets IT. Forte de plus de 20 ans d’expertise , elle accompagne les entreprises, principalement implantées en Normandie dans leur transformation digitale. C’est au sein de cette entité, que se développe notre expertise Data. Chiffres clés : 7,8 M€ de CA | 65 consultants en 2025 Une structure à taille humaine où vos compétences et votre savoir être font la différence. Reconnue pour son exigence technique et ses valeurs humaines, elle est aujourd’hui un acteur clé en offrant des prestations d ‘audit , de conseil , de mise en œuvre , de migration , de support et des formations pour diverses clients. Nous recrutons un Consultant Senior Data Architecture / Data Engineering H/F en Freelance pour intervenir auprès de l’un de nos clients basé au Le Havre. Dans le cadre de cette mission, vous interviendrez sur des sujets d’audit, de transformation et d’urbanisation des plateformes data existantes avec une forte dimension architecture et accompagnement des équipes. Votre mission (si vous l’acceptez) : Phase 1 – Audit & Architecture Réalisation d’un audit des environnements data et des chaînes de traitement existantes Analyse de l’architecture globale, des workflows, des flux de données et des usages Identification des points de friction, limites techniques et axes d’optimisation Évaluation des choix d’architecture et des pratiques de data engineering en place Formalisation de recommandations structurées et actionnables sur les architectures cibles, les workflows et les bonnes pratiques Phase 2 – Accompagnement & Transformation Accompagnement à la refonte des architectures data et des workflows de traitement Participation à la mise en œuvre des préconisations techniques et organisationnelles Contribution à l’évolution des standards de conception et d’exploitation des flux de données Accompagnement des équipes internes dans la montée en compétences et l’adoption des bonnes pratiques Clarification des usages et des responsabilités entre architectures ETL, échanges API et flux temps réel Le profil que nous recherchons : Minimum 8 ans d’expérience en Data Engineering / Architecture Data Excellente capacité d’analyse avec une vision transverse des architectures et des flux Expérience significative sur plusieurs environnements et solutions de traitement de données Solide expertise en conception, transformation et optimisation d’architectures data Bonne maîtrise des bases de données relationnelles et NoSQL (type MySQL, Cassandra) Bonne compréhension des mécanismes d’intégration via API et des enjeux d’urbanisation des flux La connaissance de NiFi constitue un plus Capacité à intervenir dans une posture de conseil avec vision stratégique, pédagogie et force de proposition Le process pour nous rejoindre : simple et clair ! Échange RH : On discute de vos motivations et de l’adéquation avec nos valeurs (promis, pas de robotisation ici). Entretien opérationnel : Un échange approfondi pour clarifier vos missions. Proposition d'embauche : Si tout colle, on vous accueille officiellement chez Artemys ! Rémunération : 40 000 - 45 000 € (Selon votre expertise) Sans négliger les avantages indispensables : Carte SWILE (Tickets Restaurant, transports et CE). Mutuelle Groupe, Participation Groupe. Accompagnement RH, suivi managérial de proximité (Méthode Agile) Événements entreprise : Afterworks, Tech Meetups, soirées d’intégration, events sportifs, soirées gaming… Bienvenue dans l’aventure ARTEMYS Chez nous, chaque talent compte. Peu importe votre âge, vos origines, votre identité, votre religion ou votre orientation : ce qui nous intéresse, c’est vous et ce que vous avez à apporter. On s’engage à répondre à toutes les candidatures. Et ici, l’inclusion n’est pas qu’un mot : tous nos postes sont ouverts aux personnes en situation de handicap, et on fait tout pour créer un environnement où chacun peut s’épanouir. Prêt, feu, candidatez !
Freelance

Mission freelance
Data Analyst – Data Quality / Gouvernance / Dataflows

CHOURAK CONSULTING
Publiée le
Apache Kafka
Dremio
ETL (Extract-transform-load)

3 mois
400-500 €
Île-de-France, France
Nous recherchons un Data Analyst pour intervenir sur un projet de rationalisation et optimisation des flux de données au sein d’un environnement Data structuré. 🎯 Contexte de la mission La mission vise à améliorer la qualité, la cohérence et la gouvernance des données , en simplifiant les structures existantes et en réduisant les redondances. Vous interviendrez sur l’analyse des dataflows transactionnels , des objets de données et de leur utilisation afin d’optimiser les échanges entre systèmes IT et métiers. ⚙️ Missions principales Analyser les flux de données , leur structure et leur utilisation. Identifier les données redondantes, incohérentes ou inutilisées . Proposer des optimisations et simplifications des dataflows. Mettre en place des indicateurs de qualité des données . Contribuer à la définition du cadre de gouvernance Data (règles, rôles, usages). Documenter les modèles de données, règles métiers et cas d’usage. Accompagner les équipes métiers dans l’exploitation des données. Participer aux routines de gouvernance et qualité Data . 📦 Livrables attendus Analyses détaillées des jeux de données transactionnels Identification des anomalies et recommandations d’optimisation Documentation des modèles de données et dataflows Mise en place de contrôles de qualité des données Support aux équipes métiers pour la mise en œuvre des améliorations 🛠 Compétences techniques Python (obligatoire) SQL (excellent niveau) Outils Data : Dremio, Strategy, Kafka (apprécié) Concepts ETL / traitement de données Modélisation de données (entités, attributs, UML) Expérience en migration / validation de données (plus)
CDD
CDI
Freelance

Offre d'emploi
DATA OPS DATAIKU DSS

R&S TELECOM
Publiée le
AWS Cloud
Azure
CI/CD

6 mois
Bordeaux, Nouvelle-Aquitaine
Objectifs de la mission Industrialiser les projets de Machine Learning développés sous Dataiku DSS Mettre en place une chaîne MLOps robuste, sécurisée et maintenable Garantir la fiabilité, la performance et la gouvernance des flux de données alimentant Dataiku Assurer le bon passage du POC à la production, puis l’exploitation dans le temps Contribuer à la diffusion des bonnes pratiques MLOps & DataOps au sein des équipes Data Périmètre d’intervention Projets Data Science & IA développés sous Dataiku DSS Chaînes MLOps (entraînement, déploiement, supervision des modèles) Connexion de Dataiku aux sources de données de l’entreprise Environnements DEV / TEST / PROD Livrables attendus Pipelines MLOps Dataiku industrialisés et documentés Modèles ML déployés et supervisés en production Connecteurs Dataiku vers les sources de données opérationnels Documentation d’exploitation MLOps & DataOps Recommandations de standardisation et d’amélioration continue Interactions Rattachement : Responsable de domaine SI Dataplatform et BI avec un détachement opérationnel dans l’équipe Data Science le temps du projet Partenaires clés : équipes IT (projets, devs, MCO), directions métiers (commerce, marketing, supply chain, finance), conformité et sécurité. Data Scientists, Data Engineers, Architectes Data / Cloud, équipes de la direction technique : Infrastructures, Production, Sécurité & Exploitation Compétences Dataiku DSS – niveau avancé (MLOps & DataOps) Expérience confirmée en industrialisation de modèles ML Python, SQL CI/CD, Git Très bonne compréhension des architectures Data Environnements Cloud (AWS / GCP / Azure) Sensibilité forte aux enjeux sécurité, RUN et exploitation
CDI
Freelance

Offre d'emploi
Architecte d'Intégration

VISIAN
Publiée le
API
Architecture
Data management

1 an
Paris, France
Contexte La mission consiste à concevoir et implémenter l’architecture d’intégration globale pour assurer la connectivité de manière cohérente entre les différentes solutions de l’écosystème (ERP, CRM, Data platform...). Cela passe par la définition et mise en œuvre de standards d’échange et le pilotage de la stratégie de flux, tout en garantissant l’agilité de l’écosystème lors des déploiements internationaux et des migrations pays. Missions Définition de la stratégie d'intégration s'appuyant sur un principe de couplages faibles et contrats d'interface forts Choix et mise en place des briques d'intégration Orchestration des flux métier Observabilité des flux Standardisation des APIs si nécessaire Mise en place de pratiques et outils AI-Driven Integration (automatiser des mappings de données, détection d'erreurs de flux...) Supervision et support lors des intégrations et migrations pays
CDI

Offre d'emploi
Responsable Data (H/F)

Link Consulting
Publiée le

45k-55k €
Toulouse, Occitanie
Notre client, groupe international multi‑entités, recherche son futur Responsable Data (H/F) pour son site de Toulouse, dans le cadre du renforcement de sa stratégie Data et de la structuration de sa gouvernance. Vos missions : Intégré à une organisation en construction, vous devrez : Décliner la stratégie Data du groupe et en assurer la mise en œuvre Structurer la gouvernance Data à l’échelle internationale Piloter les projets Data en lien avec les métiers et prestataires Coordonner les équipes internes et externes Identifier et prioriser les use cases à forte valeur Accompagner la montée en maturité data des différentes entités Animer les rituels Agile (sprints, backlog, priorisation) Conduire le changement dans un contexte en évolution Les compétences techniques Bonne maîtrise des environnements data modernes (Snowflake, Data Fabric, Talend, Power BI) Expérience en gouvernance Data et pilotage stratégique Connaissance des méthodologies Agile (Scrum, sprint 2 semaines) Capacité à évoluer dans des SI complexes et internationaux Un bon niveau d'anglais est requis pour l'animation des instances.
2006 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous