Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 5 800 résultats.
CDI

Offre d'emploi
Product Owner Senior / Product Manager F/H - Informatique de gestion (H/F)

█ █ █ █ █ █ █
Publiée le
Apache Kafka
Cucumber
DevOps

Levallois-Perret, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI

Offre d'emploi
Ingénieur Data Analyst Supply S&OP F/H - Système, réseaux, données (H/F)

█ █ █ █ █ █ █
Publiée le

Bourges, Centre-Val de Loire

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Data Engineer

Coriom Conseil
Publiée le
Google Cloud Platform (GCP)
Scripting
SQL

12 mois
400-490 €
Lille, Hauts-de-France
Le ou la Data Engineer sera intégré(e à l'équipe produit TOPASE NLS et aura pour principales missions de : µ ● Conception, Développement et Optimisation de Pipelines de Données sur GCP : ○ Concevoir, développer et maintenir des pipelines robustes et performants de collecte, transformation et chargement de données à partir de diverses sources (Oracle, fichiers, APIs, etc.) vers BigQuery et d'autres destinations. ○ Utiliser et orchestrer les services Google Cloud Platform (Dataflow, Dataproc, Cloud Composer/Airflow, Pub/Sub, Cloud Storage, BigQuery) pour construire des architectures de données scalables et fiables. ○ Assurer l'automatisation des traitements, la gestion des dépendances et l'ordonnancement des jobs de données. ○ Optimiser les performances des pipelines et la consommation des ressources GCP.
Freelance

Mission freelance
Tech Lead Customer Data Cloud

EBMC
Publiée le
SAP

6 mois
300-600 €
France
Dans le cadre d’un projet digital dans le secteur pharmaceutique, nous recherchons un Tech Lead spécialisé SAP Commerce Cloud afin d’accompagner une équipe projet sur des sujets de développement et d’évolution de la plateforme e-commerce. Le consultant interviendra en tant que référent technique sur le périmètre Commerce Cloud, avec pour mission de structurer les travaux, sécuriser les choix techniques et garantir la qualité des livrables. Il participera également à l’encadrement et à la montée en compétence de consultants, tout en contribuant activement aux activités de conception et de delivery.
CDI

Offre d'emploi
Product owner (Chef de produit informatique) F/H - Informatique de gestion (H/F)

█ █ █ █ █ █ █
Publiée le
JIRA
Microsoft Excel
Office 365

Marseille, Provence-Alpes-Côte d'Azur

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI
Freelance

Offre d'emploi
Interopérabilité : Ingénieur Intégration, Data & Cloud

1PACTEO
Publiée le
ETL (Extract-transform-load)
Google Cloud Platform (GCP)
Intégration

12 mois
44k-94k €
400-750 €
75000, Paris, Île-de-France
Dans le cadre de ses activités, notre client recherche un Ingénieur Intégration, Data & Cloud. L’ingénieur intervient sur la conception, le développement et l’exploitation de solutions d’intégration, de traitement de données et d’architectures cloud, dans un contexte orienté automatisation, data et DevOps. Il contribue directement à la mise en place de solutions d’interopérabilité entre systèmes hétérogènes (on-premise et cloud), en assurant la fiabilité, la fluidité et la sécurisation des échanges de données. Missions principales Intégration & Orchestration Développement et orchestration de flux d’intégration avec Magic xpi Automatisation des échanges de données entre systèmes (on premise ↔ cloud) dans une logique d’interopérabilité Intégration de services via APIs REST (authentification, appels sécurisés, transformation des données) Conception et orchestration de workflows d’intégration avec Application Integration (GCP) Cloud & Architecture (Google Cloud Platform) Conception et déploiement de solutions cloud sur Google Cloud Platform (GCP) Mise en place et gestion d’architectures data et d’intégration favorisant l’interopérabilité entre applications Gestion des environnements dev / recette / production Data Engineering & Analytics Modélisation de données et conception de pipelines ETL / ELT Traitement de volumes de données importants Optimisation de requêtes SQL avancées Analyse et data warehousing avec BigQuery Transformation et modélisation analytique avec dbt (staging, intermediate, marts, tests de qualité, documentation, versioning) ETL & Outils Data Conception et développement de flux ETL avec SQL Server Integration Services (SSIS) Automatisation des traitements d’intégration de données multi-sources Développement & Scripting Programmation Python SQL avancé Scripting et automatisation (batch processing, jobs automatisés) DevOps & CI/CD Mise en place et maintenance de pipelines CI/CD avec GitHub Automatisation des tests, builds et déploiements via GitHub Actions Gestion du versioning et des bonnes pratiques de développement Automatisation Low-Code Création de flux Power Automate (cloud et desktop) Utilisation de connecteurs et intégrations avec des systèmes tiers Méthodologies & Qualité Travail en méthodologie Agile / Scrum Application des bonnes pratiques de développement et de data engineering Contribution à la documentation technique et à l’amélioration continue
Freelance
CDI

Offre d'emploi
Data Analyst expert Kibana & Dashboard - Reporting

ARDEMIS PARTNERS
Publiée le
Bitbucket
CI/CD
Elasticsearch

3 mois
40k-45k €
400-500 €
Paris, France
Description détaillée Nous recherchons un Expert Kibana et analyse de données avec une maîtrise exceptionnelle de la création de dashboards de suivi de bout en bout. Le candidat idéal excellera dans la transformation des données collectées et indexées dans Elasticsearch en visualisations claires, pertinentes et actionnables. Ce rôle se concentre sur l'exploitation poussée des capacités de Kibana et des données brutes pour fournir une observabilité complète, sans nécessiter une expertise approfondie en administration d'infrastructure Elasticsearch. Responsabilités Clés : Concevoir, construire et maintenir des dashboards Kibana complexes et performants, permettant une visibilité de bout en bout sur les flux de données, les performances des applications et les processus métier. Exploiter pleinement les capacités avancées de Kibana pour la création de visualisations diversifiées, de contrôles interactifs, de vues agrégées et de fonctions de drilling pour faciliter l'exploration des données. Traduire les besoins métiers et techniques en solutions de reporting et de monitoring efficaces dans Kibana. Collaborer avec l'équipe en charge de l'infrastructure Elasticsearch pour optimiser les requêtes, les index patterns et les performances de Kibana. Analyser les données collectées via des outils tels que THEIA et Filebeat, et définir les stratégies de structuration via des outils comme Logcraft pour maximiser leur utilité dans Kibana. Utiliser et tirer parti des fonctionnalités de Machine Learning avancées de Kibana pour la détection d'anomalies, la prédiction et l'identification de tendances dans les données. Garantir la pertinence et la qualité des données présentées dans les dashboards. Élaborer et implémenter des stratégies de suivi des actions et fournir des reporting clairs et concis sur l'état des systèmes, les performances et les alertes identifiées. Compétences Techniques Requises : Expertise approfondie et prouvée de Kibana particulièrement dans la conception et l'implémentation de dashboards complexes et de reporting. Bonne compréhension du fonctionnement d'Elasticsearch pour optimiser l'utilisation des données et les requêtes depuis Kibana. Maîtrise des outils internes et de leur intégration dans la chaîne de données : THEIA, Filebeat, logstash. Connaissance approfondie des fonctionnalités de Machine Learning avancées de Kibana. Solide expérience en programmation Python, Ruby pour l'automatisation des tâches liées à l'analyse ou à la génération de données pour Kibana, et potentiellement le développement de scripts d'aide. Expérience avec les outils de CI/CD et la gestion de versions : Jenkins, Bitbucket. Connaissance des outils de déploiement et d'orchestration : Openshift. Familiarité avec les outils de gestion des déploiements et des releases : XLD/XLR. Livrables Définition du profil Mettre en oeuvre des outils informatiques, des techniques et des méthodes statistiques pour permettre d'organiser, synthétiser et traduire efficacement des données Fournir un appui analytique à la conduite d'exploration et à l'analyse complexe de données Créer des algorithmes de recherche de données qui permettent d'explorer les données utiles Procèder aussi à l'industrialisation du procédé pour les données les plus intéressantes. Et organiser, synthétise et traduit les informations pour faciliter la prise de décision. Gèrer les opérations et l'administration, la modélisation et l'architecture des gisements de données. Et s'assurer que les bases de données existantes fonctionnent bien et en cohérence Donner un sens aux données à l'aide de ses connaissances analytiques (SQL, analytics/BI, statistiques basiques) Travailler en collaboration avec le management pour résoudre des questions business en se focalisant sur l'analyse du passé
CDI

Offre d'emploi
Consultant décisionnel BI H/F

CONSORT GROUP
Publiée le
Jenkins

37k-42k €
Auvergne-Rhône-Alpes, France
Chaque moment compte. Surtout ceux que vous vivez à fond. Bienvenue chez Consort Group. Consort Group, accompagne depuis plus de 30 ans les entreprises dans la valorisation de leurs données et infrastructures. Elle s'appuie sur deux leaders, Consortis et Consortia, et place l’humain et la responsabilité sociétale au cœur de ses valeurs. Consultant décisionnel BI H/F C’est votre future équipe Fondée en 2012, l'agence Rhône-Alpes rassemble une équipe de 120 collaborateurs. Elle accompagne près d’une vingtaine de clients, allant des grands comptes aux ETI et PME. Elle s’appuie sur un Centre de Services spécialisé dans le stockage et la sauvegarde ainsi que sur un Centre d'Expertise en sécurité. L'agence accorde une importance particulière à un recrutement fondé sur l'humain et la transparence. C’est votre mission Vous êtes passionné·e par la Data et la valorisation des données ? Ce poste est fait pour vous. En tant que Consultant décisionnel BI, vous êtes responsable de la conception et de l’évolution des solutions de reporting ainsi que de la valorisation des données au sein de notre écosystème décisionnel : Vous intervenez dans un contexte applicatif mature (plus de 6 ans), actuellement en phase de refonte des dashboards afin d’améliorer l’expérience utilisateur et la pertinence des analyses. Vous évoluez au sein d’une équipe Agile d’une dizaine de personnes (Chef de projet / Scrum Master, PO, développeurs BI, DevOps, Lead Tech). Côté build : Recueillir, analyser et challenger les besoins fonctionnels et techniques des métiers Identifier et exploiter les sources de données pertinentes Concevoir et faire évoluer l’architecture décisionnelle Modéliser et enrichir les Datawarehouses et Datamarts Développer les processus d’intégration de données (ETL) Concevoir, améliorer et refondre des dashboards orientés utilisateurs Produire des rapports et tableaux de bord fiables, lisibles et performants Accompagner les métiers dans la compréhension et l’exploitation des données Côté run : Garantir la qualité, la performance et la fiabilité des livrables Tester et valider les développements (recette technique et fonctionnelle) Optimiser les performances des traitements et des dashboards Participer aux cérémonies Agile (daily, sprint planning, rétrospective…) Assurer le support aux utilisateurs et la prise en compte des retours métiers Maintenir et faire évoluer la documentation applicative Contribuer à l’amélioration continue de la plateforme décisionnelle C’est votre parcours Vous avez au moins 2 ans d’expérience dans des environnements Data exigeants. Vous aimez analyser, structurer et valoriser la donnée tout en restant proche des enjeux métiers. Vous cherchez un cadre où vos idées comptent et où la technique va de pair avec la collaboration. C’est votre expertise : Maîtrise des environnements BI : modélisation de données, ETL, reporting Solide expérience sur des outils de datavisualisation (Tableau et/ou Power BI) Bonne maîtrise des bases de données relationnelles (Oracle, PostgreSQL) Expérience sur Informatica ou équivalent Connaissances en langages de programmation (notamment Python – 2 ans minimum) Familiarité avec les outils DevOps et d’intégration continue (Git, Jenkins, Ansible) Connaissances en streaming de données (Kafka, RabbitMQ) appréciées Compréhension des architectures décisionnelles complexes Maîtrise des principes Agile C’est votre manière de faire équipe : Esprit d’analyse et de synthèse Autonomie et rigueur Force de proposition et capacité à challenger l’existant Excellent relationnel et sens du service Capacité à travailler en équipe Agile Adaptabilité et proactivité C’est notre engagement Chez Consort Group, vous êtes un·e expert·e qu’on accompagne pour que chaque mission devienne une étape qui compte. Un onboarding attentif et humain Une vraie proximité managériale Des formations accessibles en continu Des engagements concrets : inclusion, égalité, solidarité Un package RH complet : mutuelle, carte TR, CSE, prévoyance Une culture du feedback et des projets qui font sens C’est clair Le process de recrutement : Un premier échange téléphonique avec notre team recrutement Un entretien RH ainsi qu’un échange métier avec un.e ingénieur.e d’affaires Un test ou un échange technique avec un.e de nos expert.es Un dernier point avec votre futur.e manager ou responsable de mission Et si on se reconnaît : on démarre ensemble C’est bon à savoir Lieu : Lyon Contrat : CDI Télétravail : Hybride Salaire : De 37000 € à 42000 € (selon expérience) brut annuel Famille métier : Data Ce que vous ferez ici, vous ne le ferez nulle part ailleurs. Ce moment, c’est le vôtre.
Freelance
CDI

Offre d'emploi
Consultant(e) Data confirmé(e), expert(e) QlikView et Qlik Sense (F/H)

Argain Consulting Innovation
Publiée le
ETL (Extract-transform-load)
Informatica PowerCenter
Qlik Sense

120 jours
38k-44k €
400-550 €
Niort, Nouvelle-Aquitaine
Nous recherchons un(e) Consultant Data confirmé(e) , expert(e) QlikView et Qlik Sense (F/H) Vous interviendrez : Chez les clients, selon le cadre et les objectifs définis afin de : Analyser des besoins métiers Concevoir et développer de dashboards QlikView / Qlik Sense Scripting avancé & modélisation de données Intégrer & automatiser des flux sous Informatica Requêtage et optimisation SQL (Oracle) Tests, recettes, mise en production Accompagnement et support des utilisateurs Au sein du cabinet : Contribuer au développement du cabinet (développement commercial, optimisation des processus internes, formation et mentorat), Participer à des projets internes relatifs à nos activités évènements, QVT, RSE, Mener et réaliser des projets associatifs (mécénat auprès de nos associations partenaires)
CDI

Offre d'emploi
Product Owner - éditeur de logiciels F/H - Informatique de gestion (H/F)

█ █ █ █ █ █ █
Publiée le
Scrum

Avignon, Provence-Alpes-Côte d'Azur

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Cloud Automation & Data Engineering

ROCKET TALENTS
Publiée le
AWS Cloud
CI/CD
Data governance

1 an
360-400 €
La Ciotat, Provence-Alpes-Côte d'Azur
Cloud Automation & Data Engineering Contexte général Pour le compte d’un grand groupe industriel international nous recherchons un profil Cloud Automation & Data Engineer afin d’intervenir sur des environnements cloud AWS à forte composante automatisation, DevSecOps et data platforms . La mission s’inscrit dans un contexte de modernisation des plateformes cloud et data , avec des exigences élevées en matière de sécurité, gouvernance et industrialisation . Objectifs de la mission Automatiser et fiabiliser les infrastructures cloud et les services data Industrialiser les déploiements applicatifs et data via des pratiques DevSecOps Concevoir et maintenir des plateformes cloud et data scalables, sécurisées et conformes Accompagner les équipes projets sur les bonnes pratiques cloud & data engineering Responsabilités principales 1. Automatisation des infrastructures cloud Conception et mise en œuvre d’infrastructures cloud as code (Terraform) Automatisation du provisioning et du cycle de vie des ressources cloud AWS Optimisation des environnements cloud (scalabilité, disponibilité, performance) Automatisation des services data AWS (S3, Glue, Kinesis, etc.) Industrialisation et supervision des pipelines data 2. DevSecOps & CI/CD Mise en place et amélioration de pipelines CI/CD Intégration des contrôles de sécurité dans les chaînes de déploiement Automatisation des tests, validations de données, contrôles de qualité et schémas Utilisation d’outils type GitLab, GitHub, Jenkins 3. Platform Engineering & Data Platforms Conception de plateformes applicatives cloud (microservices, serverless, conteneurs) Contribution à des frameworks et outils internes de platform engineering Conception et maintien de composants data : data lake, ingestion, événements Mise en œuvre d’architectures orientées événements et données (Lambda, Kinesis, etc.) 4. Sécurité & conformité cloud/data Implémentation des mécanismes de sécurité (IAM, KMS, chiffrement, contrôle d’accès) Application des politiques de gouvernance et conformité cloud Gestion de la gouvernance data : catalogage, classification, traçabilité, accès Mise en place de politiques de rétention, audit et monitoring des données sensibles 5. Collaboration & expertise Travail en étroite collaboration avec des équipes pluridisciplinaires (DevOps, architectes, sécurité, data) Partage de bonnes pratiques et accompagnement technique Veille technologique et recommandations sur les évolutions cloud & data Formation et mentoring sur les services data AWS et les modèles d’automatisation Compétences attendues Techniques Expertise AWS (infrastructure et services data) Infrastructure as Code : Terraform DevSecOps & CI/CD Conteneurisation et orchestration (Docker, Kubernetes) Architectures serverless et microservices Scripting et développement : Python, Bash, SQL Data engineering : ETL/ELT, data modeling, data lifecycle Gouvernance et qualité de la donnée Connaissance de Snowflake appréciée Transverses Bonne capacité d’analyse et de résolution de problèmes Autonomie et sens de l’industrialisation Bon relationnel et capacité à travailler en environnement complexe Approche pragmatique entre contraintes opérationnelles et ambitions techniques
Freelance

Mission freelance
Architecte Power BI / Data Engineer Senior – Expert Advisory (H/F)

HOXTON PARTNERS
Publiée le
Microsoft Power BI
Powershell

4 jours
Paris, France
Dans le cadre de plusieurs sujets techniques autour de Power BI, nous recherchons un Architecte Power BI / Data Engineer senior pour intervenir sur des problématiques à forte complexité technique. La mission consiste à apporter une expertise de haut niveau sur des sujets avancés tels que l’analyse et la documentation des API Admin V2 Power BI, l’identification des applications ne utilisant pas les fonctionnalités de gestion d’accès (Custom Message), l’expertise sur les capacités Power BI en mode Pay-As-You-Go, ainsi que l’analyse et la configuration des environnements Gateway (PowerShell, VMNET, réseau). Le consultant interviendra en tant qu’expert afin d’apporter des recommandations d’architecture, résoudre des problématiques complexes et accompagner les équipes sur des sujets techniques critiques. L’intervention se fera sous forme de sessions d’expertise ponctuelles de 2 à 4 heures.
Freelance

Mission freelance
Tech Lead Data GCP Expert F/H

SMARTPOINT
Publiée le
Apache Kafka
CI/CD
Docker

12 mois
550-600 €
La Défense, Île-de-France
Missions principales : • Participer aux analyses, études d’impacts et cadrage techniques • Concevoir des solutions en respectant l’architecture data et les bonnes pratiques de développement • Réaliser le développement des data products et assurer la maintenance évolutive et corrective des data products existants • Effectuer des contrôles croisés entre développeurs ou des relectures de code afin d’assurer la qualité des développements réalisés par l’équipe • Rédiger la documentation technique des data products • Apporter une expertise de troisième niveau dans les incidents de production, et si besoin la réalisation de solution de contournements, ou de correctifs de manière à assurer une qualité de fonctionnement optimale • Accompagner les Data Engineers sur les bonnes pratiques, les choix d’architecture et dans leur travail au quotidien • Effectuer les audits et les contrôles des développements réalisés : Sécurité, Maintenabilité, Robustesse et Performance • Reporter l’activité à la Squad et travailler dans une démarche d’efficacité collective Livrables principaux : • Etudes d’impact technique • Faire des propositions techniques • Réaliser du code applicatif à l’état de l’art sur notre Data Platform GCP • Rédiger les documentations techniques liés à ta solution, incluant le modèle de données, les procédures, l’ordonnancements • Schéma de solution des flux, modèle de données • Fournir des chiffrages détaillés des futures réalisations • Relecture de code technique • Rédaction de SFD, STD, Manuel d’installation Compétences techniques : • Langages de programmation : Python, SQL, Scripts Shell • Services de streaming data : Kafka • Services d’ingestion des données : Kafka Connect, SFTP • Services de stockage : GCP BigQuery, Cloud Storage, Kafka, Sharepoint • Processing : Scripts Python, Data Build Tool (DBT), GCP Dataflow • Restitution : Looker (Dashboards, Explores de données), Fichiers de reporting (CSV, Excel) • Outils de collaboration et de CI/CD : GitLab • Utilisation de plateformes pour le développement et le déploiement : Docker, Kubernetes, Kustomize, Helm Charts, Terraform • Testing : Tests avec DBT, Tests de non-régression, collaboration avec la QA. • Outils IA et d’automatisation : Gemini Code Assist, Antigravity, n8n, Gitlab Duo • Manipulation des formats de fichiers : CSV, JSON, Avro, XML Compétences transverses : • Proactivité et prise d’initiative • Autonomie et rigueur • Capacité à communiquer, à travailler en équipe et excellent relationnel • Capacité d’adaptation aux changements • Curiosité, veille technologie sur le data engineering et sur l’AI / ML • Capacité à aborder des problèmes complexes de manière structurée • Aptitude à concevoir des solutions innovantes • Capacité d’écoute, d’analyse et de synthèse • Maitrise de l’agilité Une pratique opérationnelle de l’anglais est également nécessaire pour la rédaction de la documentation et la participation à certaines cérémonies. Une expérience similaire significative dans le domaine de la banque de détail est un plus.
Freelance

Mission freelance
Senior Data Product Manager/ Data Mesh/ Cloud AWS & AZURE / Anglais (H/F)

Octopus Group
Publiée le
BI
Dataiku
Finance

6 mois
550-680 €
La Défense, Île-de-France
Nous recherchons pour le compte de notre client grand-compte en finance, Senior Data Product Manager Contexte de la mission : Il s'agit d'un poste à la fois stratégique et hautement opérationnel, chargé de la mise en œuvre concrète et du déploiement de la plateforme de données en libre-service du Groupe, fondée sur les principes du Data Mesh. Le Senior Data Product Manager est responsable de la mise en œuvre pratique, de l'industrialisation et de l'adoption à l'échelle de l'entreprise de la plateforme dans l'ensemble des domaines d'activité. Ce poste requiert un profil orienté vers la construction et l'exécution, capable de définir la vision et de la traduire en une plateforme évolutive, de qualité production et utilisable à grande échelle. Mission Principale : Concevoir, construire, déployer et exploiter la plateforme Data Mesh du Groupe (appelée Group Data Platform - GDP) en tant que produit interne, en garantissant sa mise en œuvre technique, son adoption par l'entreprise, l'excellence opérationnelle et l'amélioration continue. Gestion de produit (axée sur l'utilisation) et amélioration continue Responsabilités : Identifier les besoins des utilisateurs et les exigences de la plateforme Définir la vision du produit et la feuille de route Mesurer l'utilisation et la création de valeur Améliorer l'expérience des développeurs et des utilisateurs Résultats attendus : Vision du produit et proposition de valeur Indicateurs clés de performance (KPI) de la plateforme et mesures d'adoption Boucles de retour d'information des utilisateurs et liste des améliorations à apporter Feuille de route pour l'amélioration de la plateforme Fourniture de la plateforme (responsabilité principale) Responsabilités : Définir les capacités de la plateforme (produits de données, pipelines, gouvernance, observabilité, accès en libre-service) Définir et faire respecter les normes techniques et les modèles d'architecture Prendre des décisions techniques concrètes et valider les solutions Livrables attendus : Comptes rendus des décisions d'architecture (ADR) Modèles d'architecture de référence et gabarits réutilisables Feuille de route des capacités de la plateforme Normes techniques de la plateforme Architecture et infrastructure cloud Responsabilités : Coordonner la conception et l'exploitation de l'architecture cloud et hybride en collaboration avec l'architecte de données du groupe Coordonner avec l'équipe de mise à disposition des données du groupe la mise en œuvre sur Amazon Web Services et Microsoft Azure Diriger l'intégration des systèmes sur site Veiller au respect des exigences en matière de sécurité et de conformité Résultats attendus : Plan directeur de l'architecture cloud (avec l'aide de l'architecte de données du groupe) Cadre de sécurité et de gestion des accès Gestion de la livraison et de l'exécution Responsabilités : Gérer le cycle de vie de la livraison de la plateforme Définir le backlog et le processus de hiérarchisation des priorités Gérer les versions et le déploiement en production Suivre les performances et la fiabilité Gérer les risques et les problèmes techniques Livrables attendus : Feuille de route de la plateforme (court / moyen / long terme) Backlog produit et cadre de priorisation Plan de lancement et processus de gestion des versions Tableaux de bord de suivi des livraisons SLA de la plateforme / indicateurs de fiabilité Déploiement et adoption par les domaines métier Responsabilités : Déployer la plateforme dans l'ensemble des domaines métier Permettre aux équipes métier de créer des produits de données Mettre en œuvre le modèle opérationnel Data Mesh Accompagner l'intégration et l'adoption Résoudre les difficultés opérationnelles liées à l'adoption Résultats attendus : Cadre et processus d'intégration des domaines métier Directives relatives au cycle de vie des produits de données Guides de mise en œuvre pour les domaines métier Indicateurs d'adoption et d'utilisation Supports de formation et documentation d'intégration Documentation, normalisation et gouvernance Responsabilités : Documenter les capacités et les processus de la plateforme Veiller au respect de la gouvernance fédérée des données computationnelles du groupe Résultats attendus : Référentiel de documentation de la plateforme Normes techniques et directives de mise en œuvre Cadre de gouvernance et de conformité Guides des meilleures pratiques Communication opérationnelle et rapports à la direction Responsabilités : Communiquer sur l'avancement et l'impact de la plateforme Fournir des rapports destinés à la direction Assurer la coordination entre les parties prenantes Livrables attendus : Tableau de bord du projet destiné à la direction Tableaux de bord sur les performances de la plateforme Présentations au comité de pilotage Suivi des décisions, des risques et des problèmes Promotion interne et évangélisation Responsabilités : Promouvoir la valeur de la plateforme au sein de l'organisation Soutenir les initiatives d'adoption en interne Développer la communauté autour de la plateforme Livrables attendus : Supports de communication internes relatifs à la plateforme Stratégie d'adoption et plan de déploiement Démonstrations de la plateforme et recueil de cas d'utilisation
Freelance

Mission freelance
QA Lead

Byrongroup
Publiée le
Data quality
ERP
KPI

1 an
400-500 €
Île-de-France, France
🎯 Vos missions : • Recueil et formalisation des besoins de test • Challenger pour anticiper les risques qualité • Pilotage des activités de tests : planifier, coordonner et exécuter les campagnes de tests (UAT, E2E...) • Concevoir et maintenir les référentiels de test (plans de test, cas de test, matrices de couverture) • Prioriser les scénarios • Définir les stratégies de validation de la qualité des données • Identifier et analyser les anomalies de données • Collaborer avec les équipes techniques pour la correction des écarts • Vérifier la fiabilité des échanges de données • Pilotage de la qualité et reporting
Freelance
CDI

Offre d'emploi
Chef de Projet IT Data Confirmé

Gentis Recruitment SAS
Publiée le
Data governance
Data management
Gestion de projet

12 mois
Paris, France
Contexte de la mission Dans le cadre d’un programme international de déploiement de Data Products au sein d’une entité majeure du secteur de l’énergie, nous recherchons un Chef de Projet IT confirmé . La mission porte sur la coordination du déploiement mondial de 3 à 4 solutions data couvrant notamment : Gestion des données fondamentales Données de production (éolien, solaire) Données de marché Les déploiements concerneront plusieurs pays : UK, US, Italie, Espagne. Objectifs de la mission Définir le planning d’adoption multi-pays Coordonner les chefs de projets produits Piloter une équipe transverse de 3 à 4 personnes Assurer reporting, gestion des risques et suivi budgétaire Garantir le respect qualité / coûts / délais Responsabilités principalesPilotage projet Planification et suivi opérationnel Coordination internationale Gestion des dépendances techniques Animation des comités de pilotage Gouvernance & Data Interaction avec Data Owners, Data Stewards, Data Custodians Compréhension des enjeux de data management Gestion des risques IT et SLA Déploiement Coordination des mises en production Organisation du support et maintenance Accompagnement des utilisateurs

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

5800 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous