L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 561 résultats.
Mission freelance
Chef de Projet Technique RUN & Gestion de Projet
Publiée le
Gestion de projet
Google Cloud Platform (GCP)
Linux
3 ans
100-430 €
Lille, Hauts-de-France
Télétravail partiel
Responsabilités Gestion de projet (70%) Pilotage des projets techniques liés aux systèmes magasins. Coordination avec les équipes internes et externes. Suivi des livrables, planning et reporting. RUN / Support technique (30% à 50%) Traitement des incidents magasins (environnement retail). Analyse et résolution des problèmes techniques côté Linux/Windows. Interaction avec les équipes pour escalade et communication claire. Compétences techniques obligatoires Chefferie de projet technique (capacité à rentrer dans le détail technique). Expérience en traitement d’incidents magasins (retail fortement apprécié). Systèmes : Linux (maîtrise), Windows. Cloud : GCP (Google Cloud Platform), notions d’Azure. Outils Unix . Puppet (automatisation). Stack Linux (forte expertise). Soft Skills & Personnalité Proactivité : capacité à prendre des décisions et trouver des solutions. Communication : savoir interagir avec les équipes, prendre du recul. Souplesse : profil polyvalent, à l’aise pour toucher à tout. Posture : leadership technique sans rigidité (profil trop « banque/assurance » à éviter). Esprit d’équipe : collaboratif, pas isolé.
Offre d'emploi
Data Engineer Python/DBT
Publiée le
Databricks
45k-50k €
Occitanie, France
Télétravail partiel
Ton quotidien chez Komeet sera rythmé par : Animation des ateliers afin d’étudier et cadrer les besoins clients Préconisation, conception et mise en œuvre des plateformes Data (datawarehouse, datalake/lakehouse ) Rédaction de dossiers d’architecture et spécifications techniques Mise en œuvre des stratégies d’exploitation de plateformes Data Construction et déploiement des pipelines de données (ETL / ELT) à l’aide de langage de programmation ou d’outils de type Low-Code Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. Tests, validation et documentation des développements Réalisation d'audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP
Offre d'emploi
Data Engineer Databricks - Paris
Publiée le
AWS Cloud
Azure
Databricks
50k-60k €
Paris, France
Télétravail partiel
Ton quotidien chez Komeet sera rythmé par : - Animation des ateliers afin d’étudier et cadrer les besoins clients. - Analyser, conseiller, et faire des recommandations de façon à améliorer l’efficience et l’efficacité de la solution Databricks chez ton client. - Préconisation, conception et mise en œuvre du LakeHouse Databricks - Rédaction de dossiers d’architecture et spécifications techniques - Mise en œuvre des stratégies d’exploitation de la plateforme Databricks - Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. - Tests, validation et documentation des développements - Réalisation d’audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP
Offre d'emploi
Développeur Java 21//Python//GCP
Publiée le
API
Google Cloud Platform (GCP)
Python
3 ans
40k-45k €
400 €
Boulogne-Billancourt, Île-de-France
Télétravail partiel
Nous recherchons un Expert Back-End pour intervenir sur un projet à fortes contraintes techniques. Vous développerez des services critiques en Java 21 , contribuerez à des modules en Python 3+ , concevrez des API REST sécurisées et intégrerez des mécanismes OpenID Connect / OAuth2 . Vous participerez activement aux rituels Agiles et aux pratiques collaboratives (pair/mob programming, code review). Compétences attendues Expertise Java 21 (7 ans min.) Python 3+ (2 ans min.) API REST, OpenID Connect, OAuth2 Design Patterns & bonnes pratiques SQL, PostgreSQL, MongoDB Git, méthodologies Agiles (SAFe) Pair/Mob Programming, Code Review Anglais technique Cloud GCP
Mission freelance
INGENIEUR DATA BI EXPERIMENTE
Publiée le
BI
24 mois
250-500 €
Paris, France
Télétravail partiel
Nous recherchons un(e) ingénieur Data BI expérimenté Contexte Au sein d'une Data Factory nous recherchons à renforcer notre équipe avec un Data Engineer expérimenté, une expérience dans le secteur du e-commerce serait apprécié. La Data Factory de notre client joue un rôle central dans l'exploitation et l'optimisation des données pour soutenir les différentes initiatives stratégiques de l'entreprise. Elle se concentre sur la création d'une infrastructure de données robuste, la mise en place de pipelines de données fiables, et l'exploitation de données pour générer des insights à forte valeur ajoutée pour les équipes. Description • Participe à l'analyse du besoin avec la supervision du binôme PO/TechLead et à la conception du modèle de données permettant de répondre aux enjeux. • Utilise l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets • Conçois, développe et maintien les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. • Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale • Identifie et résout les goulots d'étranglement et les problèmes de performances dans les flux de données • Met en place des processus et des contrôles pour garantir la qualité des données • Conçoit et met en œuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. • Réalise la recette technique et participe à animer la recette fonctionnelle avec les utilisateurs et le PO • Rédaction des documents associés au projet (Spécifications Techniques, Cahier de recette Technique, Document d'exploitation) • Être force de proposition sur l'amélioration de la stack Data • Faire le reporting d'avancement des travaux • Support au déploiement • Assure la maintenance corrective ou évolutive • S'assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe Livrables Spécifications Techniques, Cahier de recette Technique, Document d'exploitation Reporting d'avancement des travaux Programme développés
Mission freelance
Ingénieur étude décisionnel Datastage / Power BI
Publiée le
Advanced Design System (ADS)
IBM DataStage
Scrum
18 mois
100-400 €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Contexte du besoin le client dans le cadre de son activité Décisionnel, recherche un profil en développement Datastage / Power BI afin d'intégrer l'équipe développement Expérimenté (profil ayant une expérience de 3 à 7 ans dans la même famille de prestations, sur justification des références clients) renforcement de l'équipe de développement avec l'intégration d'une resource maitisant la partie alimentation (ods, dwh, datamart) et la partie restitution avec l'outil Power BI, . Fort de ses expériences techniques sur cette technologie, le prestataire devra également montrer ses connaissance des méthodes Agiles (plus particulierent SCRUM ) MISSIONS Rattaché au responsable développement du SI Décisionnel, l'intervenant aura pour principales missions : - Développement de programme dataware, datamart (Datastage et SQL) - Développement de dataset, dataflow et rapports sous l' outil Power BI - Test unitaire et livraison - Respect des normes et bonnes pratiques au sein du SID - Prise en compte d'anomalie, d'évolution en lien avec le BE et la qualification - Optimisation de requêtes SQL Technologie ou les certifications attendues : POWER BI dans un environnement Datastage Teradata, et PostgreSQL Définition des prestations attendues : Prestation de développement en coordination avec équipe BE , qualification et scrum master Environnement technique - technologique "ETL/ELT/Traitement : Datastage/SQL Restitution : PowerBI (dataset, dataflow, rapports) Stockage : Teradata, PostgreSQL" Compétences techniques Connaissance d'ETL/ELT décisionnel : DATASTAGE plus particulièrement Requêtage SQL Développement de restitution Décisionnel POWER BI (Dataset, dataflow, rapports) Méthode SCRUM & Manipulation d’un gestionnaire de ticketing (type JIRA) Compétence métiers Expérience dans l'écosystème de la protection sociale Retraite Complémentaire des salariés du privé idéalement
Mission freelance
Expert SharePoint N3
Publiée le
Microsoft Power BI
Power Apps
Power Automate
2 ans
450-600 €
Paris, France
Télétravail partiel
Nous recherchons un Ingénieur SharePoint N3 pour intervenir en tant qu’ expert référent sur les environnements SharePoint On-Premise et SharePoint Online (Microsoft 365) . Vous jouerez un rôle clé dans la stabilité, la performance et la sécurité de la plateforme collaborative, tout en accompagnant les projets de migration, d’évolution et d’optimisation . 🎯 Vos missions principales : Assurer le support de niveau 3 sur SharePoint On-Premise et SharePoint Online. Garantir la disponibilité, la performance et la sécurité de la plateforme. Gérer les incidents complexes , conduire les analyses de causes racines (GDI / GDP) et proposer des plans de remédiation. Administrer le tenant Microsoft 365 : droits, sites, bibliothèques, flux et gouvernance. Accompagner les projets de migration et d’évolution de l’environnement collaboratif. Mettre en œuvre une démarche d’ amélioration continue des usages et de l’architecture.
Mission freelance
Program Manager
Publiée le
Big Data
Cloud
Data management
1 an
Lille, Hauts-de-France
Télétravail partiel
Compétences techniques marketing - Expert - Impératif Product management - Expert - Impératif Connaissances linguistiques Anglais Professionnel (Impératif) Responsabilités Principales 1. Stratégie de Contenu et d'Audience Identification et Cartographie des Personas : En collaboration avec le Product et l’UX, aider à définir et documenter les différents clients/utilisateurs de la plateforme (Développeurs, Product Owners, Data Engineer, Leaders PTF et BU, etc.) et leurs besoins spécifiques en information (y compris en situation de crise). Audit et Structuration du Contenu Existant : Analyser les supports actuels et recommander une architecture de contenu logique et unifiée pour améliorer l'accessibilité et la clarté. Définition des Messages Clés : Traduire les fonctionnalités et les avantages de la plateforme en messages clairs, orientés bénéfices pour chaque persona. 2. Création et Gestion du Contenu Produit Production de Contenu Ciblé : Élaborer des supports structurés et didactiques pour l'adoption et la compréhension des produits et services de la plateforme. Cela inclut, sans s'y limiter : Fiches Produit/Service détaillées (pour les équipes Product Management). Guides d'Utilisation et tutoriels (pour les utilisateurs). Notes de version ( Release Notes ) et FAQ claires. Contenu pour l'onboarding des nouveaux services. Optimisation des Canaux de Contenu : Gérer et optimiser les plateformes et outils de partage de contenu pour s'assurer que le contenu arrive aux bonnes personnes au bon moment. Mesure de l'Impact : Suivre les indicateurs clés (fréquence de consultation, feedback utilisateur, taux d'adoption) pour évaluer l'efficacité des contenus et itérer. 3. Contribution à l'Amélioration de l'Expérience Utilisateur Boucle de Feedback : Mettre en place des mécanismes pour recueillir le feedback des personas sur le contenu et les services afin d'alimenter les équipes Product Management. Aide à la l’animation du collectif de nos utilisateurs. Appui aux Événements d'Engagement : Aider à structurer les sessions d'information (ateliers, showcases, démos) en s'assurant que le contenu présenté est pertinent et adapté à l'audience. 4. Alignement Coordination avec la Communication Groupe : S'assurer que le contenu produit est en accord avec la charte éditoriale et graphique du groupe (utilisation des logos, des templates, etc.) tout en restant focalisé sur le contenu technique et l'adoption produit de la plateforme. Compétences Requises : Compréhension Technique et Pédagogie : Capacité avérée à décortiquer des sujets complexes (Data, Cloud, API, développement) et à les simplifier. Capacité d'Analyse et de Synthétisation : Aisance pour identifier les besoins d'information d'une audience (persona) et structurer un contenu en conséquence. Maîtrise de la Rédaction et des Outils de Contenu : Excellent niveau rédactionnel (précision, concision). Connaissance des outils de documentation et de gestion de contenu.
Mission freelance
Data Analyst Ms Power BI / DataFlows– Montpellier
Publiée le
AWS Cloud
AWS Glue
Data analysis
12 mois
400-530 €
Montpellier, Occitanie
Télétravail partiel
Contexte : Le secteur de l’énergie renouvelable, notamment l’éolien et le solaire, connaît une croissance rapide et nécessite une exploitation optimale des données pour piloter les activités, assurer la qualité des installations et suivre la performance énergétique. Dans ce contexte, nous recherchons un Data Analyst Power BI confirmé pour renforcer les équipes Data et contribuer à la transformation digitale et analytique de l’entreprise. Mission principale : Le Data Analyst Power BI aura pour objectif de maintenir, améliorer et développer les tableaux de bord métiers critiques , tout en garantissant la qualité et la fiabilité des données . Ses missions incluent : Assurer le maintien en condition opérationnelle (MCO) des tableaux existants. Concevoir et déployer de nouveaux tableaux Power BI adaptés aux besoins métiers. Détecter, analyser et corriger les anomalies de données , et sensibiliser les métiers à la qualité des données. Documenter les évolutions, anomalies et retours métiers. Collaborer avec les équipes métiers et techniques (AWS, Dataiku, Power Platform…) pour assurer la cohérence et la performance des tableaux de bord.
Mission freelance
Consultant PowerBI & Snowflake
Publiée le
Microsoft Power BI
Snowflake
3 mois
Paris, France
Télétravail partiel
Contexte Au sein de l’équipe Data, le Développeur Power BI Confirmé conçoit et maintient des solutions décisionnelles performantes basées sur Power BI et Snowflake , au service des équipes métiers. Missions Développer des rapports et tableaux de bord sous Power BI Concevoir des modèles de données optimisés Exploiter et optimiser les données issues de Snowflake (SQL) Garantir la performance, la qualité et la sécurité des rapports Collaborer avec les équipes métiers et data Être force de proposition sur les choix techniques et les axes d’amélioration
Mission freelance
Chef de Projet Infrastructure
Publiée le
Google Cloud Platform (GCP)
Infrastructure
Linux
3 mois
Lille, Hauts-de-France
Télétravail partiel
Infrastructure – Déploiement EDR CrowdStrike La cybersécurité vous passionne et vous excellez dans la gestion de projets techniques d’envergure ? Rejoignez-nous en tant que Chef de Projet Technique Sénior Infrastructure pour orchestrer le déploiement de la solution EDR CrowdStrike sur l’ensemble de notre parc de serveurs. Ce projet stratégique, actuellement en phase de déploiement, vise à renforcer la sécurité de nos infrastructures hybrides (on-premise et cloud) et requiert un leadership technique ainsi qu’une autonomie exemplaires de la part du chef de projet. Contexte Dans un contexte de renforcement de la cybersécurité de l’entreprise, nous déployons la solution d’Endpoint Detection & Response (EDR) CrowdStrike sur l’ensemble de nos serveurs. L’environnement technique comprend des serveurs Windows et Unix/Linux répartis entre un datacenter on-premise et le cloud Google Cloud Platform (GCP) . Le projet, actuellement en phase de déploiement, est international , impliquant des entités basées dans plusieurs régions du globe. Le chef de projet devra à la fois être opérationnel ("doer") pour assurer la mise en place technique standard (configuration de la console EDR, rédaction et test de scripts PowerShell/Bash), et coordinateur ("faire faire") pour piloter les responsables des différents streams techniques (serveurs Windows, Linux, caisses, etc.) dans le déploiement de leurs agents. Missions principales En tant que Chef de Projet Technique Sénior en charge de ce programme, vos responsabilités incluront : Pilotage du projet EDR : assurer le déploiement de la solution CrowdStrike sur l’ensemble des serveurs de l’entreprise, à l’échelle internationale. Opérationnel technique : assurer la configuration standard de la console CrowdStrike, la création et l’exécution de scripts PowerShell et Bash pour l’automatisation du déploiement. Animation des streams leaders : animer et challenger les responsables des différents domaines techniques (serveurs Linux, Windows, caisses, workstations) pour s’assurer de la bonne exécution du déploiement : respect du planning, traitement des problèmes techniques, conformité avec les processus internes. Coordination transverse : garantir l’alignement entre les parties prenantes internes (Infrastructure, Sécurité, Réseau, etc.) sur les objectifs et priorités du projet. Gestion des risques et planning : identifier les risques et dépendances, ajuster le planning en fonction des contraintes locales ou techniques, et s’assurer de la tenue des jalons. Suivi et reporting : assurer un reporting clair et fréquent vers les sponsors et parties prenantes, avec animation des comités de pilotage et partage des indicateurs clés.
Offre d'emploi
Data analyst confirmé marketing client
Publiée le
PowerBI
SQL
12 mois
40k-45k €
350-400 €
Lille, Hauts-de-France
Télétravail partiel
Contexte de la mission : Dans le cadre du renforcement de notre département IT Data, nous recherchons un(e) Data Analyst Confirmé(e) pour accompagner les équipes Marketing, CRM et Digital dans l'exploitation et l'analyse des données clients. L'objectif : améliorer la connaissance client, affiner la segmentation, et optimiser les actions marketing grâce à une analyse fine des comportements et parcours clients. Activités et responsabilités de la mission - Analyser les données clients pour identifier des comportements, profils et tendances de consommation. - Construire et maintenir des segmentation clients pertinentes (RFM, appétence, valeur client, cycle de vie.). - Réaliser des analyses ad hoc pour répondre aux besoins des équipes Marketing, CRM, Digital, Produit. - Mettre en place des tableaux de bord Power BI pour suivre les KPIs liés à l'acquisition, l'activation, la fidélisation, et la rétention client. - Collaborer avec les équipes Data Engineering pour la préparation et modélisation des données dans l'environnement Snowflake. - Identifier des opportunités business via des analyses prédictives ou des insights data-driven. - Contribuer à la qualité et cohérence des données clients, en lien avec les équipes IT et Data Governance. Résultats attendus - Mise en place de profils clients exploitables par les équipes métier. - Amélioration de la performance des campagnes marketing grâce à une segmentation plus fine. - Accroissement de la connaissance client et des insights comportementaux. - Mise en place de tableaux de bord dynamiques et accessibles, facilitant la prise de décision. Démarrage : rapide Localisation : métropolie lilloise (1j de télétravail par semaine non négociable)
Offre d'emploi
Data engineer (H/F)
Publiée le
35k-40k €
Lille, Hauts-de-France
Télétravail partiel
Vos missions ? Intégré(e) à nos équipes ou chez nos clients, vous contribuez à développer et valoriser l'ensemble des données en résolvant des problématiques business concrètes via les technologies liées à la Data A ce titre, vos missions seront les suivantes : - Concevoir et mettre en place des architectures de données en choisissant les technologies adaptées aux besoins. - Gestion des bases de données en garantissant la performance et la scalabilité des solutions de stockage. - Analyser et explorer les données avec les différents outils. - Mettre en place des tableaux de bord avec Power BI ou Tableau en exploitant les données transformées via Talend. - Interagir avec les équipes métier pour comprendre et les besoins. - Utiliser TALEND pour extraire des données depuis plusieurs sources (SQL, API, Excel ...). - Automatiser les processus ETL pour centraliser les données dans un Data Wrehouse (Snowflake). - Participation aux projets IA. Compétences requises : • ETL: Talend • Analyse de données (PowerBI, Tableau) • Base de données (SQL, GCP) • Langages: Python, SQL
Mission freelance
Data Manager / Data Quality Lead H/F
Publiée le
Data governance
6 mois
450-580 €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
Notre client dans le secteur Santé et pharma recherche un/une Data Manager / Data Quality Lead H/F Description de la mission: Contexte & Mission L’entreprise renforce son organisation Data afin de délivrer des produits data fiables et de confiance à l’échelle du Groupe. Au sein de la Data Product Squad , l’entreprise recherche un(e) Data Manager / Data Quality Lead expérimenté(e) pour lancer et structurer le chantier Data Quality , identifié comme un point de douleur majeur et une priorité stratégique . L’objectif principal de cette mission est de construire, piloter et opérationnaliser la Data Quality , en étroite collaboration avec les Business Data Owners et la Data Engineering Squad . Objectifs clés La mission s’articule autour de quatre objectifs principaux : Identifier et structurer les Data Domains , et animer la communauté des Data Owners Définir et piloter la roadmap Data Quality , en priorisant les jeux de données et domaines à corriger en premier Mettre en place le pilotage et les outils de Data Quality , incluant les indicateurs de qualité et le reporting sur le data drift Coordonner les Data Owners et la Data Engineering Squad afin d’assurer des corrections de données efficaces et durables Responsabilités principales Identifier les Data Domains et formaliser les responsabilités (Data Owners, Data Custodians) Animer, fédérer et structurer la communauté des Data Owners Évaluer les problématiques actuelles de qualité des données et leurs impacts métiers Définir, maintenir et prioriser la roadmap Data Quality Définir les règles de Data Quality , KPI et indicateurs Déployer ou paramétrer les outils de Data Quality (monitoring, alertes, reporting, détection de dérive) Reporter l’état de la Data Quality , les risques et l’avancement auprès des parties prenantes Compétences & Expérience requises Expérience confirmée en tant que Data Manager / Data Quality Lead dans des organisations complexes Expérience de travail étroite avec des Data Owners métiers Expérience avec des outils de Data Quality (monitoring, contrôles, métriques, détection de dérive) Excellentes capacités de facilitation , de coordination et de communication Capacité à conduire le changement sans autorité hiérarchique Profil senior requis (autonome, structuré, pragmatique) Modalités de la mission Démarrage : janvier 2026 Langues : français & anglais
Mission freelance
228728/Architecte GCP - Île de France
Publiée le
Google Cloud Platform (GCP)
3 mois
Île-de-France, France
Télétravail partiel
Architecte GCP - Île de France Compétences attendues Expertise technique GCP (indispensable) : Google Cloud Composer (orchestration des workflows). Google Cloud Storage (gestion et sécurisation des données). Google BigQuery (data warehouse et analytics). En tant qu’expert Google Cloud Platform (GCP), l'expert accompagnera l’équipe projet sur l’ensemble des phases – conception, réalisation et déploiement – afin de garantir l’atteinte des objectifs stratégiques : Centraliser, fiabiliser et standardiser les données RH essentielles. Faciliter la gestion des processus et ressources humaines. Améliorer la qualité et la pertinence des analyses RH et des reportings. Assurer une cohérence et une intégrité des données à l’échelle du groupe. Méthodologie projet Le projet est conduit selon une approche agile, privilégiant : L’adaptabilité face aux besoins métier, La collaboration transverse, L’amélioration continue. 👉 Une expérience dans un contexte agile (Scrum, SAFe ou équivalent) est donc un atout recherché. Compétences attendues Expertise technique GCP (indispensable) : Google Cloud Composer (orchestration des workflows). Google Cloud Storage (gestion et sécurisation des données). Google BigQuery (data warehouse et analytics). Compétences complémentaires : Power BI : visualisation et analyse des données RH. Data engineering / ETL : conception et optimisation de flux de données. Sensibilité à la qualité et gouvernance des données . Profil recherché Expérience confirmée sur des projets de migration, intégration ou fiabilisation de données sous GCP. Capacité à accompagner les équipes projet dans un rôle à la fois technique et conseil . Bon relationnel et capacité à vulgariser les aspects techniques auprès des métiers RH. Objectifs et livrables Architecture GCP qui répond aux attente du contexte Livrables techniques : DAT, DEX, etc. Accompagnement des développements Compétences demandées Compétences Niveau de compétence Google Cloud Composer Expert Google Cloud Storage Expert BIGQUERY Expert Apache Airflow Expert
Mission freelance
Chef de projet technique Data plateforme - Nantes
Publiée le
Agile Scrum
AWS Cloud
Azure
1 an
400-550 €
Nantes, Pays de la Loire
Tâches : Cadrer les différents travaux à réaliser en apportant un regard externe en mettant en lumière les éléments suivants : Besoins utilisateurs et cas d’usage Identification des données Schéma d’architecture Solutions intermédiaire et cible, chiffrées Exigences relatives à la gouvernance des données et à la conformité (cyber, …) Trajectoire de mise en œuvre • Piloter et coordonner les différents interlocuteurs intervenant dans le projet de mise en œuvre de la plateforme Data, de la phase de conception à la mise en production. • Coordonner les équipes techniques et fonctionnelles (Data Engineers, Data Analysts, Product Owners, Architectes, equipe Data métier et spécialisées…). • Garantir la qualité, la cohérence et la disponibilité des données nécessaires au pilotage e-business. • Définir et suivre le backlog produit Data en lien avec les équipes métier et techniques. • Piloter la réalisation à l’aide des outils internes (Jira Align). Attendu : Accompagner la mise en place d’une plateforme Data au service du pilotage e-business d’une entité spécialisée dans l’accélération digitale et e-business. Vous interviendrez en tant que Chef de projet technique Data, au sein d’une organisation agile et transverse, pour coordonner et piloter la construction, l’intégration et la mise à disposition d’une solution Data.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
2561 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois