L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 823 résultats.
Offre d'emploi
Data Engineer GCP / Spark – Plateforme Data (H/F)
Etixway
Publiée le
Apache Airflow
BigQuery
Google Cloud Platform (GCP)
1 an
40k-65k €
400-600 €
Paris, France
Dans le cadre du renforcement d’une équipe Data au sein d’un grand groupe du secteur des médias, nous recherchons un Data Engineer confirmé pour intervenir au cœur d’une plateforme data stratégique. Tu rejoindras une équipe en charge de la collecte, la centralisation et la transformation de données issues de sources hétérogènes , avec des enjeux forts de volumétrie, de performance et de qualité. Tes principales missions : Concevoir, développer et maintenir des pipelines data robustes et scalables Assurer l’ ingestion et la transformation de données multi-sources Optimiser les performances des traitements (Spark / SQL) Orchestrer les flux de données via Airflow Structurer et organiser le stockage des données Participer à l’ industrialisation des traitements (CI/CD, infrastructure) Garantir la qualité, la sécurité et la fiabilité des données Contribuer aux échanges techniques et à l’amélioration continue des pratiques
Mission freelance
Architect Data/ IA
Groupe Aptenia
Publiée le
Agent IA
Large Language Model (LLM)
2 ans
500-750 €
Paris, France
Venez structurer des architectures scalables, migrer vers Data Bricks et développer des agents IA from scratch dans un contexte international Maîtriser IA agentique : LLM, Transformers Google, protocoles MCP & Agent Protocols. Communiquer avec les métiers, expliquer IA/Data, animer des présentations. Collaborer en équipe agile (16+ pers.), reporting CTO/DG Expert migrations Data Bricks/DBT/GCP et un spécialiste IA agentique/LLM 3ans d'expériences minimum en architecture Anglais courant requis Bon Esprit d'équipe
Offre d'emploi
Buisness analyst / DATA ( trade finance ) - Denodo
AVA2I
Publiée le
Data quality
Microsoft Power BI
1 an
Île-de-France, France
Dans le cadre d’un programme stratégique de transformation data au sein du métier Trade Finance, vous interviendrez sur la mise en place d’un Buisness Analyste/ DATA basé sur une plateforme de virtualisation de données. L’objectif est de : Centraliser et fiabiliser les données métiers Modéliser la donnée en fonction des besoins opérationnels Distribuer la donnée via API, reporting et applications Garantir la qualité et la gouvernance des données 🛠️ Missions 🔍 Analyse & cadrage Recueillir et analyser les besoins métier (ateliers, cadrage) Rédiger les spécifications fonctionnelles et user stories 🧠 Data & modélisation Analyser les modèles de données existants Mapper et intégrer les données (data virtualisation / denodo VQL) Participer à la construction du Data Product 🤝 Support & coordination Assurer un support fonctionnel auprès des équipes de développement Faire l’interface entre les équipes IT et les métiers 📊 Reporting & BI Concevoir et développer des dashboards et rapports ✅ Data Quality & Gouvernance Définir et implémenter des règles de qualité des données Contribuer à la gouvernance des données 🧩 Compétences fonctionnelles Bonne compréhension des besoins métier Une connaissance du Trade Finance est un plus 🌟 Soft skills Rigueur et esprit analytique Curiosité et proactivité Bon relationnel et communication ➕ Atouts Expérience en environnement bancaire ou financier Connaissance d’un progiciel Trade Finance (type TI+) Expérience sur des projets data complexes
Mission freelance
Data Gouv Senior
Nicholson SAS
Publiée le
Confluence
Data analysis
Data Engineering
5 mois
550 €
Hauts-de-Seine, France
Nous recherchons pour notre client un Data Gouv Senior capable de fédérer et de piloter des instances : Rédaction et mise à jour des documents de gouvernance Data/IA (principes, référentiels, standards). Réorganisation, harmonisation et traduction (FR/EN) du fonds documentaire. Organisation des comités CDO / Data IA : invitations, ordres du jour, supports, comptes-rendus. Production des supports de communication ((intranet client), Teams, PowerPoint) Organisation d’évènements de la filière : plénières, challenges Data Science, ateliers. Collecte et consolidation des indicateurs mensuels de la filière. Rédaction du reporting mensuel d’activité. Compétences : Gouvernance des données Pilotage transverse / PMO et organisation de comités. Excellentes compétences rédactionnelles en français et bonne maîtrise de l’anglais. Communication interne, storytelling, animation de communautés. Maîtrise Microsoft 365 (PowerPoint, Excel, Teams, SharePoint). Connaissance de Confluence, Jira. Autonomie, rigueur, sens du détail et excellent relationnel.
Mission freelance
Coordinateur Data H/F
HAYS France
Publiée le
2 mois
Caen, Normandie
Mission : Mission de 2 mois en Freelance puis préembauche en CDI Lieu : Caen Vos Missions Organisation du reporting groupe Structure et centraliser les indicateurs clés (KPI) pour le pilotage stratégique et opérationnel. Définit et maintenir une architecture de reporting homogène pour l'ensemble du groupe. Évolution des tableaux de bord Conçoit, maintient et fait évoluer les dashboards pour répondre aux besoins métiers. Garantit l'automatisation, la lisibilité et la fiabilité des rapports. Modélisation des données et flux d'alimentation Conçoit et maintient les modèles de données (Datawarehouse, Datalake, Datamarts). Crée et optimise les processus d'intégration (ETL/ELT) pour alimenter les systèmes analytiques. S'assure de la qualité, de l'exhaustivité et de la fraîcheur des données. Relation avec les métiers et la Direction Technique (OT) Assure le lien fonctionnel entre les équipes métiers et la DSI (Direction Technique). Analyse les besoins, formalise les expressions de besoins, coordonne les réponses techniques. Mise en place de procédures de contrôle qualité Définit et met en oeuvre des règles de contrôle de cohérence et de qualité des données. Met en place des alertes, indicateurs de suivi et tableaux de bord de contrôle. Participe à la conformité réglementaire (ex : RGPD, audit interne). Administration de la plateforme BI Gére les environnements de BI (paramétrage, déploiement, supervision). Met en oeuvre une gouvernance des accès et des rôles : Définit les périmètres d'accès aux données (cloisonnement par entité, fonction, niveau hiérarchique). Assure une gestion fine des droits utilisateurs, rôles et permissions. Formation et accompagnement des utilisateurs Forme les utilisateurs clés et les référents métier aux outils BI et aux bonnes pratiques d'usage des données. Élabore des supports pédagogiques (guides, vidéos, documentation). Développe l'acculturation des collaborateurs à la donnée et à l'IA. Veille technologique & innovation Suit les évolutions dans les domaines BI, data, cloud et IA. Identifie les opportunités d'optimisation ou de transformation des processus métier grâce à la donnée
Offre d'emploi
Data Analyst Sur Le Havre
EterniTech
Publiée le
Elasticsearch
Microsoft Power BI
Qlik
3 mois
Le Havre, Normandie
Je cherche pour un de mes clients un Data Analyst / Data Engineer qui interviendra sur la définition, la mise en place et l’évolution de solutions de gestion de données , en assurant l’ingénierie, l’analyse et la valorisation des données pour répondre aux besoins métiers. Missions principales : Définir, mettre en place et faire évoluer des datalakes et datawarehouses Ingénierie et intégration de données pour le jumeau numérique et l’ IA Développer des modèles de data science adaptés aux besoins métiers Produire des tableaux de bord et valoriser les données via les outils BI ( Qlik, Microsoft Power BI ) Consolider et développer le catalogue de données existant Mettre en œuvre et optimiser des moteurs de recherche et d’indexation avancée ( Elasticsearch – expertise obligatoire ) Activités transverses : Analyser l’existant et conduire des ateliers méthodologiques Préconiser normes et standards technologiques Définir, dimensionner et chiffrer des solutions Mettre en œuvre des pipelines de données et des architectures big data Suivre la mise en œuvre et assister les équipes projet Assurer le transfert de compétences et l’accompagnement méthodologique Rédiger rapports d’études, cahiers des charges techniques et documentations Réaliser des audits et améliorer les processus Effectuer la veille technologique et fournir du conseil stratégique
Offre d'emploi
Offre de mission Data Governance Manager – Stewardship & Adoption sur Bordeaux
EterniTech
Publiée le
Data governance
Microsoft Power BI
Snowflake
5 mois
Bordeaux, Nouvelle-Aquitaine
Je cherche pour un de mes clients Data Governance Manager – Stewardship & Adoption Description du besoin : Poste : Data Governance Manager – Stewardship & Adoption Expérience : mini 5 ans en Data Gouvernance Partenaires et Freelances Quelques mots sur le contexte de la mission et l’équipe Chez le client, le besoin s’inscrit dans le développement de la gouvernance data, dans un environnement structuré autour de Snowflake, Power BI et Datahub. La mission se déroule au sein de l’équipe Data Management composée de 4 Data Managers, qui outillent la gouvernance Data des entités du groupe et participent aux projets métiers en collaboration avec les Data Engineers et notre communauté de Data Owner. Enjeux du projet / périmètre La mission vise à structurer, déployer et animer la gouvernance opérationnelle autour d’une communauté de Data Stewards à créer, à renforcer l’adoption des outils et pratiques de gouvernance, et à rapprocher l’équipe Data Management des utilisateurs afin de mieux prioriser les besoins métiers et data. Le poste n’a pas vocation à être un rôle de Data Steward central ; il s’agit d’un rôle transverse, orienté cadre, adoption, animation de communauté et accompagnement du changement. Activités principales • Déployer et animer le modèle de Data Stewardship : clarification des rôles, périmètres, interactions et rituels entre Data Owners, Data Stewards, Data Management et équipes techniques. • Structurer l’onboarding des Data Stewards et produire les kits, standards et supports utiles. • Lancer et animer la future communauté de Data Stewards. • Renforcer l’adoption du Data Catalog et des pratiques de gouvernance. • Accélérer la documentation des assets prioritaires • Intégrer davantage la gouvernance dans les workflows projets. • Contribuer à l’extension de la couverture du catalogue, notamment sur les traitements IA. • Organiser des ateliers et temps d’échange avec les utilisateurs. • Faire émerger les irritants et besoins, structurer un backlog transverse et contribuer à sa priorisation avec les équipes concernées. • Contribuer à une gouvernance by design sur les projets data, dès les phases de cadrage. Activités secondaires • Réactiver et mobiliser les communautés existantes, en particulier les référents Power BI. • Animer des campagnes ciblées et des rituels simples mais réguliers autour des usages de gouvernance. • Accompagner l’appropriation des rôles de Data Steward par certaines communautés existantes. Contexte technique et organisationnel Environnement data structuré autour de 4 plateformes Snowflake, une par entité du groupe, Power BI et Datahub. Mission portée par l’équipe Data Management, en interaction avec des Product Managers, Data Analysts, Data Scientists, Data Engineers, équipes plateforme et sponsors métier. Utilisation framework scrumban Contraintes techniques Bonne compréhension attendue des enjeux liés aux catalogues de données, aux métadonnées, à la documentation, à l’ownership, aux accès et aux usages. Maitrise de Snowflake et Power BI ou outils similaires Soft skills souhaitées • Forte capacité d’animation de communauté • Facilitation • Conduite du changement • Capacité à faire avancer un sujet transverse sans autorité hiérarchique • Approche structurée, pragmatique, orientée impact et adoption • Capacité à dialoguer avec des interlocuteurs variés Expérience minimale requise Profil disposant d’une expérience solide en Data Governance, Data Management, Data Transformation ou Data Program Management. Outils de collaboration attendus Teams, Jira, Confluence, Datahub • TT les mercredis et vendredis (Possibilité de venir sur site si volonté). Critères de sélection Les éléments différenciants pouvant être mis en avant dans la candidature, d’après ton draft, sont : • expérience concrète de déploiement de modèles de gouvernance, de rôles ou de réseaux de référents ; • capacité à structurer et animer une communauté de Data Stewards ; • capacité à embarquer des parties prenantes variées et à conduire le changement ; • bonne compréhension des enjeux de Data Catalog, métadonnées, documentation, ownership, accès et usages ; • capacité à faire émerger les besoins utilisateurs et à contribuer à leur priorisation ; • approche pragmatique et orientée adoption / impact. Détail des compétences techniques Connaissance de Power BI : junior (<2 ans) Snowflake : junior (<2 ans d'exp) Data Governance : expert (>5 ans d'exp) Data Stewardship Operating Model : confirmé (2 à 5 ans d'exp) Data Catalog / Metadata Management : confirmé (2 à 5 ans d'exp) Conduite du changement / adoption : expert (>5ans) Animation de communauté / réseau de référents : confirmé (2 à 5 ans d'exp) Datahub ou autre Data Catalog : junior (< 2 ans) Gestion backlog transverse / priorisation : confirmé (2 à 5 ans d'exp)
Offre d'emploi
Business Analyst - Data (H/F)
STORM GROUP
Publiée le
SEPA
SWIFT
3 ans
55k-60k €
550 €
Île-de-France, France
· Participer à la collecte, la transformation et la gestion des données pour en assurer l'intégrité, la sécurité et la qualité · Animer des groupes de travail avec les sponsors, les business analyst du SI Paiement et les membres de la squad Flux (data viz, data engineer, business analyst) · Rédaction des livrables : spécifications fonctionnelles et techniques / user story, cahiers de recette · Développer et documenter les user stories/spécifications et les cahiers de recette avec l’assistance du Product Owner · Formation et accompagnement des utilisateurs.
Offre d'emploi
Consultant(e) DATA OFFICER SENIOR (DATA GOVERNANCE / DATA MANAGEMENT / RGPD)
CELAD
Publiée le
Data governance
IA
RGPD
1 an
70k-90k €
600-700 €
Paris, France
1. CONTEXTE Au sein du Data Office rattaché à la Direction Data , vous intervenez dans un environnement structuré en tribus et squads sur des enjeux stratégiques liés à la gouvernance, la qualité et la protection des données . L’objectif est d’ industrialiser la gestion de la donnée dans la fabrication des cas d’usage (data, analytics, IA), tout en garantissant leur conformité réglementaire et leur performance business. Vous travaillez en étroite collaboration avec le Référent Data, les équipes métiers, IT, juridiques (DPO) ainsi que les différentes squads contributrices. 2. OBJECTIFS DU POSTE Structurer et déployer le cadre de gouvernance data à l’échelle de l’entreprise Garantir la qualité, la traçabilité et la protection des données critiques Accompagner les squads dans la mise en conformité RGPD et IA Act Assurer une vision transverse et pilotée des enjeux data (KPI, risques, qualité) Contribuer à la réussite des initiatives stratégiques data (Data Platform, projets IA, etc.) 3. MISSIONS PRINCIPALES3.1 Cadrage des initiatives data Accompagner les projets métiers et IT dans la phase de cadrage Identifier les données critiques (business / réglementaires) Définir les exigences en matière de : qualité des données gouvernance protection (RGPD, IA) 3.2 Gouvernance & Data Management Déployer et faire appliquer le framework de Data Governance Structurer les éléments suivants : Data catalog (Nectarine / AB Initio) dictionnaire de données glossaire métier data lineage Définir et suivre les rôles : Data Owners Data Stewards Garantir la cohérence du modèle data entre les différentes squads 3.3 Qualité des données Définir les règles de Data Quality (complétude, cohérence, unicité, etc.) Mettre en place les indicateurs de suivi Piloter les plans de remédiation avec les équipes IT et métiers Évaluer l’impact de la qualité des données sur la performance business 3.4 Data Protection & conformité Accompagner les équipes dans les analyses de risques RGPD (DPIA) Garantir le respect des principes de protection des données (privacy by design) Contribuer aux sujets liés à l’ IA Act Collaborer avec les équipes juridiques / DPO 3.5 Pilotage transverse & hypervision Mettre en place et suivre des KPI de gouvernance data Assurer une vision consolidée : des risques de la qualité de l’avancement des travaux Préparer et présenter les éléments dans les instances : comités de suivi comités data COMEX Produits 3.6 Accompagnement des équipes Former et accompagner les équipes : Data Stewards Data Designers équipes produit Diffuser les bonnes pratiques de gouvernance data Faciliter l’adoption des outils et processus 3.7 Contribution aux initiatives stratégiques Participation aux projets structurants (Data Platform, HALO…) Contribution aux ARM sur les volets data Support à la transformation data globale de l’entreprise
Mission freelance
Architecte Modélisation Data (H/F)
Freelance.com
Publiée le
Cybersécurité
1 an
340-740 €
Île-de-France, France
2 jours de gratuité ( les deux premiers jours de mission ) Dans le cadre de l’équipe Architecture Solutions SI (Direction Stratégie SI, Architecture & Cloud), la mission consiste à accompagner les projets autour des solutions collaboratives et des enjeux de modélisation et d’architecture data . L’objectif est d’assurer la cohérence des architectures data avec les processus métiers, tout en garantissant l’alignement avec les standards SI et les objectifs de rationalisation. ⸻ 🧩 Rôle & responsabilités En tant qu’Architecte Data / Expert Data Modélisation, vous serez en charge de : Accompagner les projets dans la définition de leur architecture data Assurer l’alignement avec la stratégie SI et les processus métiers Définir, promouvoir et faire évoluer le cadre d’architecture data Réaliser la modélisation fonctionnelle des objets métiers Maintenir et enrichir la cartographie SI Contribuer à la conception des modèles logiques et physiques de données (MLD / MPD) Accompagner les équipes de développement sur les sujets data ⸻ 🏗️ Activités principales Modélisation data des solutions dans le cadre des projets Définition des architectures fonctionnelles et data, de la phase de cadrage jusqu’à la mise en production Production des livrables d’architecture et mise à jour du référentiel Présentation et validation des solutions en instances d’architecture Émission d’avis d’architecture Coordination des activités d’architecture Pilotage de l’engagement d’architecture auprès des parties prenantes
Offre d'emploi
Data & AdTech Developpeur H/F
OBJECTWARE
Publiée le
Python
SQL
3 mois
Rennes, Bretagne
Nous recherchons un Data & AdTech Developpeur H/F pour une mission à Rennes. Missions : Organiser, fiabiliser et valoriser les données au sein de la CDP Garantir la qualité et la cohérence des données exploitées Concevoir et maintenir les flux d’ingestion et de transformation (Python, SQL) Intégrer les différentes sources de données de l’entreprise Concevoir et maintenir des dashboards de suivi Créer des solutions permettant d’accélérer les opérations marketing Intégration de solutions AdTech (alternives IDs, dsp Equativ & The Trade Desk…) Technos : Langages : Python, SQL Data & Cloud : BigQuery Data visualisation : Metabase AdTech : DSP, solutions de tracking, identity management
Offre d'emploi
Data Engineer Senior – GCP / Spark / Python
BEEZEN
Publiée le
Google Cloud Platform (GCP)
1 an
Paris, France
Nous recherchons un Data Engineer Senior pour rejoindre une équipe data en charge de la plateforme de données d’un grand groupe Missions Concevoir et maintenir des pipelines data robustes et scalables Centraliser et structurer des données provenant de sources variées Participer à l’industrialisation et à l’évolution de la plateforme data Mettre en place et maintenir les workflows CI/CD Garantir la performance, la sécurité et la stabilité des environnements Participer aux bonnes pratiques et à la documentation technique Environnement technique Python, SQL, Spark Airflow, Delta Lake GCP : BigQuery, Dataproc, PubSub, Cloud Storage Terraform, Terragrunt GitLab CI/CD Méthodologie Agile (Scrum/Kanban) Profil recherché Minimum 5 ans d’expérience en Data Engineering Très bonne maîtrise des environnements cloud GCP Expérience solide sur les pipelines data et architectures distribuées Bon niveau de communication et capacité à vulgariser les sujets techniques
Mission freelance
Data Engineering (IA/ML)
Deodis
Publiée le
CI/CD
1 an
650 €
Île-de-France, France
Mission de Data Engineer senior spécialisé en IA/ML , visant à concevoir, optimiser et industrialiser des plateformes data à grande échelle. Le rôle consiste à améliorer les pipelines d’ingestion et de traitement (notamment distribués), assurer la performance et la scalabilité des systèmes, et contribuer activement à l’évolution de l’architecture data (orchestration, stockage, requêtage). Il implique également la mise en place de bonnes pratiques d’industrialisation (monitoring, CI/CD, MLOps), le support technique avancé en production, ainsi que l’accompagnement des équipes data et data science pour garantir une utilisation efficace et robuste des plateformes dans un environnement cloud et conteneurisé.
Mission freelance
Chef de projet Data & Digital H/F
Karma Partners
Publiée le
AWS Cloud
Azure
CMS
6 mois
400-630 €
Île-de-France, France
Au sein de l’équipe On Site Services de la Digital Factory, le chef de projet Data/Digital porte la relation privilégiée entre les équipes digitales et data. Il assure et coordonne la mise en œuvre des projets digitaux dans le respect des bonnes pratiques d’une entreprise datacentrique (identification et rationalisation des sources, réflexion autour des Core Data Model, cohérence et monitoring des flux, contribution à la mise en qualité des données...) tout en veillant à intégrer les enjeux légaux et de sécurité. Il travaillera notamment les sujets de stratégie d’exposition des données, d’intégration des données dans les applications tierce et de Gouvernance Data / Digital. Projet et Solutioning · Prendre en charge et suivre les projets B2B d’exposition et consolidation des données clients en lien avec les consommations et parcours de leurs convives · Contribuer à l’alimentation des roadmaps éditeurs en charge de systèmes d’encaissement au travers des demandes issues des interlocuteurs métier (amont) et chefs de projet déploiement (aval). · Gérer les des activités de conception, d'évolution et de maintenance corrective des applications dont il a la charge, · Oeuvrer à l’amélioration continue du niveau d'industrialisation du déploiement des solutions et du niveau de supervision du parc. Se positionner en référent technico/fonctionnel des systèmes d'encaissement vis-à-vis de ses pairs (architecte, delivery lead, product owner) et garantir la bonne intégration des outils au sein du SI Comitologie · Porter et animer la gouvernance projet (copil et coproj) avec les éditeurs · Porter la relation avec les équipes connexes à la Digital Factory (notamment sécurité et data) et identifier / gérer les impacts dans le cadre des projets et du run · Porter la relation avec les équipes légales et achats pour poser les bases/faire évoluer les contrats éditeur · Identifier/mitiger ou escalader les risques inhérents aux projets
Mission freelance
Lead / Data Engineer senior
Comet
Publiée le
Apigee
Google Cloud Platform (GCP)
Python
5 mois
210-630 €
Île-de-France, France
Bonjour à tous, notamment aux Data Engineers Seniors ⚙️ spécialisés sur GCP / BigQuery 🔎 Je cherche un Data Engineer Senior avec une forte dimension expertise technique et expérience en rôle de lead, pour rejoindre une data platform stratégique en pleine montée en puissance. L’objectif de la plateforme est de centraliser, transformer et exposer la donnée à grande échelle afin de supporter des cas d’usage analytics, BI et IA dans un environnement data moderne. La plateforme est déjà en place et entre dans une phase clé d’optimisation, de scalabilité et d’enrichissement des usages (notamment autour de l’IA). 💻 Ce que tu vas faire : - Concevoir et faire évoluer des pipelines data robustes, scalables et sécurisés - Développer des traitements avancés sur BigQuery (CTE, window functions, optimisation performance & coûts) - Optimiser les requêtes à grande échelle via analyse des plans d’exécution - Concevoir des modèles de données (star / snowflake) pour des usages BI (PowerBI, Looker) - Intégrer des sources de données multiples (API, cloud, bases, fichiers…) - Industrialiser les workflows via CI/CD et Infrastructure as Code (Terraform, Cloud Build) - Contribuer à l’intégration de cas d’usage IA dans les pipelines data - Participer aux choix d’architecture et structurer les bonnes pratiques data 🎯 Stack & environnement : BigQuery / SQL / Python / GCP / Cloud Build / Cloud Workflows / Apigee / Terraform / GitHub / PowerBI / Looker ➕ Bonus : expérience sur des environnements media / digital data (Google Analytics, Salesforce, CRM, social media) 📍 IDF : 2 jours de TT 🏡 📅 Démarrage : ASAP Qu'en penses-tu ? Une belle journée,
Mission freelance
PMO transverse (IA, Data & Produits digitaux)
Deodis
Publiée le
IA
1 an
520 €
Île-de-France, France
Mission de PMO transverse expérimenté dédiée au pilotage et à la coordination de projets liés à l’intelligence artificielle, la data et les produits digitaux. Le poste consiste à assurer le suivi d’un portefeuille de projets et d’initiatives, coordonner les interactions entre équipes métiers et techniques, organiser les instances de gouvernance, suivre l’avancement des projets ainsi que les risques et dépendances, et produire les reportings associés. La mission s’inscrit dans un environnement international et agile, avec une forte dimension de gestion du changement, d’optimisation des processus et d’accompagnement des équipes sur des sujets technologiques et digitaux stratégiques.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
1823 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois