L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 4 144 résultats.
Mission freelance
DATA ENGINEER AZURE - SNOWFLAKE
CHOURAK CONSULTING
Publiée le
Apache Airflow
Azure
Azure Data Factory
3 mois
400-550 €
Île-de-France, France
Nous recherchons un Data Engineer Confirmé/Senior pour renforcer une équipe Data dans un environnement cloud moderne, avec un fort niveau d’exigence sur l’ architecture, l’industrialisation et les bonnes pratiques . 🎯 Contexte de la mission : Vous interviendrez sur une plateforme Data reposant sur Azure et Snowflake , avec une architecture Médaillon . Le rôle inclut une forte dimension lead technique : qualité du code, CI/CD, revues de PR et accompagnement des équipes. ⚙️ Missions principales : Concevoir et faire évoluer des pipelines de données sur Azure et Snowflake. Mettre en œuvre et maintenir une architecture Médaillon (Bronze / Silver / Gold). Développer et orchestrer les flux via Azure Data Factory . Automatiser les processus via Azure Automation . Participer activement à l’ industrialisation CI/CD et aux pipelines Azure DevOps . Réaliser des revues de Pull Requests et promouvoir les bonnes pratiques de développement. Garantir la qualité, la performance et la fiabilité des traitements de données.
Mission freelance
Data Engineer Azure Databricks
CHOURAK CONSULTING
Publiée le
Azure
Azure DevOps
Azure Synapse
3 mois
400-550 €
Lyon, Auvergne-Rhône-Alpes
Nous recherchons un Data Engineer Azure/Databricks expérimenté pour renforcer une équipe Data internationale, dans un environnement technique moderne et structuré. 🎯 Contexte de la mission : La plateforme Data est actuellement basée sur Azure Synapse (Dedicated SQL Pool) , Databricks et dbt , avec des processus CI/CD gérés via Azure DevOps . La mission s’inscrit dans une logique d’industrialisation, de bonnes pratiques et de qualité documentaire. Le client est train d'abandonner Synapse pour migrer sur Databricks. ⚙️ Vos missions principales : Concevoir, développer et maintenir des pipelines de données performants sur Azure. Intervenir sur les traitements Data Engineering en SQL et Python . Contribuer à la modélisation et à l’exposition des données pour Power BI (DAX). Appliquer et promouvoir les bonnes pratiques Data Engineering (qualité, performance, sécurité). Documenter les architectures, flux et développements. Collaborer avec une équipe internationale (échanges majoritairement en anglais).
Mission freelance
Tech Lead Data
Nicholson SAS
Publiée le
Azure
Databricks
Python
9 mois
520 €
Issy-les-Moulineaux, Île-de-France
Bonjour, Un grand groupe de logistique international recherche son premier Tech Lead Data afin d’accompagner ses équipes dans la montée en compétences sur Databricks . Dans ce cadre, l’ensemble des environnements data est en cours de migration vers Databricks, marquant une transition d’un modèle historiquement orienté paramétrage (SAP BW) vers une approche moderne centrée sur le développement data . L’enjeu principal de ce rôle est d’accompagner les équipes dans la conception et le développement des premiers cas d’usage sur Databricks, tout en facilitant leur adoption de cette nouvelle plateforme. Au-delà de la dimension technique, un fort leadership est attendu pour structurer les pratiques, fédérer les équipes et les accompagner dans cette transformation stratégique. Nous recherchons par consequent un Tech Lead Data pour accompagner une transformation stratégique des environnements data vers Databricks . 📍 Localisation : Issy-les-Moulineaux (3 jours/semaine sur site) 💰 TJM max : 520 € 📅 Démarrage : ASAP 📆 Fin de mission : 31/12/2026 🚀 Contexte & Enjeux Dans le cadre d’une transformation majeure des plateformes data, les équipes passent d’un environnement orienté SAP BW (paramétrage) à un modèle centré sur le développement avec Databricks . L’objectif de cette mission est d’accompagner cette transition en structurant les pratiques et en accélérant la mise en œuvre des premiers cas d’usage data. 🎯 Missions En tant que Tech Lead Data , vous interviendrez à la fois sur les volets techniques et organisationnels : Accompagner les équipes dans la prise en main de Databricks Développer et encadrer les premiers cas d’usage data Structurer les bonnes pratiques de développement et d’architecture data Participer aux choix techniques et à l’évolution de la plateforme Encadrer, faire monter en compétences et fédérer les équipes data Apporter une vision et un leadership pour tirer les équipes vers le haut 🛠️ Environnement technique Azure Databricks Databricks Data Intelligence Platform SAP BW Python SQL 👤 Profil recherché Tech Lead Data / Data Engineer senior Expérience : 7 ans minimum Solide expertise sur Databricks et les architectures data modernes Expérience dans des environnements legacy type SAP BW appréciée Capacité à accompagner une transformation technique et culturelle 🤝 Soft skills Leadership naturel et capacité à fédérer Excellente communication avec des interlocuteurs techniques et métiers Esprit structurant et orienté solutions Pédagogie et accompagnement des équipes 💡 Mission à fort impact avec une dimension stratégique et un rôle clé dans la transformation data.
Offre d'emploi
Ingénieur DevOps Cloud Azure
VISIAN
Publiée le
Azure
Python
1 an
40k-45k €
400-500 €
Île-de-France, France
Descriptif du poste Le bénéficiaire souhaite une prestation d'accompagnement pour la gestion des évolutions des services d'intégration continue en lien avec le Cloud Azure. le Groupe propose à l'ensemble des IT métiers et Métiers du Groupe, une offre s'appuyant sur des plateformes pour l'accélération de produits innovants métiers. Ces plateformes permettent de tester rapidement de nouvelles technologies et des modèles d'architecture à différents stades de maturité. Dans ce cadre, une institution financière majeure recherche un(e) ingénieur DevOPS pour sa plateforme Azure s'appuyant sur des technologies telles que GitOPS.
Mission freelance
Développeur confirmé DATABRICKS (Lyon)
SQLI
Publiée le
Azure Data Factory
Java
1 an
450-560 €
Lyon, Auvergne-Rhône-Alpes
Hello, Pour le compte de l'un de mes clients Lyonnais, je suis à la recherche d'un développeur confirmé Databricks. QUALITES RECHERCHEES : • Connaissances avancées fonctionnelles des technologies suivantes : Postgres, PowerBI, Databreaks, Angular/React en mode Cloud et On Primise au possible • Pilotage / Supervision technique haut niveau de l’équipe en fonction des besoins • Expérience significative dans la mise en oeuvre de besoin impliquant plusieurs SI • Force de proposition sur l’amélioration de la surveillance de l’application et sur les évolutions techniques de l’application • Capacité à prendre du recul et à avoir une vision globale sur les technologies utilisées • Capacité à gérer les contraintes de délai et les périodes de stress inhérentes au projet • Expérience dans l’analyse des besoins techniques et dans l’animation d’ateliers techniques • Bonne communication et bonne capacité à s’adapter à ses interlocuteurs • Une expérience dans l'énergie serait un plus
Offre d'emploi
DevOps Engineer IA
TS-CONSULT
Publiée le
Azure
Terraform
1 an
Île-de-France, France
Bonjour a tous , actuellement je suis a la recherche d'un profil Compétences requises DevOps Engineer IA Profil recherché : DevOps Engineer avec expertise en MLOps et maîtrise du vibe coding, capable de construire et maintenir des infrastructures robustes pour l'IA tout en automatisant les déploiements et en garantissant la performance des solutions en production. Hard Skills : • 5 ans d'expérience minimum en DevOps/SRE • Expérience démontrée en vibe coding avec utilisation d'outils IA pour générer scripts, configs et diagnostiquer incidents • Expertise en MLOps et déploiement de modèles IA en production • Maîtrise des plateformes Cloud (AWS, Azure, GCP) et services IA Cloud • Expertise en Infrastructure as Code (Terraform, CloudFormation, ARM Templates) • Maîtrise de la conteneurisation et orchestration (Docker, Kubernetes, Helm) • Expertise CI/CD (GitLab CI, GitHub Actions, Jenkins, Azure DevOps) • Connaissance des outils MLOps (MLflow, Kubeflow, Weights & Biases, SageMaker Pipelines) • Maîtrise du scripting (Bash, Python) et automatisation • Expérience en monitoring et observabilité (Prometheus, Grafana, ELK, DataDog) • Connaissance des pratiques de sécurité DevSecOps • Gestion des secrets et configuration (Vault, AWS Secrets Manager) • Un plus : Expérience avec GPUs et optimisation des ressources IA Soft Skills : • Capacité à utiliser l'IA pour diagnostiquer et résoudre rapidement les incidents • Pragmatisme : équilibre entre automatisation et délais de livraison • Rigueur dans la conception et la sécurisation des infrastructures • Esprit d'innovation et veille technologique continue • Autonomie et proactivité dans l'identification des problèmes • Excellent sens du service et support aux équipes de développement • Esprit collaboratif et pédagogue • Réactivité face aux incidents de production Résultats attendus (Livrables) • Conception et mise en place d'architectures Cloud pour solutions IA (scalables, sécurisées, optimisées) • Déploiement et gestion d'infrastructures as Code (Terraform, CloudFormation) • Mise en place de pipelines CI/CD pour applications et modèles IA • Utilisation experte du vibe coding pour générer scripts, configs et automatisations • Automatisation des déploiements et rollbacks (blue/green, canary) • Configuration du monitoring, alerting et observabilité des modèles IA en production • Gestion des environnements (dev, staging, production) et des accès • Optimisation des coûts Cloud et des performances (GPU, compute, stockage) • Support aux développeurs sur l'outillage et les best practices DevOps • Documentation technique des infrastructures et procédures • Mise en place de pratiques DevSecOps et conformité sécurité • Partage des best practices MLOps et vibe coding avec l'équipe Anglais courant
Offre d'emploi
Architecte Cloud (Luxembourg)
EXMC
Publiée le
Azure
Cloud
DevOps
1 an
Luxembourg
• Traduire les exigences métier en conceptions alignées avec le Well-Architected Framework et le Cloud Adoption Framework d’Azure. • Décrire les stratégies de haute disponibilité et de reprise après sinistre, et concevoir des solutions de continuité d’activité. • Concevoir des solutions d’identité, de gouvernance et de supervision. • Concevoir des solutions de calcul (compute) et de réseau. • Concevoir des solutions d’infrastructure. • Concevoir l’architecture applicative et l’intégration des données. • Concevoir des solutions de stockage de données pour des données relationnelles et non relationnelles. • Fournir un support technique durant les phases d’implémentation des projets, y compris les preuves de concept (PoC), pilotes et tests. • Analyser les besoins métier, les traduire en solutions techniques et communiquer des concepts complexes à des publics non techniques. • Définir et maintenir des blueprints d’architecture, des modèles de référence et des design patterns pour les services cloud. • Appliquer les standards architecturaux, les politiques et les cadres de gouvernance. • Développer de l’Infrastructure as Code (IaC) et des pipelines CI/CD pour automatiser le provisionnement et les déploiements. • Piloter des projets de migration et de modernisation vers le cloud. • Assurer les bonnes pratiques de gestion des ressources Azure, de sécurité et de conformité. • Intégrer les bonnes pratiques de sécurité, y compris la gestion des identités, le contrôle d’accès et la protection des données. • Collaborer avec les parties prenantes, les développeurs et les équipes IT pour recueillir les besoins et fournir des orientations architecturales. • Documenter les architectures et fournir des recommandations techniques. • Mettre en œuvre des architectures cloud Azure sécurisées, scalables, résilientes et optimisées en coûts, alignées sur les exigences métier et techniques ainsi que sur les plans , en collaboration avec les développeurs, administrateurs, ingénieurs sécurité et data. • Utiliser des outils comme Azure DevOps et ServiceNow pour suivre les tâches, incidents et changements. • Assurer la conformité aux normes réglementaires (ex : RGPD, ISO) et aux politiques de sécurité internes. • Proposer et mettre en œuvre des solutions innovantes pour améliorer la performance, la sécurité et l’optimisation des coûts. • Explorer et intégrer de nouveaux services Azure et O365 pour renforcer les capacités métier.
Mission freelance
Developpeur .NET - Rennes
Tenth Revolution Group
Publiée le
.NET
Azure
Microsoft Dynamics
6 mois
100-400 €
Rennes, Bretagne
Développeur .NET - Rennes Dans le cadre d’un projet de modernisation des flux d’intégration pour l’un de nos clients, nous recherchons un Développeur .NET expérimenté afin d’intervenir sur la refonte de flux existants entre Dataverse et Dynamics 365 Finance & Operations . Démarrage ASAP. Déplacements sur site à Rennes. Durée : quelques mois. Missions Au sein de l’équipe technique, votre mission consistera à : Remplacer des flux existants Power Automate reliant Dataverse et Dynamics 365 F&O . Concevoir et développer des Azure Functions permettant de gérer ces intégrations. Analyser les flux Power Automate existants afin de comprendre la logique métier et technique. Mettre en place des mécanismes d’échange de données robustes entre Dataverse et D365 F&O . Participer aux phases de conception technique et proposer des solutions optimisées dans l’écosystème Azure. Profil recherché Compétences requises : Solide expérience en développement .NET (C#) Expérience avec Microsoft Azure , notamment le développement d’ Azure Functions Bonne compréhension des architectures d’intégration et des APIs Compétences appréciées : Expérience avec la Power Platform , notamment Power Automate Connaissance de Dataverse (lecture / écriture de données) Expérience avec Dynamics 365 Finance & Operations Environnement technique .NET / C# Microsoft Azure Azure Functions Power Platform / Power Automate Dataverse Dynamics 365 Finance & Operations
Mission freelance
Data Engineer Python / Azure Cloud (H/F)
Gentis Recruitment SAS
Publiée le
Azure
Data Lake
ETL (Extract-transform-load)
12 mois
Paris, France
Dans le cadre d’un projet au sein de la Digital Factory d’un grand groupe international du secteur de l’énergie , nous recherchons un Data Engineer expérimenté pour concevoir et mettre en place des pipelines de données dans un environnement Azure Cloud serverless . Contexte La Digital Factory du groupe (plusieurs centaines de collaborateurs, organisation en squads internationales) développe et déploie des solutions digitales afin de soutenir les activités du groupe à l’échelle mondiale. Missions Concevoir et développer des pipelines de données en Python Mettre en place des traitements batch et orchestrations via Azure Durable Functions Manipuler des volumes de données importants (Parquet) Mettre en place des contrôles qualité et validations de schémas Intégrer des API externes Participer à la modélisation et optimisation des bases Azure SQL Implémenter l’ observabilité (logs, métriques, traces) Industrialiser les déploiements via CI/CD Garantir la qualité et la sécurité du code (tests automatisés, scans) Stack technique Python Azure Cloud Azure Functions (Durable Functions v2) Data Lake / Blob Storage / Azure DB Pandas, Polars, PyArrow Profil recherché Minimum 6 ans d’expérience en Data Engineering Forte expertise Python & Azure Expérience sur architectures serverless Capacité à travailler en environnement agile / squad Anglais courant Informations mission Démarrage : mi / fin mars 2026 Durée : 12 mois Localisation : Paris Télétravail : 2 jours / semaine Processus de sélection Test technique (Codingame) à réaliser sous 72h Échange technique avec l’équipe projet
Offre d'emploi
Chef de projet Infrastructure
ANDEMA
Publiée le
Azure
40k-66k €
Paris, France
Ce poste est à pourvoir dans le cadre d'un CDI. Vos missions consisteront notamment à : Faire de la veille technologique sur le cloud, l'infrastructure et la sécurité Participer à la gestion des incidents ou POC Contribuer à la Sécurité du Système d'Information Assister le responsable infrastructure Participer à la planification des charges projets Participer à la gestion des incidents de production Faire le reporting de synthèse pour le comité de direction Participer au pilotage de projets infrastructure et de sécurité
Offre d'emploi
Expert MSBI - Toulouse (H/F)
STORM GROUP
Publiée le
Cognos
IBM DataStage
Informatica
3 ans
45k €
350 €
Toulouse, Occitanie
• Le Pilotage et l’organisation des phases de migration de données (coordonner les travaux de migration) • L’étude des modèles de données source et destination • L’élaboration des fichiers de mapping (source / destination). Ainsi que les différents fichiers de spécification • La stratégie de migration (ETL) • La validation des scripts d'extraction et transformation. • La prise en charge du plan de réversibilité des données. • Conception et réalisation de modèles de données et cubes SSAS • Conception Dashboard PowerBI (en proximité avec les métiers) et réalisation (mode import, direct query, live query) • Développement de dashboards TABLEAU, gestion des bases de données type SQL, gestion des ETLs type Informatica Cloud, récupération ou le plug de données SalesForce Livrables Exemples de livrables : • Dossiers d'analyse/cadrage + chiffrages • Dossiers de conception fonctionnelle et technique • Développements • Tests unitaires, et d'intégration & Cahiers de recette • Documentations des développements, de l'application, procédures d'exploitation ou d'utilisation... • Supports des instances de suivi • Rapports ou tableaux de bord, composés d’indicateurs, sous forme de graphiques
Mission freelance
Ingénieur Data - SSIS + Power BI + SQL (H/F)
CELAD
Publiée le
1 an
400-500 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Envie de rejoindre une équipe où la tech et les projets stimulants sont au rendez-vous ? Cette opportunité est faite pour vous ! Nous poursuivons notre développement et recherchons actuellement un.e Ingénieur(e) Data pour intervenir chez un de nos clients, dans le secteur bancaire. Concevoir, développer et optimiser des requêtes SQL complexes (requêtage, fonctions, procédures stockées) Participer à la conception et à la modélisation des bases de données Contribuer à la mise en place et à l’évolution de Data Warehouse Développer et maintenir des flux de transformation de données via des outils ETL (principalement SSIS, Talend en alternative) Assurer la qualité, la fiabilité et la performance des données Participer à l’alimentation et à la restitution de la donnée via des outils de reporting Développer et maintenir des tableaux de bord sur Power BI Accompagner les métiers dans la compréhension et l’exploitation des données Collaborer avec les développeurs et les équipes IT sur les sujets data
Mission freelance
Ingénieur Logiciel .NET / Azure
Phaidon London- Glocomms
Publiée le
.NET
API
Azure
12 mois
750-900 €
France
Ingénieur Logiciel .NET / Azure Localisation : Télétravail, Europe Contrat : 12 mois (renouvelable) Date de début : ASAP À propos de l’entreprise Notre client est une organisation européenne de premier plan spécialisée dans le trading d’énergie, active sur les marchés de l’électricité, du gaz, du GNL et des produits environnementaux. Elle gère un large portefeuille de stratégies de trading à court et long terme, d’activités d’optimisation et d’opérations transfrontalières. L’entreprise mène actuellement une modernisation majeure de son paysage technologique de trading - modernisation des plateformes existantes, développement d’applications cloud‑native et amélioration des capacités de traitement en temps réel pour soutenir le trading algorithmique, le risque de marché, la planification et les opérations de dispatching. Ce programme comprend la reconstruction de systèmes internes critiques, la migration de certains composants vers Azure, ainsi que le développement de nouveaux microservices destinés aux équipes front‑office, risque et planification. Description du poste Nous recherchons un Ingénieur Logiciel spécialisé en .NET et Azure pour contribuer à la modernisation des applications de trading et des outils opérationnels. Vous travaillerez en étroite collaboration avec les équipes technologie trading, risque, data engineering et DevOps afin de reconstruire des services existants, développer de nouveaux composants cloud‑native et garantir une haute performance et fiabilité dans des environnements sensibles au temps de réaction. Ce poste s’adresse à un profil appréciant les défis techniques complexes, les systèmes temps réel et les projets à fort impact dans un environnement de trading dynamique. Responsabilités principales Moderniser et reconstruire des services backend en C# / .NET en appliquant les principes cloud‑native. Contribuer à la migration d’applications de trading, de planification et de gestion de positions vers les services Azure (App Services, Functions, Containers). Collaborer avec les équipes DevOps pour améliorer les pipelines CI/CD, les modèles IaC et la gouvernance Azure. Optimiser la performance, la fiabilité et l’évolutivité des systèmes traitant des flux de données marché en temps réel ou quasi réel. Développer des API et microservices pour l’intégration avec les plateformes de trading, les flux de données marché, les moteurs de risque et d’autres applications internes. Mettre en œuvre des pratiques de développement sécurisées et conformes aux réglementations du secteur énergétique (REMIT, MiFID II). Participer aux initiatives d’observabilité via Azure Monitor, App Insights et Log Analytics. Travailler en collaboration avec des équipes pluridisciplinaires (Trading Tech, Market Data, Risk, Architecture Cloud, QA). Compétences et qualifications requises Solide expérience dans le développement d’applications en C# / .NET, idéalement en environnement d’entreprise ou de trading. Expérience pratique dans le déploiement de solutions sur Microsoft Azure. Bonne compréhension des patterns cloud‑native (12‑factor, services stateless, configuration distribuée). Expérience avérée avec les API, microservices et modèles d’intégration. Maîtrise des workflows CI/CD, Git et de la suite Azure DevOps. Bonne compréhension des pratiques de sécurité, de gouvernance et de conformité propres aux marchés de l’énergie. Excellentes compétences en communication et aisance dans un environnement collaboratif multidisciplinaire.
Mission freelance
DevOps / Cloud Engineer
HAYS France
Publiée le
Azure
Docker
GitLab CI
3 mois
450-500 €
Alpes-Maritimes, France
Nous recherchons un DevOps / Cloud Engineer pour renforcer notre équipe et prendre en main une infrastructure mixte on-premise et Azure . Votre mission principale sera d’améliorer l’existant, fiabiliser les déploiements et accompagner l’évolution de notre plateforme. Vos missions CI/CD Reprendre et simplifier la CI existante Clarifier les triggers et améliorer la cohérence des pipelines Maintenir les runners GitLab self-hosted Organisation Git Réorganiser les dépôts (CI/CD, Terraform, Ansible, code applicatif, scripts…) Infrastructure as Code Reprendre et améliorer l’infrastructure Terraform existante Accompagner l’évolution de l’architecture Support on-premise Gestion de la version logicielle on-prem (hardware, GPU, Linux, drivers) Support technique sur l’infrastructure locale Support production Troubleshooting Analyse et résolution d’incidents Gestion des déploiements Coordination des déploiements complexes Synchronisation infrastructure / application Gestion des migrations et livraisons en étapes Conteneurisation Participer à la dockerisation de l’application Infrastructure & environnements Reprise et évolution des environnements dev / QA / staging / prod Monitoring Installation et maintenance de Grafana Observabilité avec Prometheus et Azure Monitor Évaluation technique Étude de solutions de stockage objet ( Ceph, MinIO )
Mission freelance
Senior cloud engineer Azure H/F
HAYS France
Publiée le
6 mois
500-600 €
Luxembourg
Responsabilités clés : Administration des plateformes Azure DevOps Gestion et optimisation des pipelines Azure DevOps pour les processus CI/CD Développement de solutions Infrastructure as Code, incluant la conteneurisation Collaboration avec les architectes afin de définir les standards et bonnes pratiques Participation aux projets stratégiques de migration vers le cloud Automatisation et optimisation des processus liés à l'environnement Azure Supervision, maintenance et résolution des incidents Gestion des Azure Subscriptions et des Management Groups Garantie de la conformité avec les normes de sécurité et les exigences réglementaires Collaboration avec les équipes infrastructure et les équipes d'ingénierie logicielle
Offre premium
Offre d'emploi
Data Engineer Python / Azure / Ops
VISIAN
Publiée le
Azure
Azure Data Factory
Python
2 ans
Paris, France
La DSI du client recrute un Data Engineer pour concevoir, développer et maintenir les architectures Data nécessaires à l'exploitation des données par les analystes métiers et data scientists. A ce titre, vos principales missions consisteront à : Mener les projets d'intégration (temps réel) et data (big data & insights) Comprendre, analyser et proposer des solutions techniques répondant aux besoins des divers acteurs de la donnée (spécialistes métier, domain managers, architecte, data analystes et scientists) Apporter un éclairage technique sur les architectures Cloud, dialoguer avec les fournisseurs de solutions et les consultants techniques Dans une logique de mise en production, créer et déployer des pipelines de données robustes pour les data scientists et data analysts (collecte, stockage, transformation et exploitation) Assurer une bonne qualité des données pour les projets Machine Learning (préparation, complétude, épuration, enrichissement) dans le but d'optimiser les performances des modèles Améliorer les processus internes : localisation et traçabilité de la donnée, standardisation des flux et des scripts de traitement des données, documentation Collaborer avec les équipes basées à l'étranger pour faciliter le Data-Sharing, échanger sur les best-practices et les moyens d'optimiser les architectures Contribuer à l'amélioration de la gouvernance sur la protection et la confidentialité des données. Toute activité en dehors de celles énumérées au titre des fonctions principales pourra être confiée au collaborateur dans le cadre de son activité en fonction de son évolution au sein du service et des besoins de l'entreprise.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
4144 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois