L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 134 résultats.
Mission freelance
Data Engineer Nantes /st
WorldWide People
Publiée le
Python
12 mois
340-390 €
Nantes, Pays de la Loire
Data Engineer Nantes •Langages de programmation et scripting (ex : SQL, Python, Java, Bash/Shell scripting, …) •Bases de données (ex : Base, Data Warehouse, Data Lake, Data Platform / Lakehouse, …). •Traitement des données (Frameworks Big Data, comme Apache Spark, Pipelines ETL/ELT, Streaming, …) •Cloud Computing (ex : Azure, Concepts cloud, stockage et calcul distribués, …) •Modélisation des données et architecture (ex : Modélisation des données relationnelles et dimensionnelles, modèle en étoile, en flocon, compréhension des architectures Data Lake, Data Warehouse, et Data Platform / Lakehouse, …) •Gestion et optimisation des schémas pour les performances. •DevOps et ingénierie logicielle (ex : outils CI/CD, conteneurs et orchestration, versionnement via Git/GitHub pour le suivi du code source, surveillance et journalisation, …) •Outils de gestion des données et gouvernance (Qualité des données : Vérification des duplications, gestion des erreurs, validation… Gouvernance des données : Connaissance des politiques comme le RGPD, gestion des catalogues, Sécurité des données…) 07/04/2026 Mission longue Ce poste est ouvert à la pre-embauche Le Data Engineer est un expert en gestion des données, qui est chargé de la conception et de la maintenance de l’infrastructure data du périmètre en responsabilité Tâches : Infrastructures de données : •Cartographie et documente les sources de données. •Assure la maintenance des différentes applications données (Data) déployées en production et des infrastructures. •Conçoit les solutions permettant le traitement de volumes importants de flux de données et ceci en toute sécurité. •Structure les bases de données (sémantique, format, etc.). •Contribue à la gestion des référentiels de données. Intégration des données : •Capte et stocke, en toute sécurité, les données (structurées ou non) produites dans les différentes applications ou venant de l’extérieur de l’entreprise. •Assure la supervision et l’intégration des données de diverses nature qui proviennent de sources multiples. Vérifie la qualité des données qui entrent dans la Data Platform et s’assure de leur sécurité. •Nettoie la donnée (élimination des doublons…) et la valide pour une utilisation aval. •Animation des communautés : •Anime la communauté technique qui met en oeuvre les dispositifs prévus ou nécessaires à l’application de la politique de la donnée de l’entreprise. Veille technologique : •Reste en alerte sur les technologies liées au traitement de la manipulation de la donnée et identifie les solutions utilisables. •Propose des évolutions pour les infrastructures et solutions de données en place. Compétences Technique : •Langages de programmation et scripting (ex : SQL, Python, Java, Bash/Shell scripting, …) •Bases de données (ex : Base, Data Warehouse, Data Lake, Data Platform / Lakehouse, …). •Traitement des données (Frameworks Big Data, comme Apache Spark, Pipelines ETL/ELT, Streaming, …) •Cloud Computing (ex : Azure, Concepts cloud, stockage et calcul distribués, …) •Modélisation des données et architecture (ex : Modélisation des données relationnelles et dimensionnelles, modèle en étoile, en flocon, compréhension des architectures Data Lake, Data Warehouse, et Data Platform / Lakehouse, …) •Gestion et optimisation des schémas pour les performances. •DevOps et ingénierie logicielle (ex : outils CI/CD, conteneurs et orchestration, versionnement via Git/GitHub pour le suivi du code source, surveillance et journalisation, …) •Outils de gestion des données et gouvernance (Qualité des données : Vérification des duplications, gestion des erreurs, validation… Gouvernance des données : Connaissance des politiques comme le RGPD, gestion des catalogues, Sécurité des données…) Compétences Métier : •Compétences analytiques et mathématiques (Compréhension des statistiques pour interpréter les données et aider les équipes de Data Science, Familiarité avec les bases de l’apprentissage automatique et des modèles d’IA, …). •Résolution de problèmes : Capacité à identifier des inefficacités et à proposer des solutions. •Communication : Présentation claire des concepts techniques à des publics non techniques. •Adaptabilité : Apprendre rapidement de nouvelles technologies dans un domaine en constante évolution
Mission freelance
Expert sécurité salesforces core
Kamatz
Publiée le
Salesforce
Salesforce Sales Cloud
Sécurité informatique
9 mois
Paris, France
Mission : Nous recherchons pour l'un de nos clients un Expert Sécurité Salesforce Core & AMD pour sécuriser leur CRM, protéger les données clients stratégiques (Account, Market, Decision‑maker) et assurer la conformité aux normes (RGPD, ISO 27001). Responsabilités : Gérer les accès et permissions sur Salesforce Core Sécuriser les données AMD et les objets critiques Mettre en place MFA, SSO et autres mesures d’authentification Surveiller logs et événements via Salesforce Shield Auditer la conformité et former les utilisateurs Analyse des risques et gestion des incidents Administration avancée Salesforce Core (Profils, Permission Sets, Sharing Rules) Gestion des objets, champs et enregistrements sensibles (y compris AMD) Salesforce Shield (Field Audit Trail, Platform Encryption, Event Monitoring) Sécurité des API et intégrations SSO, OAuth, MFA
Mission freelance
Chef de projet / Lead Sécurité Data & Cloud (GCP)
Inventiv IT
Publiée le
BigQuery
Data governance
DBT
6 mois
600-700 €
Niort, Nouvelle-Aquitaine
Suite à un audit interne (septembre 2024), le Data Office doit : • Structurer une roadmap sécurité Data • Renforcer la protection des données • Améliorer le maintien en condition opérationnelle (PRA/PRI) • Sécuriser la trajectoire de migration Cloud (GCP) • Aligner les pratiques avec les exigences RSSI / PSSI / RGPD Environnement hybride : On Prem + GCP. Objectifs de la mission 1. Structurer et piloter la sécurisation du patrimoine Data 2. Mettre en œuvre les exigences PCI / PRI Data 3. Revoir et fiabiliser les habilitations On Prem & Cloud 4. Renforcer la gouvernance des données sensibles 5. Sécuriser les outils Data / BI / Data Science 6. Contribuer aux exigences RSSI (vulnérabilités, audits, recommandations) Expérience • 8 à 15+ ans en sécurité SI / sécurité Data • Expérience environnement Cloud GCP impérative • Expérience PRA/PCA Data • Expérience gouvernance Data / RGPD • Capacité de pilotage transverse Compétences clés • Architecture sécurité Cloud (GCP) • BigQuery security & Data masking • IAM avancé • PRA / PRI • Data Governance • Sécurité applicative Data • Environnements Hadoop / Oracle Soft skills • Leadership transverse • Capacité à dialoguer avec RSSI & CoDir • Structuration roadmap • Vision stratégique + opérationnelle
Offre d'emploi
Expert Sécurité SI & Analyse de Risques - TOULOUSE
Ewolve
Publiée le
EBIOS RM
Gouvernance, gestion des risques et conformité (GRC)
ISO 27001
2 ans
40k-45k €
400-500 €
Toulouse, Occitanie
Nous recherchons un Consultant Sécurité des Systèmes d’Information pour intervenir chez un client grand compte du secteur bancaire . Au sein des équipes projets et en interaction avec les équipes sécurité et support, vous interviendrez en assistance technique avec un rôle de conseil et d’expertise. Vos principales missions Assister et conseiller les chefs de projets dans l’identification des risques SSI et la définition des plans d’actions associés Définir les exigences en matière de : Sécurité des SI Continuité d’activité Lutte contre la fraude RGPD Réaliser des analyses de risques SSI (arbitrage et priorisation des risques) Contribuer à la sensibilisation des collaborateurs aux enjeux de cybersécurité Assurer une veille sécurité et participer aux études internes Suivre les alertes et incidents de sécurité et en assurer le support Répondre aux sollicitations des RSSI de différentes entités régionales
Offre d'emploi
Consultant sécurité ISP
KEONI CONSULTING
Publiée le
API
Architecture
Cloud
18 mois
20k-60k €
100-500 €
Toulouse, Occitanie
CONTEXTE SECURITE - Consulting en support Sécurité au projet - MISSIONS Assister et conseiller les chefs de projets dans l'identification des risques et des solutions SSI liés à leurs activités ou projets. Définir les exigences de sécurité , continuité , fraude, rgpd en lien avec les équipes de support Réaliser des analyses de risques SSI pour arbitrage des risques Contribuer à la sensibilisation des collaborateurs au quotidien en matière de sécurité des systèmes d'information. Effectuer une veille sécurité des systèmes d'information, participer aux études i-BP Assurer le suivi des alertes et des incidents de sécurité et en assurer le support Répondre aux sollicitations des Rssis Expertises spécifiques : Bonne connaissance globale de la sécurité des SI Architecture des SI Connaissances réglementaires ( PCI-DSS, DSP2, LPM, NIS2..) Connaissances des technologies cloud, Api,microservices Connaissances Bancaire si possible ISO 27001/ISO 27005 /EBIOS souhaitée CISSP/CEH appréciés
Mission freelance
Data Engineer Senior – Databricks / AWS / Airflow (Core Data Platform)
CHOURAK CONSULTING
Publiée le
Apache Airflow
AWS Cloud
CI/CD
3 mois
400-550 €
Île-de-France, France
Nous recherchons un Data Engineer Senior pour rejoindre une équipe Data stratégique au sein d’un acteur international, avec des enjeux forts autour de la performance financière et de la fiabilité des données RH & Finance . 🎯 Contexte de la mission Vous intégrerez une équipe Core Data Product composée d’un Product Manager et de plusieurs Data Engineers. La Data est au cœur des décisions stratégiques. L’équipe est actuellement engagée dans une revue globale de son architecture et de sa modélisation , avec un objectif clair : moderniser la plateforme et transformer la stack legacy vers les nouveaux standards Data Platform. ⚙️ Missions principales Concevoir, construire et maintenir des pipelines et infrastructures data robustes et performantes . Optimiser l’architecture et la modélisation des flux. Participer à la transformation vers les nouveaux standards de la Data Platform. Garantir la qualité, la fiabilité et la gouvernance des données (Finance & HR). Assurer un RUN de qualité selon le principe “You build it, you run it”. Promouvoir les bonnes pratiques : CI/CD, revue de code, qualité du code . Garantir la sécurité et la conformité des données (RGPD). Évoluer en environnement Agile au sein d’une équipe internationale (anglais quotidien).
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
134 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois