Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Mission freelance
Intégration avec Expertise AD/Windows
🎯 Missions principales 🔹 En avant-projet Étudier l’impact non fonctionnel des changements dans le SI (sécurité, exploitation, supervision…). Définir les exigences d’intégration et d’exploitation . Élaborer la stratégie de tests techniques (intégration, exploitation, sécurité, spécifiques). Estimer la charge et les activités d’intégration nécessaires en phase de réalisation. 🔹 En projet (phase BUILD) Vérifier la conformité du déploiement des environnements techniques. Réaliser, en environnement de test représentatif, l’ intégration technique des solutions d’infrastructure . Garantir la conformité des livrables aux spécifications et aux standards d’architecture du groupe. Concevoir, exécuter et documenter les tests techniques et non fonctionnels . Produire les rapports de qualité technique et prononcer la conformité via PV présenté en CAB . Livrer la solution validée à l’exploitation et accompagner la mise en production . Assurer le transfert de connaissances aux équipes d’exploitation. Apporter un support en phase de VSR (Vérification de Service Régulier). 🔹 En parallèle (amélioration continue) Participer à l’ optimisation et l’industrialisation du patrimoine d’intégration (tests, exigences, livrables). Améliorer la standardisation des processus d’intégration technique. Activités spécifiques liées à l’AD Accompagner les équipes techniques dans l’intégration des applications dans l’Active Directory . Assurer la création, administration et mise à jour des GPO . Garantir la conformité des intégrations AD aux politiques de sécurité et aux standards du SI.
Mission freelance
Data Engineer Azure/Snowflake
Au sein de la DSI d’un grand groupe international, vous intégrerez le pôle Data Engineering & Analytics pour contribuer à la construction et à l’industrialisation d’une nouvelle plateforme de données hébergée sur Azure et Snowflake . L’objectif : fiabiliser les pipelines de données, automatiser les déploiements et améliorer la performance et la gouvernance de la donnée dans un contexte cloud. Missions : Concevoir, développer et optimiser des pipelines de données dans un environnement Snowflake / Snowpark / dbt (Python) . Orchestrer les flux via Azure Data Factory et assurer leur intégration dans la plateforme Data. Intégrer et exploiter des APIs pour l’ingestion, la transformation et la diffusion des données. Déployer et maintenir l’infrastructure via Terraform (IaC) . Mettre en place des pratiques CI/CD avec Azure DevOps . Automatiser les tâches récurrentes (PowerShell, Azure CLI). Participer à la modélisation des données (3NF, étoile) avec PowerDesigner . Contribuer à la mise en œuvre d’architectures data de type Data Warehouse et Data Lake . Suivre la qualité, la traçabilité et la conformité (RGPD) des données. Optimiser la performance et les coûts Snowflake. Documenter et partager les bonnes pratiques au sein de l’équipe Data.
Mission freelance
Data engineer GCP SPARK PYTHON
CONTEXTE Contexte La Direction Data, au sein de la Direction du Numérique, a été créée avec la volonté de faire de la Data un levier de croissance des offres numériques. La Direction Data a 3 grandes missions : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l’expérience utilisateurs et mettre à disposition auprès des équipes internes des outils de pilotage et d’aide à la décision. Au sein de l’équipe Silver, la mission se déroulera en collaboration avec les autres équipes de la Data, au cœur de la plateforme Data. Cette équipe est composée d’un product owner, d’un data steward et d’un data ingénieur. Notre stack technique est principalement constitué de Python, Spark, SQL, dbt, BigQuery, Airflow pour l’orchestration des traitements et Terraform ainsi que Terragrunt pour l’industrialisation. Le stack inclut aussi d’autres services de la Google Cloud Platform. MISSIONS : 1. Déployer les datasets normés sur un ou plusieurs des data domain suivants : Utilisateurs, Comportements et Référentiels 2. Accompagner les utilisateurs dans leurs usages 3. Mettre en place le contrôle qualité sur ces datasets En interaction avec les membres de l’équipe, la prestation consiste à : • Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l’équipe • Construire et maintenir des pipelines data robustes et scalables • Accompagner les membres de l’équipe dans l’exploitation et le requêtage des données • Organiser et structurer le stockage des données • Mettre en place et maintenir des infrastructures scalables capables de répondre aux besoins et à l’accroissement rapide du volume de données • Participer aux initiatives de gouvernance des données en assurant la qualité, la fiabilité et l’intégrité des données • Construire et maintenir les workflows de la CI/CD • Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur • Assurer l’évolutivité, la sécurité, la stabilité des environnements • Participer aux différentes instances des data ingénieurs • Contribuer et veiller à la mise à jour de la documentation • Faire de la veille technologique active dans le domaine Expertises demandées pour la réalisation de la prestation : • Au moins 3 ans d’expérience en tant que Data Ingénieur dans un environnement data • Compétences solides en data : structures de données, code, architecture • Expériences dans la conception et la réalisation de pipelines data • Expériences dans un environnement du cloud Google (GCP) • Expériences intégrant BigQuery et Dataplex Universal Catalog • Expériences intégrant les langages Python et SQL • Expériences intégrant Spark • Expériences intégrant dbt • Expériences intégrant Terraform et Terragrunt • Expériences intégrant Gitlab et Gitlab CI/CD • Expériences intégrant les méthodologies Agile : Scrum ou Kanban • Capacité à vulgariser et à communiquer sur des aspects purement techniques
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.