Trouvez votre prochaine offre d’emploi ou de mission freelance Web service
Votre recherche renvoie 487 résultats.
Mission freelance
Développeur Node / Nest
VISIAN
Publiée le
API
NestJS
Node.js
3 ans
400-480 €
Île-de-France, France
Dans le cadre du besoin d'un de ces clients, Visian chercher un développeur Node / Nest. Voici la description du projet : LE PROJET Tu interviens sur un système de distribution critique qui expose des APIs GraphQL et REST, intègre des systèmes hôteliers tiers, un moteur de recherche (OpenSearch) et des flux événementiels (Kinesis). L'équipe est en phase de consolidation technique (Clean Architecture, SOLID, TDD renforcé) et cherche un troisième développeur backend capable de couvrir architecture et delivery. ~~~~~~ CE QUE TU FERAS Développer et maintenir des microservices NestJS exposant des APIs GraphQL et REST à fort volume. Concevoir et documenter des choix d'architecture (UML, ADRs) en lien direct avec le Tech Lead. Travailler sur un domaine booking riche : transactions, RFP, disponibilités, devis. Contribuer aux revues de code, à la stratégie de tests (Jest, E2E) et à l'amélioration des pratiques. Participer aux rituels techniques inter-équipes avec les frontends et les partenaires intégrateurs. ~~~~~~ POURQUOI REJOINDRE L'EQUIPE Un middleware à fort impact, au coeur de la distribution M&E d'un groupe hôtelier international. Une équipe de taille humaine (Tech Lead + 2 devs + QA + PO), vraie culture d'ingénierie : architecture documentée, tests en place, code review sérieuse. Un Tech Lead engagé sur la qualité et la montée en compétences, pas seulement sur le delivery. Des sujets techniques exigeants : event-driven, caching, observabilité, intégrations tierces, domaine booking complexe. ~~~~~~ PROFIL RECHERCHE MUST : NestJS (v11), Node (v22), TypeScript, GraphQL (Apollo), Docker, SQL/NoSQL, TDD, E2E (Jest), OOP, SOLID, Clean Architecture, APIs REST/GraphQL, microservices, Gitflow, AWS (Lambdas), anglais courant. SHOULD : Redis/Valkey, design d'architecture (UML class, séquence). NICE TO HAVE : AWS OpenSearch, Kinesis, Splunk/OpenTelemetry, CI/CD, Release management, XP domaine booking (transactionnel, RFP). ~~~~~~ SOFT SKILLS Code propre, documenté, maintenable. Vision tech et best practices. Communication claire en français et en anglais. Pédagogie et transmission des valeurs d'équipe. Expérience sur des architectures à haute disponibilité et flux de données complexes. Mindset axé performance, modularité, sécurité. Proactivité. Connaissance Scrum.
Mission freelance
Consultant(e) réseau sécurité - Expert(e) et certifié(e) TUFIN AURORA
PROPULSE IT
Publiée le
Tufin
24 mois
350-700 €
Paris, France
Notre client vient de renouveler les machines Tufin obsolètes et souhaite configurer un module supplémentaire : Secure Change et l'interfacer avec son ITSM (ServiceNOW). Il souhaite également avoir des reporting disponibles dans son outil web PowerBi basé sur l'API Tufin. (exports de préférence en powershell). L'application Tufin est configurée en on-premise sur des appliances Tufin (T-820-worker nodes et T1220-data node) en Aurora. L'objectif est également un accompagnement sur la mise en place de la haute disponibilité et l'ajout du périmètre AWS. Prestation attendue Dans le cadre de cette prestation, le prestataire aura pour mission de : - Etablir les workflows avec Safran pour les demandes suivantes : • ouvertures/fermetures de flux réseaux • mises à jour de groupes de sécurités sur les équipements • vérifications de flux réseaux • extract de règles pour une application/service donné - Interfacer ces workflows avec l'ITSM du groupe (ServiceNOW) et le module SecureChange de Tufin. - Mettre à disposition des exports basés sur l'API Tufin. Le but est de construire des KPI (nombre de demande par jour/semaine, nombre de règles modifiées, nombre d'objets, nombres d'objets dupliqués) et construire ces rapports PowerBI basés sur ces exports. - Mettre en place la migration du RUN Tufin vers une équipe dédiée Run N-1 et N-2 actuellement supporté par les experts N-3. Rédaction de document d'exploitation, arbre de décision, aide à la rédaction d'offres de service telle que : création de compte, demande d'export, etc. - Supporter notre client dans l'exploitation du module SecureTrack en proposant des améliorations et/ou des best practices de l'éditeur. - Support à l'ajout des équipements réseaux AWS sur Tufin. Livrables • Les workflows (de préférence sous MS visio) • Les documents demandés par l'équipe SNOW pour l'interfaçage des 2 applications (contenant le nom des champs des formulaires SecureChange par exemple) de type contrat d'interface • Les guides d'exploitations de SecureChange et SecureTrack destinés à l'équipe de RUN N-1 et N-2 sous format word et pdf. • Les exports (dont le/les script/scripts) et les rapports pour les KPI sous PowerBI • Support de formation à destination des référents Réseaux expert N-1/2/3 (sous PPT) Tous les documents (sauf contre-indication) devront être rédigés en Français ET en Anglais. Les prestations ci-dessus devront être réalisées à partir du 01/03/2024 et se terminer au plus tard le 30/09/2024.
Mission freelance
Tech Lead Java
Cherry Pick
Publiée le
Apache Kafka
Java
Spring
12 mois
580-630 €
Paris, France
La compétence TECH LEAD JAVA KAFKA sera intégrée à l’équipe 3PO qui comprendra principalement : 1 chef de projet, 1 Responsable MOE, développeurs, des architectes et des AMOA. Les prestations, objet de ce cahier des charges, se dérouleront au sein du Cellule Maintenance Omega et auront pour objectif (liste non exhaustive), sous pilotage du Responsable MOE 3PO : La maitrise sur la technologie Java ; La participation à l’analyse des besoins et aux travaux préparatoires au développement ; La contribution à la conception technique des applications backend, des interfaces, modèles de données, diagrammes de séquence, gestion des modes dégradés, gestion des logs, ... en appui du MOE ; Le développement de l’application back-end & les tests associés La correction des anomalies de recette détectées par l’équipe AMOA ainsi que lors des tests métiers La revue de code de ces pairs La contribution à la rédaction de la documentation technique (spécifications techniques détaillées, PTI, PTE, Dossier de MEP...) en appui du MOE ; L’apport de son expertise sur les bonnes pratiques / outillage ; La proposition de pistes d’amélioration ; De maitriser les enjeux métiers autour de l’application ; Compétences techniques : Contribution (relecture/MAJ) aux spécifications techniques, contrats d’interfaces, MCD, MPD, flux, et à la gestion de modes dégradés - Spécialiste Architecture Hexagonale - Spécialiste Intégration : • Connaissance de la gestion de l’intégration d’une application au sein d’un SI (gestion des interfaces interapplicatives, format pivots, Kafka, web services, API …) - Maîtrise Expertise Langage de programmation web et frameworks : Java 17+ - Spécialiste Spring, Springboot 3 - Spécialiste Spring JPA, Spring Kafka, Spring Batch, Spring Web, Spring Security - Spécialiste Connaissance et mise en place de micro-services - Spécialiste Bus d’échange : Apache kafka - Spécialiste Usine logicielle (Git,GitLab, GitLabCI, SonarQube) - Maîtrise Base de données : PostGreSql, langage SQL, hibernate - Spécialiste Base de données : ElasticSearch - Notion REST / JSON - Spécialiste Sécurité applicative - Spécialiste Connaissances méthodologiques / certifications Méthodologie projet itératif / agile - Maîtrise Gestion de tests unitaires et d’intégration - Maîtrise
Offre d'emploi
Expert en Administration de Bases de Données
EterniTech
Publiée le
Azure
CI/CD
Microsoft SQL Server
3 mois
Île-de-France, France
Dans le cadre de sa transformation digitale je cherche un Expert en Administration de Bases de Données pour renforcer une équipe technique pour la gestion des bases de données en production, principalement MS SQL Server, dans un environnement hybride incluant des services cloud (AWS et Azure). L’objectif est de garantir une gestion optimale, sécurisée et évolutive des bases de données, tout en automatisant un maximum de processus grâce à des scripts et à des outils de surveillance. L'expert en bases de données jouera un rôle clé dans l'optimisation des performances des systèmes, la mise en place de solutions de sécurité robustes et l'intégration de pratiques DevOps pour améliorer les cycles de développement et de déploiement. Réalisations attendues : Le consultant sera chargé de plusieurs missions, notamment : Gestion des bases de données MS SQL Server : Conception, administration et optimisation des bases de données MS SQL Server en environnement de production, avec un focus sur la gestion des performances, la disponibilité et la capacité. Automatisation des tâches administratives : Développement de scripts (Bash, Python, PowerShell) pour automatiser les tâches courantes comme les sauvegardes, la gestion des logs, et les mises à jour des bases de données. Surveillance des bases de données et de l'infrastructure : Mise en place et gestion d'outils de surveillance (Zabbix, Prometheus, Grafana, OEM) pour suivre la santé et les performances des bases de données en temps réel, avec des alertes proactives pour gérer les incidents. Sécurisation des bases de données : Gestion des rôles et permissions, mise en place de stratégies de chiffrement et d’audit pour garantir la confidentialité et la conformité des données. Déploiement continu (CI/CD) : Implémentation et gestion des processus CI/CD via Azure DevOps pour automatiser le déploiement des bases de données, en intégrant des bonnes pratiques DevOps. Gestion des services PaaS sur les clouds Azure et AWS : Gestion des bases de données PaaS sur Azure (Azure SQL Database, Managed Instances) et AWS (RDS), y compris leur configuration, optimisation et supervision. Technologies demandées : Bases de données : MS SQL Server PaaS : Azure SQL Database, Azure Managed Instances, AWS RDS Scripting et Automatisation : Bash Python PowerShell Surveillance et Monitoring : Zabbix Prometheus Grafana OEM Cloud : Azure : Azure SQL Database, Managed Instances AWS : AWS RDS CI/CD : Azure DevOps (pour l'intégration continue et le déploiement) Sécurité des bases de données : Chiffrement de données : Transparent Data Encryption (TDE) Gestion des rôles et permissions Audit des accès et des modifications Profil recherché : Expérience : Minimum de 5 ans dans l’administration de bases de données, avec une forte expérience sur MS SQL Server et dans les environnements cloud (Azure et AWS). Compétences techniques : Expertise en gestion de bases de données, automatisation des tâches, sécurité des données, et dans l’utilisation d'outils de surveillance. Autonomie et réactivité : Capacité à gérer des incidents de manière proactive en environnement de production.
Offre d'emploi
DIRECTEUR DE PROJET INFRASTUCTURES CLOUD AWS- KBS
KEONI CONSULTING
Publiée le
Cloud
Kubernetes
Web Application Firewall (WAF)
18 mois
20k-60k €
130-600 €
Bordeaux, Nouvelle-Aquitaine
CONTEXTE : EXPERIENCE : 10 ans et plus Métiers Fonctions : Pilotage de projet ou de programme, Directeur de projet Spécialités technologiques : Cloud, Infrastructure, Sécurité informatique, Gestion de la Connaissance, Reporting Dans le cadre de sa stratégie de modernisation et de sécurisation de ses infrastructures numériques, le client souhaite s’entourer d’un DIRECTEUR DE PROJET INFRASTUCTURES CLOUD AWS s pécialisé dans le pilotage de l’intégration, l’exploitation et l’évolution de solutions Cloud sur AWS. Le profil devra être en mesure d’assister les équipes du client tant sur la conception et le déploiement de nouvelles architectures que sur la maintenance opérationnelle des services existants, dans une démarche DevSecOps, axée sur la performance, la sécurité, la fiabilité et l’optimisation des coûts L’ensemble de ces travaux d’homologation, de déploiement et d’accompagnement d’expertise Cloud seront à piloter par le Directeur de Projet recherché MISSIONS Un Directeur de projet est donc recherchée afin de piloter les travaux d’Infrastructures demandés par le projet infrastructure Cloud AWS du client . • Diriger le projet en : o Garantissant la pertinence et l’opportunité du déploiement des services d’infrastructures o Etant responsable de toutes les décisions importantes o Validant les recettes définitives du projet en lien avec le client o Menant toute action pour mener le projet à bonne fin o Gérant et animant la communication auprès des équipes et des différentes instances o Préparant et pilotant la conduite du changement • Gérer les ressources en : o Conduisant, optimisant et en étant responsable de l'ensemble des ressources du projet (humains et budget) o Etant responsable de la gestion financière du projet ainsi que de toutes les exigences définies (qualité, coût, délai...) Expertise souhaitée 2.4. Livrables attendus • Plan de l'organisation du projet et livrables associés • Reporting sur l'alignement du projet • Livrables de la comitologie projets • Plan de communication / conduite du changement et livrables associés • Plan de gestion des ressources et livrables associés Profils/compétences souhaités • Maitrise de l'élaboration et la réalisation des plans relatifs aux produits/services stratégiques pour Le groupe. • Expertise dans la prise en compte des besoins, de leurs évolutions et dans l'accompagnement à la prise de décision raisonnée. • Maitrise de la gestion de la relation client • Expertise dans la gestion de projet et portefeuille de projets. • Très bonne connaissance et capacité à intégrer la dimension développement durable dans les solutions informatiques et cloud • Maitrise des risques et du management de la qualité et de la sécurité informatique (normes, bonnes pratiques, gestion de la connaissance, réglementation,...) • Maitrise de la gestion des compétences sur le projet • Capacité à intégrer le contexte et le SI client concerné par le projet • Maitrise de l’Infrastructures SI et bonne connaissance de la technologie Cloud
Mission freelance
Freelance - Developpeur Java SQL - Lille
KUBE Partners S.L. / Pixie Services
Publiée le
Github
Springboot
SQL
6 mois
300-420 €
Lille, Hauts-de-France
Objectifs et livrables Build Technique (Framework RACE) : Développer les évolutions de la stack de lecture des métadonnées et de déploiement d'API pour la rendre plus automatisée et tendre vers un mode self-service pour l’utilisateur. Support et respect des SLI/SLO : Mettre en place une solution de suivi des SLI automatisée. Garantir la disponibilité et la performance des solutions d'exposition déployées. Accompagnement Utilisateurs : Produire une documentation de référence et guider les équipes dans l'intégration de leurs cas d'usage. Qualité: Garantir le respect des standards de la plateforme pour respecter le niveau de qualité attendu. Mise en place des tests unitaires et d’intégration. Notre stack technique Frameworks : Spring / Spring Boot (Back), Next.js / Angular (Front) Cloud & Infrastructure : AWS, Kubernetes Data & Orchestration : Airflow, Druid, DynamoDB, PostgreSQL (Aurora, Lekabase) CI/CD : GitHub, GitHub Actions Observabilité : Datadog Backlog management : JIRA
Offre d'emploi
ML Engineer / MLOps (H/F)
UCASE CONSULTING
Publiée le
Docker
Kubernetes
Python
1 an
40k-45k €
400-550 €
Île-de-France, France
Bonjour à tous 😀 Je recrute un ML Engineer / MLOps expérimenté pour intervenir sur des sujets IA Générative avec un fort enjeu d’ industrialisation et de mise en production . 👉 Le rôle est clé : transformer des cas d’usage IA en solutions robustes, scalables et maintenues en production (RAG, fine-tuning, optimisation des modèles). 🔴 MUST HAVE • Solide expérience en Python /Pandas/ SQL • Expérience en mise en production de modèles IA • Compétences MLOps (déploiement, monitoring, industrialisation) • Maîtrise des architectures GenAI (RAG, fine-tuning) • Expérience sur Docker / Kubernetes • Environnement Cloud (AWS) • Maîtrise d’au moins un framework ML ( PyTorch, TensorFlow… ) 🟢 NICE TO HAVE • Expérience en Prompt Engineering • Outils type LangChain / frameworks LLM • Expérience optimisation performance (coûts, latence) • Cas d’usage GenAI en production • Environnement data / pipelines d’ingestion
Mission freelance
Développeur .net
Mindquest
Publiée le
.NET
C#
Docker
1 mois
Lyon, Auvergne-Rhône-Alpes
- Participer au développement de nouvelles fonctionnalités pour un service web existant - Concevoir et implémenter des solutions robustes et scalables - Intervenir sur l’architecture applicative et les évolutions techniques - Assurer l’intégration et le déploiement dans un environnement conteneurisé Compétences techniques requises: - Excellente maîtrise de .NET / C# - Expérience confirmée avec Razor Pages - Bonne connaissance des environnements Docker - Maîtrise des bases de données PostgreSQL - Expérience en développement de services web
Mission freelance
Expert N3/ architecte kubernetes - mission conseil et audit
FUZYO FRANCE
Publiée le
Cloud
DevOps
Kubernetes
10 jours
Paris, France
Responsabilités principales Conduire un audit complet de l’environnement Kubernetes (on‑prem VMware &/ou AWS). Analyser : Le design des clusters Le dimensionnement et les patterns de déploiement Les composants critiques du control plane et du data plane Le réseau, les CNI et la haute disponibilité Réaliser un audit de sécurité Kubernetes : RBAC Network Policies Gestion des secrets Durcissement du cluster (CIS, benchmarks) Posture globale de sécurité Évaluer les pratiques CI/CD & GitOps (ArgoCD, FluxCD, Jenkins…). Analyser l’écosystème d’observabilité : Prometheus, Grafana, EFK/ELK, alerting, métriques. Examiner les pratiques de conteneurisation avancée : optimisation d’images, best practices Docker/OCI, gestion des registries. Produire les livrables : Rapport d’audit complet Analyse des risques Roadmap d’amélioration détaillée Recommandations stratégiques et techniques Compétences techniques requises Kubernetes (Expert N3) Maîtrise avancée du fonctionnement interne des clusters (API Server, Scheduler, ETCD…) Expertise multi-environnements : on‑prem VMware, cloud AWS (EKS). Sécurité Kubernetes RBAC avancé Zero trust Network Policies complexes Secrets management Standards CIS et CNCF CI/CD / GitOps ArgoCD, FluxCD, Jenkins, GitLab CI Pipelines Kubernetes natifs Helm / Kustomize (un plus) Observabilité Prometheus & Alertmanager Grafana ELK/EFK Traces, logs, monitoring applicatif & infra Conteneurisation Optimisation Docker/OCI Multi-stage builds Scanners / image policies Profil recherché 7 à 12 ans d’expérience en DevOps / Cloud / Kubernetes, dont au minimum 5 ans sur Kubernetes. Expérience confirmée en architecture, audit, design de clusters. Capacité à vulgariser les sujets complexes. Rédaction impeccable de rapports et recommandations. Autonomie totale, posture conseil / expertise.
Mission freelance
Coach Sécurité des Projets / Architecte Sécurité (H/F)
Sapiens Group
Publiée le
DORA
ISO 27001
RGPD
12 mois
720-750 €
Île-de-France, France
Missions principales Accompagnement sécurité des projets Coacher et accompagner les projets métiers et infrastructures sur l’intégration de la sécurité Appliquer la démarche d’intégration sécurité dans les projets (Security by Design) Support sécurité aux équipes projet (IT, infra, applicatif) Architecture et validation sécurité Évaluer et valider les architectures techniques (DAT, 3 tiers, segmentation, API, etc.) Définir et concevoir des architectures de sécurité pour applications et infrastructures Concevoir des infrastructures sécurisées d’hébergement applicatif (sécurité périmétrique, relais de sécurité) Analyse de risques et sécurité Réaliser des analyses de sécurité et d’évaluation de risques SI Formaliser des recommandations de sécurité avec priorisation Identifier les exigences de sécurité et leur déclinaison opérationnelle Participer aux revues de sécurité et aux tests d’intrusion Cloud & technologies modernes Définir et analyser les architectures sécurisées sur AWS, Azure et GCP Analyser la sécurité des services PaaS des principaux cloud providers Définir et maintenir les standards et patterns d’architecture cloud sécurisée Maîtriser la sécurité des containers (Kubernetes, Docker, OpenShift, Podman) Contribution transverse sécurité Rédiger des guides, standards et référentiels de sécurité Contribuer aux politiques et stratégies SSI Participer aux audits sécurité (ISO 27001, PCI-DSS, SOC2…) Suivre les plans de remédiation sécurité
Offre premium
Offre d'emploi
Data Mesh Platform Manager
EXteam
Publiée le
Data Mesh
3 ans
Levallois-Perret, Île-de-France
Objectifs et livrables Key Responsibilities Platform Build and Delivery (Core Responsibility) Responsibilities Design and implement the Self-Service Data platform architecture Define platform capabilities (data products, pipelines, governance, observability, self-service access) Define and enforce technical standards and architecture patterns Ensure scalability, performance, and security Make hands-on technical decisions and solution validation Expected Deliverables Architecture decision records (ADR) Reference architecture patterns and reusable templates Platform capability roadmap Platform technical standards Cloud Architecture and Infrastructure Responsibilities Drive the Design and operate cloud and hybrid architecture with the Group Data Architect Coordindate with the Group Data Delivery Team the implementation on Amazon Web Services and Microsoft Azure Lead the Integration of on-premise systems Lead the Implemention of automation and infrastructure as code Ensure security and compliance requirements Expected Deliverables Cloud architecture blueprint (with the help of the Group Data Architect) Security and access management framework Delivery and Execution Management Responsibilities Own platform delivery lifecycle Define backlog and prioritization process Manage releases and production deployment Track performance and reliability Manage risks and technical issues Expected Deliverables Platform roadmap (short / mid / long term) Product backlog and prioritization framework Release plan and version management process Delivery tracking dashboards Platform SLA / reliability metrics Deployment and Domain Adoption Responsibilities Deploy platform across business domains Enable domain teams to build data products Deploy Data Mesh operating model Support onboarding and adoption Resolve operational adoption challenges Expected Deliverables Domain onboarding framework and process Data product lifecycle guidelines Domain enablement playbooks Adoption and usage metrics Training materials and onboarding documentation Product Management (Usage-Driven) & Continuous improvement Responsibilities Capture user needs and platform requirements Define product vision and roadmap Measure usage and value delivery Improve developer and user experience Expected Deliverables Product vision and value proposition Platform KPIs and adoption metrics User feedback loops and improvement backlog Platform enhancement roadmap Documentation, Standardization & Governance Responsibilities Document platform capabilities and processes Ensure compliance with group Federated Computational Data Governance Expected Deliverables Platform documentation repository Technical standards and implementation guidelines Governance and compliance framework Best practice playbooks Operational Communication and Executive Reporting Responsibilities Communicate platform progress and impact Provide executive-level reporting Manage stakeholder alignment Expected Deliverables Executive Project Dashboard Platform performance dashboards Steering committee presentations Decisions, Risks and issues tracking Internal Promotion and Evangelization Responsibilities Promote platform value across the organization Support internal adoption initiatives Build platform community Expected Deliverables Internal platform communication materials Adoption strategy and rollout plan Platform demos and use case portfolio Required Experience Minimum 15 years of experience in data platform, data engineering, or architecture Proven experience building and delivering production-grade data platforms Strong experience in hands-on technical delivery and implementation Experience in platform engineering or advanced data engineering Experience in large-scale enterprise or multi-entity environments Practical experience with Data Mesh mandatory. Technical Skills Architecture & Engineering Distributed data architecture Distributed systems design Infrastructure as code DevOps / DataOps / CI/CD practices Performance and scalability engineering Cloud & Infrastructure Advanced expertise in AWS and Azure Hybrid and on-premise architectures Cloud security and governance Data Platform Data products and data lifecycle management Data pipelines and orchestration Metadata and catalog management Data governance frameworks Data observability Product & Delivery Product mindset applied to technical platforms Roadmap and backlog management Agile delivery methodologies Value-driven development Critical Soft Skills Strong technical and operational leadership Execution and delivery mindset Ability to operate hands-on in complex environments Excellent cross-functional communication Strong ownership and accountability Problem-solving and pragmatic decision-making Ability to influence without direct authority Strategic thinking with operational focus Stakeholder management at executive and operational levels Fluent English (mandatory — written and spoken) Success Metrics Platform successfully delivered and operational in production Adoption across business domain Number and quality of deployed data products Platform reliability and performance User satisfaction and platform usage Reduced time-to-market for data use cases
Offre d'emploi
Data Engineer
KP2i
Publiée le
CI/CD
Cortex XSOAR
DBT
1 an
40k-45k €
400-550 €
Île-de-France, France
🚀 Data Engineer – 5+ ans d’XP | anglais requis | dispo ASAP ? Je recherche un Data Engineer pour une mission chez un grand compte international, au sein d’une équipe Data E-Commerce en forte croissance. 👉 Le contexte Des projets stratégiques autour de la Customer Data Platform, du CRM et des audiences digitales, avec de forts enjeux de performance, d’attribution et de structuration de la donnée. 👉 Ce que vous allez faire Construire et optimiser des pipelines data Structurer et modéliser la donnée (data marts, CDP) Contribuer à la performance e-commerce & CRM Collaborer avec les équipes Data Science Automatiser et industrialiser les process (CI/CD) 👉 Stack Snowflake • DBT • AWS • SQL • Power BI / Tableau 👉 Bonus ++ Appétence IA for delivery (Cortex, automatisation DBT, génération de code, optimisation des pipelines data) 👉 Infos clés 5+ ans d’expérience requis Anglais obligatoire Démarrage : ASAP 📩 Vous êtes disponible rapidement ou connaissez quelqu’un ? Écrivez-moi en MP.
Mission freelance
249565/Administrateur Snowflake
WorldWide People
Publiée le
Snowflake
6 mois
Saint-Denis, Île-de-France
Administrateur Snowflake * Expertise avancée sur Snowflake : architecture, Virtual Warehouses, RBAC, performance. * Compétences solides sur AWS (réseau, PrivateLink, Direct Connect). * Maîtrise de Terraform pour gérer l’IaC Snowflake / AWS. * Connaissances confirmées en DataOps, CI/CD, pipelines de déploiement (Snowflake, dbt, Airflow). * Maîtrise des sécurités avancées : Key-Pair, Network Policies, intégrations externes. * Compétences en scripting SQL/Python, Snowflake Tasks & Streams pour automatisations. * Capacité à assurer un troubleshooting avancé : requêtes lentes, locks, optimisation. * Sensibilité FinOps : monitoring de consommation, optimisation de coûts, Resource Monitors. Contexte de la mission * Environnement technique basé sur Snowflake hébergé sur AWS, incluant PrivateLink, Direct Connect, dbt, Airflow et Terraform. * Projet stratégique de migration d’Oracle Exadata vers Snowflake dans le cadre de la stratégie NextGen. * Travail en co‑construction avec le pôle archi pour les revues d’architecture et la définition de l’architecture cible. Objectifs de la mission * Participer au design et au build des fondations de la plateforme Snowflake (sizing, isolation des workloads). * Mettre en place la sécurité cible : matrice RBAC, gestion des accès, modèles d’authentification. * Créer et maintenir les socles d’Infrastructure as Code avec Terraform. * Assurer la gestion courante et la sécurisation de la plateforme : rôles, utilisateurs, Network Policies, comptes techniques, intégrations externes. * Optimiser les performances, les coûts et la fiabilité : FinOps, tuning, monitoring, troubleshooting. Compétences demandées Compétences Niveau de compétence Programmation Python Avancé Snowflake Data Cloud Expert IBM Terraform Expert Optimisation SQL Avancé AWS Confirmé cicd Confirmé
Offre d'emploi
Ingénieur système et réseaux Linux (H/F)
Linkup Partner
Publiée le
Administration linux
Administration système
Serveur
1 an
40k-45k €
400-520 €
Courbevoie, Île-de-France
Contexte Dans le cadre du renforcement de nos équipes infrastructures, nous recherchons un Ingénieur Systèmes & Réseaux orienté Linux pour intervenir sur des environnements de production critiques. Vous rejoindrez une équipe en charge de l’exploitation, du maintien en conditions opérationnelles et de l’évolution des infrastructures systèmes et cloud. Missions Administration et exploitation d’environnements serveurs (80 % Linux / 20 % Windows) Mise en place et gestion de serveurs Apache sous Debian Supervision et monitoring via Centreon Garantie de la continuité de service (performance, mémoire, stockage, sauvegardes) Gestion des incidents et troubleshooting niveau 2/3 Administration des environnements virtualisés (VMware) Gestion des infrastructures réseau et sécurité (Firewall Fortinet) Gestion des certificats web et des procédures de décommissionnement Participation à l’automatisation et à l’amélioration continue Environnement technique Systèmes : Linux (Linux 8/9/10, Oracle), Windows Server (2016, 2019, 2022, 2025) Cloud : AWS Supervision : Centreon Scripting : Shell, Python
Mission freelance
Ingénieur Snowflake
STHREE SAS pour COMPUTER FUTURES
Publiée le
DBT
Snowflake
12 mois
110-430 €
Île-de-France, France
Bonjour, Je suis à la recherche d’un Ingénieur Snowflake: Missions principales : Ø Concevoir, développer et maintenir des pipelines de données ELT haute performance en utilisant Snowflake et dbt Ø Modéliser les données aux niveaux conceptuel et technique en fonction des besoins métier Ø Optimiser les requêtes SQL et les modèles dbt afin de garantir des performances optimales Ø Mettre en œuvre et maintenir une infrastructure DataOps pour l’automatisation des déploiements Ø Configurer et gérer la sécurité des données (RBAC, Row-Level Security, Dynamic Data Masking) Ø Assurer une ingestion efficace des données depuis AWS S3 vers Snowflake Ø Orchestrer les flux de données via dbt et créer des DAGs avec une gestion appropriée des tags Ø Implémenter des tests de qualité des données via les tests dbt Ø Gérer les aspects administratifs des bases Snowflake
Offre d'emploi
Ingénieur DevOps F/H
AIS
Publiée le
DevOps
1 mois
40k-48k €
240-480 €
Nantes, Pays de la Loire
Vous serez intégré(e) aux équipes d'un de nos clients grands comptes, dans un environnement de haute disponibilité et en contexte international. Vos missions seront les suivantes : - Prendre la responsabilité de bout en bout des environnements bases de données (exploitation, performance, disponibilité, sécurité) - Diagnostiquer et résoudre des incidents complexes et conduire des améliorations durables - Industrialiser, automatiser (scripts, monitoring, sauvegarde/restauration) - Jouer un rôle de référent technique auprès des équipes développement/architecture, en accompagnant l'évolution vers le Cloud, les architectures modernes et l'Infrastructure as Code. Environnement technique : - Microsoft SQL Server, PostgreSQL et/ou Oracle Database. - Elasticsearch - Teradata - Scripting (PowerShell, Bash, Python ou équivalent) - Technologies Cloud (Azure, AWS, OCI)
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
487 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois