L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 473 résultats.
Mission freelance
Cloud DevOps Engineer orienté Data (GCP)
Gentis Recruitment SAS
Publiée le
DevOps
FinOps
Google Cloud Platform (GCP)
210 jours
400-450 €
Montpellier, Occitanie
Contexte Dans le cadre du renforcement d’une équipe Cloud / DevOps chez un acteur du secteur bancaire basé à Montpellier, nous recherchons un Cloud DevOps Engineer senior orienté plateformes Data. Le consultant interviendra sur la conception, l’implémentation et l’exploitation d’une infrastructure GCP containerisée destinée à supporter différents cas d’usage data (pipelines, traitements et services associés). L’objectif est d’industrialiser et d’opérer une plateforme cloud robuste, sécurisée et scalable, avec une forte culture Infrastructure as Code, GitOps et RUN. Missions principales Implémentation et administration GCP Concevoir et déployer des solutions techniques containerisées sur Google Cloud Platform Administrer et optimiser l’infrastructure GCP : GKE, GCE, GCS, Cloud SQL, VPC, Load Balancer, Private Service Connect, IAM Automatisation et industrialisation Automatiser le provisioning et la gestion des ressources cloud via Terraform et Terragrunt Concevoir et maintenir les pipelines CI/CD (GitLab CI) Standardiser les déploiements et garantir leur reproductibilité Sécurité Implémenter les bonnes pratiques de sécurité sur le cloud et Kubernetes Mettre en place la gestion des secrets et des accès (Vault, SSO) Participer au contrôle des vulnérabilités via des outils de scan (Xray, Trivy) Monitoring et observabilité Mettre en place des solutions de monitoring et d’alerting (Prometheus, Grafana, ELK) Exploiter Google Cloud Observability pour la supervision et le troubleshooting Support et RUN Assurer le maintien en conditions opérationnelles de la plateforme Opérer les déploiements et évolutions via une approche GitOps Garantir la traçabilité, la fiabilité et la conformité des déploiements Compétences indispensables Expérience significative sur Google Cloud Platform : GKE, VPC, IAM, Cloud SQL, GCS, Load Balancer Kubernetes et containerisation (Docker) Terraform et Terragrunt (niveau autonome) Git et GitLab CI Gestion des artefacts et registry : JFrog Artifactory ou GCP Artifact Registry Observabilité : Prometheus, Grafana, ELK, Google Cloud Observability Sécurité : Vault et outils de scan de vulnérabilités (Xray ou Trivy) Bonne culture réseau cloud (VPC, routage, sécurisation des flux) PostgreSQL (déploiement, administration et optimisation) Compétences appréciées Connaissance d’OpenShift Connaissance de l’orchestrateur Kestra Sensibilité aux problématiques FinOps et optimisation des coûts cloud
Mission freelance
Data Engineer Informatica Talend Power B.I SQL (F/H)
CELAD
Publiée le
Big Data
Informatica
Microsoft Power BI
12 mois
400-460 €
Paris, France
Envie d’un nouveau challenge... CELAD vous attend ! 🚀 Nous poursuivons notre développement et recherchons actuellement un Data Engineer – Plateforme Epargne Financière pour intervenir chez un de nos clients du secteur bancaire. 💻💼 Voici un aperçu détaillé de vos missions 🎯 : - Sécuriser la gestion de l’actualisation de l’offre Epargne Financière en lien avec les équipes partenaires distributeurs et producteurs. - Faire évoluer la solution en respectant les standards à jour : implémentation de changements à valeur ajoutée pour le business et traitement de la dette technique. - Contribuer à la gestion du RUN et renforcer la robustesse de la solution. - Renforcer la supervision et la qualité des données.
Offre d'emploi
SRE - Site Reliability Engineer Linux / AWS [Full Remote possible]
Recrut Info
Publiée le
Administration linux
AWS Cloud
Linux
42k-53k €
Lyon, Auvergne-Rhône-Alpes
Rattaché·e au Responsable infrastructure, au sein de l’équipe SRE, vous jouerez un rôle clé dans la gestion et l’évolution de notre infrastructure, composée de serveurs bare metal et de ressources cloud. Votre mission sera d’assurer la fiabilité, la performance et la sécurité de nos environnements de production, tout en veillant à leur amélioration continue. Concrètement, vous prendrez en charge l’exploitation quotidienne des serveurs, en garantissant leur disponibilité et leur bon fonctionnement. Vous assurerez une surveillance constante de l’infrastructure afin de détecter tout incident, d’en analyser les causes et d’y apporter des solutions durables. Vous serez également responsable des mises à jour systèmes et applicatives, en veillant à respecter les meilleures pratiques ainsi que les exigences de conformité liées à notre certification. Une part essentielle de votre rôle consistera à automatiser les opérations récurrentes afin de fluidifier les processus internes et d’augmenter l’efficacité globale de l’équipe. Vous collaborerez étroitement avec les équipes de développement et de QA, en leur fournissant les environnements nécessaires ( serveurs, clusters Kubernetes, bases de données) pour garantir un cycle de vie logiciel fiable et performant. Enfin, vous participerez activement à la conception et à la mise en place de nouvelles solutions techniques visant à optimiser l’évolutivité et la sécurité de notre plateforme. Environnement technique : Linux (requis), AWS (souhaité), Docker (requis), Kubernetes (souhaité), Ansible (souhaité), Terraform (souhaité), Python, Bash (requis), MySQL (souhaité), PostgreSQL (souhaité)
Offre d'emploi
Senior Software Engineer Java – Spring Boot & AWS
KLETA
Publiée le
AWS Cloud
Java
Springboot
3 ans
Paris, France
Nous recherchons un Senior Software Engineer Java pour concevoir, développer et faire évoluer des applications cloud natives sur AWS dans un environnement industriel et à forte exigence de qualité. Vous interviendrez sur des architectures modernes basées sur Spring Boot, microservices et API REST, en intégrant nativement les services AWS (ECS/EKS, Lambda, S3, RDS, SQS/SNS, EventBridge). Vous serez responsable de la qualité du code, de la performance et de la maintenabilité des applications, en appliquant des bonnes pratiques de conception (DDD, Clean Architecture, tests automatisés, observabilité applicative). Vous travaillerez en étroite collaboration avec les équipes DevOps et SRE pour intégrer les applications dans des pipelines CI/CD, garantir une exploitation fiable et optimiser la résilience en production. Vous participerez aux choix d’architecture, aux revues de code et à l’amélioration continue des pratiques de développement. Vous serez également amené à analyser des incidents, proposer des améliorations techniques et accompagner des développeurs plus juniors dans leur montée en compétence.
Mission freelance
101070/Test Engineer Nantes : Cloudera Hadoop,Squash TM (Test Management),MS Azure Databricks,Jira
WorldWide People
Publiée le
Azure
Cloudera
12 mois
330-350 €
Nantes, Pays de la Loire
est Engineer Nantes QUALIFICATION : Cloudera Hadoop,Squash TM (Test Management),MS Azure Databricks,Jira Confluence, Mission à temps plein dans le secteur financier, d'une durée de 1an minimum. Elle consiste à tester et intégrer des solutions de données dans le cadre d'un projet de migration d'un lac de données sur site vers une plateforme cloud Azure Databricks. Contexte : - Cette mission s'inscrit dans un projet de migration d'un lac de données sur site (ODLG) vers une plateforme cloud Azure Databricks pour le domaine financier. - Ce domaine comprend une trentaine de sources de données et une trentaine de cas d'utilisation à migrer d'ici mi-2028. - La mission est axée sur les tests et l'intégration, les tests fonctionnels étant gérés par l'AMOA. Responsabilités : - Définir les scénarios de test et rédiger la documentation de test. - Exécuter les tests. - Enregistrer et suivre les anomalies. - Fournir des indicateurs de progression et de qualité. - Proposer des outils d'automatisation ou d'IA pour optimiser les activités de test et garantir la pérennité des tests, le cas échéant. La prestation nécessite les compétences suivantes : - Maîtrise de Microsoft Azure, Databricks et Cloudera pour l'exécution des tests. - Expérience pratique de Jira/Confluence et Squash pour la documentation et le suivi. - Connaissance d'Archimate pour la documentation. - Capacité à travailler de manière autonome et en équipe. - Solides compétences analytiques et de résolution de problèmes. - Excellentes compétences en communication pour documenter et présenter les activités et les résultats des tests.
Mission freelance
101070/Test Engineer Nantes : Cloudera Hadoop,Squash TM (Test Management),MS Azure Databricks,Jira
WorldWide People
Publiée le
Azure
Cloudera
12 mois
330-350 €
Nantes, Pays de la Loire
est Engineer Nantes QUALIFICATION : Cloudera Hadoop,Squash TM (Test Management),MS Azure Databricks,Jira Confluence, Mission à temps plein dans le secteur financier, d'une durée de 1an minimum. Elle consiste à tester et intégrer des solutions de données dans le cadre d'un projet de migration d'un lac de données sur site vers une plateforme cloud Azure Databricks. Contexte : - Cette mission s'inscrit dans un projet de migration d'un lac de données sur site (ODLG) vers une plateforme cloud Azure Databricks pour le domaine financier. - Ce domaine comprend une trentaine de sources de données et une trentaine de cas d'utilisation à migrer d'ici mi-2028. - La mission est axée sur les tests et l'intégration, les tests fonctionnels étant gérés par l'AMOA. Responsabilités : - Définir les scénarios de test et rédiger la documentation de test. - Exécuter les tests. - Enregistrer et suivre les anomalies. - Fournir des indicateurs de progression et de qualité. - Proposer des outils d'automatisation ou d'IA pour optimiser les activités de test et garantir la pérennité des tests, le cas échéant. La prestation nécessite les compétences suivantes : - Maîtrise de Microsoft Azure, Databricks et Cloudera pour l'exécution des tests. - Expérience pratique de Jira/Confluence et Squash pour la documentation et le suivi. - Connaissance d'Archimate pour la documentation. - Capacité à travailler de manière autonome et en équipe. - Solides compétences analytiques et de résolution de problèmes. - Excellentes compétences en communication pour documenter et présenter les activités et les résultats des tests.
Offre premium
Mission freelance
Expert VDI & Cloud 3D
REESK DIGITAL SOLUTION
Publiée le
3D
Animation
Architecture
36 mois
600 €
Île-de-France, France
Missions principales: Architecturer et optimiser des infrastructures VDI (Virtual Desktop Infrastructure) pour des environnements 3D (Maya, AutoCAD, Houdini, ZBrush, Unreal Engine, etc.) sous Windows et Linux. Analyser et résoudre les bottlenecks techniques liés aux performances GPU, RAM, et stockage pour des workflows créatifs (rendus, streaming, collaboration à distance). Collaborer avec les partenaires pour industrialiser les solutions et rendre les infrastructures autonomes. Documenter les processus techniques et former les équipes internes. Anticiper la transition vers Linux pour les studios (optimisation RAM, réduction des coûts). Participer à la roadmap pour le déploiement de solutions VDI dans l’industrie (ex : BNP, EDF).
Offre d'emploi
« Senior Windows System Engineer – Technical Coordinator » - Luxembourg
EXMC
Publiée le
Active Directory
ADFS
Coordination
4 ans
Luxembourg
« Senior Windows System Engineer – Technical Coordinator » (H/F) Description des tâches : COMPÉTENCES GÉNÉRALES · Minimum 8 années d’expérience professionnelle en environnement IT · Facilité d’intégration et goût pour le travail en équipe indispensable · Autonomie dans le travail · Fort esprit d'initiative et capacité à gérer des tâches multiples · Polyvalence et rigueur de travail · Bonne compétence organisationnelle et aisance de communication · Esprit d’analyse pour la résolution de problèmes · Expérience en environnement critique (secteur financier, SLAs élevés, exigences fortes de qualité · de service) Respect des procédures administratives et de l’organisation existantes · Rédaction de documentations et transfert des connaissances · Maîtrise des langues française et anglaise, la connaissance du Luxembourgeois constitue un atout. COMPÉTENCES TECHNIQUES REQUISES · Expertise confirmée en environnements Windows Server (2016, 2019, 2022, 2025) · Maîtrise avancée de PowerShell (développement et automatisation) · Très bonnes connaissances des technologies Microsoft : o Windows Failover Cluster o Active Directory o ADFS o ADCS · Maîtrise des pratiques de sécurisation et de cybersécurité des environnements Microsoft · Gestion/Coordination de projets techniques COMPÉTENCES TECHNIQUES COMPLÉMENTAIRES (AOUT) • VMware et Omnissa Horizon • Réseaux (DNS, Webproxy, Firewall, Loadbalancing,…) • Applications Bancaires • MS Project PROFIL ET ORGANISATION • Profil technique avancé • Capacité à planifier et gérer ses travaux de façon autonome • Possibilité de coordonner des travaux inter-équipes • Présence sur site jusqu’à 5 jours par semaine • Télétravail possible mais limité • Horaires de travail sont flexibles entre 07h00 et 19h00 avec plage de présence 09h00–16h00 MISSION La mission de l’ingénieur système consiste à : • Participation aux projets / Gestion de mini projet • Prendre part à une équipe aux compétences vastes (Windows, VMWare, Applications tier, • Sécurité, Troubleshooting avancé,..) • Amélioration/fiabilisation/Automatisation des systèmes • Participation aux traitements des tickets Level 3 • Rédiger les documentations • Effectuer le transfert de connaissances aux équipes Level 2 Merci d’adresser votre CV actualisé, une date de disponibilité, vos prétentions salariales dans le cadre d’un contrat de travail, ou votre TJM pour les indépendants, par e-mail à
Mission freelance
Data Platform Engineer (Hadoop CDP/HDP, Spark, Airflow, Kubernetes) - IDF
ISUPPLIER
Publiée le
Apache
Hortonworks Data Platform (HDP)
Kubernetes
1 an
450-650 €
Île-de-France, France
Objectifs de la mission Le bénéficiaire souhaite une prestation d’accompagnement pour assurer le MCO des Infrastructures HDP et CDP, administration des Clusters, Prestations demandées Les missions sont: Les consultants retenus auront pour mission : • Administration et optimisation de clusters HDP/CDP • Installation, configuration et maintenance des clusters. • Gestion des mises à jour et des patchs de sécurité. • Surveillance des performances et optimisation des ressources. • gestion/administration de clusters Kubernetes • Automatisation des déploiements avec Operators…, etc. • Sécurisation et monitoring des environnements conteneurisés. • Orchestration des workflows avec Apache Airflow : • Développement et optimisation des DAGs pour la gestion des pipelines de données. • Gestion des dépendances et optimisation des temps d’exécution. • Intégration avec les autres outils de l’écosystème. • Traitement et analyse des données avec Apache Spark : • Développement et optimisation des jobs Spark (batch et streaming). • Gestion des performances et tuning des jobs. • Intégration avec les systèmes de stockage distribués. • Optimisation des requêtes et accès aux données avec Starburst : • Configuration et administration de Starburst. • Optimisation des requêtes SQL distribuées. • Sécurisation et gestion des accès aux différentes sources de données. Français/Anglais
Mission freelance
POT8982 - Un intégrateur AWS Platform Engineer sur Paris 02
Almatek
Publiée le
API
6 mois
Paris, France
Almatek recherche pour l'un de ses clients, un intégrateur AWS Platform Engineer sur Paris 02. Contexte: Dans un environnement en pleine transformation avec des évolutions technologiques rapides, vous rejoindrez une équipe Global Information Technology Services (TGITS). Cette équipe gère la construction et le support de la plateforme Data &Analytics utilisée par l’ensemble des entités de l’entreprise. Rôles et responsabilités : En tant que membre du squad Data and Analytics Platform, vous participerez aux activités suivantes : • Le développement / mise à jour / maintenant du code infrastructure Terraform nécessaire dans Azure et / ou AWS, en conformité avec les règles de sécurité et les pratiques internes. • Enrichissement de la documentation a l’attention des utilisateurs • Conception et maintenance de chaînes de de ploiement automatise (CICD) PROFIL : De formation Bac+5 en informatique ou équivalent, vous êtes sensibilise s aux concepts de gouvernance, de sécurité et de règlementation de la donnée ou de son exploitation. Compétences requises : • Expérience significative sur le cloud AWS. • Bonne connaissance de la méthodologie Agile. • Expérience sur des outil de code augmenté à l’IA. • A l’aise dans les interactions avec les parties prenantes. • Force de proposition et désireux(se) d’apprendre en continu. Expérience requise : 2 ans d’expérience minimum : Administration de datalake : • Exploitation d’un datalake cloud (AWS) • Gestion des stockages (S3), schémas, lifecycle rule policies • Sécurité, IAM, accès, gouvernance data • Gestion VPC, NSG, ACLs • Fiabilité, performance, coûts Développement de micro-services : • Python • APIs (REST, event-driven) Administration plateforme • Terraform • CI/CD et Infra as Code • GitHub, GitHub Action • Déploiement containerisé (EKS/ECS) • Monitoring et supervision Langues : Anglais et Français
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
473 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois