Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Mission freelance
TEch Lead data ENgineer
🚀 Mission Freelance – Tech Lead Data Engineer (H/F) 🗓️ Démarrage : ASAP 📆 Durée : 3 ans 📍 Localisation : Hauts-de-Seine (92) – 3 jours sur site / semaine 💰 TJM max : 600€ 💼 Expérience requise : 5 ans minimum en tant que Tech Lead ⚠️ Compétences techniques indispensables : • Databricks (Expert) • Spark (Expert) • Azure (Confirmé) • Excellente maîtrise de la modélisation de données 🎯 Objectif de la mission : Accompagner la direction Data dans la structuration technique et l’industrialisation des traitements de données, tout en garantissant la montée en maturité des équipes et la qualité des livrables. 🛠️ Vos responsabilités principales : • Assurer un leadership technique fort au sein des équipes Data • Définir et diffuser les guidelines techniques et standards de développement • Concevoir une architecture Azure / Databricks performante et sécurisée • Superviser la conception, le développement et les tests des pipelines Data • Réaliser la modélisation des données et garantir leur cohérence dans le SI • Identifier et prioriser la dette technique pour planifier sa résorption • Conseiller les équipes métiers et techniques pour aligner la vision stratégique • Promouvoir les bonnes pratiques Data Engineering et animer la communauté interne • Participer à des POCs et assurer une veille technologique continue ✅ Livrables attendus : • Guidelines techniques et standards de développement • Cartographie priorisée de la dette technique 📢 Suivez Suricate iT pour découvrir toutes nos missions. 👉
Offre d'emploi
Lead Devops H/F
À propos de nous : Grafton Recruitment, spécialiste de l'intérim et du recrutement de profils juniors à professionnels confirmés, recherche un Lead Devops. Vous souhaitez relever un nouveau défi et prendre un rôle clé dans la mise en place d'une culture DevOps ? Nous recrutons pour le compte de notre client un Lead DevOps en CDI à Strasbourg. Vos missions Définir et piloter la stratégie DevOps. Concevoir et optimiser les pipelines CI/CD. Garantir la disponibilité, la sécurité et la performance des environnements (cloud et on-premise). Encadrer et faire monter en compétence une équipe d'ingénieurs DevOps. Assurer une veille technologique et proposer des solutions innovantes. Profil recherché Expérience confirmée (5 ans minimum) en environnement DevOps. Maîtrise des outils : Kubernetes, Docker, Terraform, Ansible, GitLab CI/CD. Expertise cloud (AWS, Azure ou GCP) et automatisation. Leadership, pédagogie et capacité à travailler en transverse. #LI-ST1
Offre d'emploi
Ingénieur DevOps (F/H)
CDI/Freelance/Portage 💼 – 2 jours de télétravail/semaine 🏠 – 📍 Lille – 5 ans d'expérience minimum Vous êtes passionné(e) par les nouvelles technologies et souhaitez mettre vos compétences au service de projets innovants pour un acteur majeur du retail ? Cette mission est peut-être faite pour vous ! 🚀 Vos missions : Concevoir, mettre en œuvre et maintenir les pipelines CI/CD pour automatiser les processus de build, test et déploiement des applications. Administrer et superviser les environnements d’exécution (on-premise ou cloud), en assurant leur disponibilité, leur sécurité et leur scalabilité. Collaborer avec les équipes de développement et d’infrastructure pour améliorer en continu l’intégration, le déploiement et la fiabilité des services, tout en promouvant les bonnes pratiques DevOps (IaC, monitoring, containerisation, etc.).
Mission freelance
Ingénieur DevOps Système H/F
Dans le cadre d’un projet d’infrastructure Cloud privé de grande envergure , nous recherchons un Ingénieur DevOps Système expérimenté. La mission consiste à intervenir au sein d’une équipe en charge de la mise en œuvre, de l’automatisation et de l’industrialisation des environnements techniques Cloud. Le poste implique la configuration des composants systèmes et d’automatisation, ainsi que la contribution à la documentation et à la fiabilisation des déploiements. Vos principales missions : Mettre en œuvre les configurations techniques définies par les architectes (bastions, proxy, outils d’automatisation, gestion d’images et repositories) Concevoir et développer des rôles Ansible pour automatiser l’installation et la configuration des services et applications Contribuer à la rédaction de la documentation technique et d’exploitation Participer à l’ automatisation et à l’industrialisation des déploiements (CI/CD, Infrastructure as Code, monitoring, observabilité)
Offre d'emploi
Senior IT Subject Matter Expert - Fund Administration
Descriptif du poste Un leader mondial dans le domaine des Services de Titres propose un poste de Senior IT Subject Matter Expert (SME) – Administration de Fonds. Au sein du domaine Administration de Fonds, le poste est situé au cœur de la chaîne de valeur de l'organisation, soutenant la comptabilité de fonds, le calcul de la VNI, le traitement des frais de performance, les rapports clients et l'intégration de nouveaux clients. Le paysage informatique connaît actuellement une transformation majeure visant à moderniser les systèmes existants, à rationaliser les flux de données et à améliorer l'expérience client/utilisateur. L'intégration de nouveaux fonds et clients est un focus stratégique qui nécessite des solutions informatiques robustes et flexibles, garantissant une mise sur le marché plus rapide, des performances et une haute qualité de livraison. Pourquoi nous rejoindre ? Participer à un parcours de transformation stratégique dans l'administration de fonds IT Travailler sur des initiatives de pointe : API, Cloud, DevOps, automatisation des tests, stratégie de données Impact direct sur l'intégration des clients, les rapports et l'excellence opérationnelle
Offre d'emploi
DevOps Kubernetes Engineer / SRE
Au sein d’une équipe d'expertise, vous intervenez en tant que DevOps / SRE Platform sur l'évolution et la maintenance d’une plateforme moderne orientée Big Data & Streaming. L’objectif est d’assurer la fiabilité, l’évolutivité et la sécurité de l’écosystème technique basé sur Kubernetes, Kafka et GCP. Responsabilités principales Migration Cloud & Conteneurs : Migration des composants depuis l’IaaS vers Google Cloud Platform (services managés) et Kubernetes (GKE). Administration Kubernetes & Operators : Gestion et maintenance de clusters Kubernetes (GKE) et déploiement des opérateurs critiques. Data Streaming & Kafka : Maintien de la plateforme Streaming temps réel basée sur Kafka. Orchestration & Pipelines : Administration du Cloud Composer (Airflow) et mise en place de pipelines d’ingestion de données. Infrastructure as Code & Sécurité : Déploiement d’infrastructures via Terraform, gestion du patch management et renforcement de la sécurité des composants. CI/CD & Automatisation : Maintenance et optimisation des pipelines CI/CD (Jenkins, GitLab-CI) et contribution à l’industrialisation des déploiements. Observabilité & Fiabilité : Mise en place et suivi du monitoring (Prometheus, Grafana), gestion proactive des incidents et amélioration continue de la disponibilité des services. Innovation & Support : Réalisation de POC sur de nouvelles technologies, support technique aux équipes de développement et accompagnement des équipes RUN.
Mission freelance
DevOps (Python / Java)
Vous rejoindrez une équipe en charge des pratiques de développement, du Devops, du Cloud et du Numérique Responsable. Besoin : le client cherche jusqu'à 4 profils Devops avec la partie applicative ( Python ou java ) Compétences techniques recherchées : - Langages : Python et/ou Java. - CI/CD : GitLab CI, Jenkins, Azure DevOps… - Cloud & Infra : Azure, AWS ou GCP – Docker, Kubernetes, Terraform. - Monitoring : ELK, Prometheus, Grafana. - Pratiques DevOps : Infrastructure as Code, automatisation, observabilité. Connaissance du secteur assurance/banque ou forte appétence pour les métiers financiers. Bon relationnel, esprit collaboratif et sens de l’amélioration continue.
Mission freelance
Expert technique Systeme Linux
Propulse IT recherche un Expert technique systeme Linux pour intégrer une équipe en charge de la conception, de la mise en oeuvre et du support des infrastructures Linux. Cette équipe souhaite renforcer et élargir son éventail de compétences en avec une prestation d'expert technique spécialisé dans les technologies RedHat Linux. Cette prestation aura pour mission d'assurer un support de niveau N2/N3 sur cette plateforme. Nous cherchons également à intégrer des compétences DevOps, notamment dans les technologies d'orchestration et d'automatisation, afin de soutenir nos équipes et nos projets en cours. L'un des projets techniques auxquels le prestataire devra contribuer est l'automatisation et l'industrialisation du processus de déploiement, visant à aligner nos environnements applicatifs sur les normes en vigueur et à adopter une approche similaire au Cloud pour le déploiement sur site. Dans ce contexte, nous attendons du prestataire qu'il nous aide a monter en compétence et participe à la conception des images Packer nécessaires ainsi que les Playbooks Ansible associés. Prestations : - Assurer le support N2/N3 des infrastructures, des paliers OS et des middlewares actuellement utilisés auprès des équipes de la production - Force de proposition dans le cas ou des actions de support sont automatisables - Participer aux projets techniques sur des environnements Linux (mise en œuvre de nouveaux paliers OS, middlewares et des évolutions d'infrastructures existantes)
Mission freelance
Ingénieur DBA & DevOps (h/f)
Résumé Ce poste vise à moderniser et optimiser nos systèmes de données en intégrant une expertise en administration de bases de données et en culture DevOps/Cloud. Responsabilités : Administrer et optimiser les bases de données OnPrem : PostgreSQL, Vertica, MariaDB, Oracle (11g, 19c – sortie progressive en cours). Accompagner la migration et la gestion des bases sur AWS (RDS, Aurora MySQL, Redshift, Glue). Concevoir et maintenir des pipelines ETL/ELT robustes et industrialisés. Mettre en place les standards de gouvernance des données (qualité, sécurité, conformité). Optimiser les performances (requêtes SQL, tuning, architectures de stockage). Garantir la haute disponibilité, le PRA et la continuité de service. Automatiser la gestion des environnements via IaC (Terraform, Ansible) et intégrer la donnée dans les chaînes CI/CD. Contribuer au monitoring et à l’observabilité (Prometheus, Grafana, ELK). Collaborer avec les équipes Data, BI et IT pour fournir des données fiables et performantes. Effectuer une veille sur les évolutions technologiques (Cloud, Data Lake, Big Data). Gérer l’évolution des schémas BDD via des outils de migration comme Liquibase. Compétences : Bases OnPrem : PostgreSQL, Vertica, MariaDB, Oracle 11g/19c. Cloud : AWS (RDS, Aurora MySQL, Glue, Redshift) – Maîtrise AWS = pré-requis. ETL / Data pipelines : Airflow, Dollar Universe ou équivalent. Langages : SQL avancé, Python, Shell. IaC & DevOps : Terraform, Ansible, Git, Docker, CI/CD – pré-requis. Gestion de schémas BDD : Liquibase (pré-requis). Détails : Localisation: Neuilly sur Seine (92) Télétravail: 2 jours par semaine
Mission freelance
Ingénieur Devops Orleans GitLab CI/CD, Ansible, Terraform
Ingénieur Devops Orleans GitLab CI/CD, Ansible, Terraform Technologies et outils utilisés : DevOps & Automatisation : GitLab CI/CD, Ansible, Terraform Systèmes & Conteneurs : Linux (Debian, RedHat), Windows Server, Docker, Kubernetes Virtualisation & Cloud : VMware, Hyper-V, Azure, AWS Supervision & Monitoring : Centreon, Grafana, Prometheus Cybersécurité : SIEM, EDR, PKI, IAM Profil recherché : Expérience confirmée en environnement DevOps et en administration système. Maîtrise des outils d’automatisation, de supervision et de déploiement. Expérience dans la conduite de projets techniques complexes et structurants. Intérêt marqué pour la cybersécurité et les enjeux SSI. Capacité à fédérer les équipes et à gérer les priorités dans un environnement exigeant. Localisation : Orleans, 3 jours de TT suite à une période de full présentiel. Mission contexte Banque / Assurances Missions principales : Déployer et maintenir les outils DevOps (CI/CD, automatisation, supervision). Administrer des environnements systèmes Linux et Windows, virtualisés et conteneurisés. Piloter des projets techniques complexes (refonte d’architecture, migration vers le cloud, sécurisation des systèmes d’information). Intégrer les exigences de cybersécurité dans les projets et infrastructures. Coordonner les acteurs techniques et fonctionnels autour des enjeux SSI.
Mission freelance
Ingénieur Devops SI
CRITERES DE CHOIX -Gestion des environnements de production - Déploiement et automatisation des déploiements - Langage de programmation : Java, JavaScript Object Notation (JSON) - Intégration continue - Infrastructure critique -Outils DEVOPS : Jenkins, Git, CI/CD - Connaissance sur l’architecture cloud - Linux - Industrialisation (Kubernetes, gitlab-ci, helm) - Docker - Mise en place de processus de tests automatiques - Réalisation de phases de test - Responsable sur les livraison et mise en Production. - Installation d’une plate-forme de production fiable - Gestion du stockage de données - Bases de données MongoDB - Kafka - Infra : Bonnes connaissances des fonctionnalités et de l’architecture des systèmes d’information.
Offre d'emploi
JUNIOR DÉVELOPPEMENT JAVA BACKEND (3-6 ans max)
🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 💡 Contexte /Objectifs : L'entité est en charge du SI du Leasing pour deux lignes métiers:- les financements structurés de la grande clientèle- les financements pour les PME. Le bénéficiaire souhaite mettre en oeuvre plusieurs évolutions de son socle technique. A ce titre, le Bénéficiaire souhaite bénéficier de l'expertise du Prestataire en termes de Conception et développement Dans ce cadre la prestation consiste à contribuer à/au(x) : - La gestion du projet ITRM - La comitologie - Suivi - Reporting Environnement technique : Java 6/7/8/17, spring batch, spring web, xldeplloy, jenkins, SQL, Sonar Autres technologies : XLdeploy, Docker et Kubernetes. 🤝 Livrables : Les livrables attendus sont : Développement JAVA backend pour le projet Maille Contrat (réécriture de l'interface risque). Devops: mise en place de la chaine de déploiement du projet, des serveurs, monitoring etc.
Offre d'emploi
Architecte Cloud Azure & DevOps
Pour le compte de l’un de nos clients, nous recherchons un Architecte Cloud Azure & DevOps afin de contribuer à la mise en place et à l’évolution d’une plateforme de services digitaux partagés . Cette plateforme, hébergée sur Azure , est destinée à toutes les entités du groupe et vise à offrir à leurs clients une expérience self care fluide, cohérente et efficace . Objectifs de la mission : Participer à la conception de l’architecture Cloud de la plateforme. Industrialiser et automatiser le déploiement des services via des pratiques DevOps. Garantir la scalabilité , la sécurité et la résilience des environnements. Accompagner les équipes projet dans l’utilisation de la plateforme. Assurer une veille technologique et contribuer à l'amélioration continue des outils et processus. Environnement technique : Cloud : Azure Infrastructure as Code : Terraform Orchestration : Kubernetes, Helm Conteneurisation : Docker Systèmes : Linux Réseau : Firewall CI/CD : Azure DevOps Pipelines, GitHub Actions, Jenkins Monitoring & Logs : Azure Log Analytics, ELK Stack
Mission freelance
Engineering Manager (Infrastructure, Cloud & Réseau)
🎯 Objectif de la mission Nous recherchons un Engineering Manager expérimenté afin de prendre la responsabilité opérationnelle et stratégique de 3 équipes techniques au sein du département Infrastructure & Core Services. Le manager devra assurer la performance, la fiabilité, la sécurité et l’innovation des plateformes réseau et cloud de l’entreprise, tout en accompagnant la transformation vers des architectures hybrides et automatisées. 🚀 Périmètre et responsabilités principales Management & Leadership Encadrer et développer 3 équipes pluridisciplinaires (ingénierie réseau, cloud, sécurité, automation). Définir les objectifs, suivre la performance et accompagner la montée en compétences des ingénieurs. Instaurer une culture de collaboration, d’innovation et de delivery orientée impact. Stratégie & Architecture Piloter l’évolution des infrastructures réseau et cloud (hybride, on-premise & public cloud). Définir les roadmaps technologiques en lien avec les enjeux business et sécurité. Anticiper les besoins de scalabilité, résilience et performance. Delivery & Opérations Garantir la disponibilité et la robustesse des services critiques (infrastructures backbone, datacenters, plateformes cloud). Superviser la résolution des incidents majeurs et l’amélioration continue des processus d’exploitation. Mettre en place des outils et méthodes d’automatisation (IaC, CI/CD, Python/Go). Sécurité & Compliance S’assurer du respect des standards de sécurité (Zero Trust, segmentation réseau, auditabilité). Travailler en lien avec les équipes SecOps pour renforcer la défense des infrastructures critiques. Collaboration transverse Interagir avec les équipes produit, développement et sécurité pour aligner les besoins techniques avec les objectifs business. Présenter régulièrement les avancées, risques et recommandations à la direction. 🛠️ Compétences et expérience recherchées Expérience confirmée (10+ ans) en ingénierie réseau, cloud et infrastructure dans des environnements critiques et internationaux. Solide background en management d’équipes techniques (3 équipes / 15-30 personnes). Maîtrise des environnements cloud majeurs (Azure, GCP, AWS) et des architectures hybrides. Excellente compréhension des réseaux (BGP, OSPF, MPLS, datacenter fabrics) et des firewalls de nouvelle génération. Expérience dans l’ automatisation et l’industrialisation (Terraform, Ansible, Python, APIs). Capacité à piloter des transformations organisationnelles (migration vers le cloud, adoption DevOps/SRE). Leadership fort, orientation résultats, communication claire auprès de la direction et des équipes. 📍 Localisation & Modalités Mission basée dans le Nord (présence sur site requise 2 jours par semaine). Démarrage : ASAP.
Offre d'emploi
Analyste d'exploitation / Domain Data - MLOps - Data Platform
Analyste d'exploitation / Domain Data - MLOps - Data Platform Un leader dans le domaine des solutions de leasing est à un tournant crucial où l'exploitation des données doit devenir un levier central de transformation et de compétitivité. Plusieurs défis structurels doivent être adressés pour réussir cette transition vers une organisation véritablement axée sur les données (insuffisance du Data Management existant, dépendances fortes à des systèmes legacy qui ont vocation à être décommissionnés à court et moyen termes, limites structurelles des outils et solutions actuels). Le projet doit permettre de valider la capacité de mise en œuvre d'un projet de data science depuis sa phase exploratoire jusqu'à sa phase d'industrialisation. Projet à mener pour une application de ciblage commercial permettant aux commerciaux une approche de vente proactive du crédit-bail pour des clients déjà équipés de contrats cadres. Responsabilités Mise en œuvre des Pipelines Machine Learning : • Concevoir, déployer et maintenir des pipelines de machine learning automatisés, intégrant l'ensemble des étapes du cycle de vie des modèles, de l'entraînement à la mise en production. • Assurer l'intégration des modèles de machine learning dans les environnements de production, en s'assurant de la scalabilité, des performances et de la fiabilité des solutions mises en œuvre. • Collaborer étroitement avec les data scientists et ingénieurs data pour faciliter la transition des modèles depuis les phases d'expérimentation jusqu'à l'industrialisation, tout en optimisant les pipelines de bout en bout. Automatisation et industrialisation des modèles : • Mettre en place des processus d'industrialisation des modèles de machine learning pour garantir une gestion continue et fiable des modèles en production, avec des mécanismes de surveillance automatique. • Automatiser les tâches critiques, telles que l'entraînement, le déploiement, la gestion des versions, et la surveillance des performances des modèles. • Intégrer des solutions de monitoring pour garantir que les modèles en production respectent les critères de performance, de dérive et de précision définis. Adaptation de l'infrastructure et des environnements de production : • Participer à la mise en place d'une infrastructure (Cloud / DMZR) robuste et évolutive qui soutient l'entraînement et l'inférence des modèles à grande échelle. • Optimiser l'utilisation des ressources (GPU, CPU) pour l'entraînement et la mise en production des modèles, en fonction des besoins spécifiques du projet. Surveillance, maintenance et gestion du cycle de vie des modèles : • Mettre en œuvre des systèmes de monitoring pour suivre les performances des modèles en production, détecter les dérives, et initier les actions correctives automatisées. • Assurer une maintenance continue des modèles en production pour garantir leur conformité avec les objectifs métiers, en supervisant la mise à jour des modèles et la gestion de leurs versions. • Gérer le cycle de vie complet des modèles, de la phase d'entraînement initiale à la mise à jour et dépréciation des modèles obsolètes. Collaboration et documentation des processus : • Collaborer étroitement avec les data scientists, les ingénieurs data et les DevOps pour assurer l'intégration fluide des pipelines de machine learning dans l'infrastructure IT existante. • Documenter de manière exhaustive les processus et les pipelines mis en place, incluant les workflows automatisés, les architectures, et les pratiques de surveillance des modèles. • Assurer une communication continue avec les équipes métiers et techniques pour garantir l'alignement sur les besoins et objectifs du programme.
Mission freelance
Expert RedHat N3 - Ingénieur de production
Expert socle de collecte/centralisation de logs (Splunk) En priorité, cet expert est un INGENIEUR DE PROD CONFIRME / EXPERTISE RED HAT. Il intervient en tant qu'expert sur l'infra de collecte et des centralisation des logs dont Splunk est la brique principale. Disposant qu'une dominante RedHat forte, il contribue à la gestion et aux évolutions de l'imposant socle de collecte des logs comprenant Splunk et son écosystème (Nifi, Kafka, Nxlog, Fluentd, etc ...) et comprenant des chaines de liaisons complexes. Equipe en mode produit (sprint), rotations sur les astreintes et le MCO. Assurer le maintien en condition opérationnelle (MCO) des infrastructures Red Hat utilisées dans les systèmes bancaires critiques (paiements, core banking, échanges interbancaires, etc.). Support de niveau 3 sur incidents sévères, anomalies de production, et escalation technique. Participer aux architectures de redondance, haute disponibilité, réplication, clustering et tolérance de panne. Automatiser les processus : provisioning, patch management, orchestration (Ansible, Puppet, etc.). Audits de sécurité des environnements Linux/Red Hat : conformité, vulnérabilités, durcissement, etc. Travailler en interaction avec les équipes Sécurité, Réseau, DevOps, Cloud. Participation aux projets de migration, montée de version, modernisation des socles Linux, parfois vers des technologies containers ou vers le cloud hybride. Rédaction de documentation technique, tenue de tableaux de bord de performance, reporting (SLA, KPI). Astreintes / disponibilité 24/7 possible selon l’environnement bancaire.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.