Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.

Offre d'emploi
Architecte Cybersécurité / Ingénierie et DevSecOps Cloud
Architecte Cybersécurité / Ingénierie et DevSecOps Cloud Descriptif du poste Le bénéficiaire souhaite une prestation d'accompagnement via la contribution aux projets d'architecture et solutions Cloud (onPrem, Hybridation, ..) Missions Participation aux ateliers techniques afin de cadrer et étudier les besoins d'onboarding des offres Cloud IAAS, PAAS, SAAS (ex : cloud providers) Conception des solutions et architectures Cloud cibles en respectant les critères : Sécurité, haute disponibilité, résilience, coûts et performances, évolutivité Mise en place du "Cloud Adoption Framework" adapté aux contraintes et diffusion des standards aux entités du groupe Définition des méthodologies de déploiement en fonction des patterns et des plans de migration Rédaction des dossiers d'architecture et spécifications techniques (HLD, StarterKits …) Conception et Co-construction des socles techniques (sécurité, réseau, gouvernance...) Intégration des offres Cloud avec les infrastructures On-Premise et notamment les problématiques d'hybridation (Interco, DNS, Authentification, ...) Déploiement et industrialisation des architectures cibles Automatisation des déploiements d'infrastructure / ressources avec une approche IaC (Infrastructure as Code) Veille à la sécurité et la fiabilité des environnements déployés avec une orientation Security by design Mise en place les outils d'automatisation et de monitoring adaptés aux environnement Cloud Assurance et le support avancé sur les solutions mises en œuvre

Mission freelance
Ingénieurs Cloud & DevOps AWS-AZURE
Contexte : La DOSI souhaite se faire assister par deux Ingénieurs Cloud & DevOps qui interviendront dans un environnement multicloud s’appuyant principalement sur Microsoft Azure et AWS. MISSIONS La mission s’effectuera en interaction avec les équipes Cloud & Intégration, les architectes, les équipes sécurité, les développeurs et les opérations, dans le cadre d’une mission visant à industrialiser, automatiser et fiabiliser les plateformes cloud et les services associés Enjeux de la mission ✓ Agilité & rapidité : accélérer les cycles de développement et de déploiement via des chaînes CI/CD intégrées. ✓ Fiabilité & standardisation : garantir des déploiements maîtrisés, reproductibles et alignés avec les standards du multi-cloud. ✓ Sécurité & conformité : intégrer des mécanismes de sécurité dès les phases de build et de déploiement (scans, gestion des secrets, durcissement). ✓ Optimisation des ressources cloud : assurer le suivi et l’efficience des ressources via une approche FinOps. ✓ Observabilité & résilience : mettre en œuvre des outils de monitoring, logging et alerting pour anticiper les incidents et améliorer le MTTD/MTTR. Nature des prestations à réaliser et livrables attendus 1. Design & industrialisation • Modélisation des infrastructures en Infrastructure as Code (Terraform, Bicep, Helm). • Création et maintenance de pipelines CI/CD (GIT, Azure DevOps). 2. Automatisation & intégration • Déploiement automatisé des ressources cloud (Azure et AWS). • Intégration de solutions de supervision (Prometheus, Grafana, ELK, Datadog). 3. Sécurité & gouvernance • Mise en œuvre de bonnes pratiques de sécurité cloud : IAM, secrets management (Vault, AWS Secrets Manager), durcissement des environnements. • Application des règles de conformité et des standards du client. 4. Accompagnement & collaboration • Collaboration étroite avec les équipes de développement, d’architecture et d’exploitation. • Documentation technique, partage de connaissances, participation à la montée en compétences des équipes. 5. Support & amélioration continue • Analyse des incidents, amélioration continue des pipelines, veille technologique. • Contribution à l’évolution de la stratégie cloud et DevOps de l’entreprise. Environnement technique • Cloud public : Azure & AWS • Infrastructure as Code : Terraform, Bicep, Ansible, Helm • Supervision & Observabilité : Azure Monitor, Dynatrace, Prometheus, Grafana, ELK • Automatisation & CI/CD : Git, Azure DevOps, Jenkins • Containerisation & Orchestration : Docker, Kubernetes • Sécurité Cloud & DevSecOps : IAM, RBAC, Vault, Trivy • Scripting & Outils CLI : Bash, Powershell, Python, Azure CLI, Kubectl • Bases de données : SQL (PostgreSQL, MySQL, SQL Server), NoSQL (Azure DocumentDB, MarkLogic) • Méthodologie & collaboration : Agile, Scrum, DevOps • Enjeux transverses : FinOps, gouvernance technique, urbanisation Compétence et qualités requises : ➢ Compétences techniques : • Expérience avérée dans la mise en œuvre et la gestion d’environnements cloud (Azure, AWS) en contexte de production. • Maîtriser des pratiques Infrastructure as Code (IaC) et CI/CD pour automatiser le déploiement d’infrastructures et d’applications. • Concevoir et optimiser des pipelines DevOps (intégration, tests, déploiement, livraison). • Expertise en conteneurisation et orchestration (Docker, Kubernetes), incluant la gestion de clusters et la sécurisation des workloads. • Mettre en oeuvre des solutions de supervision et d’observabilité à l’échelle (monitoring, logs, alerting). • Connaissance des pratiques DevSecOps : gestion des secrets, rôles (IAM), durcissement des environnements. • Aptitude à interagir efficacement avec les équipes internes (développement, architecture, sécurité, métiers) dans un cadre Agile/DevOps.

Offre d'emploi
Senior Big Data Consultant (Spark on Kubernetes / Airflow / Kubernetes)
Concevoir, industrialiser et opérer des plateformes data “cloud-native” sur Kubernetes, incluant l’orchestration de pipelines via Airflow sur Kube, afin d’accélérer l’ingestion, le traitement et la mise à disposition de données à grande échelle (batch & near-real time) avec des standards élevés de fiabilité, sécurité et coûts. Responsabilités clés Architecture & design Définir l’architecture Data on Kube (ingestion, stockage, calcul, orchestration, observabilité). Modéliser et standardiser les data pipelines (DAGs Airflow) et patterns d’infrastructure (Helm/Kustomize). Industrialisation & déploiement Packager et déployer Airflow sur Kube (Helm chart officiel/Astro/OSS) avec HA, RBAC, autoscaling. Mettre en place des opérateurs Airflow (KubernetesPodOperator, SparkK8sOperator, etc.). Automatiser via GitOps (Argo CD/Flux) et CI/CD (GitHub Actions/GitLab CI). Opérations & SRE Gérer la capacité, le autoscaling (HPA/VPA/Karpenter), la QoS et l’optimisation des coûts (requests/limits, Spot/Preemptible). Observabilité end-to-end (logs, metrics, traces) et runbook d’incident (SLA/SLO/SLI). Sécuriser la plateforme (NetworkPolicy, Secrets, IAM, image signing, pod security). Data Engineering sur Kube Exécuter Spark/Flink/Beam sur K8s ; optimiser ressources, shuffle, I/O. Normaliser les environnements d’exécution (Docker base images, Python/Java runtimes). Gouvernance & qualité Mettre en place un data contract / schema registry , tests de données (Great Expectations/Deequ), lineage (OpenLineage/Marquez). Accompagnement Enablement des équipes data (templates, cookbooks), code reviews , mentorat et evangelism des bonnes pratiques.

Offre d'emploi
Ingénieur devOps Cloud Junior (H/F)
En Bref : Sophia Antipolis – CDI – DevOps Cloud (F/H) - 45-55K Adsearch, société de conseil en recrutement spécialisé vous accompagne dans votre carrière pour vous trouver LE poste idéal. Je recrute pour un client basé à Sophia Antipolis, un profil devOps Cloud (F/H). Vos missions : - Participer à l'architecture et au déploiement de l'infrastructure sur AWS Cloud - Gérer les ressources cloud à l'aide de Terraform pour l'infrastructure as code - Monitoring et de l’alerting de la plateforme - Optimiser les conteneurs Docker - Administrer des clusters Kubernetes - Mise en place CI/CD Environnement technique : Scripting Bash, Python, Powershell, Terraform, AWS, Linux, Docker, Kubernetes

Mission freelance
Devops GCP / kubernetes
Dans le cadre d’un grand groupe international, nous recherchons un DevOps Junior GCP/Kubernetes . Vous participerez à la conception, au déploiement et à l’amélioration continue d’infrastructures cloud sur Google Cloud Platform. Sous la supervision d’experts confirmés, vous interviendrez sur l’orchestration de conteneurs via GKE, l’automatisation des déploiements, le suivi des performances et l’accompagnement des équipes projets pour garantir stabilité et sécurité des environnements. Stack : GCP KUBERNETES

Mission freelance
AAdministrateur Réseau - KUBERNETES (H/F)
Espace Freelance recherche pour l'un de ses clients : un Administrateur Système & Réseaux confirmé (H/F) ! Au sein du service Infrastructure d’une DSI, vous aurez un rôle clé dans la gestion et l’évolution de nos environnements techniques, dans un contexte stimulant et en pleine transformation. Poste basé en Métropole de Lille. Vos périmètres d’intervention : • Infrastructure réseau : LAN, WAN, VPN, routeurs, switches, points d’accès, firewall, reverse proxy, VLAN… • Kubernetes (obligatoire) Vos missions : • Administration réseau. • Assurer le support N3 pour les demandes et incidents. • Garantir la cybersécurité. • Documentation. • Veille technologique et être force de proposition. Profil recherché : un(e) professionnel(le) passionné(e), autonome, avec une solide expertise en infrastructures réseaux et une maîtrise de Kubernetes.

Mission freelance
Développeur C# / Java Spring Boot / React
Nous recherchons un développeur backend confirmé pour intervenir dans un environnement financier complexe et exigeant, autour de problématiques liées à la titrisation et au refinancement. Contexte de la mission La mission s’inscrit dans un projet stratégique de transformation du système d’information au sein d’une institution financière. Elle vise notamment à : Accompagner la mise en place d’un nouvel outil de gestion pour la titrisation Participer à la migration des activités Front Office d’une plateforme legacy vers Orchestrade Contribuer aux développements des modules Middle & Back Office autour du refinancement : invoicing, accounting, settlement Environnements & technologies Stack .NET (Orchestrade) – Développement Backend Développement de services et APIs REST / gRPC en .NET Extension des APIs existantes Maintenance & évolution des services et plugins Stack Java Spring Boot – Développements Middle/Back Office Développement de microservices Java Spring Boot Intégration avec des outils cloud et data (Kafka, MongoDB, PostgreSQL) CI/CD avec GitLab, Sonar, Kubernetes, Helm, ArgoCD Développement d'interfaces utilisateur en React (optionnel mais apprécié) Déploiement sur AWS
Mission freelance
Expert EDR disponible ASAP (Paris / TT 50%)
Déploiement et exploitation d’EDR/XDR multi-éditeurs Investigation et réponse à incident (forensics, threat hunting, MITRE ATT&CK) Pilotage de règles de détection (SIEM / EDR), création de playbooks et automatisation (XSOAR, ServiceNow) Sécurisation d’infrastructures Windows / Linux / Cloud (Azure AD, AWS) Collaboration avec les équipes SOC, CSIRT et Risk Management Outils EDR/XDR : CrowdStrike, SentinelOne, Cortex XDR, Sophos, Symantec, Defender ATP, Cybereason SIEM & SOAR : LogPoint, QRadar, Palo Alto XSOAR, ServiceNow OS & Infrastructures : Windows, Linux, Active Directory / Azure AD Cloud : AWS, Azure Méthodologies : MITRE ATT&CK, Threat Hunting, Playbooks SOC, Forensics, Analyse Malware Conformité & bonnes pratiques : ISO 27001, NIS2
Mission freelance
Architecte réseau et Telecoms (réseaux coeur 4G/5G/IP) - Lyon avec télétravail
Pour un acteur majeur du secteur de l'Energie, je suis à la recherche un ingénieur senior/Architecte réseaux et Telecoms. Conception de solution technique : Analyser et consolider les besoins métier / Réaliser le cadrage technique du sujet / Analyser les impacts techniques des nouvelles solutions et leur cohérence avec l’architecture existante / choix techniques / cahier des charges / POC / Tests / passage en exploitation Etudes : Analyser les besoins / Réaliser le cadrage technique du sujet / Instruire l’étude en analysant le sujet selon différents angles (techniques organisationnels, financiers) / Modéliser la solution avec un POC : établir les plans d'actions/ Pilotage du planning de réalisation Expertise Technique et fonctionnelle : Assistance et conseils pour les MOA les MOE les Directions Métiers / définition et rédaction DAT, spec / Conseil et prescriptions techniques / veille techno / benchmark / établissement de roadmap

Mission freelance
Expert fonctionnel Supply DDMRP (Demand Driven Material Requirements Planning) (H/F) - 92
En tant que Business Process Owner vous serez au centre des phases du projet. Vous participez à la configuration du Core Model au sein du programme, puis accompagnerez son déploiement sur l’ensemble des entités du groupe. Vous serez en charge de concevoir, configurer et documenter des solutions communes à l’ensemble des pays qui seront sur Dynamics 365 Finance & Operations pour les différents métiers (Finance, Approvisionnements, Entrepôt, Transport, Ventes). • En phase fin de phase de conception o Etude des constantes projets Participation aux travaux de qualification des spécifiques, interfaces et éditions Participation aux aux travaux sur la stratégie de migration Participation aux travaux d’analyses d’impact et d’accompagnement au changement o Validation dossier de conception Participation aux travaux de validation cross fonctionnelle, Participation aux travaux de validation du dossier de conception • En phase de configuration o Etude détaillée des besoins Prototyper les processus sur la base du standard D365 et définir le paramétrage complet de gestion. Tester les solutions proposées par l’intégrateur. Validation des spécifications fonctionnelles qui seront développées. Définir les scénarios de test et les cas d’usage. Définir le kit de déploiement de la solution. Participation aux travaux d’analyses d’impact et d’accompagnement au changement o Paramétrage et Réalisation Paramétrage de la solution : Réalisation du paramétrage système, généraux et documentation. Test des droits d’accès utilisateurs. Test des développements : Ecarts D365, interfaces, reporting. Contribution au traitement de la migration de données (Mapping et tests). o Formation et tests des processus Suivre la formation de la solution par l’intégrateur. Montée en compétence et appropriation de la solution. Réalisation des tests de recette de la solution (inclus les développements spécifiques) et des interfaces mis en œuvre. Ajuster la solution et résoudre les anomalies détectées. o Préparation au démarrage Participation à la réalisation des kits de déploiement Dossier de paramétrage Participation à la réalisation du plan de démarrage o Préparation de la recette Participation aux travaux de définition des scénarios de recette Participation à la définition des jeux de données recette o Travaux Technique Assistance aux travaux de migration de données Assistance aux travaux sur les reportings Assistance aux travaux sur les droits et habilitations • En phase de déploiement Former les formateurs. Former les utilisateurs finaux. Préparer et déployer la solution (tests des données pour la Prod…). Organiser et assurer le support aux utilisateurs. Simulation de démarrage / bascule à blanc. • En phase d’appropriation Supporter les utilisateurs dans la stabilisation du système. Qualifier et corriger les anomalies. Réaliser un bilan du projet. Transférer le support à l’équipe dédiée. • En phase de run Être le référent fonctionnel sur votre domaine d’activité. Remonter les besoins terrains d’évolutions de la solution. Former les utilisateurs finaux.

Mission freelance
Devops Kubernetes
Rejoignez une équipe chargée de soutenir et de faire évoluer les plateformes Kubernetes utilisées pour les applications, le big data et l'apprentissage automatique. Le poste implique l'intégration, le déploiement, l'automatisation et la maintenance opérationnelle dans un environnement complexe et multi-clients. Principales responsabilités Intégrer et prendre en charge les applications sur Kubernetes. Déployer de nouvelles solutions technologiques et garantir leur disponibilité pour la production. Former les développeurs et les équipes d'infrastructure. Étendre le modèle sur site au cloud (Azure). Automatiser et améliorer les processus existants. Maintenir la stabilité de la plateforme et des applications . Stack technologique Conteneurs et orchestration : Docker, Kubernetes, Rancher, ArgoCD Langages : YAML, Go Outils DevOps : Jenkins, Grafana, Prometheus, Sysdig Cloud et infrastructure : AKS Azure, Linux (SUSE), GitLab, Artifactory, S3

Offre d'emploi
Administrateur Fonctionnel Confirmé (H/F) – Lyon
Nous recherchons un.e Administrateur.trice Fonctionnel.le Confirmé.e afin de renforcer une équipe en charge de la supervision et de la gestion des incidents pour des chaînes communicantes critiques en production. Vos missions principales : Appuyer le pilotage de l’activité de supervision d’une chaîne communicante. Organiser et animer des sessions et groupes de travail. Coordonner les acteurs internes impliqués dans l’exploitation et la supervision. Apporter support et expertise aux activités de supervision. Rédiger la documentation (manuels utilisateurs, pas-à-pas, arbres de cause, modes opératoires). Suivre la production des plans d’action avec managers et référents. Mettre en place et suivre les tableaux de bord nécessaires à l’activité. Contribuer à l’amélioration continue (suivi backlogs, indicateurs de performance, etc.). Participer à des ateliers inter-SI et métiers pour recueillir et suivre les expressions de besoin.

Mission freelance
Expert BI SQL SERVER / POWER BI / DATABRICKS
Nous recherchons un Expert SQL Serveur, Power BI et modélisation de données, avec une expérience dans un environnement Databricks pour une mission basée à Guyancourt. La mission portera sur : la migration de reportings Power BI depuis une plateforme Datawarehouse sous SQL Server vers Databricks, l’optimisation de rapports existants, l’accompagnement des utilisateurs, la création de nouveaux reportings. Vous avez une vraie expertise sur l'ETL SQL Server, Powerbi et Databricks. Vous êtes autonome et parlez anglais. Vous avez une dizaine d'année d'expérience en BI principalement sur SQL Serveur. Vous avez déjà travaillé en environnement PME. La mission est basée à Guyancourt. Important: Le site est mal desservi et il vaut mieux être véhiculé. Une partie de la mission pourra se faire en remote après une période d'onboarding.

Offre d'emploi
Expert collecte Log SIEM
Nous recherchons pour notre client final grand compte un expert collecte log SIEM , capable de : Concevoir la chaîne de collecte (de la source au SIEM). Produire la documentation associée (logging policy, catalogue des sources, schémas d'architecture). Garantir la qualité des données (taux de collecte, parsing, EPS, latence). Politique de rétention, politique de filtrage, de routage et de stockage Le profil doit avoir des compétences techniques pour dialoguer avec les différentes équipes techniques, mais aussi une expérience de rédaction de politique et de procédures organisationnelles (conseil). Dimension : Architecte Collecte SIEM Focalisation : Pipeline de collecte, normalisation, fiabilité des données Objectif principal : Garantir que les logs sont collectés, normalisés et exploitables Livrables typiques : Logging Policy, catalogue sources, parsers personnalisés, schémas HLD/LLD arhitecture collecte, dashboards qualité ingestion KPIs associés : Taux de logs collectés, parsing OK, EPS, erreurs de collecte, latence Interactions principales : Équipes IT, admins systèmes/réseaux, SOC RUN, équipe GRC Public cible des livrables : Techniciens IT & SOC (niveau bas et RUN), Responsable SOC, équipe IT, équipe GRC

Offre d'emploi
Expert Big Data – Spark / Airflow / Superset
Description de la mission : Nous recherchons un expert Big Data pour intervenir sur un projet stratégique autour du traitement et de la valorisation de données à grande échelle. Le consultant sera intégré à une équipe Data et interviendra sur la conception, l’optimisation et la mise en production de pipelines de données. Compétences attendues : Maîtrise avancée de Apache Spark (batch et streaming) Expertise sur Airflow (orchestration de workflows complexes, bonnes pratiques CI/CD) Connaissance approfondie de Superset (construction et industrialisation de dashboards) Bonnes pratiques en architecture Big Data et Data Lake Connaissances appréciées : Python, SQL, Cloud (AWS / GCP / Azure)

Offre d'emploi
Technicien de production Linux - Junior -(H/F)
Nous recherchons un(e) technicien(ne) de production pour intervenir chez un de nos partenaires et assurer le suivi quotidien de l'environnement applicatif et infrastructure. Vos missions : Traiter incidents, opérations planifiées et demandes de service. Surveiller les alarmes via Centreon et alimenter le ticketing. Participer aux astreintes et à la couverture horaire complète du service. Proposer des améliorations sur les procédures et outils. Compétences techniques attendues pour le poste : Architecture applicative et identification des composants Administration Linux et Windows Gestion de bases de données et exécution de requêtes SQL Administration de serveurs d’application et web (Tomcat, Wildfly, JBoss, Apache, Nginx) Virtualisation et gestion des ressources avec VMware Compréhension des environnements cloud (IAAS, PAAS, SAAS, Openstack) Notions réseau et commandes de diagnostic (IP, DNS, ping, traceroute) Utilisation des outils de supervision, ordonnancement et ticketing (Centreon, Vtom, Netbackup) Rédaction et amélioration de documentation d’exploitation Analyse de logs et suivi rigoureux des tickets et incidents Connaissance des processus ITIL
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- PFU : dispense du prélèvement forfaitaire non libératoire
- Est-ce que il y a des gens qui sont vraiment a des TJM de 250-300?
- Remplacement chauffe-eau : Immobilisation ou charge ?
- Etat du marché - Avril 2025
- ARCE ou ARE : Nouvelles règles 2025
- Rémunération Project Manager BTP pour Aéraunautique/Nucléaire (Paris)