L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 653 résultats.
Offre d'emploi
Ingénieur JAVA - SPARK - EXPERIMENTE ( H/F)
Publiée le
Angular
Apache Spark
API REST
3 ans
44k-63k €
450-600 €
Guyancourt, Île-de-France
Télétravail partiel
Nous recherchons un ingénieur Java senior, expérimenté en développement de solutions de traitement de données avec Spark, déploiement sur Kubernetes et conception de dashboards PowerBI, capable de travailler en autonomie et en collaboration avec des équipes multidisciplinaires. Missions principales : Développement de composants Java pour la collecte, le traitement et la transformation de données via API, fichiers ou bases de données. Conception et mise en place de traitements de données avec Spark . Déploiement, gestion et optimisation d’applications sur Kubernetes. Rédaction et maintenance de tests automatisés avec Cucumber pour assurer la qualité du code. Conception et développement de dashboards et rapports PowerBI. Collaboration avec les équipes infrastructure pour garantir la sécurité et l’intégration des applications. Participation à l’amélioration continue des applications et des process de développement. Profil recherché : Expérience : 5 à 8 ans en développement Java avec une expérience sur technologies de traitement de données (Spark, Kafka, etc.). Compétences techniques : Java et frameworks Spring/Hibernate Angular pour le développement d’IHM Kubernetes et bonnes pratiques DevOps Spark 3 en Java Cucumber pour tests automatisés Développement d’API REST/SOAP, OAuth2, TDD Conception de dashboards PowerBI Connaissance des architectures microservices et expérience cloud (GCP, AWS)
Offre d'emploi
Ingénieur DevOps / SRE
Publiée le
Dynatrace
Python
1 an
40k-45k €
400-500 €
Île-de-France, France
Télétravail partiel
Descriptif du poste Le bénéficiaire souhaite une prestation d'accompagnement dans le cadre de la mise à disposition d'application/api via programme et d'en gérer la stabilité des environnements techniques (Production / hors Production) en mode produit. L'automatisation via les toolchain et les outils Digital AI sont attendus ainsi que la mise en supervision End to End du parc applicatif via Dynatrace en complément des évolutions applicative/technique à gérer dans une équipe produit Cloud. Missions principales Participation aux rituels des équipes Réalisation la préparation des projets (préparation & design architecture), orientation des choix selon le catalogue Point relais techniques entre la DSI et la Production Contribution à la mise à disposition des ressources d'infrastructure Facilitation des déploiements Contribution au maintien en conditions opérationnelles Respect et formation des bonnes pratiques Groupes dans le cadre des déploiements et livraisons Participation à la vie de l'application en étant force de proposition dans la résolution d'incidents ou de problèmes Point d'entrée sur les technologies Toolchain présentes au sein du groupe Contribution à des chantiers transverses dont projets (automatisations, modèles d'organisation DevOps...) Réalisation des retours d'expérience, les présenter et inspirer l'équipe Inscription dans une démarche d'amélioration continue et de propositions Participation aux réunions et proposer le planning avec l'architecture (documents d'architectures) Facilitateur et orienteur sur les bonnes architectures
Mission freelance
Ingénieur DevOps / Cloud Azure - Data & Plateforme Offline
Publiée le
Azure DevOps
Git
Helm
1 mois
400-550 €
Paris, France
Bonjour à tous, Je recherche pour le compte d'un de mes clients plusieurs DevOps. Voici les missions : Contribution fonctionnelle & technique Intégrer de nouvelles fonctionnalités issues de composants open-source et assurer la maintenance des fonctionnalités existantes. Collaborer quotidiennement avec les Data Engineers (échanges sur les cas d’usage, tests, besoins utilisateurs finaux). Infrastructure & automatisation Automatiser le déploiement d’infrastructures Cloud à grande échelle sous Azure , en particulier la gestion de clusters Azure au niveau ressource. Travailler dans une infrastructure 100% Terraform (≈45%) : définition, maintenance et optimisation des modules et stacks IaC. Utiliser Terragrunt pour organiser et orchestrer les déploiements multi-environnements. Automatiser et industrialiser le déploiement d’images Docker et de composants applicatifs au sein de clusters Kubernetes. Concevoir, maintenir et optimiser des charts Helm (≈30%) pour les différents services déployés. Maintenir et développer des scripts et utilitaires en bash (≈20%) et ponctuellement en Python (≈5%). Plateforme Data & environnement offline Déployer et intégrer des composants transverses : Ingress, Keycloak, Nexus… Automatiser et opérer les briques techniques liées aux traitements de données : GitLab, Jupyter/JupyterHub (notamment en environnement offline), Spark, PostgreSQL… Travailler dans des environnements sans accès internet , incluant la gestion interne des identités, l’intégration réseau, et la gestion complète du cycle de vie applicatif. CI/CD & qualité Utiliser la suite Azure DevOps (repos, boards, pipelines). Exécuter et superviser des pipelines CI/CD de tests et de déploiements déjà implémentés. Participer activement aux pratiques DevOps : revue de code, bonnes pratiques Git, amélioration continue des workflows. Architecture & sécurité Contribuer à l’évolution de l’architecture de la plateforme en apportant votre expertise Cloud, Kubernetes ou systèmes distribués. Assurer une veille active sur les sujets technologiques et de sécurité. Appliquer et promouvoir les bonnes pratiques en matière de sécurité des données et de la plateforme. Actualiser et structurer la documentation technique.
Offre d'emploi
Senior Data engineer AWS
Publiée le
Terraform
18 mois
40k-45k €
100-550 €
Paris, France
Télétravail partiel
CONTEXTE : Experience : 7 ans et plus Métiers Fonctions : Data Management, Software engineer Spécialités technologiques : Data Compétences Technologies et Outils AWS Spark Airflow Snowflake Secteurs d'activités Services Informatiques Conseil en organisation, stratégie MISSIONS Rattaché(e) au périmètre du Responsable Data Platform, vos missions consisteront à : - Développer des pipelines et ETL sur AWS vers Snowflake - Mettre en place des stockage optimisé grâce aux technologies lakehouse et en particulier DeltaLake - Créer des jobs manipulant la donnée avec SQL et Python (pandas et ou Polars) - Réaliser les traitements de volume de données massives avec PySpark - Développer et maintenir des infrastructures avec de l’IaC et en particulier avec Terraform - Orchestrer les différents traitements via Airflow - Déployer et maintenir des applications via la CI/CD - Participer aux réflexions et au design d’architecture - Bonne capacité de vulgarisation et de communication - Participer aux rituels agiles de l’équipe - Contribuer à la documentation technique et fonctionnelle 5 à 10 ans en tant que Data Engineer, avec une expérience significative sur AWS. Un positionnement en tant que techlead serait un plus. De l’expérience dans un contexte BI serait un plus. Un positionnement ou une expérience en tant que DevOps serait un plus. Expertise souhaitée Python, PySpark, AWS (EMR, S3, Lambda), Airflow, SQL, Snowflake, Terraform, Databricks, Gitlab.
Mission freelance
Data Engineer AWS
Publiée le
AWS Cloud
PySpark
Python
12 mois
550-580 €
Paris, France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un "Data Engineer AWS" pour un client dans le secteur des transports Description 🎯 Contexte de la mission Au sein du domaine Data & IA , le client recherche un MLOps Engineer / Data Engineer confirmé pour intervenir sur l’ensemble du cycle de vie des solutions d’intelligence artificielle. L’objectif : industrialiser, fiabiliser et superviser la production des modèles IA dans un environnement cloud AWS à forte exigence technique et opérationnelle. Le poste s’inscrit dans une dynamique d’ industrialisation avancée et de collaboration étroite avec les Data Scientists , au sein d’une équipe d’experts en intelligence artificielle et data engineering. ⚙️ Rôle et responsabilités Le consultant interviendra sur les volets suivants : Industrialisation & CI/CD : Mise en place et maintenance de pipelines CI/CD avec GitLab, Docker, Terraform et Kubernetes . Infrastructure & automatisation : Gestion et optimisation des environnements AWS (S3, EMR, SageMaker, IAM, etc.) , mise en place de bonnes pratiques IaC. Data Engineering / Spark : Développement et optimisation de traitements Spark pour la préparation et la transformation de données à grande échelle. MLOps & Production : Déploiement, suivi et supervision des modèles IA via MLflow , et Datadog , gestion du monitoring et des performances. Collaboration transverse : Travail en binôme avec les Data Scientists pour fiabiliser le delivery, optimiser les modèles et fluidifier le passage en production. Amélioration continue & veille : Contribution à la montée en maturité technique, documentation, partage de bonnes pratiques et optimisation continue des pipelines.
Offre d'emploi
INGÉNIEUR(E) DEVOPS -INFRASTRUCTURE AS CODE (IaC)
Publiée le
Azure Kubernetes Service (AKS)
F5
ITIL
3 mois
40k-45k €
400-550 €
Le Havre, Normandie
Télétravail partiel
INGÉNIEUR(E) DEVOPS -INFRASTRUCTURE AS CODE (IaC) ype de mission : Régie Durée : 3 mois (renouvelable) Démarrage souhaité : Immédiat Localisation : Présentiel 3 j/semaine minimum à prévoir sur site client au Havre Contexte : Éditeur de logiciels, environnement cloud hybride Azure/on premisesCONTEXTE DE LA MISSIONDans le cadre de la consolidation de son infrastructure cloud hybride Azure et de sa transformation vers une architecture microservices, notre client recherche un Ingénieur DevOps / IaC spécialisé en automatisation Terraform/Ansible sur environnements Azure pour reprendre, rationaliser et industrialiser l'existant.L'environnement technique repose sur une infrastructure hybride Azure/on premises à dominante Microsoft et Linux (Red Hat, Debian), avec une trajectoire d'évolution vers des architectures conteneurisées sur des distributions Kubernetes cible à statuer (RKE2, K3s, OpenShift). MISSIONS PRINCIPALES1. Reprise et rationalisation IaC (prioritaire) • Auditer les scripts Terraform et Ansible existants sur environnements Azure/on prem, identifier les dettes techniques et risques • Refactoriser en modules Terraform Azure réutilisables (VNet, NSG, VM, AKS, ACR, Key Vault, etc.) et rôles Ansible avec conventions de nommage/versioning • Identifier et automatiser les tâches récurrentes manuelles/semi-annuelles via Azure DevOps Pipelines ou GitHub Actions • Documenter l'ensemble (guides d'usage, runbooks d'exploitation)2. Automatisation cycle de vie des certificats SSL/TLS• Concevoir et mettre en œuvre des pipelines de discovery, renouvellement et déploiement automatisés intégrant Azure Key Vault • Intégrer avec le PKI existant ou ACME le cas échéantImplémenter mécanismes de validation et rollback• Coordination appréciée avec load balancers F5 (LTM/WAF) et pare feu Check Point3. Contribution à la transformation – architecture microservices• Définir et appliquer les bonnes pratiques IaC/DevOps/GitOps sur Azure (stratégies de branches, PR, promotions multi environnements via Azure DevOps ou GitHub)• Mettre en place et administrer un sandbox Kubernetes agnostique (RKE2/K3s/OpenShift) avec intégration Azure (Azure Arc si pertinent)• Outiller l'évaluation des stacks (ingress, CNI/CSI, Azure Monitor, sécurité)• Produire matrices de critères, recommandations et runbooks MCO (Maintien en Condition Opérationnelle) / MCS (Maintien en Condition de Sécurité)COMPÉTENCES TECHNIQUES REQUISESObligatoires• Microsoft Azure : maîtrise des services IaaS/PaaS (VNet, NSG, VM, Storage, Application Gateway/WAF) et expérience fournie en admin Azure• Azure DevOps ou GitHub Actions : pipelines CI/CD, intégration Terraform, gestion des secrets via Key Vault, policy as code• Systèmes Linux (Red Hat/Debian) et Windows Server, virtualisation (proxmox, hyper-v, nutanix) /bare metal• Maîtrise de développement scripts Terraform, Ansible, bash/sh Appréciées• Kubernetes: automatisation distributions agnostiques (RKE2/K3s/OpenShift), Helm/Kustomize, ingress, RBAC, ARGO/CD• Load balancers F5 (LTM/WAF) et pare feu Check Point• Connaissances développement Python• Certification ITIL et Kubernetes (CKA) PROFIL RECHERCHÉIngénieur(e) DevOps / IaC (5–10 ans d'expérience) orienté automatisation sur cloud-hybrid, capable d'auditer et de rationaliser des patrimoines IaC hétérogènes, alliant vision d'architecture cloud, rigueur documentaire et capacité à élever le niveau des équipes internes Windows/Linux. --
Offre d'emploi
NV - Ingénieur cloud AWS et Réseaux
Publiée le
AWS Cloud
Cisco
IAC
3 mois
Paris, France
Télétravail partiel
Bonjour, Je recherche un profil cloud AWS avec des compétences Infra as Code pour travailler sur des sujets de Réseaux/Sécurité. CONTEXTE Dans le cadre du projet "IT Network Segmentation" et d'un audit Global des recommandations ont été faite afin de redéfinir le périmètre Network. Il faut désormais implémenter et déployer les recommandations afin de poursuivre le projet et prendre en charge la conception, le déploiement et le support réseau, tout en contribuant à l’évolution de l'infrastructure cloud. PROFIL Ingénieur Cloud AWS et NON INGENIEUR RESEAUX SECURITE 5+ ans d'expérience MISSION Déployer et gérer les services AWS Cloud, notamment VPC, EC2, ELB, S3, Route 53 et IAM. Mettre en œuvre une connectivité sécurisée entre les environnements sur site et cloud AWS. Collaborer avec les équipes DevOps et sécurité pour optimiser les architectures réseau et cloud. Participer aux projets de mise à niveau et de migration réseau. Créer et maintenir la documentation relative à la conception, la configuration et les processus réseau. Surveiller l’infrastructure réseau et cloud à l’aide d’outils appropriés et réagir de manière proactive aux incidents. Garantir la conformité avec les politiques de sécurité et d’exploitation. COMPETENCES TECHNIQUES AWS (Certification AWS Certified SysOps Administrator ou Solutions Architect – Associate), ou équivalent.) CISCO (Certification CCNP – Routing & Switching ou Enterprise, ou équivalent est un plus) ANGLAIS INDISPENSABLE Must Have Expérience avérée en administration AWS Cloud, y compris la gestion et l’intégration des services AWS. Connaissance des outils d’infrastructure-as-code (ex. : Cloud Formation, Terraform) Solide compréhension des protocoles réseau : BGP, OSPF, EIGRP, VLANs, STP, NAT, ACLs, IPsec, 802.1x. Expérience avec des outils de surveillance et de sécurité réseau. Maîtrise des bonnes pratiques de sécurité pour les environnements réseau et cloud. Familiarité avec les systèmes Cisco Meraki SD-WAN, de commutation et de réseau sans fil. Expérience dans des environnements hybrides et multicloud. Certification AWS (par exemple : AWS Certified SysOps Administrator ou Solutions Architect – Associate), ou équivalent. Nice to Have Expérience en automatisation et Scripting (Python, Bash ou PowerShell). SOFT SKILLS Solides compétences en résolution de problèmes et en analyse. Excellentes capacités de communication et de documentation. Capacité à travailler de manière autonome et en équipe. À l’aise dans un environnement de travail dynamique et rapide. Démarrage : ASAP Durée : 3 mois renouvelable (longue visibilité jusqu'à 3 ans) Remote : 2 jours par semaine Nous sommes en exclusivité sur la demande et les entretiens peuvent avoir lieu dès cette semaine. Pour tout intérêt, merci de m'envoyer votre cv en format word et n'hésitez pas à me communiquer vos disponibilités pour l'entretien qui se déroulera totalement en anglais. Cordialement, Nathalie
Mission freelance
[LFR] Ingénieur DevOps - Toulouse/Gradignan - 1136
Publiée le
6 mois
1-350 €
Toulouse, Occitanie
Télétravail partiel
Description: L’objectif de la Cloud Management Platform (CMP) du Cloud privé est de mettre à disposition de nos clients, un catalogue de services afin de provisionner et gérer le cycle de vie des ressources IT de leurs applications en toute autonomie. Dans un contexte de transformation, vous intégrerez une équipe de développement Agile et DevOps au sein de laquelle vous serez en charge des outils d’infrastructure as Code (IaC) permettant le déploiement et la configuration des infrastructures de développement et de production. Possibilité d'astreintes sur le périmètre. Développement Déploiement MCO Accompagnement Documentation
Mission freelance
Expert technique Systeme LINUX
Publiée le
Linux
24 mois
400-800 €
Paris, France
Télétravail partiel
PROPULSE IT recherche un Expert technique système Linux Senior (+10 ans d'exp.) cette prestation d'expert technique spécialisé dans les technologies RedHat Linux aura pour principale mission d'assurer un support de niveau N2/N3 sur cette plateforme. Nous cherchons également à intégrer des compétences DevOps, notamment dans les technologies d'orchestration et d'automatisation, afin de soutenir les équipes et les projets en cours. L'un des projets techniques auxquels le prestataire devra contribuer est l'automatisation et l'industrialisation du processus de déploiement, visant à aligner nos environnements applicatifs sur les normes en vigueur et à adopter une approche similaire au Cloud pour le déploiement sur site. Dans ce contexte, nous attendons du prestataire qu'il nous aide a monter en compétence et participe à la conception des images Packer nécessaires ainsi que les Playbooks Ansible associés. Mission : - Asurer le support N2/N3 des infrastructures, des paliers OS et des middlewares actuellement utilisés auprès des équipes de la production. Force de proposition dans le cas ou des actions de support sont automatisables. - Participer aux projets techniques sur des environnements Linux (mise en œuvre de nouveaux paliers OS, middlewares et des évolutions d'infrastructures existantes)
Mission freelance
ARCHITECTE TECHNIQUE IAM/ AWS habilitable - anglais courant H/F
Publiée le
AWS Cloud
IAM
6 mois
400-670 €
Corbeil-Essonnes, Île-de-France
L’architecte recherché interviendra pour les missions suivantes : • Apporter son expertise dans les réflexions d’évolution de l’architecture notamment l’IAM pour les environnements Fournisseurs et Clients. • Contribuer à l’architecture technique en collaboration avec les experts • Éclairer techniquement pour effectuer les arbitrages des scénarios d’évolution des composants de ces architectures. • Analyser les scénarios de migration en soulignant les points d’attention, les impacts, les contraintes. • Participer à la rédaction de documents de projet (DAT Général et DAT Détaillé, Ouverture de flux réseaux, documentation d’installation, d’exploitabilité, tout type de document technique). • Piloter la mise en oeuvre des infrastructures à migrer. • Contribuer à la recette technique des composants notamment dans la rédaction des cahiers de recette. • Accompagner la mise en production en coordination avec les équipes du Département Infrastructure de la DSI de Safran Aircraft Engines. • Effectuer des transferts de connaissances aux équipes impliquées dans ces projets. • Participation à la gouvernance globale du projet en collaboration avec le Chef de projet.
Mission freelance
Devops Azure H/F
Publiée le
Azure DevOps
Entreprise Java Bean (EJB)
2 ans
450-550 €
Paris, France
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Devops Azure H/F à Paris, France. Les missions attendues par le Devops Azure H/F : Nous recherchons un Développeur DevOps Azure expérimenté pour rejoindre notre équipe de développement. Missions principales : Concevoir et mettre en œuvre des pipelines CI/CD sur Azure DevOps. Gérer et automatiser l'infrastructure avec des outils tels que Terraform et Azure Resource Manager. Mettre en place le déploiements sur les différents environnements. Surveiller et optimiser les performances des applications en production. Collaborer avec les équipes de développement pour améliorer les processus de livraison. Participer à l'amélioration continue des pratiques DevOps au sein de l'équipe. Partager les connaissances avec les autres membres de l'équipe.
Mission freelance
229375/Ingénieur CloudOps / SysOps AWS ou AZURE
Publiée le
AWS Cloud
Azure DevOps
6 mois
Paris, France
Ingénieur CloudOps / SysOps AWS ou AZURE, Devops, Kubernetes, Linux. Responsabilités : • Intégration : Concevoir, mettre en œuvre et faire évoluer les infrastructures Cloud et les services Cloud dans un souci constant d'industrialisation, d'efficacité et de coûts (FinOps) • Définir, concevoir, documenter les solutions d'industrialisation en lien avec les équipes R&D du groupe (devOps) et les autres équipes Cloud. • Assurer le transfert de compétences auprès de l’équipe N1 pour une prise en charge au bon niveau des alertes et incidents impactant nos services et les parcours clients. • Prendre en charge des incidents escaladés par les pilotes (Niveau 1 Cegid), le customer care ou les équipes R&D du groupe pendant les phases de transition double RUN • Piloter et correspondre avec les fournisseurs SaaS, logiciels et matériels de la plateforme Cloud • Assurer le respect des processus ITIL (Change, Incident, Problem) • Assurer la mise en œuvre, le respect et l'application des processus sécurité (ISO 27001) • Participer à des groupes de travail transversaux • Définir et rédiger la documentation technique propre au périmètre • Assurer une veille technologique et obtenir les certifications requises au maintien de son expertise Background & skills Experience • Expérience en tant qu’ingénieur Cloud Operation ou infrastructure (minimum 7 ans) dans des environnements IaaS/PaaS de production exigeants (niveau de service et disponibilité) et large volumes • Expérience dans la gestion d’environnement AWS, automatisation et intégration continue • Contribution à des projets de migration cloud applicative et infrastructure (lift & shift, replatform, re build) • Expérience en gestion d’infrastructures IT (Admin System, database) avec une forte orientation en environnements de production clients avec des enjeux de disponibilités très élevés. • Expérience de la gestion des incidents et des crises • Capacité à travailler dans un environnement agile, à gérer et ajuster les priorités de l’équipe Cloud Education • Bac+5 ou supèrieur. Diplôme en informatique, ingénierie ou domaine équivalent. Required Skills • Esprit analytique, rigueur et sens de l’anticipation • Autonomie, proactivité et capacité à prendre des décisions • Appétence pour l’excellence opérationnelle • Organisation, priorisation, pragmatisme • Partage de connaissance • Communication technique avec les autres équipes, leurs managers ou dans toute instance nécessitant la présentation de projets et de leurs objectifs • Passionné avec l’envie d’apprendre et de transmettre, qui sait créer les conditions d’un échange constructif – individuel et collectif • Intègre, transparent • Anglais courant Desirable Skills Mandatory • Certification avancée sur AWS • Compute / virtualisation : Windows et/ou Linux, scripting Powershell ou python, VMWare • DB : SQL Server, Cosmos DB, Oracle, Mysql • Outils de monitoring type APM (Ex : Dynatrace, Splunk) • Terraform, Ansible, GitHub, Azure DevOps Expected skills Microsoft Azure Confirmed DEVOPS Confirmed KUBERNETES Confirmed LINUX Confirmed AWS Confirmed
Offre d'emploi
Experte-e Sauvegarde
Publiée le
50k-60k €
Charenton-le-Pont, Île-de-France
Télétravail partiel
Dans le cadre de recrutement sur profils ou sur missions et à l'intention de nos clients grands comptes du CAC40, BLUE SOFT Cloud Infrastructure recherche plusieurs profils aussi bien confirmés qu'Architecte sur les solutions de Sauvegarde. Vous serez amené·e à réaliser les activités suivantes : - Etude et mise en oeuvre des infrastructures de Sauvegarde (build) - Administration, exploitation, et maintien en conditions opérationnelle de ces infrastructures (run) - Support N3 et éventuellement des astreintes (suivant mission/client) - Automatisation et supervision des processus de sauvegarde, remontées d'alertes - Audit des infrastructures SAN & Sauvegarde - Rédaction de documentations techniques (documents d'architecture ou d'exploitation...) Vous êtes familier des processus ITIL et du respect des engagements dans le cadre de KPI/SLA.
Mission freelance
Data Engineer Talend / GCP
Publiée le
Google Cloud Platform (GCP)
Microsoft SQL Server
Talend
3 ans
400-530 €
Île-de-France, France
Télétravail partiel
Dans le cadre du renforcement de la Data Factory de notre client grand compte, nous recherchons un Data Engineer Talend / GCP expérimenté. Vous interviendrez sur la conception, le développement et l’optimisation de solutions Data destinées à répondre aux besoins analytiques et opérationnels des métiers. Votre rôle sera clé dans la mise en place d’une infrastructure Data performante, fiable et scalable sur Google Cloud Platform . Missions principales Analyser les besoins métiers et leurs impacts sur la donnée Concevoir et développer des pipelines de données robustes et évolutifs avec Talend et les services GCP (BigQuery, DataForm, Dataflow, Pub/Sub, Cloud Composer) Optimiser la performance et la scalabilité des solutions existantes Collaborer avec les architectes, Product Owners et Data Analystes pour garantir la qualité et la cohérence des données Maintenir une documentation technique claire et complète Mettre en place le monitoring et les contrôles d’intégrité des pipelines Participer à la recette technique et fonctionnelle des livrables Assurer la maintenance corrective et évolutive des traitements en production Garantir la conformité des développements avec les bonnes pratiques Data et Cloud
Offre d'emploi
Architecte Cybersécurité H/F
Publiée le
Courbevoie, Île-de-France
Télétravail partiel
Chez Ozitem, nous accompagnons les entreprises dans leur transformation digitale , notamment au travers de notre expertise sur les solutions d’infrastructures & de cloud 💡🚀 Entreprise de taille humaine et pérenne depuis plus de 30 ans , l’entreprise affiche une croissance régulière depuis notre création et un chiffre d’affaires de 46 Millions d’euros en 2024 . Ce sont 400 Ozitémiens , ingénieurs et consultants qui évoluent sur trois sites en France : Levallois ( 92 ), notre siège-social, Toulouse ( 31 ) et Lyon ( 69 ). 👨 💻 Avantages : RTT Tickets restaurants Participation CSE 75% transport Les enjeux de la mission sont de : Sécuriser et standardiser l’architecture de sécurité des environnements industriels (réseaux & systèmes) Réduire les risques cyber spécifiques OT (segmentation, accès distants, détection) et garantir la conformité réglementaire (LPM/ANSSI). Renforcer la résilience opérationnelle (PCA/PRA) et accompagner les équipes projets pour une application homogène des exigences sécurité (build/run/MCO). Au sein d'une équipe de 15 personnes, sur un périmètre critique cybersécurité, vos missions seront les suivantes : Concevoir et faire évoluer les architectures de sécurité réseau/systèmes pour des environnements industriels (IT/OT). Réaliser des analyses de risques (infrastructure, systèmes, processus) et porter les recommandations de réduction de risques. Définir, documenter et maintenir standards / référentiels / modèles d’architecture cybersécurité (schémas, DAT, dossiers d’architecture). Contribuer au choix et au cadrage de solutions techniques (pare-feu industriels, segmentation, accès distants sécurisés, supervision SOC, etc.). Accompagner techniquement les équipes projets (build/run/MCO) et animer des ateliers/sessions de sensibilisation sur le design sécurisé. Définir les stratégies/plans de tests de validation sécurité et produire les rapports d’écarts + plans d’amélioration. Livrables attendus : Stratégie d’architecture de sécurité + modèles de référence + schémas d’architecture (globaux/détaillés). Analyses de risques + rapports d’écarts + recommandations d’amélioration. Spécifications techniques sécurité (durcissement/configuration/intégration) + dossiers de conception/implémentation. Stratégie & plans de tests de validation sécurité. DAT (Document d’Architecture Technique) IT & OT + documentation procédures (IAM, auth...
Mission freelance
Développeur Python (H/F)
Publiée le
Python
3 ans
Île-de-France, France
Context: Le client est un leader mondial de l’assurance engagé dans une transformation digitale majeure. Services: Fourniture de services informatiques standardisés à l’ensemble des entités du groupe, en favorisant l’alignement du portefeuille, l’excellence de service et l’efficacité des coûts ; Remplacement des plateformes de gestion de contenu historiques (Documentum, FileNet, NAS) par une plateforme CMX (Content Management eXperience) : une solution clé en main, en mode SaaS, proposant des API REST et une interface web, entièrement alignée avec les standards du groupe en matière d’architecture, de sécurité, de conformité et de résilience ; CMX est une propriété intellectuelle détenue à 100 % en interne, et l’enrichissement de ses capacités — ajout de fonctionnalités innovantes, nouveaux services basés sur l’IA et accélération des migrations vers le cloud — est critique pour son succès à long terme. Deliverables: Maintenance et évolution des outils cœur en Python, prototypage de nouveaux services à forte valeur ajoutée — en s’appuyant sur des technologies telles que l’IA générative, les technologies sémantiques et les patterns cloud-native — afin de générer un impact métier à l’échelle du groupe ; Collaboration étroite avec les parties prenantes métiers, les product managers et les ingénieurs pour transformer des besoins émergents en services robustes et à forte valeur ; Construction et évolution des outils cœur : audit, stabilisation et refactorisation de scripts Python existants ; Garantie d’un code propre, conforme aux normes PEP8, avec des tests complets et une documentation associée ; harmonisation et développement de nouveaux modules, tels que la traduction de règles métiers exprimées en langage naturel en workflows techniques automatisés, stratégies de compression et de regroupement de fichiers ; Innovate & Prototype: Pilotage de sprints d’innovation courts et dynamiques pour explorer de nouveaux services répondant à des cas d’usage ciblés (tagging automatique, recherche sémantique, contrôle qualité des contenus) ; Conception de proofs of concept (POC), définition et remise en question des cas d’usage et besoins spécifiques via du prototypage rapide à des fins de laboratoire ; Évaluation de la faisabilité et proposition de roadmaps de mise en production ; Revue de code, partage des bonnes pratiques et mentorat des pairs sur le développement piloté par les tests (TDD), le CI/CD et l’architecture propre ; Contribution aux pipelines DevOps — CI/CD, infrastructure as code (Terraform, CloudFormation), déploiements automatisés. Expertise: Expertise en développement Python, sur des applications orientées données ou contenu (environ 10 ans d’expérience) ; Core Languages & Tools: Python (avancé), Git, Bash, Java, JavaScript (React/Vue) ; Data & AI: Pandas, regex, parsing JSON/XML, prompt engineering, NoSQL (MongoDB, MarkLogic), RDF/SPARQL, graphes ; Cloud & DevOps: AWS (S3, Lambda), CI/CD (Jenkins/GitLab CI), Terraform, OpenShift, Kubernetes, Artifactory, OpenLDAP ; Testing & Quality: Pytest, frameworks BDD (Behave/Cucumber), revues de code, Selenium, outils d’analyse de sécurité et de qualité (SonarQube, Snyk).
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- La Société de portage avec qui j'ai signé m'impose la soltion MAY
- Utiliser Qonto pour créer la microentreprise
- Compte dédié micro-entreprise
- Service de comptabilité en ligne fiable et réactif pour une succursale de SASU
- Offre propulse IT
- Traitement fiscal des cotisations sociales payées en 2025 sur CA micro-BNC 2024
653 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois