L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 122 résultats.
Mission freelance
Expert Kafka H/F
Publiée le
Apache Kafka
AWS Cloud
Bash
6 mois
400-550 €
Nantes, Pays de la Loire
Télétravail partiel
En tant qu’ Administrateur Kafka Confluent , vous serez responsable de la stabilité, de la performance et de l’évolution de notre plateforme Kafka Confluent. Votre mission principale consiste à assurer la fiabilité des flux de données en temps réel, à automatiser les déploiements et à collaborer avec les équipes métiers et techniques pour répondre aux besoins stratégiques. Vous interviendrez sur la conception et la maintenance des pipelines temps réel, la gestion des connecteurs via Kafka Connect et Schema Registry (Avro), ainsi que sur la supervision et l’optimisation des clusters Kafka (AWS MSK ou on-premise). Vous participerez à la mise en place d’architectures data orientées événements, garantissant sécurité, conformité et résilience. Enfin, vous serez un acteur clé dans la formation et l’accompagnement des équipes internes.
Offre d'emploi
Architecte Openshift / kubernetes
Publiée le
Kubernetes
Openshift
3 ans
40k-45k €
400-550 €
Paris, France
Télétravail partiel
En tant qu’Architecte OpenShift, vous serez responsable de la conception, de l’évolution et de la gouvernance technique des plateformes OpenShift du groupe. Vous interviendrez sur des projets stratégiques liés à la modernisation des infrastructures, à la sécurité, à la scalabilité et à l’automatisation des environnements cloud. Vos missions: Définir l’architecture cible des clusters OpenShift (on-premise et cloud hybride) Piloter les évolutions techniques et les migrations vers OpenShift 4.x Garantir la cohérence des déploiements avec les standards d’architecture du groupe Collaborer avec les équipes DevOps, Sécurité, Réseau et Exploitation Mettre en place des mécanismes d’automatisation (GitOps, CI/CD, Ansible, Terraform) Assurer la gouvernance des ressources, des quotas, des namespaces et des politiques de sécurité Participer à l’intégration des outils de monitoring, logging et observabilité (Prometheus, Grafana, ELK, etc.) Rédiger des documents d’architecture, des guides de bonnes pratiques et des modèles de référence Profil recherché: Bac+5 en informatique, ingénierie ou équivalent Expérience confirmée (minimum 5 ans) en architecture cloud ou conteneurisée Maîtrise d’OpenShift (4.x), Kubernetes, Linux et des principes d’infrastructure as code Connaissance des environnements bancaires ou réglementés (souhaitée) Capacité à travailler en transverse, à vulgariser des concepts techniques et à accompagner le changement Esprit d’analyse, rigueur et leadership technique 🛠️ Compétences techniques clés: DomaineTechnologies / Outils: ConteneurisationOpenShift, Kubernetes, DockerAutomatisationGitOps, ArgoCD, Ansible, TerraformCI/CDJenkins, GitLab CI, Nexus, SonarQubeObservabilitéPrometheus, Grafana, ELK, DynatraceSécuritéRBAC, Network Policies, SSO, Vault, OPACloudOpenStack, Azure, AWS (selon contexte projet)
Mission freelance
Développeur Python Expert – IA
Publiée le
IA
MLOps
Python
12 mois
600-650 €
Paris, France
Télétravail partiel
Développeur Python Expert – Environnement MLOps & Cloud Privé (secteur bancaire) Un grand acteur du secteur bancaire développe et opère en interne une plateforme d’industrialisation de projets data et IA , destinée à accompagner les équipes de data scientists et d’analystes tout au long du cycle de vie de leurs modèles : du développement à la mise en production. Cette solution s’appuie sur un cloud privé on-premise , une stack technologique moderne et open source , et une approche MLOps complète (déploiement, packaging, monitoring, compliance). L’objectif est d’offrir une infrastructure fiable, automatisée et scalable , reposant sur des composants développés en Python, Go et Kubernetes . Dans ce contexte, l’équipe recherche un Développeur Python expérimenté pour prendre en main la librairie interne d’industrialisation des projets IA , pilier central de la solution. Missions principales En tant que Développeur Python Expert , vous aurez un rôle clé dans la conception, l’évolution et la maintenance de la librairie interne dédiée à l’industrialisation des projets IA. Développement & conception Développer et maintenir une librairie Python backend hautement technique, utilisée en production par les équipes data et IA. Concevoir et optimiser les pipelines d’automatisation : packaging, création de conteneurs Docker, génération d’API, déploiements expérimentaux. Intégrer des mécanismes de validation, compliance et monitoring pour assurer la robustesse des déploiements. Contribuer à la qualité du code , aux tests unitaires et à la documentation technique. Architecture & intégration Participer à la conception de l’architecture technique autour de la librairie. Travailler sur l’intégration avec l’écosystème CI/CD (ArgoCD, Argo Workflows) et les environnements Kubernetes on-premise. Collaborer avec les développeurs Go et les équipes MLOps pour garantir la cohérence globale de la plateforme. Expertise & amélioration continue Être référent technique sur les choix d’implémentation et d’architecture Python. Assurer la veille technologique sur les bonnes pratiques backend et MLOps. Participer à l’amélioration continue de la performance, de la maintenabilité et de la fiabilité du framework.
Offre d'emploi
Consultant SAP BASIS
Publiée le
SAP Basis
SAP S/4HANA
70k-80k €
Antony, Île-de-France
Télétravail partiel
Dans le cadre de sa transformation digitale et de la modernisation de son SI, notre client leader de l'agro-alimentaire mise sur une migration stratégique vers SAP S/4 Hana, RISE et BTP , au cœur de son système d’information. Mission : garantir la performance, la disponibilité et la sécurité des environnements SAP pour soutenir les métiers du groupe. Vision : accélérer la digitalisation du groupe via des infrastructures fiables, modernes et scalables. Valeurs : esprit collectif, proximité clients, qualité de service, engagement. Votre mission : En tant que Consultant SAP Basis , vous êtes un acteur clé de la Direction des Systèmes d’Information et intervenez sur : Opérer & Maintenir : assurer la disponibilité des environnements SAP (ECC on-premise, RISE/S4 en cours, BTP, BW, PO…), bases de données et stockage. Gérer la supervision , les sauvegardes , le PRA , la métrologie et la sécurité. Être référent technique sur la migration vers S/4 Hana et RISE , ainsi que sur l’intégration Cloud (BTP). Participer à des projets stratégiques de transformation : optimisation des performances, automatisation, modernisation des environnements. Réaliser les installations, mises à jour et montées de version . Contribuer à l’ amélioration continue et proposer des évolutions pertinentes. Participer aux astreintes en rotation avec l’équipe.
Offre d'emploi
Expert DevSecOps / LLMOps – Gitlab
Publiée le
Jenkins
18 mois
10k-60k €
180-600 €
Paris, France
Télétravail partiel
CONTEXTE Nous recherchons une expertise technique DevSecOps/LLMOps afin de maintenir et faire évoluer le Portail Multi-IAG face aux besoins croissants d’industrialisation, de sécurité, de conformité et de performance, et de contribuer à la montée en compétence de l’équipe sur les pratiques propres aux modèles génératifs. La mission s’exécute dans un contexte multi-environnements (Landing Zone GCP, On-Prem, cloud de confiance/ SecNumCloud à venir) et s’interface avec les briques internes du groupe (API Gateway, observabilité, etc.). La prestation s'articule autour de cinq missions clés : Fiabilisation et accélération du Portail V1 • Objectif : Améliorer et industrialiser les pratiques opérationnelles pour sécuriser et optimiser les services existants. • Périmètre : Mise en œuvre de la CI/CD, renforcement de la sécurité (IAM, secrets), structuration de l'observabilité (traces, métriques, logs) et des pratiques FinOps. Conception et préparation du Portail V2 (cible 2026) • Objectif : Définir et construire les fondations techniques de la future version du portail. • Périmètre : Conception de l'architecture DevSecOps cible, production des artefacts documentaires (HLD/LLD), développement de l'Infrastructure as Code (IaC) et des pipelines, et pilotage de la migration. Structuration de la filière LLMOps • Objectif : Définir et mettre en œuvre les standards, outils et processus pour industrialiser le cycle de vie des modèles génératifs. • Périmètre : Intégration des évaluations continues (qualité, sécurité, coûts) dans la CI, mise en place de "guardrails" et de politiques de sécurité (Policies as Code), et garantie de la conformité (RGPD / AI Act). Anticipation de l'IA Agentique • Objectif : Préparer la plateforme à l'intégration future des technologies d'agents IA. • Périmètre : Veille technologique, prototypage des briques d'orchestration et de contrôle (HITL, guardrails spécifiques), et contribution à l'architecture cible. Accompagnement et transfert de compétences • Objectif : Assurer la montée en compétence et l'autonomie des équipes internes (Portail et Plateforme Data). • Périmètre : Acculturation, production de documentation (playbooks, runbooks), formation et support méthodologique. Activités détaillées Pour réaliser ces missions, le prestataire mènera les activités suivantes : • Ingénierie et industrialisation : Développement de pipelines CI/CD (GitLab), de scripts d'automatisation, d'Infrastructure as Code (Terraform), et de charts Helm. • Qualité et sécurité : Mise en œuvre des tests (unitaires, performance, SAST/SCA/SBOM), intégration des évaluations de LLM et des "guardrails" (input/output, LLMGuard) comme étapes bloquantes dans la CI. • Déploiement : o Gestion et déploiement des modèles d’IA génératif o Gestion et déploiement applicatif (solutions open source : LangFlow, LangFuse, OpenWebUI, n8n, LiteLLM, etc…) à l’échelle de l’entreprise. • Support et MCO : Résolution d'incidents de niveau 2/3, optimisation des performances et des coûts, assistance technique aux équipes. Exigences transverses • Respect du référentiel technique et méthodologique de l’Entreprise, des procédures en vigueur (tests/validation), des contraintes & délais du présent document et du cadre contractuel associé. • Respect des exigences sécurité & conformité (IAM, Vault/KMS, réseau privé, DPIA, RGPD/AI Act, journalisation/audit, résidence des données). PERIMETRE/COMPETENCES : • Jenkins (périmètre à harmoniser) Stack d'observabilité et d'évaluation LLM : • Prometheus, Grafana, Loki, OpenTelemetry… • LangSmith, Langfuse Environnements d'hébergement : • Google Cloud Platform (Landing Zone, Vertex AI, GKE) • Infrastructures On-Premise
Mission freelance
Consultant(e) réseau sécurité - Expert(e) et certifié(e) TUFIN AURORA
Publiée le
Tufin
24 mois
350-700 €
Paris, France
Télétravail partiel
Notre client vient de renouveler les machines Tufin obsolètes et souhaite configurer un module supplémentaire : Secure Change et l'interfacer avec son ITSM (ServiceNOW). Il souhaite également avoir des reporting disponibles dans son outil web PowerBi basé sur l'API Tufin. (exports de préférence en powershell). L'application Tufin est configurée en on-premise sur des appliances Tufin (T-820-worker nodes et T1220-data node) en Aurora. L'objectif est également un accompagnement sur la mise en place de la haute disponibilité et l'ajout du périmètre AWS. Prestation attendue Dans le cadre de cette prestation, le prestataire aura pour mission de : - Etablir les workflows avec Safran pour les demandes suivantes : • ouvertures/fermetures de flux réseaux • mises à jour de groupes de sécurités sur les équipements • vérifications de flux réseaux • extract de règles pour une application/service donné - Interfacer ces workflows avec l'ITSM du groupe (ServiceNOW) et le module SecureChange de Tufin. - Mettre à disposition des exports basés sur l'API Tufin. Le but est de construire des KPI (nombre de demande par jour/semaine, nombre de règles modifiées, nombre d'objets, nombres d'objets dupliqués) et construire ces rapports PowerBI basés sur ces exports. - Mettre en place la migration du RUN Tufin vers une équipe dédiée Run N-1 et N-2 actuellement supporté par les experts N-3. Rédaction de document d'exploitation, arbre de décision, aide à la rédaction d'offres de service telle que : création de compte, demande d'export, etc. - Supporter notre client dans l'exploitation du module SecureTrack en proposant des améliorations et/ou des best practices de l'éditeur. - Support à l'ajout des équipements réseaux AWS sur Tufin. Livrables • Les workflows (de préférence sous MS visio) • Les documents demandés par l'équipe SNOW pour l'interfaçage des 2 applications (contenant le nom des champs des formulaires SecureChange par exemple) de type contrat d'interface • Les guides d'exploitations de SecureChange et SecureTrack destinés à l'équipe de RUN N-1 et N-2 sous format word et pdf. • Les exports (dont le/les script/scripts) et les rapports pour les KPI sous PowerBI • Support de formation à destination des référents Réseaux expert N-1/2/3 (sous PPT) Tous les documents (sauf contre-indication) devront être rédigés en Français ET en Anglais. Les prestations ci-dessus devront être réalisées à partir du 01/03/2024 et se terminer au plus tard le 30/09/2024.
Offre d'emploi
Architecte micro-services - H/F
Publiée le
Application web
Développement
Microservices
40k-45k €
Toulouse, Occitanie
Télétravail partiel
ALTEN est un acteur mondial de référence avec plus de 60 000 collaborateurs dans plus de 30 pays . En 2025, nous avons initié un regroupement stratégique de nos activités informatiques autour de 7 grands centres de compétences : Software, Smart Platforms, Infra, Sécurité & Cloud, Data/IA, PMO, Télécoms et Finances de marché . Ce nouvel élan nous permet de renforcer notre expertise et d'offrir à nos clients des solutions encore plus innovantes et adaptées à leurs enjeux. Au sein du centre de compétences "Software", basé à Toulouse, nous recherchons un(e) Architecte Microservices passionné(e) pour rejoindre notre équipe d’experts en technologies web. Vous aurez un rôle clé dans la conception d’architectures innovantes et l’accompagnement de nos équipes sur des projets d’envergure. 🎯 Votre mission : une expertise au service de l’innovation 🔹 Contribution aux appels d’offres Participer activement en proposant des solutions techniques adaptées et innovantes. Valider les choix technologiques et assurer le chiffrage des projets. 🔹 Expertise technique & architecture Concevoir et mettre en place des architectures microservices robustes et évolutives (Cloud et On-Premise). Valider les évolutions d’architecture et les impacts techniques des changements fonctionnels. Encourager et sponsoriser les initiatives CI/CD pour une livraison continue optimisée. 🔹 Accompagnement & partage des connaissances Évaluer et qualifier techniquement les candidats, notamment les Tech Leads . Former et accompagner les équipes de développement sur les bonnes pratiques microservices . Animer votre communauté technique : meetups, événements, démonstrations … Assurer une veille technologique et partager les connaissances pour améliorer continuellement nos pratiques. 🔹 Garantie du succès des projets Lancer les projets aux côtés du Tech Lead et de l’équipe pour assurer une bonne compréhension de l’architecture et des enjeux. Accompagner les équipes dans les phases critiques de mise en œuvre. Intervenir en cas de crise pour diagnostiquer et résoudre les problématiques complexes.
Offre d'emploi
Ingénieur / Intégrateur Observabilité (DataDog)
Publiée le
Datadog
1 an
40k-60k €
400-600 €
Hauts-de-Seine, France
Télétravail partiel
L’ingénieur/intégrateur Observabilité est responsable de la mise en place, de l’industrialisation et de l’optimisation de la plateforme DataDog. Il assure l’intégration et le monitoring des métriques, logs, traces et événements provenant des environnements On-Premise et Cloud (AWS). Il joue un rôle clé dans la structuration des pipelines de logs, leur parsing, leur normalisation et leur enrichissement. Missions principales : 1. Intégration & Configuration de DataDog Déployer, configurer et maintenir les agents DataDog (infrastructures, conteneurs, serveurs applicatifs, bases de données…) Intégrer les services AWS : CloudWatch, Lambda, ECS/EKS, API Gateway, S3, RDS… Mettre en place l’APM et instrumenter les applications (traces et profiling) Gérer la collecte et le parsing des logs DataDog : Configuration des pipelines de logs (Grok, Remapper, Processors) Normalisation via les pipelines standards ECS/Datadog Création de règles de parsing (patterns, regex, grok, JSON) Nettoyage, filtrage, réduction du volume (cost control) Mise en place de tags automatiques pour optimiser la recherche et les dashboards 2. Conception & Industrialisation Créer et maintenir les tableaux de bord (dashboards) orientés OPS, métier et SLA/SLO Définir et automatiser les seuils d’alerting intelligents : anomalies, prévisions, monitoring synthétique Structurer la plateforme : tags, naming conventions, auto-découverte Automatiser l’observabilité via Infrastructure as Code (Terraform recommandé) 3. Support & Expertise Accompagner les équipes projets et dev pour instrumenter leurs applications avec les librairies DataDog APM Former les équipes IT (Dev, Ops, SecOps) aux bonnes pratiques d’observabilité Diagnostiquer les problèmes de performance, latence, saturation, erreurs applicatives
Offre d'emploi
Expert IAM – Red Hat Identity Management (IDM)
Publiée le
IAM
3 ans
Île-de-France, France
Télétravail partiel
Contexte : BNP Paribas, acteur majeur du secteur bancaire européen, renforce sa posture de cybersécurité pour protéger ses actifs face aux menaces croissantes et répondre aux exigences réglementaires et clients. Au sein de la direction IT Security & Risk, vous intégrerez l’équipe IT Security Access Management , en charge de l’ architecture et de l’ingénierie des services IAM (Identity & Access Management) à l’échelle internationale. L’équipe assure la conception, l’intégration, le support N3 et le maintien en conditions opérationnelles des solutions IAM couvrant : l’identification et l’authentification, la gestion des secrets et des comptes à privilèges, le security hardening, le contrôle secondaire, l’access modeling, etc. Missions principales : Agir en tant qu’ expert sur le produit Red Hat Identity Management (IDM) . Participer à la conception, modélisation et intégration des solutions IAM dans un environnement hybride Cloud / on-premise . Réaliser des études de cadrage, d’opportunité et de faisabilité . Auditer l’existant et proposer des améliorations techniques et sécuritaires . Garantir le MCO , les SLA et l’ amélioration continue des services IAM. Former et accompagner les équipes de support (N2, fonctionnel, technique). Documenter et communiquer les solutions techniques à différents niveaux (management, projets, production). Collaborer étroitement avec les équipes IT Security & Risk et les métiers.
Offre d'emploi
Ingénieur / Intégrateur Observabilité (DataDog)
Publiée le
Datadog
1 an
40k-60k €
400-600 €
Hauts-de-Seine, France
Télétravail partiel
Résumé du poste L’ingénieur/intégrateur Observabilité est responsable de la mise en place, de l’industrialisation et de l’optimisation de la plateforme DataDog. Il assure l’intégration et le monitoring des métriques, logs, traces et événements provenant des environnements On-Premise et Cloud (AWS). Il joue un rôle clé dans la structuration des pipelines de logs, leur parsing, leur normalisation et leur enrichissement. Missions principales 1. Intégration & Configuration de DataDog Déployer, configurer et maintenir les agents DataDog (infrastructures, conteneurs, serveurs applicatifs, bases de données…) Intégrer les services AWS : CloudWatch, Lambda, ECS/EKS, API Gateway, S3, RDS… Mettre en place l’APM et instrumenter les applications (traces et profiling) Gérer la collecte et le parsing des logs DataDog : Configuration des pipelines de logs (Grok, Remapper, Processors) Normalisation via les pipelines standards ECS/Datadog Création de règles de parsing (patterns, regex, grok, JSON) Nettoyage, filtrage, réduction du volume (cost control) Mise en place de tags automatiques pour optimiser la recherche et les dashboards 2. Conception & Industrialisation Créer et maintenir les tableaux de bord (dashboards) orientés OPS, métier et SLA/SLO Définir et automatiser les seuils d’alerting intelligents : anomalies, prévisions, monitoring synthétique Structurer la plateforme : tags, naming conventions, auto-découverte Automatiser l’observabilité via Infrastructure as Code (Terraform recommandé) 3. Support & Expertise Accompagner les équipes projets et dev pour instrumenter leurs applications avec les librairies DataDog APM Former les équipes IT (Dev, Ops, SecOps) aux bonnes pratiques d’observabilité Diagnostiquer les problèmes de performance, latence, saturation, erreurs applicatives
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
122 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois