Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 3 454 résultats.
CDI

Offre d'emploi
Ingénieur(e) Expert Varnish / CDN / Cache HTTP

UMANTIC
Publiée le

70k €
Strasbourg, Grand Est
Vous interviendrez au coeur des plateformes digitales publiques d'un acteur majeur de l'audiovisuel européen, diffusant en 7 langues à travers l'Europe. L'environnement est exigeant : trafic massif, pics d'audience significatifs, haute disponibilité sur les composants front et replay. Votre mission : concevoir, exploiter et optimiser les couches critiques de delivery et de caching HTTP qui supportent l'expérience de millions d'utilisateurs. Au sein de l'équipe technique, vous serez responsable de : * Production management des configurations Varnish et VCL * Conception et mise en oeuvre des stratégies de cache et reverse-proxy * Optimisation des performances et gestion du trafic en environnement haute audience * Intégration avec les couches CDN et services backend distribués * Troubleshooting et analyse d'incidents en production * Contribution aux pratiques CI/CD et tests automatisés sur les configurations * Participation aux ateliers trimestriels sur site à Strasbourg (3 jours/trimestre)
Freelance
CDI

Offre d'emploi
Administrateur système et réseau Cloud N2

Proxiad
Publiée le
Azure
LAN

3 ans
40k-50k €
400-510 €
Île-de-France, France
Nous recherchons un(e) Administrateur(trice) Systèmes & Réseaux N2, avec une dominante systèmes (80 %) et une appétence pour les sujets réseau (20 %). Le/la candidat(e) devra disposer de connaissances pratiques du Cloud Microsoft Azure et être motivé(e) pour monter en compétences sur cet environnement. Le poste s’inscrit dans un environnement majoritairement Windows (99 %), avec des compétences attendues sur les infrastructures LAN et les équipements de sécurité (firewall), aussi bien en On-Premise que dans le Cloud (Azure). Une première expérience sur les environnements Azure est requise, au-delà des bases sur Entra ID. Les missions seront principalement orientées RUN (activité majoritaire et incompressible), incluant la participation aux astreintes/shifts, le traitement des demandes et incidents, ainsi que la prise en charge de sujets transverses tels que l’obsolescence (MCO) et la sécurité (MCS). En parallèle, le/la candidat(e) contribuera à des projets techniques (BUILD) visant à faire évoluer les infrastructures.
CDI
CDD

Offre d'emploi
Ingénieur Systèmes / Virtualisation N3

LOMEGARD
Publiée le
Cloud
Stockage
VMware

1 an
40k-60k €
Île-de-France, France
Vous évoluerez dans un contexte multi-client au sein de notre Centre de Services Support et aurez la charge de : • Gérer les incidents et les demandes de niveau 3 dans le respect des engagements de service • Garantir le Maintien en Conditions Opérationnelles et la disponibilité des infrastructures • Piloter et accompagner la transition des environnements de virtualisation (VMware vers Proxmox) • Contribuer aux projets d’évolution des architectures et aux mises en production client • Effectuer les mises à jour des architectures et systèmes hébergés en alignement avec les recommandations et normes de sécurité IT • Intervenir en support des équipes N1 et N2 conformément au processus d’escalade • Rédiger la documentation technique et structurer les procédures dans un contexte de transformation • Assurer la communication et le reporting de l’activité • Être force de proposition sur les choix techniques liés aux évolutions d’infrastructure • Respecter et contribuer à la sécurité des systèmes d’information du groupe • Respecter les règles de sécurité établies par l’entreprise • Participer aux sessions de sensibilisation et formations • Signaler les événements / incidents de sécurité
Freelance

Mission freelance
Data Engineer – Scala / Spark - Solution digitale - Paris (H/F)

EASY PARTNER
Publiée le
Apache Airflow
Apache Kafka
Apache Spark

1 an
400-500 €
Paris, France
Contexte Dans le cadre du renforcement de ses équipes data, un acteur du secteur digital recherche un Data Engineer pour intervenir sur des problématiques de traitement et d’exploitation de données à grande échelle. Missions Concevoir et maintenir des pipelines de données (batch & streaming) Gérer l’ingestion, la transformation et la qualité des données Développer sur des environnements Big Data (Spark, Kafka) Mettre en place et optimiser les workflows (Airflow) Participer à l’industrialisation des traitements (CI/CD) Collaborer avec les équipes Data, DevOps et métiers Stack technique • Scala / Python / SQL avancé Spark / PySpark, Kafka Airflow (ETL / orchestration) Cloud : Azure et/ou AWS Git, CI/CD
Freelance

Mission freelance
Expert Salesforce Freelance (Sales / Marketing Cloud / Aircall / IA) (H/F)

LeHibou
Publiée le
Salesforce

6 mois
580-610 €
Paris, France
Description de la mission : Dans le cadre d’un projet en forte croissance, nous recherchons un(e) freelance Salesforce expérimenté(e) pour intervenir sur des sujets à la fois techniques et fonctionnels. Altaprofits est à la fois un courtier en ligne et un cabinet de conseil en gestion de patrimoine. Créée en 1999, l’entreprise est adossée au groupe Generali France depuis 5 ans. Vous évoluerez au sein d’une structure dynamique, en pleine transformation, avec une forte ambition : faire du CRM un outil central au cœur de la stratégie de l’entreprise. Nous recherchons un profil polyvalent, capable d’intervenir à la fois comme développeur et administrateur avancé sur Salesforce. Missions principales : Configuration et optimisation de Salesforce Mise en place et gestion de campagnes Marketing Cloud Développement de fonctionnalités spécifiques Intégration avec des outils tiers Support et amélioration continue des process CRM Compétences requises : Très bonne maîtrise de Salesforce Sales Cloud Expérience sur Marketing Cloud est appréciable (automation, segmentation, campagnes) Intégration de l'IA dans Aircall avec Salesforce Bonne connaissance d’Agentforce (ou outils similaires de gestion/support client) Compétences en développement (Apex, Lightning, API…) Solide expérience en administration Salesforce (configurations avancées, flows, sécurité…) Autonome, rigoureux(se), force de proposition Bon relationnel avec les équipes métiers Expérience significative sur des projets similaires
Freelance

Mission freelance
Architecte Sécurité Cloud & Données (H/F)

HOXTON PARTNERS
Publiée le
Data Lake
Databricks
IAM

6 mois
650-810 €
Boulogne-Billancourt, Île-de-France
Nous recherchons un Architecte Sécurité Cloud & Données pour l’un de nos clients dans le cadre d’un programme de transformation numérique à dimension internationale. La mission s’inscrit dans la sécurisation des environnements cloud et des plateformes data au sein d’un écosystème en forte évolution. Missions principales : Concevoir des architectures sécurisées pour les environnements cloud et data (Azure et environnements hybrides) Réaliser des évaluations de sécurité sur les services et architectures data et proposer des recommandations Définir les exigences de sécurité pour les projets cloud (identité, intégration, plateformes data/IA) Mettre en place les politiques, standards et bonnes pratiques de sécurité des données Piloter des initiatives de sécurité (choix de solutions, cadrage, mise en œuvre) Accompagner les équipes dans le déploiement sécurisé des workloads et la gestion des risques
Freelance

Mission freelance
Développeur / Ingénieur Éditique – Solutions Documentaires & Transformation Digitale

Deodis
Publiée le
Shell

1 an
470 €
Île-de-France, France
Au sein d’un centre d’expertise dédié à la transformation digitale, vous intervenez sur le développement et la maintenance de solutions éditiques et de gestion électronique de documents. Vous participez à la conception et à l’intégration de modèles documentaires, à l’évolution d’un socle technique transverse (batch, transactionnel et interactif) ainsi qu’à l’adaptation de progiciels spécialisés. Votre rôle inclut également la réalisation de développements, les tests, la rédaction de documentation technique et la résolution des incidents. En collaboration avec des équipes métiers et techniques, vous apportez votre expertise sur des technologies variées (webservices, langages de scripting, outils éditiques) et contribuez à l’amélioration continue des solutions ainsi qu’à l’exploration de nouvelles innovations.
Freelance

Mission freelance
Ingénieur Réseau (H/F)

DUONEXT
Publiée le
Automatisation
Kubernetes
QA

6 mois
Île-de-France, France
Dans le cadre de la validation d’un nouveau gestionnaire de réseau télécom de notre client (SNNG), nous recherchons un ingénieur validation logiciel expérimenté pour intervenir sur des campagnes de tests de performance, d’automatisation et d’intégration en environnement cloud native. La mission couvre notamment : Réalisation des tests SNNG V1 Préparation des tests SNNG V2 Mise en œuvre de tests de charge et de performance sur architectures microservices Automatisation des tests backend et frontend Participation à l’intégration logicielle en environnement Kubernetes Contribution aux pipelines CI/CD GitLab Industrialisation des campagnes de validation Analyse des résultats et reporting de tests Environnement technique Grafana K6 (tests de performance) Kubernetes Docker / Podman Git / GitLab CI/CD Linux Postman Playwright / Cypress / Selenium Pytest / Robot Framework
Freelance

Mission freelance
Data ingénieur / Software ingénieur

SMH PARTICIPATION
Publiée le
Azure
Databricks
PySpark

1 an
100-350 €
Niort, Nouvelle-Aquitaine
Dans le cadre d’un projet Data à forte valeur ajoutée, nous recherchons un Data Engineer / Software Engineer orienté Data afin de renforcer une équipe agile SAFe. Le consultant interviendra sur la conception, le développement et l’industrialisation de pipelines Data et Machine Learning dans un environnement cloud Azure. Il participera à la transformation de solutions analytiques et prototypes Data Science en solutions robustes, scalables et industrialisées. Missions principales Data Engineering / Pipelines Data & ML Conception et développement de pipelines batch sur Azure Databricks Traitement et transformation de données avec PySpark Mise en place de workflows Data industrialisés Utilisation de Delta Lake pour la gestion des données Intégration de modèles ML en collaboration avec les Data Scientists 2. Industrialisation & performance Optimisation des performances Spark : partitionnement gestion mémoire optimisation des jobs Mise en place de mécanismes de : reprise sur erreur traçabilité des traitements monitoring des pipelines Software Engineering / Développement Développement de packages Python industrialisés Conception d’API (Azure Functions / Container Apps) Respect des standards de développement : tests unitaires qualité du code documentation CI/CD Contribution projet & Agile Participation aux phases projet : étude de faisabilité conception développement mise en production (MEP) Participation aux activités RUN et amélioration continue Contribution active aux cérémonies Agile SAFe
Freelance

Mission freelance
ingénieur developpement

STHREE SAS
Publiée le

6 mois
350-400 €
Seclin, Hauts-de-France
Environnement technique Back-end Java Spring / Spring Boot Hibernate Front-end Angular (versions récentes) JavaScript Thymeleaf / JSP Bases de données Oracle MySQL Outils & DevOps Git Jira CI/CD Ansible 🎯 Vos responsabilités Analyse des besoins fonctionnels et participation aux ateliers métiers / Product Owners Conception technique et contribution à l'architecture applicative et aux modèles de données Développements fullstack Java / Angular Maintenance corrective et évolutive Participation aux chantiers de modernisation et de réduction de l'obsolescence Rédaction de documentation technique Mise en place de tests unitaires et participation aux revues de code Support aux phases de livraison, recette et production (incidents, anomalies)
Freelance

Mission freelance
Developpeur Salesforce Cloud

RED Commerce - The Global SAP Solutions Provider
Publiée le
Développement
Salesforce

8 mois
Paris, France
Kajenthi@RED Global – Recherche un Senior Développeur Salesforce Cloud – Freelance - Paris – 2 jours sur site – Contrat jusque 31/12/2026 RED recherche un Développeur Salesforce, en Freelance, Paris – 2 jours sur site – Contrat jusque 31/12/2026. Votre rôle sera d’intervenir sur la conception, le développement et l’optimisation des solutions Salesforce. Vous contribuerez à la mise en place de fonctionnalités clés, à l’amélioration continue de la plateforme ainsi qu’à la fiabilité des choix techniques. Profil recherché Expérience Minimum 5 ans d’expérience significative en développement Salesforce Descriptif de la mission : Concevoir et développer des solutions Salesforce complexes Garantir la cohérence et la qualité de la solution technique Améliorer la qualité des livrables Identifier les besoins techniques et proposer des solutions adaptées aux problématiques rencontrées Assurer la qualité du code (revues techniques, bonnes pratiques Salesforce) Compétences indispensables Sales Cloud / Service Cloud Salesforce Marketing Cloud MuleSoft Si vous etes intéressé par la mission, pourriez-vous m’envoyer votre CV sur
Freelance

Mission freelance
Ingénieur DevOps GCP/GKE

CAT-AMANIA
Publiée le
Google Cloud Platform (GCP)
Google Kubernetes Engine (GKE)

12 mois
400-510 €
Paris, France
Vous interviendrez dans le cadre de la mise en production et industrialisation des projets sous GCP. Vos missions consisteront à contribuer: Construire les scripts terraform de provisionning des ressources GCP Construire ou supporter les équipes de développement sur les pipelines Gitlab CI ou scripts de configurations GITOPS Construire les pipelines de synchronisations d’artifacts entre le repo source & GCP Supporter les équipes projets sur les problématiques techniques & de performances Administrer et optimiser les configurations NGINX pour le relais des flux depuis le réseau Corporate Gérer les configurations Private Service Connect (PSC) pour les clusters Confluent Cloud Assurer la conformité avec les standards réseaux de sécurité Participer à la mise en oeuvre du plan DRP (Disaster Recovery Plan) Contribuer à la migration vers une architecture PSC unifiée Mettre en place et améliorer les solutions de monitoring de la plateforme Confluent Cloud (métriques, alertes, dashboards) Configurer et optimiser la remontée des logs et traces dans Dynatrace Développer des tableaux de bord pertinents pour le suivi opérationnel Mettre en place des alertes proactives sur les métriques critiques Garantir la conformité des accès selon les standards de sécurité Superviser les mécanismes d'authentification (Service Accounts, API Keys, OIDC) Contribuer à l'audit et à la gouvernance des ressources Confluent Mettre en oeuvre les bonnes pratiques de sécurité réseau Participer aux revues de sécurité périodiques Maintenir et enrichir les pipelines CI/CD pour le déploiement de l'infrastructure Contribuer au développement des modules Terraform pour la gestion de la plateforme Automatiser les tâches opérationnelles récurrentes Optimiser les processus de déploiement et de rollback
Freelance

Mission freelance
Ingénieur OPS

CAT-AMANIA
Publiée le
Ansible
Gitlab

12 mois
400-550 €
Niort, Nouvelle-Aquitaine
Nous recherchons un Ingénieur OPS pour le compte de notre client, acteur majeur dans le secteur des assurances. Dans un contexte de transformation et de modernisation du SI, vous interviendrez sur un projet stratégique de migration du patrimoine applicatif vers GitLab, avec le décommissionnement des outils existants. Ce projet s’inscrit pleinement dans les normes et bonnes pratiques de la DSI. À ce titre, vos missions seront les suivantes : Mise en place et optimisation des chaînes CI/CD pour l’intégration et le déploiement des applications Automatisation des déploiements via Ansible, AWX et GitLab CI Accompagnement des équipes de développement dans la prise en main des nouveaux outils et processus Évolution des pratiques DevOps pour intégrer ce nouveau socle technique Installation et configuration des outils nécessaires à l’industrialisation Mise en place de nouvelles procédures et diffusion des bonnes pratiques Rédaction de documentation technique (Wiki, README, procédures) Vous évoluerez dans un environnement technique riche : Intégration & déploiement : Git, GitLab CI, Ansible, AWX Qualité & sécurité : SonarQube Monitoring : Centreon, Prometheus, Grafana, Dynatrace Environnements : .NET, Windows Server, Java, Linux
CDD
CDI
Freelance

Offre d'emploi
INTEGRATEUR TECH-OPS 2

KEONI CONSULTING
Publiée le
PostgreSQL
Run
VMware

18 mois
20k-60k €
100-500 €
Paris, France
Contexte : Nous recherchons un TechOps, un référent transversal garant de la qualité d’intégration, de la fiabilité opérationnelle, et de l’exploitabilité by design des solutions déployées au sein de l’équipe Infrastructure. Il participera à renforcer la fiabilité opérationnelle (RUN), l’amélioration continue, la standardisation, l’automatisation des processus d’exploitation et la montée en maturité vers les pratiques modernes de Platform Engineering. La ressource devra s’impliquer pour devenir un référent technique transverse, capitalisant sur les périmètres applicatifs et les solutions techniques. La répartition indicative des activités sera de 60 % au sein du Bureau Technique et 40 % en contributions techniques transverses (documentation, automatisation, amélioration continue, outillage). MISSIONS OBJET DE LA PRESTATION Préparation, coordination et suivi des mises en production. Contrôle et validation des livrables techniques. Intégration et paramétrage des solutions logicielles. Réalisation des tests techniques : unitaires, intégration, validation d’exploitabilité. Installation des nouveaux modules et des évolutions applicatives. Participation aux analyses d’impacts techniques. Contribution à l’évaluation des risques techniques. Vérification de la conformité aux normes de sécurité, d’architecture et d’exploitation. Respect strict des normes, standards, architectures, procédures et bonnes pratiques d’exploitation. Participation active à l’évolution des standards techniques du TechOps. - - - - - - - - - - - - Déploiement et maintien de solutions techniques et d’automatisations (scripts, pipelines CI/CD, supervision, IaC lorsque applicable). Standardisation des outils, patterns et bonnes pratiques. Contribution aux services et solutions opérées par l’équipe Platform Engineering. Production et mise à jour de la documentation technique (DEX, référentiels, procédures…). Reporting régulier auprès du responsable Infrastructure et des ISM (Integration Service Managers). Accompagnement, vulgarisation et partage de connaissances auprès des équipes internes. Participation à l’acculturation DevOps au sein du Bureau Technique. Solide rigueur technique et capacité d’analyse. Aisance rédactionnelle et esprit de synthèse. Excellente communication orale et écrite. Aptitude à vulgariser et à accompagner les équipes dans la montée en compétences. Capacité à être force de proposition et à mener une veille technologique régulière. PROFIL & ENVIRONNEMENT TECHNIQUE L’environnement technique de l’équipe d’Infrastructure est composé des éléments ci Compréhension limitée des concepts de production et DevOps, capacité à exécuter des tâches simples sous supervision (par exemple, exécution de scripts ou suivi des indicateurs de performance). Capacité à configurer des environnements de développement et de production, à utiliser des outils de gestion de version (comme Git) et à exécuter des tâches de maintenance préventive. Maîtrise des outils d'intégration et de déploiement continu (CI/CD), capacité à gérer des conteneurs (Docker, Kubernetes), et à optimiser les processus de production tout en surveillant les performances. Compétences expertes Expertise dans la gestion d'infrastructures cloud (AWS, Azure, GCP), capacité à concevoir des architectures résilientes, à implémenter des pratiques de sécurité, et à diriger des initiatives d'amélioration continue. Systèmes & Architecture Infrastructure Unix, Linux ,Windows Server ,Orchestration & Scheduling,Control-M ,supervision / Observabilité, Zabbix, Instana, Prometheus,Grafana, Kibana ,Scripting & Programmation, Shell, Python (scripting), powerShell, Python (dev),YAML,SQL,Java, NodeJS, ReactJS, Réseau & Équilibrage, HAProxy, Nginx3, API & Intégration, API REST, gestion & Analyse des Logs, Loki, Elasticsearch, Workflows & Traitements techniques, Apache Airflow ,Gestion de code (VCS) Compétences techniques essentielles (obligatoires) - - - - - - - - Systèmes & Architecture Infrastructure o Très bonne maîtrise des systèmes d’exploitation Linux et Windows Server (niveau expert). o Compréhension des environnements Unix/AIX et des mécanismes de haute disponibilité (HACMP, VCS, Windows Cluster). o Bonne compréhension des architectures d’infrastructure toutes couches (OS, réseau, middleware, API, stockage, supervision). Cloud & Modernisation o Connaissance solide des concepts Cloud (public, privé, hybride). o Compréhension des principes d’architecture Cloud (scalabilité, résilience, sécurité, patterns d’intégration). o Savoir travailler dans des environnements Cloud et accompagner la migration de solutions legacy. Automatisation & Infrastructure-as-Code o Maîtrise d’Ansible pour l’automatisation des configurations et des déploiements. o Connaissance de Terraform (IaC) pour comprendre ou valider les modèles d’infrastructure automatisée. o Connaissance de Vault pour la gestion sécurisée des secrets. o Capacité à intégrer et à standardiser les outils DevOps dans la chaîne d’exploitation. Orchestration & Traitements o Maîtrise d’Apache Airflow pour l’orchestration de workflows techniques et applicatifs. CI/CD & DevOps o Bonne connaissance des chaînes CI/CD (GitLab CI, GitHub Actions, Jenkins). o Capacité à valider l’exploitabilité d’un pipeline et à définir les prérequis techniques. o Capacité à intégrer des solutions DevOps, sans nécessairement développer des pipelines complexes. Langages & Scripting o Maîtrise d’un langage de programmation tel que Java ou Python (lecture, compréhension, validation technique). o Très bonne maîtrise du Shell (niveau expert), Python scripting et PowerShell. o Bonne maîtrise de YAML pour la lecture des configurations modernes (CI/CD, Kubernetes, Airflow). o Connaissances de base en SQL (lecture, diagnostic simple). Observabilité / Supervision / Logs o Connaissance des outils de supervision (Zabbix, Instana). o Capacité à lire et interpréter des logs via Loki, Elasticsearch, Kibana, Grafana, Prometheus. o Savoir identifier des incohérences, anomalies ou points d'amélioration sur la chaîne d’exploitabilité. Réseau, API & Équilibrage - - o Bonne compréhension du fonctionnement des API REST (consommation, contrats, validations). o Connaissance des équilibreurs de charge (HAProxy, Nginx). o Comprendre les mécanismes de SLB/GSLB (Load Balancing global/local). Écosystème applicatif & composants techniques o Compréhension des serveurs d’applications (Apache, Tomcat, JBoss). o Connaissance des systèmes de messagerie (Kafka, RabbitMQ, IBM MQ Series). o Connaissance des solutions de transferts (TOM/CFT/PeSIT). o Familiarité avec les bases de données (MS SQL, Redis, MongoDB, PostgreSQL) et leurs outils (DBeaver/SQL Manager). Les compétences optionnelles apportant un plus sont : - - - - - Maîtrise supplémentaire de langages : YAML avancé, C++, C#, HTML/CSS. Connaissance des solutions de virtualisation (VMWare, Hyper-V…). Connaissance de PostgreSQL et MongoDB (niveau opérationnel). Familiarité avec la gestion de projet et les méthodologies agiles. Compréhension plus avancée des solutions de coffre-fort (Vault, CyberArk…).
Freelance
CDI

Offre d'emploi
Expert Data Engineer / DevOps

R&S TELECOM
Publiée le
Apache Kafka
Java
Kubernetes

6 mois
40k-45k €
400-500 €
Bordeaux, Nouvelle-Aquitaine
Contexte de la mission Dans le cadre d’un programme structurant de modernisation du système d’information , nous recherchons un profil Data Engineer / DevOps senior pour renforcer une équipe existante. La mission s’inscrit au cœur du SI cible , au service de plusieurs applications critiques orientées data, intégration et services temps réel. Le poste vise à industrialiser les chaînes DevOps et à structurer les flux Data Lake dans un environnement cloud native, fortement automatisé et orienté open source . Démarrage souhaité : mai / juin Localisation : Rive gauche bordeaux, nécessite un véhicule Objectifs de la mission Le rôle est double : DevOps / Plateforme Industrialisation et sécurisation des chaînes d’intégration et de déploiement Standardisation des pratiques GitOps sur un socle Kubernetes multi‑environnements Renforcement de l’automatisation et de l’observabilité des plateformes applicatives et data Data / Streaming Accompagnement à la conception et à la standardisation des flux data temps réel Structuration d’un Data Lake orienté streaming et lakehouse Garantie de la performance, de la résilience et de la maintenabilité des flux Domaines d’intervention & compétences clés Socle Kubernetes & DevOps Orchestration : Kubernetes (Namespaces, Ingress, RBAC) GitOps : GitLab CI, Helm, ArgoCD Observabilité : Grafana, Prometheus, Loki, Tempo Sécurité CI/CD : SAST, DAST, Trivy Environnements : OpenStack Écosystème Data & Data Lake Streaming & CDC : Kafka, Debezium Processing : Spark SQL, Airflow Lakehouse : Apache Iceberg Query Engine : Trino (PrestoSQL) Stockage objet : Ceph (ou équivalent) Micro‑services & APIs Runtimes : Java / Quarkus, Python API Management : Kong Protocoles : MQTT (atout) Optimisation des performances applicatives et data Livrables attendus (exemples) Socle & automatisation Mise en place d’architectures ArgoCD (Application of Applications) Catalogue de Charts Helm industrialisés Bibliothèque de pipelines GitLab CI/CD standardisés et sécurisés Data & Streaming Provisionnement automatisé des clusters Kafka et connecteurs Debezium Configuration optimisée de Trino sur stockage objet Mise en place des DAGs Airflow pour l’orchestration des traitements Documentation & MCO Dashboards de supervision avancés Rédaction du Dossier d’Architecture Technique (DAT) Rédaction de Runbooks MCO / PRA Définition de standards techniques et bonnes pratiques cloud native Profil recherché Expérience confirmée (5 à 8 ans minimum) en DevOps, Data Engineer ou Platform Engineer Très bonne maîtrise de Kubernetes et des pratiques GitOps Expérience concrète sur des plateformes Kafka et Data Lake À l’aise dans des contextes SI complexes et structurants Capacité à travailler en collaboration étroite avec équipes de développement, architectes et chefs de projet Autonomie, rigueur, sens de l’industrialisation
Freelance

Mission freelance
Lead Technique Oracle ERP

Axande
Publiée le
Analyse
Oracle ERP Cloud
Oracle Fusion

1 an
600-770 €
La Défense, Île-de-France
La mission consiste à piloter les évolutions techniques et encadrer une équipe de développeurs sur le périmètre Oracle ERP Cloud / EBS. Missions principales : Piloter les développements techniques liés aux évolutions de l’ERP Définir l’architecture des solutions (intégrations, extensions, etc.) Encadrer une équipe de développeurs Garantir la qualité technique des livrables (standards, délais, cohérence) Participer aux estimations et au suivi des charges Collaborer avec les équipes fonctionnelles et les architectes Intervenir ponctuellement en hands-on (développement, intégration, paramétrage) Assurer le respect des processus (change management, documentation, outils type SNOW / ALM)
3454 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous