Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 763 résultats.
CDI

Offre d'emploi
Ingénieur production/Devops H/F

CONSORT GROUP
Publiée le
Ansible
ELK
GitLab CI

94220, Charenton-le-Pont, Île-de-France
Chaque moment compte. Surtout ceux que vous vivez à fond. Bienvenue chez Consort Group. Consort Group, accompagne depuis plus de 30 ans les entreprises dans la valorisation de leurs données et infrastructures. Elle s'appuie sur deux leaders, Consortis et Consortia, et place l’humain et la responsabilité sociétale au cœur de ses valeurs. C’est votre future équipe Les équipes de Consortis, sont au cœur des enjeux actuels de Cybersécurité, Virtualisation & Cloud, Systèmes, Réseaux et Télécom, ainsi que sur les environnements Digital Workplace. Les compétences RPA et DevOps viennent renforcer ces offres pour accélérer l’agilité et l’efficacité opérationnelle des services délivrés. Ingénieur production/Devops H/F C’est votre mission Vous êtes passionné·e par la production applicative, le DevOps et le cloud ? Ce poste est fait pour vous. En tant qu’ Ingénieur·e de Production DevOps , vous êtes responsable du build et du run de notre écosystème applicatif critique, au cœur des solutions de paiement. Vous intervenez sur des environnements complexes, à forts enjeux de disponibilité, de sécurité et de performance. Côté build : Concevoir et faire évoluer les architectures techniques sur des environnements GCP, OpenShift et on-premise Mettre en place et maintenir des pipelines CI/CD automatisés (Jenkins, XL Release, XL Deploy, GitLab CI) Industrialiser les déploiements via Ansible, Terraform, Docker Participer aux choix d’outillage et aux bonnes pratiques DevOps Collaborer étroitement avec les équipes projets, sécurité et architecture Côté run : Assurer le déploiement et l’exploitation d’ applications critiques de paiement Administrer les serveurs web et applicatifs (Apache, IHS, HAProxy, JBoss, Tomcat) Gérer l’ ordonnancement des traitements batch (VTOM, Control-M) Mettre en place et maintenir des dashboards de supervision et de suivi opérationnel Participer au support de production , à la gestion des incidents et aux astreintes éventuelles Améliorer en continu la fiabilité, la sécurité et l’observabilité des environnements C’est votre parcours Vous avez au moins 6 ans d’expérience dans des environnements DevOps et de production applicative exigeants . Vous aimez automatiser, fiabiliser et optimiser sans jamais cesser d’innover. Vous recherchez un cadre où la technique, la rigueur opérationnelle et la collaboration vont de pair. C’est votre expertise : Cloud & Containers : GCP, OpenShift, Kubernetes (Helm, Kustomize) CI/CD & Automation : Jenkins, XL Release, XL Deploy, GitLab CI, Ansible, Terraform Systèmes & serveurs : Apache, IHS, HAProxy, JBoss, Tomcat Ordonnancement : VTOM, Control-M Supervision & logs : Grafana, Prometheus, ELK, Zabbix Langages & scripting : Bash, Python, YAML Travail en environnement Linux , au sein d’équipes Agile / DevOps C’est votre manière de faire équipe : Esprit analytique et sens des responsabilités Autonomie et capacité à être force de proposition Aisance dans les échanges avec les équipes OPS, projets et sécurité Culture du service, du collectif et de l’amélioration continue C’est notre engagement Chez Consort Group, vous êtes un·e expert·e qu’on accompagne pour que chaque mission devienne une étape qui compte. Un onboarding attentif et humain Une vraie proximité managériale Des formations accessibles en continu Des engagements concrets : inclusion, égalité, solidarité Le programme Move Up x United Heroes pour bouger et respirer Un package RH complet : mutuelle, carte TR, CSE, prévoyance Une culture du feedback et des projets qui font sens C’est clair Le process de recrutement : Un premier échange téléphonique avec notre team recrutement Un entretien RH ainsi qu’un échange métier avec un.e ingénieur.e d’affaires Un test ou un échange technique avec un.e de nos expert.es Un dernier point avec votre futur.e manager ou responsable de mission Et si on se reconnaît : on démarre ensemble C’est bon à savoir Lieu : Charenton (94) Contrat : CDI Télétravail : Hybride Salaire : 55K€ Famille métier : DevOps / Production applicative / Systèmes Ce que vous ferez ici, vous ne le ferez nulle part ailleurs. Ce moment, c’est le vôtre.
CDI
Freelance

Offre d'emploi
Architecte technique applicatif

Atlanse
Publiée le
Architecture
DAT
DevOps

3 ans
60k-70k €
550-600 €
Paris, France
Vous serez en charge de la conception et du pilotage des architectures techniques dans une logique de standardisation, mutualisation des services et industrialisation via l’Infrastructure as Code. Votre rôle Infrastructure & Automatisation · Concevoir, automatiser et maintenir des infrastructures Cloud via des outils IaC (Terraform, Ansible, etc.). · Gérer des environnements hybrides et multi-cloud Middleware & Architectures applicatives · Concevoir des architectures intégrant des couches d’intermédiation performantes et résilientes · Déployer des passerelles applicatives sécurisées (Reverse Proxy) et optimisées Flux de données & Intégration · Intégrer et transformer des données entre systèmes via ETL et MessageBus (Kafka) · Faciliter la circulation des données pour des usages analytiques et IA Sécurité & Gestion des secrets · Déployer et gérer HashiCorp Vault pour sécuriser les accès et les clés d’infrastructure et d’application · Garantir la conformité et la protection des données sensibles Architecture & Bonnes pratiques · Appliquer une architecture hexagonale pour séparer clairement les couches métier, d’infrastructure et d’interfaces · Rédiger et utiliser les documents d’architecture DAT, HLD et LLD · Standardiser les pratiques pour optimiser la qualité, la maintenabilité et le testing des systèmes
Freelance

Mission freelance
Développeur Back-end .Net Senior // Expert paiement / PSP (h/f)

emagine Consulting SARL
Publiée le

12 mois
400-550 €
94000, Créteil, Île-de-France
Emagine recherche pour l'un de ses clients grand compte un développeur .Net / Expert paiement PSP. Lieu : 94 Démarrage : ASAP Durée : > 12 mois Télétravail : 3 jours par semaine jusqu'à septembre. Résumé Le poste de développeur back-end .NET sénior vise à concevoir et maintenir des systèmes de paiement robustes au sein de la Digital Factory de notre client, avec un accent sur l'industrialisation et l'amélioration continue. Responsabilités : Concevoir, développer et maintenir des services de paiement sécurisés. Garantir la fiabilité des flux transactionnels (validation, capture, remboursement). Améliorer l'expérience utilisateur et le taux de transformation. Suivre les indicateurs transactionnels et anticiper les problèmes. Collaborer avec les équipes Produit, Sécurité, QA, DevOps et Architecture. Assurer la responsabilité du service en production. Participer à l'amélioration continue et à la réduction de la dette technique. Orienter les résultats vers la fluidité du parcours de paiement. Must Haves : 6 à 9 ans d'expérience en développement .NET sur des systèmes critiques. 2 ans d'expérience sur l'intégration d'un PSP (Adyen, Worldline, etc.). Maîtrise des workflows de paiement. Expérience en environnement transactionnel haute fiabilité. Connaissance en sécurité (PCI/DSS). Expérience CI/CD avec GitLab et conteneurisation. Connaissance d'Azure ou capacité d'apprentissage. Nice to Haves : Expérience avec les API REST transactionnelles. Connaissance des solutions de messagerie comme Kafka. Participation à des revues de code et engagement dans la communauté technique. Autres Détails : Équipe : Collaboration avec plusieurs départements (Produit, Sécurité, etc.). Contexte : Industrialisation et modernisation des interfaces. Technique : Engagement dans des pratiques de développement modernes.
Freelance
CDI

Offre d'emploi
Développeur SENIOR JAVA BACKEND SPRING BATCH TDD (8 ans et plus)

Digistrat consulting
Publiée le
Java
Spring Batch
Test-Driven Development (TDD)

3 ans
50k-60k €
520-570 €
Paris, France
🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 💡 Contexte /Objectifs : Dans ce cadre, la prestation consiste à contribuer à/au(x) : Développement des différents projets fonctionnels Développement ITRM Maintenance du legacy Intégration des développements dans le SI La production de documentation et de recommandation Le suivi de la Feature Team Environnement technique : Java 6/7/8/17, spring batch, spring web, xldeplloy, jenkins, SQL, SonarAutres technologies : Docker et Kubernetes. Livrables Les livrables attendus sont : Développement JAVA backend Développement ITRM Devops: mise en place de la chaine de déploiement du projet, des serveurs, monitoring etc. Documentation pour le suivi et le backuping
CDI

Offre d'emploi
Expert Linux / Ingénieur Systèmes Linux (H/F) – CDI

NEURONES IT
Publiée le
Linux

Île-de-France, France
Contexte du poste Dans le cadre de projets à forte criticité, nous recherchons un Expert Linux pour intervenir sur des environnements complexes, à grande échelle et à haute disponibilité. Vous serez un référent technique Linux , garant de la stabilité, de la performance et de la sécurité des plateformes, en lien étroit avec les équipes Production, DevOps, Cloud et Sécurité . Missions principales Assurer l’ expertise et le support N3 sur les environnements Linux Concevoir, administrer et optimiser des infrastructures Linux critiques Garantir le MCO / MCS (patching, durcissement, conformité sécurité) Diagnostiquer et résoudre des incidents complexes et problématiques de performance Mettre en œuvre et maintenir des solutions d’ automatisation (Ansible, scripts Shell) Participer à l’industrialisation et à la standardisation des environnements Exploiter et améliorer le monitoring et l’observabilité (Dynatrace ou équivalent) Collaborer sur des environnements conteneurisés Kubernetes Être force de proposition sur les choix d’architecture et l’amélioration continue Rédiger la documentation et assurer un rôle de mentorat / référent technique Environnement technique Systèmes : Linux (RedHat, CentOS, Rocky, Debian…) Automatisation : Ansible, Shell scripting Monitoring / APM : Dynatrace (ou équivalent) Ordonnancement : Autosys ou équivalent (Control-M, $Universe…) Conteneurs : Kubernetes, Docker Sécurité : hardening, patching, gestion des vulnérabilités CI/CD & DevOps : Git, pipelines Cloud : AWS / Azure / GCP (apprécié)
Offre premium
Freelance

Mission freelance
Développeur Front BI

Comet
Publiée le
Microsoft Power BI
Sap BO
SQL

60 jours
400-640 €
Île-de-France, France
Compétences techniques : Power BI - Expert - Impératif SQL - Confirmé - Important SAP Business Object - Confirmé - Appréciable Description détaillée : Nous recherchons un Data Analyst BI (H/F) pour participer au déploiement de la solution Power BI dans un contexte de centralisation de la Data au coeur des enjeux business, plus particulièrement pour remplacer puis décommissionner la solution de reporting SAP Business Object. Au sein de l’équipe BI Front, sous la responsabilité du Tech Lead BI, vous aurez pour mission principale de participer à la mise en place et à la maintenance des jeux de données et rapports Power BI pour les différents métiers clients de la Direction des Technologies. Ces projets se feront en étroite collaboration avec le Chef de Projet Databoost, responsable fonctionnel, et l’équipe Back, en charge de la mise à disposition des données. Vous ferez partie de l'équipe BI au sein du pôle Corporate, et évoluerez au sein de la squad Databoost, créée spécialement pour ce besoin de décommissionnement de SAP BO. VOTRE TERRAIN DE JEU # Connaissances techniques : -Outils : Power BI (Tabular Editor, Dax Studio), Fabric, Business Object, Power Plateform, SSMS, Azure Databricks -Langages : SQL, DAX, M -CI/CD : Git, Azure Devops -Développement en environnement Agile Vos missions principales seront les suivantes : -Collaborer avec le chef de projet et les métiers pour comprendre leurs besoins en matière de données et développer des solutions appropriées. -Faire le lien avec l’équipe Data et les PO pour formaliser les spécifications techniques -Concevoir et développer des jeux de données et rapports Power BI -Être force de proposition sur la représentation des données -Assurer la maintenance corrective et les évolutions des assets, en mettant en place les bonnes pratiques et normes de développement -Maintenir et enrichir la documentation technique des projets -Accompagner les utilisateurs dans leur montée en compétence Match : Vous êtes un excellent communicant, capable de transmettre des informations complexes de manière claire et concise dans un contexte fonctionnel riche. Votre expérience vous permet de comprendre facilement les besoins, pour concevoir et implémenter des solutions BI à forte valeur ajoutée, tout en assurant leur pérennité et évolutivité. Vous disposez de solides connaissances sur Power BI et les outils externes qui permettent d’améliorer la qualité de vos développements. Vous avez une vraie appétence pour le design de rapport et avez la capacité de proposer des choses innovantes et de faire émerger des besoins chez les métiers. Vous êtes capable de motiver vos choix de manière stratégique (via des insights, des KPIs etc) et vous êtes orienté business. Vous avez idéalement au moins 8 ans d’expérience sur un poste équivalent. Définition du profil À la demande du Métier, il analyse, paramètre et code les composants logiciels applicatifs dans le respect des évolutions souhaitées, des normes et des procédures orientées Front BI.
Freelance
CDI

Offre d'emploi
Data Scientist - Domaine Paiements & Big Data (GCP, Python, ML/NLP)

CAT-AMANIA
Publiée le
Git
Google Cloud Platform (GCP)
Python

6 mois
40k-71k €
500-610 €
Île-de-France, France
Au sein d'un grand groupe bancaire, intégré au pôle Paiement, vous agissez en tant que référent technique et fonctionnel sur des projets décisionnels et Big Data. Vous faites le lien entre les besoins métiers et les solutions technologiques innovantes basées sur l'Intelligence Artificielle et le Cloud. Vos missions principales : Gestion de projet & Analyse : Collecter les besoins auprès des métiers, animer des groupes de travail et rédiger les spécifications fonctionnelles et techniques. Data Engineering & Architecture : Modéliser les données et développer des reportings. Vous assurez l'exploration des données et contribuez à l'architecture sur le Cloud. Data Science & Machine Learning : Concevoir et implémenter des algorithmes de Machine Learning (spécifiquement en classification et NLP - Traitement du Langage Naturel). Delivery & Qualité : Assurer la recette, la mise en production (CI/CD) et garantir la qualité des livrables. Accompagnement : Former les utilisateurs et vulgariser la donnée via une communication visuelle efficace. Environnement Technique & Méthodologique : Cloud & Big Data : Expertise Google Cloud Platform indispensable (BigQuery, Airflow, Vertex AI/Notebook Jupyter). Langages & Libs : SQL, Python (Pandas, Scikit-learn, TensorFlow). DevOps/Delivery : Git, Jenkins, Cloud Build. Méthodologie : Agilité (Scrum, Kanban).
Freelance

Mission freelance
DevOps Terraform (Domaine Bancaire)

JobiStart
Publiée le
Terraform

3 ans
400-550 €
Paris, France
Spécialiste de l'Infrastructure as Code (IaC), vous pilotez l'automatisation du provisionnement des ressources cloud et on-premise. Votre mission principale est de concevoir et maintenir des modules Terraform réutilisables, sécurisés et conformes aux normes bancaires. Vous intégrez ces déploiements dans des pipelines CI/CD (GitLab CI, GitHub Actions) pour permettre une livraison continue et sans erreur des infrastructures applicatives. Vous gérez le state management, les environnements multi-cloud et travaillez sur l'automatisation du réseau et de la sécurité (Vault, Sentinel). Vous accompagnez les équipes de développement dans leur transition vers le "Self-Service Infrastructure" tout en garantissant la conformité avec les exigences de régulation financière.
Freelance

Mission freelance
Ingénieur·e Backend GenAI / IA Générative

Montreal Associates
Publiée le
API REST
CI/CD
Docker

1 an
75000, Paris, Île-de-France
Pour le compte d’un grand groupe international (client masqué) , nous recherchons un·e Ingénieur·e Backend pour intervenir sur une plateforme d’ IA générative déployée à grande échelle en interne. Tu rejoindras une équipe technique travaillant sur une solution stratégique qui vise à améliorer la productivité des collaborateurs grâce à l’intégration de modèles de langage (LLM). Ton rôle consistera à concevoir, développer et maintenir des services backend performants, robustes et scalables , capables de gérer un volume élevé d’interactions IA, d’orchestrer différents fournisseurs de LLM et d’assurer l’intégration fluide avec le SI existant. Missions principales : Conception et développement de microservices backend Développement et optimisation d’ API REST à forte volumétrie Orchestration et intégration de LLM (plusieurs providers) Contribution à la scalabilité, performance et fiabilité de la plateforme Participation à l’architecture backend et aux choix techniques Collaboration en environnement Agile avec équipes produit, IA et DevOps
Freelance

Mission freelance
AWS Senior Data Engineer / Data Architect (Event-Driven & Streaming)

Tenth Revolution Group
Publiée le
Amazon Redshift
AWS Cloud
AWS Glue

6 mois
400-650 €
Auvergne-Rhône-Alpes, France
Contexte Dans le cadre de la modernisation d’une plateforme data, vous concevez et mettez en œuvre des architectures cloud-native orientées événements sur AWS. L’objectif est de remplacer les traitements batch par des pipelines distribués, temps réel ou quasi temps réel, robustes et scalables. Missions principales Vous définissez des architectures data serverless event-driven, concevez des pipelines d’ingestion et de transformation distribués et mettez en place des systèmes découplés basés sur la messagerie en garantissant la scalabilité, la résilience et l’optimisation des coûts. Vous transformez les flux ETL batch en pipelines cloud-native, implémentez les patterns asynchrones (retry, DLQ, idempotence, gestion des timeouts) et industrialisez les déploiements via l’Infrastructure as Code et la CI/CD. Vous déployez le monitoring, le logging et le tracing afin de suivre la performance, la latence et la qualité des flux. Compétences clés Solide expérience des architectures event-driven et des systèmes distribués, de l’event sourcing et du message brokering, de la gestion du backpressure et de la latence ainsi que de la transformation distribuée et du traitement de gros volumes. Ce poste n’est pas orienté BI, reporting ou data engineering batch classique Positionnement Rôle transverse avec une forte interaction avec les équipes data, cloud, DevOps et applicatives, impliquant une responsabilité importante sur les choix techniques et les bonnes pratiques. Synthèse Profil d’architecte data AWS spécialisé en serverless et en architectures orientées événements, capable de concevoir des pipelines distribués scalables et résilients.
Freelance
CDI
CDD

Offre d'emploi
INTEGRATEUR TECH-OPS

KEONI CONSULTING
Publiée le
Mongodb
PostgreSQL
YAML

18 mois
20k-60k €
100-500 €
Paris, France
Contexte : Nous recherchons un TechOps, un référent transversal garant de la qualité d’intégration, de la fiabilité opérationnelle, et de l’exploitabilité by design des solutions déployées au sein de l’équipe Infrastructure. Il participera à renforcer la fiabilité opérationnelle (RUN), l’amélioration continue, la standardisation, l’automatisation des processus d’exploitation et la montée en maturité vers les pratiques modernes de Platform Engineering. La ressource devra s’impliquer pour devenir un référent technique transverse, capitalisant sur les périmètres applicatifs et les solutions techniques. La répartition indicative des activités sera de 60 % au sein du Bureau Technique et 40 % en contributions techniques transverses (documentation, automatisation, amélioration continue, outillage). MISSIONS OBJET DE LA PRESTATION Préparation, coordination et suivi des mises en production. Contrôle et validation des livrables techniques. Intégration et paramétrage des solutions logicielles. Réalisation des tests techniques : unitaires, intégration, validation d’exploitabilité. Installation des nouveaux modules et des évolutions applicatives. Participation aux analyses d’impacts techniques. Contribution à l’évaluation des risques techniques. Vérification de la conformité aux normes de sécurité, d’architecture et d’exploitation. Respect strict des normes, standards, architectures, procédures et bonnes pratiques d’exploitation. Participation active à l’évolution des standards techniques du TechOps. - - - - - - - - - - - - Déploiement et maintien de solutions techniques et d’automatisations (scripts, pipelines CI/CD, supervision, IaC lorsque applicable). Standardisation des outils, patterns et bonnes pratiques. Contribution aux services et solutions opérées par l’équipe Platform Engineering. Production et mise à jour de la documentation technique (DEX, référentiels, procédures…). Reporting régulier auprès du responsable Infrastructure et des ISM (Integration Service Managers). Accompagnement, vulgarisation et partage de connaissances auprès des équipes internes. Participation à l’acculturation DevOps au sein du Bureau Technique. Solide rigueur technique et capacité d’analyse. Aisance rédactionnelle et esprit de synthèse. Excellente communication orale et écrite. Aptitude à vulgariser et à accompagner les équipes dans la montée en compétences. Capacité à être force de proposition et à mener une veille technologique régulière. PROFIL & ENVIRONNEMENT TECHNIQUE L’environnement technique de l’équipe d’Infrastructure est composé des éléments ci Compréhension limitée des concepts de production et DevOps, capacité à exécuter des tâches simples sous supervision (par exemple, exécution de scripts ou suivi des indicateurs de performance). Capacité à configurer des environnements de développement et de production, à utiliser des outils de gestion de version (comme Git) et à exécuter des tâches de maintenance préventive. Maîtrise des outils d'intégration et de déploiement continu (CI/CD), capacité à gérer des conteneurs (Docker, Kubernetes), et à optimiser les processus de production tout en surveillant les performances. Compétences expertes Expertise dans la gestion d'infrastructures cloud (AWS, Azure, GCP), capacité à concevoir des architectures résilientes, à implémenter des pratiques de sécurité, et à diriger des initiatives d'amélioration continue. Systèmes & Architecture Infrastructure Unix, Linux ,Windows Server ,Orchestration & Scheduling,Control-M ,supervision / Observabilité, Zabbix, Instana, Prometheus,Grafana, Kibana ,Scripting & Programmation, Shell, Python (scripting), powerShell, Python (dev),YAML,SQL,Java, NodeJS, ReactJS, Réseau & Équilibrage, HAProxy, Nginx3, API & Intégration, API REST, gestion & Analyse des Logs, Loki, Elasticsearch, Workflows & Traitements techniques, Apache Airflow ,Gestion de code (VCS) Compétences techniques essentielles (obligatoires) - - - - - - - - Systèmes & Architecture Infrastructure o Très bonne maîtrise des systèmes d’exploitation Linux et Windows Server (niveau expert). o Compréhension des environnements Unix/AIX et des mécanismes de haute disponibilité (HACMP, VCS, Windows Cluster). o Bonne compréhension des architectures d’infrastructure toutes couches (OS, réseau, middleware, API, stockage, supervision). Cloud & Modernisation o Connaissance solide des concepts Cloud (public, privé, hybride). o Compréhension des principes d’architecture Cloud (scalabilité, résilience, sécurité, patterns d’intégration). o Savoir travailler dans des environnements Cloud et accompagner la migration de solutions legacy. Automatisation & Infrastructure-as-Code o Maîtrise d’Ansible pour l’automatisation des configurations et des déploiements. o Connaissance de Terraform (IaC) pour comprendre ou valider les modèles d’infrastructure automatisée. o Connaissance de Vault pour la gestion sécurisée des secrets. o Capacité à intégrer et à standardiser les outils DevOps dans la chaîne d’exploitation. Orchestration & Traitements o Maîtrise d’Apache Airflow pour l’orchestration de workflows techniques et applicatifs. CI/CD & DevOps o Bonne connaissance des chaînes CI/CD (GitLab CI, GitHub Actions, Jenkins). o Capacité à valider l’exploitabilité d’un pipeline et à définir les prérequis techniques. o Capacité à intégrer des solutions DevOps, sans nécessairement développer des pipelines complexes. Langages & Scripting o Maîtrise d’un langage de programmation tel que Java ou Python (lecture, compréhension, validation technique). o Très bonne maîtrise du Shell (niveau expert), Python scripting et PowerShell. o Bonne maîtrise de YAML pour la lecture des configurations modernes (CI/CD, Kubernetes, Airflow). o Connaissances de base en SQL (lecture, diagnostic simple). Observabilité / Supervision / Logs o Connaissance des outils de supervision (Zabbix, Instana). o Capacité à lire et interpréter des logs via Loki, Elasticsearch, Kibana, Grafana, Prometheus. o Savoir identifier des incohérences, anomalies ou points d'amélioration sur la chaîne d’exploitabilité. Réseau, API & Équilibrage - - o Bonne compréhension du fonctionnement des API REST (consommation, contrats, validations). o Connaissance des équilibreurs de charge (HAProxy, Nginx). o Comprendre les mécanismes de SLB/GSLB (Load Balancing global/local). Écosystème applicatif & composants techniques o Compréhension des serveurs d’applications (Apache, Tomcat, JBoss). o Connaissance des systèmes de messagerie (Kafka, RabbitMQ, IBM MQ Series). o Connaissance des solutions de transferts (TOM/CFT/PeSIT). o Familiarité avec les bases de données (MS SQL, Redis, MongoDB, PostgreSQL) et leurs outils (DBeaver/SQL Manager). Les compétences optionnelles apportant un plus sont : - - - - - Maîtrise supplémentaire de langages : YAML avancé, C++, C#, HTML/CSS. Connaissance des solutions de virtualisation (VMWare, Hyper-V…). Connaissance de PostgreSQL et MongoDB (niveau opérationnel). Familiarité avec la gestion de projet et les méthodologies agiles. Compréhension plus avancée des solutions de coffre-fort (Vault, CyberArk…).
Freelance

Mission freelance
MLOps - SageMaker

Celexio
Publiée le
Amazon SageMaker
Apache Airflow
AWS Cloud

3 mois
400-550 €
Paris, France
Au sein d'une équipe de 7 ML Engineers , vous serez l'expert Infrastructure dédié au pôle ML. Votre mission est de bâtir, maintenir et faire évoluer la stack technique permettant de propulser des systèmes de Machine Learning scalables et fiables. Vous ferez le pont entre le monde du DevOps et celui de la Data Science pour garantir l'efficacité opérationnelle des pipelines de production. Missions : Gestion de l’Infrastructure : Maintenir et optimiser la stack infrastructure dédiée au ML en respectant l'état de l'art et les bonnes pratiques AWS. Automatisation (IaC) : Provisionner et gérer les ressources via Terraform pour assurer la reproductibilité des environnements. Orchestration de Workflows : Piloter et configurer les pipelines de données complexes et les workflows ML via Apache Airflow (MWAA). Support Projets Spécifiques : Collaborer avec l'équipe sur l'intégration d'outils avancés comme les bases de données vectorielles (Vectiroeilles), Open Search et l'indexation. Cycle de vie ML : Mettre en place des serveurs dédiés MLFlow pour le suivi de l'entraînement des modèles et optimiser les phases de prédiction. Exploitation SageMaker : Utilisation intensive d'Amazon SageMaker pour l'entraînement et le déploiement de modèles.
CDI

Offre d'emploi
Ingénieur DEVOPS - (Profil habilitable) H/F

TOHTEM IT
Publiée le

35k-45k €
Toulouse, Occitanie
Tu aimes automatiser, orchestrer et fiabiliser des plateformes complexes ? Tu veux évoluer dans un environnement technique riche, où l’infra, le cloud et la sécurité sont au cœur des enjeux ? Alors cette mission est faite pour toi. Infrastructure & Orchestration Tu crées et maintiens des VM sur une solution vCenter Tu administres et fais évoluer des clusters Kubernetes Tu conçois et maintiens des Helm Charts Tu appliques et fais vivre la stratégie GitOps CI/CD Tu développes et optimises des pipelines GitLab Tu administres les outils de la chaîne CI/CD (GitLab, Nexus, Artifactory…) Tu intègres des étapes de sécurité et de qualité dans les pipelines (SonarQube, Trivy) ️ Administration Système Tu administres des serveurs Linux Tu maintiens les solutions de sauvegarde (Velero, Veeam Backup & Replication) Réseau & Sécurité Tu configures et administres des équipements réseau (VyOS, pfSense, Fortinet/FortiWeb) Tu mets en place des règles de routage et de filtrage Tu gères les certificats SSL/TLS Tu assures l’administration et la maintenance du LDAP et du DNS interne Documentation Tu contribues à la mise à jour de la documentation technique (design, installation, utilisation)
Freelance

Mission freelance
PM / PMO Data & Digital Transformation

Gentis Recruitment SAS
Publiée le
AWS Cloud
Data Warehouse
ETL (Extract-transform-load)

12 mois
Paris, France
Contexte La Direction Data et Digital d'un grand groupe du luxe, travaille à structurer ses plateformes et ses projets data dans un contexte international et omnicanal. Les initiatives couvrent : développement e-commerce et omnicanal structuration de données métiers et analytique industrialisation des flux data adoption de bonnes pratiques de pilotage, qualité de données et gouvernance Ils disposent d’équipes data, digitales et technologiques intégrées, alliant innovation, qualité de service et excellence opérationnelle . Mission principale : Supporter le Programme Data et Digital dans : la coordination des initiatives transverses le suivi de la roadmap data & digital la production des reportings projets le pilotage des dépendances entre streams le suivi des risques, des jalons, des budgets l’animation des comités de pilotage l’optimisation des process PMO Ce rôle implique d’être l’interface entre : DSI / Data Office / métier / product owners / équipes techniques . La dimension technique est un atout (compréhension des flux data, reporting, plateformes cloud, outils de gouvernance) mais ce rôle n’est pas axé développement ou ingénierie. Le PMO travaille avec des data engineers, BI, devops, architectes et responsables métier. Technologies & Environnement (contextuel) Un environnement technologique moderne comprenant : outils de gestion de projet : Jira, Confluence, Slack technologies de développement backend : Node.js, PHP/Symfony (hors data) devops / cloud : Docker, Kubernetes, Terraform, AWS compétences data : Python, SQL, outils de data science Pour un PM / PMO, la compréhension de ces environnements permet d’être pertinent dans les arbitrages et le pilotage des initiatives, notamment lorsque les équipes data travaillent avec des technologies cloud ou des plateformes analytiques.
Freelance
CDI

Offre d'emploi
Senior Scrum Master – Expert Observability Dynatrace

AVA2I
Publiée le
AWS Cloud
Dynatrace

3 ans
40k-45k €
400-550 €
Île-de-France, France
Dans le cadre d’un programme stratégique autour de l’Observabilité et de la performance applicative, nous recherchons un Senior Scrum Master avec une expertise technique avancée sur Dynatrace . Vous interviendrez au sein d’une squad Observability en environnement IT complexe (distribution / transport idéalement), en lien étroit avec les équipes Cloud, SRE, DevOps et Production. 🧭 Pilotage Agile Animer l’ensemble des cérémonies Scrum (Daily, Planning, Review, Rétrospective) Garantir l’application des principes Agile et l’amélioration continue Faciliter la collaboration entre Product Owner, équipes techniques et parties prenantes Identifier et lever les obstacles impactant la performance de l’équipe Vous devez être capable de : Challenger les choix techniques Interagir avec les architectes et SRE Comprendre les problématiques de performance et de production
CDI
Freelance

Offre d'emploi
Développeur Back-end Java 21 – Python – GCP – Kubernetes – IA (Mission longue durée)

Tritux France
Publiée le
Google Cloud Platform (GCP)
IA Générative
Java

3 ans
Boulogne-Billancourt, Île-de-France
Dans le cadre de projets innovants dans le secteur automobile , nous recherchons un Développeur Back-end expérimenté , avec une forte expertise en Java 21 , maîtrisant également Python , et capable de travailler sur des solutions intégrant des briques IA . Vous serez en charge du développement, du déploiement et de l’optimisation des services back-end , ainsi que de l’intégration des applications sur des environnements Cloud GCP et conteneurisés sur Kubernetes (orientation déploiement) . Missions principales Développement de services back-end et API REST en Java 21 (mission principale). Contribution en Python sur des modules spécifiques et traitements IA. Déploiement et orchestration d’applications sur Kubernetes , avec suivi des bonnes pratiques DevOps. Intégration et exploitation des services GCP pour assurer performance et scalabilité. Participation aux activités Agile SCRUM et gestion des tâches via Jira .

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

763 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous