Trouvez votre prochaine offre d’emploi ou de mission freelance Bash

Ce qu’il faut savoir sur Bash

Bash (Bourne Again SHell) est un interpréteur de commandes et un langage de script utilisé dans les systèmes Unix et Linux. Il permet d’exécuter des commandes pour gérer des fichiers, des processus ou des réseaux, tout en automatisant des tâches répétitives grâce à des scripts. Bash est particulièrement utile pour naviguer dans le système de fichiers, superviser des programmes, configurer des environnements, ou administrer des systèmes en gérant les utilisateurs, les permissions ou les processus. Les scripts Bash, écrits dans des fichiers texte exécutables, sont fréquemment utilisés pour automatiser des tâches complexes comme la gestion de serveurs ou les déploiements. Polyvalent et compatible avec la majorité des systèmes Unix/Linux, Bash est un outil indispensable pour les administrateurs système, les développeurs et les professionnels de DevOps.

Votre recherche renvoie 368 résultats.
Freelance

Mission freelance
Software Engineer - Développeur

Publiée le
C/C++
Powershell
Python

24 mois
500-600 €
75002, Paris, Île-de-France
Télétravail partiel
Le groupe recherche un Software Engineer - Cloud technologies (5-7 ans d’expérience, hors alternance). Rôles Développer des composants pour un cadre de développement rapide framework. Intégrer de nouveaux modèles quantitatifs et maintenir les modèles existants dans différents environnements. Améliorer l'ensemble d'outils actuel pour le test et le dépannage des modèles. Optimiser les performances des modèles et l'utilisation de la mémoire. Effectuer des revues de code et de conception. Maintenir et améliorer l'infrastructure CI/CD (GitLab / Jenkins). Compétences clés requises 5 ans d'expérience en programmation orientée objet. 3 ans ou plus d'expérience en développement en C++. Solide expérience de l'environnement Linux et shell scripting. Une expérience du cloud (AWS, Azure) est un plus Programmation Python. Anglais courant
Freelance

Mission freelance
Administrateur Système

Publiée le
Active Directory
LAN
Linux

1 mois
300-350 €
Lille, Hauts-de-France
Télétravail partiel
Missions principales : Maintien en condition opérationnelle de la Production • Supervision de l’infrastructure et proactivité afin de limiter les impacts et les incidents •Résolution d’incidents • Scripting (powershell , bat , shell ..) Maintenance et développement des infrastructures système : • Mesurer et optimiser les performances du système. • Prévenir, diagnostiquer et corriger les erreurs systèmes. • Transmettre et faire remonter les différentes informations et problèmes rencontrés (obsolescences, risques d’altération de la sécurité…). • Participer au projet stratégique de Move To Cloud. Mise en place et administration des systèmes d’exploitation • Administrer les systèmes d’exploitation (Windows, Linux, Aix…). • Assurer la traçabilité et l’exploitation des événements survenus au sein du système. • Configurer les outils de supervision système (ELK…). • Réaliser un suivi des systèmes : contrôle des systèmes de sauvegarde, d’antivirus, des éléments de sécurité… • Assurer les mises à jour, mises hors service, et montées de version des serveurs en accord avec les règles définies par la Direction du Système d’Information concerné. Contribution projet : • Contribuer à la tenue des engagements du projet Move To Cloud, en termes de délais, qualité, budget Rattachement : • Hiérarchique : Responsable de Production IT Périmètre : • Sites : 200 agences, 2 sièges, 8 plateformes logistiques centrale et régionales
Freelance

Mission freelance
Ingénieur de production – prod GCP- N3

Publiée le
Azure

18 mois
100-350 €
Paris, France
Télétravail partiel
CONTEXTE : Participer à la construction d'applications sur GCP Contrainte forte du projet : Plateforme Data Groupe (CDPG) Production Data Métiers est une équipe jeune et dynamique composée de 11 personnes. Nous souhaitons renforcer notre équipe avec un/un(e) ingénieur(e) de production. MISSIONS Voici les principales missions qui lui seront confiées : - Contribuer à la stratégie de développement de projets sur GCP - Contribuer à développer l'automatisation et l'intégration continue (CI/CD/CC) - Contribuer à la gestion des flux de fichiers via des outils de type CFT - Assurer un support opérationnel aux utilisateurs - Participer aux projets techniques GCP - Assurer la gestion des environnements Hors-Production et Production - Assurer le bon fonctionnement des applications métiers - Gérer et résoudre les incidents de niveau 2 avec diagnostic et recommandations - Rédiger les procédures et documentations - Développer des scripts Une très bonne connaissance du cloud est attendue, notamment Google Cloud Platform. La connaissance de la filière DEVOPS avec notamment XL-Deploy, XL-Release, Jenkins sera un atout indéniable. Il/elle a des connaissances solides en développement de scripts en Shell et Python et les environnements Linux lui sont familiers. La connaissance de l'ordonnanceurs Control-M sera fortement appréciée. Il/elle devra être curieux(se) et motivé(e). Prendre des initiatives dans un cadre établi sera incontestablement un grand attendu. Compétences techniques : Cloud GCP/Azure - Confirmé - Impératif XLR/XLD - Expert - Important Control M - Confirmé - Important Développement Shell et Python - Confirmé – Important Connaissances linguistiques : Anglais Professionnel (Impératif) Français Courant (Impératif)
Freelance

Mission freelance
DATA ENGINEER TALEND

Publiée le
Talend

1 an
280-480 €
Paris, France
Télétravail partiel
Bonjour, Nous recherchons un Data Engineer Talend afin de renforcer notre équipe Data et participer à la conception, au développement et à l’optimisation de nos plateformes d’intégration de données. Missions principales 1. Développement et maintenance des flux de données Concevoir, développer et maintenir des flux ETL sous Talend (Talend Open Studio / Talend Data Integration). Mettre en œuvre des pipelines d’ingestion, de transformation et d'alimentation des systèmes cibles (Data Warehouse, Data Lake, applications métier…). Intégrer des données provenant de sources variées : bases relationnelles, APIs, fichiers, systèmes internes ou externes. 2. Optimisation et performance des jobs Optimiser les traitements existants pour améliorer les performances, la scalabilité et les temps de calcul . Identifier les points de contention et proposer des solutions d’industrialisation. Mettre en place de bonnes pratiques de développement ETL et d’orchestration. 3. Qualité, fiabilité et gouvernance des données Garantir la qualité , la cohérence et la fiabilité des données transportées. Implémenter des contrôles automatiques (data quality, validation, dédoublonnage, gestion des anomalies). Assurer la traçabilité et la documentation des flux en conformité avec les standards Data de l’entreprise. 4. Collaboration et support Travailler étroitement avec les équipes Data, BI, Architecture et les équipes métiers. Participer aux phases de design technique, aux revues de code et aux déploiements. Assurer un support de niveau 2/3 sur les flux en production. Compétences requises Maîtrise de Talend (TOS ou Talend Data Integration). Solides compétences en SQL et en manipulation de bases de données (Oracle, PostgreSQL, SQL Server…). Connaissances en optimisation ETL , gestion des performances et industrialisation. Compréhension des architectures Data : ETL/ELT, Data Warehouse, Data Lake. Connaissance des bonnes pratiques de Data Quality. Capacité d’analyse, rigueur et sens du détail. Compétences appréciées Connaissances des environnements cloud (AWS, GCP, Azure). Notions de scripting (Python, Shell). Expérience sur des outils de supervision et d'orchestration (Airflow, Control-M, Talend TAC).
Freelance
CDI

Offre d'emploi
Expert JAMF et Mac Os

Publiée le
Intune
macOS

6 mois
Niort, Nouvelle-Aquitaine
Télétravail partiel
Dans le cadre de la croissance de son parc MacBook , un grand groupe souhaite structurer la gestion de ses équipements Apple et renforcer sa culture interne autour de l’écosystème macOS. Cette montée en puissance implique une phase d’industrialisation du déploiement ainsi que la mise en place d’une authentification forte (MFA) . Le parc actuel, déployé partiellement via Jamf et/ou manuellement, doit être remis en conformité. Le client recherche donc un expert macOS et JAMF disposant d’une solide expérience technique et méthodologique pour accompagner cette transition. Organisation et conditions Localisation : Niort Niveau d’expérience : Expert (5 ans minimum) Démarrage : dès que possible Durée : mission longue Objectifs et responsabilités Participer aux rituels agiles de l’équipe projet Conseiller sur la stratégie de déploiement automatisé (avec MFA) en garantissant la conformité aux normes de sécurité Contribuer à la mise en œuvre et à la stratégie technique définie Participer aux déploiements et à la remise en conformité des équipements Mac Intervenir dans la résolution des incidents et le support technique aux utilisateurs Produire la documentation technique , les scripts nécessaires et maintenir les bases de connaissance à jour Compétences techniques recherchées macOS (expertise confirmée) Apple Business Manager Automated Device Enrollment (ADE) Jamf et Intune Scripting : Shell / PowerShell Authentification multi-facteurs (MFA) Bonne compréhension des environnements de sécurité et conformité IT Profil recherché Expert JAMF / macOS avec plus de 5 ans d’expérience Solide culture du monde Apple et de ses outils d’administration Capacité à industrialiser et sécuriser une flotte Mac en entreprise Autonomie, rigueur et sens du service
Freelance

Mission freelance
INGENIEUR DATA BI - GENIO

Publiée le
BI

24 mois
250-500 €
Paris, France
Télétravail partiel
INGENIEUR DATA BI GENIO / SQL / BIG QUERY / TERADATA / GCP nous recherchons un Data Engineer entre 3 et 7 ans d'expérience qui aura la capacité de gérer à la fois les aspects MCO/TMA mais également la partie projets pour les différentes directions du groupe en collaboration avec le reste de l'équipe. À la suite d'une passation avec notre centre de service, il devra également être en mesure d'innover et d'améliorer les processus existants pour perfectionner l'efficience de l'équipe au quotidien dans ses différentes tâches. DESCRIPTION DE LA MISSION • Participe à l'analyse du besoin avec la supervision du PPO ou Manager et à la conception du modèle de données permettant de répondre aux enjeux. • Utilise l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets • Conçois, développe et maintien les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. • Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale • Identifie et résout les goulots d'étranglement et les problèmes de performances dans les flux de données • Met en place des processus et des contrôles pour garantir la qualité des données • Conçoit et met en œuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. • Réalise la recette technique et anime la recette fonctionnelle avec les utilisateurs • Rédaction des documents associés au projet (Spécification Fonctionnelles, Spécifications Techniques, Cahier de recette Technique, Document d'exploitation) • Être force de proposition sur l'amélioration de notre stack Data • Faire le reporting d'avancement des travaux • Support au déploiement • Assure la maintenance corrective ou évolutive • S'assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe ENVIRONNEMENT TECHNIQUE L'environnement Data dans le cadre de cette mission est actuellement constitué principalement d'une base de données Teradata (Cloud) ainsi qu'un environnement BigQuery. • Langages/Framework : SQL, BigQuery, Python, Java, Shell • Outils : OpenText GENIO, Talend • Base de données : Teradata, BigQuery, SQL Server, IBM DB2 PLANIFICATION ET LOCALISATION Démarrage ASAP / PARIS
Freelance
CDI

Offre d'emploi
Data OPS - Support plateforme Big Data

Publiée le
Apache Spark
Big Data
Kubernetes

3 ans
40k-65k €
400-600 €
Île-de-France, France
Télétravail partiel
Dans le cadre du renforcement de notre capacité de support N2, nous recherchons un/une ingénieur spécialisé dans l’exploitation et le support de plateformes Big Data. Role : assurer le maintien opérationnel des plateformes Spark et Airflow tournant sur Kubernetes : Bonne vision de l'univers prod dans la big data Bon niveau en Kubernetes attendu Anglais courant Disponible ASAP Bonnes pratiques d’exploitation de traitements data distribués. Connaissances en tuning Spark, gestion des ressources, profiling applicatif. Capacités rédactionnelles pour formaliser les procédures d’exploitation et de diagnostic. Compétences en scripting (Ansible, Python, Bash..) appréciées. Maitrise chaine CI/CD (Git, jenkins, Gitlab CI, ….)
Freelance

Mission freelance
[MDO] Testeur Junior / 2 à 5 ans

Publiée le
BGP (Border Gateway Protocol)
Réseaux
WIFI

4 mois
400 €
Nantes, Pays de la Loire
Réaliser les tests techniques et fonctionnels du software de la box Internet (IAD – Internet Access Device), incluant notamment les tests VABF et Non-Régression (NR). Exécuter les scénarios de tests définis et assurer la traçabilité des résultats. Analyser, documenter et qualifier les anomalies rencontrées. Échanger avec les interlocuteurs techniques et fonctionnels côté client afin de faciliter la correction et le suivi des incidents. Contribuer à la mise à jour de la documentation de test et aux rapports de campagne. Participer aux réunions d’avancement et proposer des axes d’amélioration sur les stratégies de test. Compétences requises Expérience confirmée en exécution de tests logiciels (fonctionnels et techniques). Solides compétences en réseaux : maîtrise des protocoles, utilisation d’outils tels que ping, tcpdump, Wireshark, etc. Bonne maîtrise du Shell Linux pour l’analyse et la manipulation des logs. Capacité à analyser, caractériser et prioriser les anomalies détectées. Bonnes compétences de communication pour échanger efficacement avec le client.
Freelance

Mission freelance
Tech Lead Java H/F

Publiée le
Apache Spark
Java

3 ans
Paris, France
Télétravail partiel
Pourquoi cette mission ? Rejoignez la DSI d’un grand groupe bancaire pour piloter la transformation technique des plateformes Risk . Au menu : architectures data & services modernes, industrialisation CI/CD, Kubernetes à l’échelle, qualité logicielle au cordeau — avec un vrai impact sur la performance et la fiabilité du SI Risque. Votre rôle Tech Lead hands-on, vous pilotez la conception et l’industrialisation des produits Risk RRO , vous accompagnez les devs au quotidien et vous êtes le point d’entrée technique des architectes. Vous faites progresser les standards d’ingénierie, sécurisez les mises en production et tenez le cap sur la dette/obsolescences. Missions clés Cadrage & architecture Concevoir des solutions en architectures orientées Data & Services (dont hexagonale ). Contribuer aux choix techniques, challenger les patterns, cadrer les impacts. Engineering & qualité Définir les bonnes pratiques de dev (code review, testabilité, perf, SLO/SLA, qualimétrie Sonar). Mettre en place/faire évoluer les CI/CD (GitLab CI, runners, quality gates, artefacts). Prendre en charge des développements ciblés et les tests (unitaires, non-régression). Run & fiabilité Veiller au bon fonctionnement des applications, suivre les incidents, piloter les corrections. Gérer les obsolescences techniques et planifier les remédiations. Leadership & delivery Animer les rituels (ateliers, points d’avancement), lever les blocages, arbitrer. Faire monter en compétence les équipes de développement (multi-sites). Estimer/chiffrer les solutions, tenir les jalons, produire la documentation technique . Interface & gouvernance Être l’interlocuteur privilégié des architectes pour aligner les évolutions techniques. Garantir la mise en œuvre des préconisations d’architecture au fil des releases. Environnement technique Dev & qualité : GitLab, Artifactory, Sonar Plateformes : Kubernetes , Kafka, Airflow, MapR (Flexible LakeHouse apprécié) Langages & frameworks : Python , Java (Spring), Angular , Spark , Shell Data : DB2 , PostgreSQL , Vertica , Hadoop Livrables attendus Dossiers d’architecture & schémas Pipelines CI/CD industrialisés, artefacts versionnés Code & tests (unitaires, non-régression) + documentation technique Plans de remédiation des obsolescences et comptes-rendus de qualité Notes de cadrage, chiffrages et plans de delivery
CDI

Offre d'emploi
Ingénieur DevOps H/F

Publiée le

40k-50k €
Toulouse, Occitanie
Télétravail partiel
Tu aimes quand le code, les outils et les pipelines tournent comme une horloge ? Chez TOHTEM, on cherche un Ingénieur DevOps pour renforcer l’usine logicielle et fluidifier le quotidien des équipes de développement. Tu travailleras dans un environnement technique riche mêlant Java, Angular, Python, Datastage, Oracle, MySQL, PowerBI, Shell, Openshift et GCP. Ton terrain de jeu, ce sont les composants de l’usine logicielle : Bitbucket, Jenkins, AzureDevOps, Sonar, Checkmarx, Artifactory, XLDeploy, XLRelease. Tu seras au cœur des échanges entre les développeurs et les outils qui font vivre leurs projets. Tes principales missions seront les suivantes : - Fournir un support technique sur les outils de l’usine logicielle - Améliorer et maintenir les scripts Groovy utilisés dans les pipelines Jenkins - Concevoir et adapter des pipelines CI/CD performants pour les applications - Identifier les points de friction et faciliter la livraison continue - Accompagner les équipes de développement dans l’usage optimal des outils - Participer à l’évolution de la plateforme et proposer des améliorations - Contribuer à la fiabilité et à la sécurité des chaînes d’intégration et de déploiement Tu collaboreras au quotidien avec les développeurs, les architectes et les équipes infrastructure. Tu seras sollicité pour ton expertise, mais aussi pour ta capacité à simplifier et à rendre les outils plus efficaces pour tous.
Freelance

Mission freelance
Administrateur/Ingenieur Systeme

Publiée le
Linux
sentinelone

1 an
400-450 €
Île-de-France, France
Télétravail partiel
Objectifs de la mission 1. Déploiement de l’agent SentinelOne sur un parc hétérogène de serveurs Le prestataire interviendra pour assurer le déploiement de l’agent SentinelOne sur un parc de serveurs composé d’OS Linux (versions RHEL 4 à 7 et supérieures) et de Windows Server (versions 2003 à 2022). Les principaux enjeux de cette mission sont : · Gérer la complexité liée à la diversité des versions des systèmes d’exploitation et aux compatibilités logicielles. · Identifier, proposer et mettre en œuvre des méthodes de déploiement automatisé : o Scripts d’installation (Bash, PowerShell). o Utilisation d’outils de gestion de configuration et de déploiement (Ansible, ou équivalents). o Intégration avec d’éventuels mécanismes natifs (WSUS, GPO, SCCM pour Windows). · Être force de proposition sur les stratégies de déploiement les plus adaptées en fonction des contraintes (environnement legacy, faible outillage existant, réseau segmenté). · Documenter précisément les procédures d’installation et de mise à jour afin d’assurer la maintenabilité et la transmission de connaissances. 2. Rattrapage des mises à jour de sécurité sur les serveurs Linux en DMZ Le prestataire sera chargé d’analyser et d’appliquer les mises à jour de sécurité sur l’ensemble du parc Linux en DMZ. Les principaux objectifs sont : · Réaliser un état des lieux exhaustif des correctifs de sécurité manquants, en utilisant les outils natifs de la distribution (yum/dnf, rpm, etc.) ou des scanners de vulnérabilité. · Prioriser les mises à jour en fonction du niveau de criticité et des contraintes d’indisponibilité des environnements. · Définir et exécuter une méthode de déploiement automatisée et sécurisée (par exemple via Ansible, scripts customisés, ou outils compatibles avec les contraintes DMZ). · Mettre en place des mécanismes et bonnes pratiques permettant de fiabiliser et d’accélérer l’application régulière des mises à jour de sécurité. · Fournir une documentation claire sur les actions menées et formuler des recommandations pour la gestion continue des patchs dans un environnement DMZ. Cette prestation sera menée en collaboration avec les équipes de production. Les compétences attendues sont les suivantes (par ordre de priorité) : Techniques : Maîtrise avancée des environnements Windows Server (2003 à 2022) et Linux RHEL (versions legacy 4 à 7+). Expertise en scripting (Bash, PowerShell) pour l’automatisation et l’industrialisation des déploiements. Connaissance et expérience pratique des outils de déploiement et de configuration (Ansible, WSUS, SCCM, GPO ou équivalents). Expérience avérée dans la gestion de parcs serveurs hétérogènes et legacy. Bonne maîtrise des outils natifs Linux pour la gestion des packages et mises à jour (yum, dnf, rpm). Compréhension des contraintes spécifiques liées aux environnements DMZ (isolation réseau, sécurité renforcée). Connaissance des bonnes pratiques de cybersécurité et de patch management. Relationnelles : Capacité à être force de proposition et à travailler en autonomie dans un environnement avec peu d’outillage. Rigueur dans la conduite des opérations et dans la production de documentation claire et exploitable. Aptitude à analyser, prioriser et gérer des situations complexes avec une approche pragmatique. Sens de la pédagogie et capacité à transmettre les connaissances aux équipes internes. Communication claire et structurée, notamment pour le reporting et la gestion des incidents ou blocages.
Freelance
CDI

Offre d'emploi
Ingénieur IT OPS

Publiée le
Linux
OS Windows
WebSphere

3 ans
Île-de-France, France
Télétravail partiel
Le client cherche un Ingénieur IT OPS pour rejoindre l’équipe IOPS – Factory Patch & Obsolescence , dont le rôle est d’assurer la mise à jour et le maintien en condition opérationnelle des systèmes. ✅ Contraintes fortes (non négociables) Expertise Systèmes : RHEL (Red Hat) et Windows. Automatisation : Ansible + scripting (Shell, Python). Langue : Anglais courant (contexte international). Disponibilité : capacité à travailler régulièrement le week-end et en HNO (heures non ouvrées). 🔧 Missions principales Patching & obsolescence Exécuter les gestes techniques liés aux campagnes de patch. Traiter les obsolescences en coordination avec les responsables de campagne. RUN / Support Prendre en charge les incidents liés aux campagnes de patch/upgrade. Participer au support opérationnel (N2/N3). Process & bonnes pratiques Respecter et appliquer les standards Groupe (ITIL, CMDB, gestion des changements/incidents). Rédiger et maintenir les procédures et documentations associées. Amélioration continue Contribuer aux rituels Agile (Daily, Kanban). Apporter conseil/expertise pour fiabiliser et améliorer les pratiques. Participer au reporting et à l’accompagnement des coordinateurs. 🛠️ Compétences techniques attendues OS : Windows Server, Red Hat Linux. Bases de données : Oracle, SQL Server. Middleware : WebSphere (déploiement & debug), CFT (transferts sécurisés), Control-M (ordonnancement). Automatisation / CI-CD : Ansible, Jenkins, Toolchains. Scripting : Shell, Python. 📌 Profil recherché Un Ingénieur OPS confirmé capable de : gérer la production dans un contexte critique, intervenir en patching/obsolescence avec automatisation, travailler en anglais et dans un cadre international, être flexible (week-end/HNO), avec une bonne rigueur ITIL et une expérience en environnements Agiles .
CDI
Freelance

Offre d'emploi
DBA Oracle Exadata ( FinOps/ Exadata)

Publiée le
Exadata Cloud@Customer (ExaCC)
FinOps
Oracle

3 ans
10k-60k €
100-580 €
Vincennes, Île-de-France
Télétravail partiel
Au sein de l’équipe Infrastructure Databases en tant qu’expert Oracle Exadata avec un rôle stratégique dans la gestion de la performance, le patching et l’optimisation des coûts Cloud (approche FinOps). Vous interviendrez sur un environnement critique et hautement sécurisé, au cœur de la production bancaire. 🚀 Vos responsabilités: Piloter et réaliser le patching de l’ensemble des plateformes Oracle Exadata Assurer le MCO et l’optimisation des performances des bases Oracle Mettre en œuvre une démarche FinOps : suivi, gouvernance et optimisation des coûts liés aux infrastructures Cloud Participer à l’ industrialisation et à l’automatisation des opérations Contribuer à la sécurité, la conformité et la résilience des environnements de production Fournir un support de niveau 3 et collaborer avec les équipes architecture, sécurité et métier Être force de proposition sur les évolutions techniques, la modernisation et la réduction des coûts Compétences techniques requises:Base de données & Infrastructure Maîtrise Oracle Exadata (patching, tuning, administration avancée) Fortes compétences en Oracle RAC, ASM, Dataguard Connaissance des environnements Cloud hybrides (OCI, AWS, Azure) FinOps Expérience confirmée en gouvernance Cloud Optimisation des coûts, analyse de consommation, tagging, showback/chargeback Environnement & outils Scripting (Shell, Python ou Ansible) Outils de monitoring & capacity planning Méthodologies ITIL 🎓 Profil recherché: 5 à 10 ans d’expérience en tant que DBA Oracle, idéalement sur Exadata en environnement bancaire Expérience en FinOps/gestion des coûts Cloud impérative Ancienne expérience au sein du groupe BNP Paribas est un réel atout Capacité à travailler en environnement critique, rigoureux et sécurisé Anglais: bon niveau
Freelance
CDI
CDD

Offre d'emploi
Consultant DEVOPS

Publiée le
Administration linux
Docker
ELK

1 an
40k-51k €
320-500 €
Paris, France
Client : Public Lieu de mission : Paris Poste : Consultant DevOps Durée mission : longue Seniorité : +5 ans Date de démarrage : ASAP Missions principales Concevoir, mettre en œuvre et maintenir des pipelines CI/CD robustes (GitLab CI, GitHub Actions, Jenkins, Azure DevOps, Bamboo). Automatiser la création et la gestion d’infrastructures via des outils d’ Infrastructure as Code (Terraform, Ansible, Puppet, Chef, Pulumi). Accompagner les équipes de développement dans la conteneurisation et l’orchestration ( Docker, Kubernetes, OpenShift, Rancher, Helm ). Déployer et administrer des environnements Cloud (AWS, Azure, GCP, OVH, Scaleway). Assurer la supervision, le monitoring et l’alerte via des solutions Observabilité (Prometheus, Grafana, ELK/Elastic Stack, EFK, Splunk, Datadog, New Relic, AppDynamics). Intégrer la sécurité by design dans les pipelines (DevSecOps, Snyk, SonarQube, HashiCorp Vault, Aqua Security, Prisma Cloud). Mettre en place des solutions de scalabilité et de haute disponibilité (HAProxy, Nginx, Istio, Linkerd, Service Mesh). Contribuer à l’optimisation de la performance, de la résilience et des coûts des environnements Cloud et on-premise. Participer à la culture SRE (Site Reliability Engineering) et à l’industrialisation des bonnes pratiques DevOps. CI/CD : GitLab CI/CD, GitHub Actions, Jenkins, Azure DevOps, Bamboo, CircleCI OS : LINUX Conteneurisation & Orchestration : Docker, Kubernetes, OpenShift, Rancher, Helm, Istio IaC & Configuration Management : Terraform, Ansible, Puppet, Chef, Pulumi Cloud : AWS (EC2, EKS, Lambda, CloudFormation), Azure (AKS, DevOps, Functions), GCP (GKE, Cloud Build, Cloud Run), OVH, Scaleway Monitoring & Logging : Prometheus, Grafana, ELK/EFK Stack, Splunk, Datadog, New Relic Sécurité & DevSecOps : SonarQube, Snyk, HashiCorp Vault, Aqua Security, Prisma Cloud, Falco Networking & Middleware : Nginx, HAProxy, Traefik, Kong, RabbitMQ, Kafka Langages & Scripting : Python, Bash, Go, PowerShell, Groovy, YAML
Freelance

Mission freelance
Consultant Data / Prism Q1-2026

Publiée le
Blue Prism

6 mois
400-610 €
Vélizy-Villacoublay, Île-de-France
Télétravail partiel
Contexte et Objectif Le projet Prism consiste à développer et maintenir une application de gestion proactive des risques fournisseurs pour la supply chain. L’objectif est de naviguer dans les données produits et fournisseurs pour identifier les risques, être alerté en cas d’événements critiques et simuler des scénarios (rupture fournisseur, hausse de volume) afin de proposer des actions correctives. Sources de données ERP (SAP ECC, Oracle E-Business Suite), plateformes e-Procurement, fichiers externes. Certaines données sont sensibles et soumises à des règles de contrôle à l’export. Missions principales Étudier et intégrer de nouvelles données dans l’application Prism. Définir, extraire, préparer et intégrer les données. Automatiser les traitements et assurer la mise à jour récurrente des données. Contrôler la qualité des livraisons éditeur et participer aux tests applicatifs. Maintenir le référentiel fournisseurs et préparer son intégration dans les plateformes de gestion achats. Piloter les prestataires et l’éditeur sur les déploiements, upgrades, incidents et suivi du run. Optimiser l’allocation des ressources (CPU/h) et suivre le runtime via dashboards. Découpage des tâches T1 : Ajout et intégration de nouvelles données. T2 : Mise à jour récurrente, extraction, chargement, analyse qualité. T3 : Documentation des traitements de données. T4 : Contrôle qualité, tests, gestion des erreurs et KPIs. T5 : Support à l’éditeur et à l’équipe technique. T6 : Maintenance du référentiel fournisseurs. T7 : Pilotage des déploiements et incidents. T8 : Suivi et optimisation du runtime via dashboards. Compétences requises Techniques : Modélisation de données achats/industrie, maîtrise de SAP ECC (MM, PP, CO), SAP BW, Oracle EBS, Ivalua, Power BI, Excel Power Query, Python, Javascript, Shell Unix, PowerShell, C3AI. Analyse : Amélioration de la qualité des données, architecture fonctionnelle et technique. Autres : Connaissance de l’environnement industriel et anglais professionnel. Livrables attendus Documentation sur les traitements de données. Fichiers de suivi du runtime et dashboards. Contraintes et exigences Employé d’une société de droit français. Signature d’un engagement de confidentialité. Respect des contraintes réglementaires liées aux données sensibles. Planning Début de la mission : 05/01/2026
Freelance

Mission freelance
Ingénieur Maintenance / Déploiement Progiciel (ACCURATE)

Publiée le
Java
Jenkins
Oracle Database

1 an
120-470 €
Île-de-France, France
Télétravail partiel
Description du poste Nous recherchons un(e) Ingénieur(e) pour rejoindre une équipe IT en charge de la maintenance corrective et évolutive d’un progiciel stratégique. Vous participerez à l’intégration, au déploiement et au suivi de l’application, en collaboration avec les utilisateurs et les équipes externes. Missions principales Intégrer et maintenir le progiciel Accurate (architecture trois tiers : DB Oracle – JBOSS/Wildfly – Java). Maintenir et automatiser les scripts Shell, gérer l’installation du client lourd via packaging sur serveur Connect. Déployer les livrables éditeurs sur les différents environnements via les outils d’intégration continue (GIT, Jenkins, Artifactory, XL Deploy, XL Release…). Participer aux différentes phases du projet : développement, suivi des recettes et mise en production. Gérer la relation avec l’éditeur (ouverture et suivi des tickets, Conf Call en anglais si nécessaire), les utilisateurs et la maîtrise d’ouvrage. Suivre et participer à la résolution des incidents de production. Garantir la mise à jour et l’évolution de la documentation technique et fonctionnelle relative à l’application.

Les métiers et les missions en freelance pour Bash

Ingénieur·e devops (Cloud)

L'Ingénieur·e devops (Cloud) utilise des scripts Bash pour automatiser les déploiements, la gestion des serveurs et la configuration des pipelines CI/CD.

Administrateur·rice système Unix (linux...)

L'Administrateur·rice système Unix (Linux...) crée et maintient des scripts Bash pour la gestion des tâches administratives et la configuration des systèmes sous Unix/Linux.

Ingénieur·e d'exploitation

L'Ingénieur·e d'exploitation développe des scripts Bash pour superviser et automatiser les opérations dans des environnements de production.

Ingénieur·e systèmes & réseaux

L'Ingénieur·e systèmes & réseaux utilise Bash pour gérer les serveurs, configurer les réseaux, et automatiser les processus complexes liés à l’infrastructure IT.

368 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous