Trouvez votre prochaine offre d’emploi ou de mission freelance Bash à Lyon

Ce qu’il faut savoir sur Bash

Bash (Bourne Again SHell) est un interpréteur de commandes et un langage de script utilisé dans les systèmes Unix et Linux. Il permet d’exécuter des commandes pour gérer des fichiers, des processus ou des réseaux, tout en automatisant des tâches répétitives grâce à des scripts. Bash est particulièrement utile pour naviguer dans le système de fichiers, superviser des programmes, configurer des environnements, ou administrer des systèmes en gérant les utilisateurs, les permissions ou les processus. Les scripts Bash, écrits dans des fichiers texte exécutables, sont fréquemment utilisés pour automatiser des tâches complexes comme la gestion de serveurs ou les déploiements. Polyvalent et compatible avec la majorité des systèmes Unix/Linux, Bash est un outil indispensable pour les administrateurs système, les développeurs et les professionnels de DevOps.

Votre recherche renvoie 18 résultats.
CDI
Freelance
CDD

Offre d'emploi
Développeur Big Data : Python, SQL, Shell, Spark expérimenté

KEONI CONSULTING
Publiée le
JIRA
Python
SQL

18 mois
20k-60k €
100-500 €
Lyon, Auvergne-Rhône-Alpes
Contexte Le client dans le cadre de son activité Big Data, recherche un profil en développement Data, Python, SQL, Shell, Spark (+ de 5 ans d'expérience) pour l’accompagner dans nos actions sur la plateforme Cloudera Hadoop. L'objectif de la mission est de réaliser et maintenir les développements nécessaires à l'alimentation de la plateforme Hadoop, à la mise en place d'extractions et à l'accompagnement des utilisateurs MISSIONS Rattaché au responsable Big Data, le profil aura pour principales missions : - de prendre en charge les évolutions des données à intégrer, reprendre les développements effectués pour l'alimentation du Datalake , de les faire évoluer en fonction des besoins (Stack technique : Hadoop Cloudera, Hive, Impala, Python, Shell, Linux, SQL, VBA, Jupyter) - d'avoir une expertise technique permettant de spécifier techniquement les tâches, fournir les requêtes de référence, effectuer une revue de code, accompagner les potentiels alternants ou stagiaires (une alternante à date) - de mettre en place des extractions à partir de ces données, - d’assurer le support niveau 2, - de faire appliquer les consignes aux utilisateurs, - de garantir la tenue des délais de livraison dans un contexte de production à fortes attentes - de contribuer à garantir la maintenabilité de la plateforme ainsi que ses performances et son exploitabilité Il veillera au respect de l’utilisation des modèles référencés ou à leur évolution en collaboration avec la Direction Technique Informatique et la Gourvernance de la Donnée. Le profil devra posséder des aptitudes et qualités avérées sur sa capacité à communiquer avec diplomatie, à écouter, à s'intégrer et à partager son savoir faire, à documenter ses actions et à accompagner. Dans le même ordre d'idée, quelques attendus : - Développement des traitements d'alimentation, forte capacité à structurer l'activité (JIRA), mise en place et description de processus (guides, accompagnement utilisateurs, …), pilotage opérationnel de certains sujets - Développement d'extractions avec SQL (expert) et scripting Shell avancé pour l'automatisation - Capacité à investiguer et faire du reverse engineering dans une architecture héritée complexe - Optimisation des traitements de la plateforme et ceux des utilisateurs - Capacité à expliquer simplement le sujet, à communiquer vers des interlocuteurs type développeur, bureau d'étude, qualifieur et ""clients"" (Groupes de protection sociale). La connaissance de Power BI et de SAS sont des plus." Livrables attendus Code source documenté Plan de tests / fiches de test Bilan Bordereau de livraison Manuel d’installation Dossier d’exploitation JIRA documentée" Environnement technique - technologique "• Cloudera Hadoop • Hive, impala • Python • SQL • Shell • Spark • VBA • GIT • Jupyter • Linux • JIRA" Compétences techniques Connaisance Cloudera Hadoop, Hive, Impala Développement Python Requêtage SQL Développement Shell Développement Spark (Scala) Utilisation de GIT Agilité (méthodes Kanban et/ou Scrum) Compétence liée à l'environnement Connaissance de l'écosystème de la protection sociale (Retraite Complémentaire idéalement)
Freelance

Mission freelance
Data Engineer Sénior (Hadoop / Python)

Les Filles et les Garçons de la Tech
Publiée le
Apache Spark
Hadoop
Python

12 mois
150-650 €
Lyon, Auvergne-Rhône-Alpes
Au sein du pôle Big Data d'un grand groupe, l'objectif principal de ce poste est de réaliser et de maintenir les développements nécessaires à l'alimentation du Datalake sur une plateforme Cloudera Hadoop, de mettre en place des extractions de données et d'accompagner les utilisateurs. Rattaché(e) au responsable Big Data, vous évoluerez dans un contexte de production à fortes attentes où la tenue des délais de livraison et le pilotage opérationnel sont primordiaux. Vos principales missions seront les suivantes : Développement et intégration : Prendre en charge les évolutions des données à intégrer et reprendre les développements existants pour l'alimentation du Datalake. Vous développerez également des extractions avec un niveau d'expertise en SQL et créerez des scripts Shell avancés pour l'automatisation. Expertise technique et mentorat : Spécifier techniquement les tâches, fournir des requêtes de référence, effectuer des revues de code et accompagner les collaborateurs juniors, stagiaires ou alternants. Support et accompagnement : Assurer le support de niveau 2, faire appliquer les bonnes pratiques et consignes aux utilisateurs, et rédiger la documentation requise (guides, description de processus). Optimisation et maintenance : Garantir la maintenabilité, les performances et l'exploitabilité de la plateforme en respectant l'utilisation des modèles référencés par la Gouvernance de la Donnée. Vous optimiserez les traitements de la plateforme et ceux des utilisateurs, et mènerez des investigations (reverse engineering) dans une architecture héritée complexe
Freelance
CDI
CDD

Offre d'emploi
Développeur  Data Python SQL Shell Spark

KEONI CONSULTING
Publiée le
JIRA
Jupyter Notebook
Python

18 mois
20k-60k €
100-500 €
Lyon, Auvergne-Rhône-Alpes
CONTEXTE : Le client dans le cadre de son activité Big Data, recherche un profil en développement Data, Python, SQL, Shell, Spark (+ de 5 ans d'expérience) pour nous accompagner dans les actions sur la plateforme Cloudera Hadoop. L'objectif de la mission est de réaliser et maintenir les développements nécessaires à l'alimentation de la plateforme Hadoop, à la mise en place d'extractions et à l'accompagnement des utilisateurs MISSIONS Rattaché au responsable Big Data, le profil aura pour principales missions : - de prendre en charge les évolutions des données à intégrer, reprendre les développements effectués pour l'alimentation du Datalake , de les faire évoluer en fonction des besoins (Stack technique : Hadoop Cloudera, Hive, Impala, Python, Shell, Linux, SQL, VBA, Jupyter) - d'avoir une expertise technique permettant de spécifier techniquement les tâches, fournir les requêtes de référence, effectuer une revue de code, accompagner les potentiels alternants ou stagiaires (une alternante à date) - de mettre en place des extractions à partir de ces données, - d’assurer le support niveau 2, - de faire appliquer les consignes aux utilisateurs, - de garantir la tenue des délais de livraison dans un contexte de production à fortes attentes - de contribuer à garantir la maintenabilité de la plateforme ainsi que ses performances et son exploitabilité Il veillera au respect de l’utilisation des modèles référencés ou à leur évolution en collaboration avec la Direction Technique Informatique et la Gourvernance de la Donnée. Le profil devra posséder des aptitudes et qualités avérées sur sa capacité à communiquer avec diplomatie, à écouter, à s'intégrer et à partager son savoir faire, à documenter ses actions et à accompagner. Dans le même ordre d'idée, quelques attendus : - Développement des traitements d'alimentation, forte capacité à structurer l'activité (JIRA), mise en place et description de processus (guides, accompagnement utilisateurs, …), pilotage opérationnel de certains sujets - Développement d'extractions avec SQL (expert) et scripting Shell avancé pour l'automatisation - Capacité à investiguer et faire du reverse engineering dans une architecture héritée complexe - Optimisation des traitements de la plateforme et ceux des utilisateurs Livrables attendus "Code source documenté Plan de tests / fiches de test Bilan Bordereau de livraison Manuel d’installation Dossier d’exploitation JIRA documentée" Environnement technique - technologique "• Cloudera Hadoop • Hive, impala • Python • SQL • Shell • Spark • VBA • GIT • Jupyter • Linux • JIRA" Compétences techniques Connaisance Cloudera Hadoop, Hive, Impala Développement Python Requêtage SQL Développement Shell Développement Spark (Scala) Utilisation de GIT Agilité (méthodes Kanban et/ou Scrum) Compétence liée à l'environnement Connaissance de l'écosystème de la protection sociale
CDI
Freelance

Offre d'emploi
Ingénieur de production Linux

VISIAN
Publiée le
Bash
CI/CD
Kubernetes

3 ans
43k-58k €
350-450 €
Lyon, Auvergne-Rhône-Alpes
Contexte Dans le cadre de l’exploitation d’une plateforme critique d’authentification et de signature électronique du secteur bancaire, nous recherchons un Ingénieur de Production Senior pour renforcer le pôle RUN . La plateforme gère plusieurs milliards d’opérations annuelles et repose sur un environnement Linux étendu (plusieurs centaines de serveurs). L’équipe assure l’exploitation, la supervision, la gestion des incidents N2/N3 ainsi que l’amélioration continue de l’industrialisation et de la sécurité. Missions principales 🔧 RUN – Exploitation & Continuité Assurer le maintien en conditions opérationnelles des applications Gérer les incidents N2/N3 techniques et fonctionnels Participer activement aux cellules de crise Assurer la communication technique avec les fournisseurs Contribuer aux comités opérationnels Optimiser la supervision (proactivité sur détection d’incidents) Participer à l’ordonnancement des traitements (création et suivi de chaînes) 🚀 BUILD – Contribution transverse Participer aux déploiements applicatifs (Hors Prod → Prod) Contribuer au suivi et à la planification des changements Participer à la construction des chaînes CI/CD Anticiper l’exploitabilité dès la phase projet Participer aux validations techniques (GO/NOGO) 🔐 Sécurité & Amélioration continue Contribuer aux sujets liés à l’authentification et à la signature électronique Renforcer les pratiques sécurité (certificats, cryptographie, PKI) Proposer des optimisations techniques (scripts, procédures, automatisation) Participer aux astreintes et interventions HNO Environnement technique Systèmes Linux RedHat Bases de données Oracle Middleware Apache Tomcat Containers OpenShift / Kubernetes Supervision Zabbix Grafana AppDynamics ELK Déploiement & CI/CD XLDeploy XLRelease Jenkins Ansible Ordonnancement VTOM Ticketing ServiceNow Scripting / Langages Bash Python Java Outils projet Jira Confluence Sécurité HSM PKI / gestion certificats Firewall applicatif Cryptographie Compétences requises Impératif Linux RedHat – Confirmé Oracle SQL – Junior OpenShift / Kubernetes – Junior Anglais professionnel Français courant Souhaitable CI/CD Scripting (Bash / Python)
Freelance

Mission freelance
Data Engineer - Secteur Assurance et Prévoyance (H/F)

EASY PARTNER
Publiée le
Apache NiFi
Bash
Gitlab

230 jours
420-450 €
Lyon, Auvergne-Rhône-Alpes
Contexte du poste Dans le cadre d'un projet de refonte de son SI, notre Groupe renforce son dispositif Data au sein de la Direction des Systèmes d’Information. L’objectif est de concevoir, développer et maintenir des flux de données fiables et industrialisés au service des équipes métiers Épargne et Services Financiers. Le poste est rattaché au DAS Épargne & Services Financiers et s’inscrit dans un environnement orienté data, qualité et automatisation. Missions Missions principales En tant que Data Engineer, vous interviendrez sur la conception, le développement et l’industrialisation des flux de données, dans un contexte finance / assurance à forts enjeux de qualité, de traçabilité et de performance. Concevoir et implémenter le socle data du Master Data Management (MDM) Intégrer et transformer les données issues de différentes sources Sécuriser et industrialiser les flux dans le respect des standards de qualité et de traçabilité attendus Mettre en œuvre des traitements de données (collecte, transformation, stockage) Garantir la qualité, la fiabilité et la performance des flux Travailler en lien étroit avec les équipes métiers et IT Contribuer aux bonnes pratiques de développement, d’automatisation et de CI/CD Stack technique Compétences requises (niveau confirmé) Data & traitement : Apache NiFi, requêtage et traitement de données (SQL / NoSQL) Connaissance des formats et protocoles : JSON, XML, CSV, REST API Base de données & stockage : PostgreSQL, Stockage objet (S3) DevOps & industrialisation : GitLab, GitLab CI, Pratiques CI/CD Compétences appréciées Langages & scripting : Python, Bash
Freelance

Mission freelance
DevOps

Codezys
Publiée le
Ansible
Docker
Git

12 mois
350-420 €
Lyon, Auvergne-Rhône-Alpes
Présence sur site requise 3 jours par semaine. Au sein du pôle Système d'Information Chaînes Communicantes de la Département des Systèmes d'Information , l'équipe rassemble des briques applicatives et data essentielles à la supervision, la résilience, l’intelligence du réseau électrique. En intégrant des outils de visualisation de crise, des capteurs Internet des Objets (IoT) , des dataproducts, un socle DevOps mutualisé, l'équipe incarne une approche unifiée et opérationnelle de la donnée réseau. IndusML est une équipe DevOps rattachée à une unité dédiée, œuvrant pour un département spécifique. Elle est en charge de la mise en place et du maintien en condition opérationnelle des éléments d’infrastructure et outillage pour les DataScientists et développeurs de ce département. Le projet met à disposition des équipes Data une plateforme de travail structurée autour de 3 axes : des Environnements de Développement Intégrés (IDE) complets pour développer, s'interfacer avec les partenaires du projet et explorer la donnée dans les meilleures conditions des environnements applicatifs sécurisés et scalables pour permettre aux éléments produits par les utilisateurs d'atteindre un haut niveau de performance et de résilience de l'outillage CI/CD clé en main pour uniformiser et fiabiliser ce processus Objectifs et livrables Activité principale : Construire et faire évoluer les outils nécessaires au déploiement continu et automatisé des applications web et traitements de données produits par les analystes de données / scientifiques de données Assurer l’évolution des éléments d’infrastructure, middleware et outillage en fonction des contraintes d’obsolescence, de sécurité et de fonctionnalité Echanger avec l’ensemble des acteurs du Système d'Information (Développeurs, Sécurité, Architectes, Exploitants, etc.) pour s'assurer de la bonne adéquation de la solution avec le cadre d'entreprise Créer et maintenir la documentation qui doit accompagner les changements mis en place Participer aux cérémonies d’équipe Activité secondaire : Étudier l'intégration vers l’analyse de données future en lien avec le pôle Système d'Information DATA (cloud / on-premise) pour assurer aux équipes analytiques une continuité d'activité dans un nouveau contexte Système d'Information .
Freelance

Mission freelance
Développeur Big Data

Codezys
Publiée le
JIRA
Linux
Python

24 mois
330-400 €
Lyon, Auvergne-Rhône-Alpes
Organisation Dans le cadre de ses activités liées au traitement de données volumineuses, une organisation recherche un profil en développement Data, Python, SQL, Shell, Spark (+ de 5 ans d'expérience) pour l’accompagner dans la gestion d'une plateforme Hadoop. Objectif de la mission Réaliser et maintenir les développements nécessaires à l'alimentation de la plateforme Hadoop, notamment la mise en place d'extractions et l'accompagnement des utilisateurs. Description de la mission Le candidat, rattaché au responsable en charge du traitement de données volumineuses, sera principalement chargé de : Prendre en charge l'évolution des flux de données et reprendre les développements existants pour leur alimentation, en faisant évoluer ceux-ci selon les besoins. (Stack technique : Hadoop Cloudera, Hive, Impala, Python, Shell, Linux, SQL, VBA, Jupyter) Définir la spécification technique des tâches, fournir des requêtes de référence, réaliser des revues de code, et accompagner d’éventuels alternants ou stagiaires. Mettre en place des processus d'extraction à partir des données. Assurer le support de niveau 2. Faire respecter les consignes d’utilisation auprès des utilisateurs. Garantir le respect des délais de livraison dans un environnement exigeant. Contribuer à la maintenabilité, la performance et l’exploitabilité de la plateforme. Il veillera également à respecter l’utilisation des modèles référencés ou leur évolution, en collaboration avec la Direction Technique et la Gouvernance des Données. Le profil doit posséder des compétences avérées en communication, diplomatie, capacité d’intégration, partage de connaissances, documentation, et accompagnement des utilisateurs.
CDI

Offre d'emploi
Développeur Big Data Expérimenté (H/F)

CITECH
Publiée le
Cloudera
Git
Hadoop

50k-60k €
Lyon, Auvergne-Rhône-Alpes
CITECH recrute ! 👌 ✨ Si vous souhaitez apporter vos compétences dans la réalisation d’un projet innovant, nous avons LE poste pour vous ! Nous recherchons en effet un(e) Développeur Big Data Expérimenté (H/F) 🚀 ☘️ Votre mission est pour un client connu du secteur de la retraite et prévoyance. L’objectif de la mission est dans le cadre de la réalisation et la maintenance de développements nécessaires à l'alimentation d’une plateforme, ainsi que la mise en place d'extractions de données et l'accompagnement des utilisateurs finaux. Description du poste 👉 Vous aurez les missions suivantes : 👈 🔸 Développement et maintenance : Assurer l'alimentation du Datalake et faire évoluer les flux en fonction des besoins métiers. 🔸 Conception et architecture : Mettre en place des extractions de données et contribuer à garantir la tenue de la plateforme en environnement opérationnel. 🔸 Support et expertise : Assurer le support de niveau 2, apporter une expertise technique sur l'écosystème Hadoop et réaliser des revues de code. 🔸 Coordination : Collaborer avec la Direction Technique Informatique et la Gouvernance de la Donnée pour le respect et l'évolution des modèles référencés. 🔸 Documentation : Rédiger la documentation technique (spécifications, dossiers d'exploitation, manuels d'installation) et les bilans de tests.
Freelance

Mission freelance
Développeur Big Data

Codezys
Publiée le
Big Data
Cloudera
Data Lake

12 mois
Lyon, Auvergne-Rhône-Alpes
Contexte de la mission : Le client, dans le cadre du développement et de la maintenance de sa plateforme Big Data, recherche un Développeur Big Data expérimenté (H/F) avec au moins 5 ans d’expérience en environnement Data. La mission se déroule au sein de l’équipe Big Data, chargée de l’alimentation, de l’évolution et de l’optimisation du Data Lake sous Cloudera Hadoop. L’objectif principal est de concevoir, faire évoluer et maintenir les traitements d’alimentation pour assurer la qualité, la performance et la maintenabilité des solutions. Le consultant intervient dans un contexte de production exigeant, avec de forts enjeux de fiabilité et de respect des délais. Missions principales : Développement & évolution du Data Lake : Gérer les évolutions des flux et des données à intégrer Faire évoluer les développements existants d’alimentation Maintenir les traitements d’ingestion et de transformation Concevoir des extractions de données pour répondre aux besoins métiers Stack technique : Cloudera Hadoop, Hive, Impala, Spark, Python, SQL, Shell, Linux, VBA, Jupyter Expertise technique & structuration : Rédaction des spécifications techniques Fourniture de requêtes SQL de référence Revue de code Structuration et pilotage via JIRA Documentation des processus et accompagnement des utilisateurs Encadrement de profils juniors (alternants, stagiaires) Performance & optimisation : Optimiser les traitements et requêtes Améliorer la performance et l’exploitabilité Contribuer à la maintenabilité globale Réaliser du reverse engineering dans une architecture héritée complexe Support & accompagnement : Assurer le support de niveau 2 Faire respecter les bonnes pratiques Communiquer clairement avec différents interlocuteurs (développeurs, utilisateurs, clients) Gouvernance & conformité : Veiller au respect des modèles de données Collaborer avec la Direction Technique et la Gouvernance de la Donnée pour faire évoluer les standards
CDI

Offre d'emploi
SRE - Site Reliability Engineer Linux / AWS [Full Remote possible]

Recrut Info
Publiée le
Administration linux
AWS Cloud
Linux

42k-53k €
Lyon, Auvergne-Rhône-Alpes
Rattaché·e au Responsable infrastructure, au sein de l’équipe SRE, vous jouerez un rôle clé dans la gestion et l’évolution de notre infrastructure, composée de serveurs bare metal et de ressources cloud. Votre mission sera d’assurer la fiabilité, la performance et la sécurité de nos environnements de production, tout en veillant à leur amélioration continue. Concrètement, vous prendrez en charge l’exploitation quotidienne des serveurs, en garantissant leur disponibilité et leur bon fonctionnement. Vous assurerez une surveillance constante de l’infrastructure afin de détecter tout incident, d’en analyser les causes et d’y apporter des solutions durables. Vous serez également responsable des mises à jour systèmes et applicatives, en veillant à respecter les meilleures pratiques ainsi que les exigences de conformité liées à notre certification. Une part essentielle de votre rôle consistera à automatiser les opérations récurrentes afin de fluidifier les processus internes et d’augmenter l’efficacité globale de l’équipe. Vous collaborerez étroitement avec les équipes de développement et de QA, en leur fournissant les environnements nécessaires ( serveurs, clusters Kubernetes, bases de données) pour garantir un cycle de vie logiciel fiable et performant. Enfin, vous participerez activement à la conception et à la mise en place de nouvelles solutions techniques visant à optimiser l’évolutivité et la sécurité de notre plateforme. Environnement technique : Linux (requis), AWS (souhaité), Docker (requis), Kubernetes (souhaité), Ansible (souhaité), Terraform (souhaité), Python, Bash (requis), MySQL (souhaité), PostgreSQL (souhaité)
Freelance

Mission freelance
POT9027 - Un expert stockage sur Lyon

Almatek
Publiée le
Git

6 mois
Lyon, Auvergne-Rhône-Alpes
Almatek recherche pour l'un de ses clients, un expert stockage sur Lyon. La mission est principalement orientée sur l’expertise stockage / sauvegarde : - Intervenir en tant qu’expert Stockage / Sauvegarde en appui des équipes internes - Dans le cadre du Maintien en Condition Opérationnelle des solutions, administrer les infrastructures, intervenir dans le diagnostic et la résolution des problèmes - Gérer les performances, les seuils d’alertes, l’organisation et l’optimisation des ressources du domaine - Gérer les incidents et problèmes liés au stockage / sauvegarde - Rédiger et mettre à jour les procédures d’administration et de support - Mettre à jour et diffuser les tableaux de bord - Faire des préconisations permettant d’améliorer les performances générales, la capacité à rendre le service, la robustesse et la sécurité des solutions - Faire des propositions pour améliorer l’administration des solutions (Powershell et Bash, SAN Switch et le zoning, baies de stockage Netapp (NAS) et baies de sauvegarde EMC Datadomain, logiciel Netbackup) - MCO et évolution des PRA / PCA (réplication, scripting, …) sur les environnements NAS et Block au niveau stockage - Assurer une veille technologique sur les périmètres concernées Connaissances appréciées - Environnements Purestorage FlashArrayX et IBM Flashsytem - Appliance Veritas Flex - stockage objet / CSI k8s / git ansible - être force de proposition - Autonomie - Aisance rédactionnelle (sans IA)
Freelance
CDI

Offre d'emploi
Développeur Big Data sur Lyon

EterniTech
Publiée le
Cloudera
Hadoop
SQL

3 ans
Lyon, Auvergne-Rhône-Alpes
Je recherche pour un de mes client un Développeur Big Data sur Lyon CONTEXTE DE LA MISSION Le client, dans le cadre de son activité Big Data, recherche un profil en développement Data, Python, SQL, Shell, Spark (+ de 5 ans d'expérience) pour l’accompagner dans les actions sur la plateforme Cloudera Hadoop. L'objectif de la prestation est de réaliser et maintenir les développements nécessaires à l'alimentation de la plateforme Hadoop, à la mise en place d'extractions et à l'accompagnement des utilisateurs. DESCRIPTION DE LA MISSION Rattaché au responsable Big Data, le profil aura pour principales missions : - de prendre en charge les évolutions des données à intégrer, reprendre les développements effectués pour l'alimentation du Datalake , de les faire évoluer en fonction des besoins (Stack technique : Hadoop Cloudera, Hive, Impala, Python, Shell, Linux, SQL, VBA, Jupyter) - d'avoir une expertise technique permettant de spécifier techniquement les tâches, fournir les requêtes de référence, effectuer une revue de code, accompagner les potentiels alternants ou stagiaires (une alternante à date) - de mettre en place des extractions à partir de ces données, - d’assurer le support niveau 2, - de faire appliquer les consignes aux utilisateurs, - de garantir la tenue des délais de livraison dans un contexte de production à fortes attentes - de contribuer à garantir la maintenabilité de la plateforme ainsi que ses performances et son exploitabilité Il veillera au respect de l’utilisation des modèles référencés ou à leur évolution en collaboration avec la Direction Technique Informatique et la Gouvernance de la Donnée. Le profil devra posséder des aptitudes et qualités avérées sur sa capacité à communiquer avec diplomatie, à écouter, à s'intégrer et à partager son savoir faire, à documenter ses actions et à accompagner. LIVRABLES ATTENDUS ET ENVIRONNEMENT TECHNIQUE Les principales missions confiées seront les suivantes : - Développement des traitements d'alimentation, forte capacité à structurer l'activité (JIRA), mise en place et description de processus (guides, accompagnement utilisateurs, …), pilotage opérationnel de certains sujets - Développement d'extractions avec SQL (expert) et scripting Shell avancé pour l'automatisation - Capacité à investiguer et faire du reverse engineering dans une architecture héritée complexe - Optimisation des traitements de la plateforme et ceux des utilisateurs - Capacité à expliquer simplement le sujet, à communiquer vers des interlocuteurs type développeur, bureau d'étude, qualifieur et "clients" (Groupes de protection sociale). La connaissance de Power BI et SAS sont des plus. Exemples de livrables attendus : - Code source documenté - Plan de tests / fiches de test - Bilan - Bordereau de livraison - Manuel d’installation - Dossier d’exploitation - JIRA documentée Environnement technique : - Hadoopa Cloudera - Hive - Impala - Python - Shell - Spark - Linux - SQL - VBA - Git - Jupyter Des connaissances de l’écosystème de la protection sociale sont les bienvenues (retraite complémentaire idéalement).
Freelance
CDI

Offre d'emploi
Ingénieur Systèmes Production – Control-M (H/F)

Lùkla
Publiée le
autonomie

1 an
Lyon, Auvergne-Rhône-Alpes
Contexte de la mission Dans le cadre d’un projet en environnement industriel et applicatif critique, nous recherchons un Ingénieur Systèmes Production, basé à 📍 Lyon, pour intervenir sur des sujets d’ordonnancement, d’automatisation et de maintien en conditions opérationnelles, au sein d’une organisation travaillant en Agile / SAFe. Vos missions Étude, déploiement et administration de solutions d’ordonnancement, notamment Control-M Étude et déploiement d’autres outils d’ordonnancement du marché Maintien en condition opérationnelle (MCO) évolutive et corrective Support Niveau 3 et appui aux équipes N1 / N2 Développement et déploiement de scripts d’automatisation (installation, exploitation) Développement et déploiement d’API Contribution à l’amélioration continue des performances de la solution Rédaction de documentation technique Accompagnement et formation des utilisateurs Participation aux crises applicatives Collaboration avec les équipes internes et le support éditeur Environnement technique Control-M (utilisation, installation, administration avancée) PostgreSQL (installation, administration, cluster) Docker / Dockerfile BASH / Shell Python (niveau avancé) Utilisation d’API
Freelance
CDI

Offre d'emploi
Ingénieur de production devops (H/F)

STORM GROUP
Publiée le
Kubernetes
Linux
Openshift

3 ans
45k €
400 €
Lyon, Auvergne-Rhône-Alpes
L’Infrastructure de Confiance du Groupe (ICG) est née de la volonté du groupe de réunir l’ensemble des fonctions de probation (authentification sécurisée et signature électronique) dans une seule et même plate-forme. Historiquement sur 2 applications (ICG et CFN), le service de Production ICG travaille dorénavant sur plusieurs applications majeures : ICG (authentification et signature), OASIS (nouvelle plateforme de signature), CFN, Trust (nouvelle plateforme authentification) Le service de production ICG c’est : Une équipe de 10 personnes en charge de la production ICG et CFN La gestion au quotidien d’une flotte d’environ 300 serveurs Linux RedHat Un pôle BUILD en charge : Des déploiements applicatifs du hors Prod jusqu’à la Prod Suivi des projets Du suivi et la planification des changements De participer aux cellules de crises lors d’un incident en Production Un pôle RUN en charge de : La gestion du stock des incidents affectés au service de niveau 2 à 3 aussi bien sur des sujets techniques que fonctionnels Être moteur lors aux cellules de crises lors d’un incident en Production et s’assurer la remontée et le suivi des éléments techniques et fonctionnels auprès de nos fournisseurs Participer aux comités opérationnels avec nos différents fournisseurs autour de nos problématiques et incidents. Contribuer à l’élaboration de nouvelles chaines d’ordonnancement (via VTOM) et le suivi au quotidien des chaines existantes Optimiser la supervision de l’application via Zabbix, ELK, AppDynamics, Grafana pour être le plus proactif possible dans la détection d’un incident Des besoins communs aux deux pôles : Assurer des astreintes et des interventions en HNO Être en mesure d’échanger avec des interlocuteurs très variés (équipes projets applicatif, équipes réseau, sécurité, infra) L’innovation : identifier et réaliser différentes actions pour améliorer notre quotidien (création/amélioration de scripts, rédaction de procédures pour un nouvel usage/outil, etc.) Spécificités pour les tests techniques : Prise de connaissance du changement et de son contexte technique Compléter le plan de tests proposé Préparer les infrastructures de tests Valider les documents et les procédures à destination de la production Réaliser les différents tests techniques Analyser les résultats Contribuer au diagnostic en cas de dysfonctionnement Rédiger les rapports détaillés qui aideront à la décision du GO/NOGO pour la mise en production Constituer ou met à jour le patrimoine de tests réutilisable pour les intégrations ultérieures Effectuer le reporting vers le Responsable IntégrationContribue à l'amélioration continue Industrialiser les tests techniques récurrents (autoatisation, outillage…) Développer des scripts et les outils pour automatiser les tâches et améliorer l'efficacité des opérations Concevoir et maintient l'automatisation à l'aide d'outils tels que Terraform ou Ansible Finops: Proposer des solutions pour optimiser les performances et réduire les coûts Accompagner les équipes de développement dans la mise en œuvre des meilleures pratiques de sécurité et l'utilisation des outils DevSecOps Se maintenir à jour sur des nouvelles menaces de sécurité et les évolutions des outils DevSecOps pour une amélioration continue des processus Environnement technique : Système : Linux Bases de données : Oracle Middleware : Apache, Tomcat Supervision : Zabbix, Grafana, AppDynamics, ELK, Newtest / Datamétrie Déploiement : XLDeploy / XLRelease, Jenkins, Ansible Sécurité : HSM, Venafi (PKI), Firewall applicatif, gestion des certificats, cryptographie Ticketing : SUN (ServiceNOW) Scripting/langage : Bash, Python, Java Ordonnancement : VTOM Gestion de projet : Jira/Confluence
Freelance
CDI

Offre d'emploi
Administrateur système et réseaux

Groupe Aptenia
Publiée le
Administration réseaux

3 ans
30k-38k €
200-380 €
Lyon, Auvergne-Rhône-Alpes
En tant qu’Administrateur Systèmes et Réseaux orienté BUILD, vous êtes responsable de la conception, du déploiement, de la configuration et de l’optimisation des infrastructures systèmes et virtualisées. Vous intervenez principalement sur des projets d’installation et d’évolution d’environnements IT, en garantissant performance, sécurité et fiabilité. BUILD – Déploiement & Intégration Installer, configurer et maintenir les serveurs Windows Server et Linux (Debian, Ubuntu, RedHat, CentOS…) Déployer et administrer des environnements virtualisés : VMware (vSphere, ESXi, vCenter) Hyper-V Proxmox Mettre en place des infrastructures : Active Directory, GPO DNS, DHCP Serveurs de fichiers Serveurs applicatifs Solutions de sauvegarde Automatiser les déploiements (PowerShell, Bash, Ansible, scripts) Installer et configurer les équipements réseaux (switches, firewall, VLAN, VPN) Mettre en place des environnements haute disponibilité (cluster, réplication) 🔹 DEBUG & Optimisation Diagnostiquer et résoudre les incidents complexes (niveau 2/3) Analyser les logs systèmes et réseaux Optimiser les performances serveurs et virtualisation Mettre en place des plans de remédiation Effectuer des tests de validation technique
Freelance

Mission freelance
Développeur(euse) Big Data

CAT-AMANIA
Publiée le
Apache Spark
Hadoop
Python

12 mois
400-550 €
Lyon, Auvergne-Rhône-Alpes
Description du poste : Dans le cadre de l'activité Big Data de notre client, nous recherchons un profil en développement Data, Python, SQL, Shell, Spark (+ de 5 ans d'expérience) pour nous accompagner dans nos actions sur notre plateforme Cloudera Hadoop. L'objectif de la prestation est de réaliser et maintenir les développements nécessaires à l'alimentation de la plateforme Hadoop, à la mise en place d'extractions et à l'accompagnement des utilisateurs.

Les métiers et les missions en freelance pour Bash

Ingénieur·e devops (Cloud)

L'Ingénieur·e devops (Cloud) utilise des scripts Bash pour automatiser les déploiements, la gestion des serveurs et la configuration des pipelines CI/CD.

Administrateur·rice système Unix (linux...)

L'Administrateur·rice système Unix (Linux...) crée et maintient des scripts Bash pour la gestion des tâches administratives et la configuration des systèmes sous Unix/Linux.

Ingénieur·e d'exploitation

L'Ingénieur·e d'exploitation développe des scripts Bash pour superviser et automatiser les opérations dans des environnements de production.

Ingénieur·e systèmes & réseaux

L'Ingénieur·e systèmes & réseaux utilise Bash pour gérer les serveurs, configurer les réseaux, et automatiser les processus complexes liés à l’infrastructure IT.

18 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Lyon, Auvergne-Rhône-Alpes
0 Km 200 Km

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous