Trouvez votre prochaine offre d’emploi ou de mission freelance Shell à Lyon

Ce qu’il faut savoir sur Shell

Shell désigne une interface qui permet aux utilisateurs d'interagir avec le système d'exploitation, généralement via des commandes textuelles. Dans les environnements Unix/Linux, le shell est une couche essentielle pour exécuter des scripts, lancer des programmes, et gérer des fichiers et des processus. Le shell peut être interactif (utilisé en ligne de commande) ou non interactif (via des scripts pour automatiser des tâches). Les shells les plus courants incluent Bash (Bourne Again Shell), Zsh, Ksh, et Fish, chacun offrant des fonctionnalités spécifiques comme l’autocomplétion, les alias, ou les personnalisations avancées. Le scripting shell est largement utilisé pour automatiser des tâches administratives et répétitives, telles que la sauvegarde de fichiers, la gestion des permissions ou le déploiement d’applications. Flexible et puissant, le shell est un outil incontournable pour les administrateurs système et les développeurs travaillant sur des environnements Unix/Linux.

Votre recherche renvoie 18 résultats.
Freelance
CDI
CDD

Offre d'emploi
Développeur  Data Python SQL Shell Spark

KEONI CONSULTING
Publiée le
JIRA
Jupyter Notebook
Python

18 mois
20k-60k €
100-500 €
Lyon, Auvergne-Rhône-Alpes
CONTEXTE : Le client dans le cadre de son activité Big Data, recherche un profil en développement Data, Python, SQL, Shell, Spark (+ de 5 ans d'expérience) pour nous accompagner dans les actions sur la plateforme Cloudera Hadoop. L'objectif de la mission est de réaliser et maintenir les développements nécessaires à l'alimentation de la plateforme Hadoop, à la mise en place d'extractions et à l'accompagnement des utilisateurs MISSIONS Rattaché au responsable Big Data, le profil aura pour principales missions : - de prendre en charge les évolutions des données à intégrer, reprendre les développements effectués pour l'alimentation du Datalake , de les faire évoluer en fonction des besoins (Stack technique : Hadoop Cloudera, Hive, Impala, Python, Shell, Linux, SQL, VBA, Jupyter) - d'avoir une expertise technique permettant de spécifier techniquement les tâches, fournir les requêtes de référence, effectuer une revue de code, accompagner les potentiels alternants ou stagiaires (une alternante à date) - de mettre en place des extractions à partir de ces données, - d’assurer le support niveau 2, - de faire appliquer les consignes aux utilisateurs, - de garantir la tenue des délais de livraison dans un contexte de production à fortes attentes - de contribuer à garantir la maintenabilité de la plateforme ainsi que ses performances et son exploitabilité Il veillera au respect de l’utilisation des modèles référencés ou à leur évolution en collaboration avec la Direction Technique Informatique et la Gourvernance de la Donnée. Le profil devra posséder des aptitudes et qualités avérées sur sa capacité à communiquer avec diplomatie, à écouter, à s'intégrer et à partager son savoir faire, à documenter ses actions et à accompagner. Dans le même ordre d'idée, quelques attendus : - Développement des traitements d'alimentation, forte capacité à structurer l'activité (JIRA), mise en place et description de processus (guides, accompagnement utilisateurs, …), pilotage opérationnel de certains sujets - Développement d'extractions avec SQL (expert) et scripting Shell avancé pour l'automatisation - Capacité à investiguer et faire du reverse engineering dans une architecture héritée complexe - Optimisation des traitements de la plateforme et ceux des utilisateurs Livrables attendus "Code source documenté Plan de tests / fiches de test Bilan Bordereau de livraison Manuel d’installation Dossier d’exploitation JIRA documentée" Environnement technique - technologique "• Cloudera Hadoop • Hive, impala • Python • SQL • Shell • Spark • VBA • GIT • Jupyter • Linux • JIRA" Compétences techniques Connaisance Cloudera Hadoop, Hive, Impala Développement Python Requêtage SQL Développement Shell Développement Spark (Scala) Utilisation de GIT Agilité (méthodes Kanban et/ou Scrum) Compétence liée à l'environnement Connaissance de l'écosystème de la protection sociale
Freelance

Mission freelance
DevOps

Codezys
Publiée le
Ansible
Docker
Git

12 mois
350-420 €
Lyon, Auvergne-Rhône-Alpes
Présence sur site requise 3 jours par semaine. Au sein du pôle Système d'Information Chaînes Communicantes de la Département des Systèmes d'Information , l'équipe rassemble des briques applicatives et data essentielles à la supervision, la résilience, l’intelligence du réseau électrique. En intégrant des outils de visualisation de crise, des capteurs Internet des Objets (IoT) , des dataproducts, un socle DevOps mutualisé, l'équipe incarne une approche unifiée et opérationnelle de la donnée réseau. IndusML est une équipe DevOps rattachée à une unité dédiée, œuvrant pour un département spécifique. Elle est en charge de la mise en place et du maintien en condition opérationnelle des éléments d’infrastructure et outillage pour les DataScientists et développeurs de ce département. Le projet met à disposition des équipes Data une plateforme de travail structurée autour de 3 axes : des Environnements de Développement Intégrés (IDE) complets pour développer, s'interfacer avec les partenaires du projet et explorer la donnée dans les meilleures conditions des environnements applicatifs sécurisés et scalables pour permettre aux éléments produits par les utilisateurs d'atteindre un haut niveau de performance et de résilience de l'outillage CI/CD clé en main pour uniformiser et fiabiliser ce processus Objectifs et livrables Activité principale : Construire et faire évoluer les outils nécessaires au déploiement continu et automatisé des applications web et traitements de données produits par les analystes de données / scientifiques de données Assurer l’évolution des éléments d’infrastructure, middleware et outillage en fonction des contraintes d’obsolescence, de sécurité et de fonctionnalité Echanger avec l’ensemble des acteurs du Système d'Information (Développeurs, Sécurité, Architectes, Exploitants, etc.) pour s'assurer de la bonne adéquation de la solution avec le cadre d'entreprise Créer et maintenir la documentation qui doit accompagner les changements mis en place Participer aux cérémonies d’équipe Activité secondaire : Étudier l'intégration vers l’analyse de données future en lien avec le pôle Système d'Information DATA (cloud / on-premise) pour assurer aux équipes analytiques une continuité d'activité dans un nouveau contexte Système d'Information .
Freelance

Mission freelance
Développeur Big Data

Codezys
Publiée le
JIRA
Linux
Python

24 mois
330-400 €
Lyon, Auvergne-Rhône-Alpes
Organisation Dans le cadre de ses activités liées au traitement de données volumineuses, une organisation recherche un profil en développement Data, Python, SQL, Shell, Spark (+ de 5 ans d'expérience) pour l’accompagner dans la gestion d'une plateforme Hadoop. Objectif de la mission Réaliser et maintenir les développements nécessaires à l'alimentation de la plateforme Hadoop, notamment la mise en place d'extractions et l'accompagnement des utilisateurs. Description de la mission Le candidat, rattaché au responsable en charge du traitement de données volumineuses, sera principalement chargé de : Prendre en charge l'évolution des flux de données et reprendre les développements existants pour leur alimentation, en faisant évoluer ceux-ci selon les besoins. (Stack technique : Hadoop Cloudera, Hive, Impala, Python, Shell, Linux, SQL, VBA, Jupyter) Définir la spécification technique des tâches, fournir des requêtes de référence, réaliser des revues de code, et accompagner d’éventuels alternants ou stagiaires. Mettre en place des processus d'extraction à partir des données. Assurer le support de niveau 2. Faire respecter les consignes d’utilisation auprès des utilisateurs. Garantir le respect des délais de livraison dans un environnement exigeant. Contribuer à la maintenabilité, la performance et l’exploitabilité de la plateforme. Il veillera également à respecter l’utilisation des modèles référencés ou leur évolution, en collaboration avec la Direction Technique et la Gouvernance des Données. Le profil doit posséder des compétences avérées en communication, diplomatie, capacité d’intégration, partage de connaissances, documentation, et accompagnement des utilisateurs.
CDI

Offre d'emploi
Développeur Big Data Expérimenté (H/F)

CITECH
Publiée le
Cloudera
Git
Hadoop

50k-60k €
Lyon, Auvergne-Rhône-Alpes
CITECH recrute ! 👌 ✨ Si vous souhaitez apporter vos compétences dans la réalisation d’un projet innovant, nous avons LE poste pour vous ! Nous recherchons en effet un(e) Développeur Big Data Expérimenté (H/F) 🚀 ☘️ Votre mission est pour un client connu du secteur de la retraite et prévoyance. L’objectif de la mission est dans le cadre de la réalisation et la maintenance de développements nécessaires à l'alimentation d’une plateforme, ainsi que la mise en place d'extractions de données et l'accompagnement des utilisateurs finaux. Description du poste 👉 Vous aurez les missions suivantes : 👈 🔸 Développement et maintenance : Assurer l'alimentation du Datalake et faire évoluer les flux en fonction des besoins métiers. 🔸 Conception et architecture : Mettre en place des extractions de données et contribuer à garantir la tenue de la plateforme en environnement opérationnel. 🔸 Support et expertise : Assurer le support de niveau 2, apporter une expertise technique sur l'écosystème Hadoop et réaliser des revues de code. 🔸 Coordination : Collaborer avec la Direction Technique Informatique et la Gouvernance de la Donnée pour le respect et l'évolution des modèles référencés. 🔸 Documentation : Rédiger la documentation technique (spécifications, dossiers d'exploitation, manuels d'installation) et les bilans de tests.
Freelance

Mission freelance
Développeur Big Data

Codezys
Publiée le
Big Data
Cloudera
Data Lake

12 mois
Lyon, Auvergne-Rhône-Alpes
Contexte de la mission : Le client, dans le cadre du développement et de la maintenance de sa plateforme Big Data, recherche un Développeur Big Data expérimenté (H/F) avec au moins 5 ans d’expérience en environnement Data. La mission se déroule au sein de l’équipe Big Data, chargée de l’alimentation, de l’évolution et de l’optimisation du Data Lake sous Cloudera Hadoop. L’objectif principal est de concevoir, faire évoluer et maintenir les traitements d’alimentation pour assurer la qualité, la performance et la maintenabilité des solutions. Le consultant intervient dans un contexte de production exigeant, avec de forts enjeux de fiabilité et de respect des délais. Missions principales : Développement & évolution du Data Lake : Gérer les évolutions des flux et des données à intégrer Faire évoluer les développements existants d’alimentation Maintenir les traitements d’ingestion et de transformation Concevoir des extractions de données pour répondre aux besoins métiers Stack technique : Cloudera Hadoop, Hive, Impala, Spark, Python, SQL, Shell, Linux, VBA, Jupyter Expertise technique & structuration : Rédaction des spécifications techniques Fourniture de requêtes SQL de référence Revue de code Structuration et pilotage via JIRA Documentation des processus et accompagnement des utilisateurs Encadrement de profils juniors (alternants, stagiaires) Performance & optimisation : Optimiser les traitements et requêtes Améliorer la performance et l’exploitabilité Contribuer à la maintenabilité globale Réaliser du reverse engineering dans une architecture héritée complexe Support & accompagnement : Assurer le support de niveau 2 Faire respecter les bonnes pratiques Communiquer clairement avec différents interlocuteurs (développeurs, utilisateurs, clients) Gouvernance & conformité : Veiller au respect des modèles de données Collaborer avec la Direction Technique et la Gouvernance de la Donnée pour faire évoluer les standards
Freelance
CDI

Offre d'emploi
Développeur Big Data sur Lyon

EterniTech
Publiée le
Cloudera
Hadoop
SQL

3 ans
Lyon, Auvergne-Rhône-Alpes
Je recherche pour un de mes client un Développeur Big Data sur Lyon CONTEXTE DE LA MISSION Le client, dans le cadre de son activité Big Data, recherche un profil en développement Data, Python, SQL, Shell, Spark (+ de 5 ans d'expérience) pour l’accompagner dans les actions sur la plateforme Cloudera Hadoop. L'objectif de la prestation est de réaliser et maintenir les développements nécessaires à l'alimentation de la plateforme Hadoop, à la mise en place d'extractions et à l'accompagnement des utilisateurs. DESCRIPTION DE LA MISSION Rattaché au responsable Big Data, le profil aura pour principales missions : - de prendre en charge les évolutions des données à intégrer, reprendre les développements effectués pour l'alimentation du Datalake , de les faire évoluer en fonction des besoins (Stack technique : Hadoop Cloudera, Hive, Impala, Python, Shell, Linux, SQL, VBA, Jupyter) - d'avoir une expertise technique permettant de spécifier techniquement les tâches, fournir les requêtes de référence, effectuer une revue de code, accompagner les potentiels alternants ou stagiaires (une alternante à date) - de mettre en place des extractions à partir de ces données, - d’assurer le support niveau 2, - de faire appliquer les consignes aux utilisateurs, - de garantir la tenue des délais de livraison dans un contexte de production à fortes attentes - de contribuer à garantir la maintenabilité de la plateforme ainsi que ses performances et son exploitabilité Il veillera au respect de l’utilisation des modèles référencés ou à leur évolution en collaboration avec la Direction Technique Informatique et la Gouvernance de la Donnée. Le profil devra posséder des aptitudes et qualités avérées sur sa capacité à communiquer avec diplomatie, à écouter, à s'intégrer et à partager son savoir faire, à documenter ses actions et à accompagner. LIVRABLES ATTENDUS ET ENVIRONNEMENT TECHNIQUE Les principales missions confiées seront les suivantes : - Développement des traitements d'alimentation, forte capacité à structurer l'activité (JIRA), mise en place et description de processus (guides, accompagnement utilisateurs, …), pilotage opérationnel de certains sujets - Développement d'extractions avec SQL (expert) et scripting Shell avancé pour l'automatisation - Capacité à investiguer et faire du reverse engineering dans une architecture héritée complexe - Optimisation des traitements de la plateforme et ceux des utilisateurs - Capacité à expliquer simplement le sujet, à communiquer vers des interlocuteurs type développeur, bureau d'étude, qualifieur et "clients" (Groupes de protection sociale). La connaissance de Power BI et SAS sont des plus. Exemples de livrables attendus : - Code source documenté - Plan de tests / fiches de test - Bilan - Bordereau de livraison - Manuel d’installation - Dossier d’exploitation - JIRA documentée Environnement technique : - Hadoopa Cloudera - Hive - Impala - Python - Shell - Spark - Linux - SQL - VBA - Git - Jupyter Des connaissances de l’écosystème de la protection sociale sont les bienvenues (retraite complémentaire idéalement).
Freelance

Mission freelance
Ingénieur d’étude Migration de données (Linux / MVS – Cobol)

Signe +
Publiée le
Multiple Virtual Storage (MVS)

12 mois
300-350 €
Lyon, Auvergne-Rhône-Alpes
Contexte Dans le cadre de projets de migration de données vers de nouveaux systèmes d’information, l’ingénieur d’étude intervient sur les phases de spécification, développement, tests et recette. La mission s’inscrit dans un environnement agile orienté migration et modernisation de SI, avec utilisation d’outils internes permettant d’industrialiser les transformations de données. Objectif de la mission Contribuer à la migration de données d’un système source vers un système cible en assurant : l’analyse fonctionnelle des données la génération et la validation du code de transformation la mise en place des tests la communication avec les équipes métiers Missions principales Spécifications et analyse Rédiger les spécifications fonctionnelles des données à migrer Animer des ateliers avec les équipes métiers client Identifier les règles de transformation, fusion, éclatement ou filtrage des données Étudier les structures de fichiers source et cible Développement et transformation Utiliser l’outil interne pour générer du code en pseudo Cobol Implémenter les règles de migration dans l’outil Tester et corriger le code généré Participer aux phases de recette Tests et validation Définir la stratégie de tests Construire les cas de tests et jeux d’essai Suivre les anomalies et assurer les corrections Présenter les résultats à la MOA / équipes métiers Organisation projet Travailler en mode agile et itératif Gérer plusieurs sujets en parallèle Reporter sur l’avancement et les points de blocage Être force de proposition sur les optimisations Compétences obligatoires Maîtrise de Cobol Connaissance Linux ou environnement MVS Bonne compréhension des structures de fichiers (fichiers plats, encodage EBCDIC / ASCII) Expérience en migration ou transformation de données Première expérience en Banque ou Assurance de personnes (santé, prévoyance) Compétences appréciées Connaissance de l’environnement MVS Shell Linux PostgreSQL Méthodes agiles Animation d’ateliers fonctionnels Profil recherché Formation Bac+5 informatique ou scientifique Bonne capacité d’analyse fonctionnelle Autonomie rapide Bon relationnel client Capacité rédactionnelle claire et synthétique Esprit d’équipe et curiosité technique
Freelance

Mission freelance
Développeur(euse) Big Data

CAT-AMANIA
Publiée le
Apache Spark
Hadoop
Python

12 mois
400-550 €
Lyon, Auvergne-Rhône-Alpes
Description du poste : Dans le cadre de l'activité Big Data de notre client, nous recherchons un profil en développement Data, Python, SQL, Shell, Spark (+ de 5 ans d'expérience) pour nous accompagner dans nos actions sur notre plateforme Cloudera Hadoop. L'objectif de la prestation est de réaliser et maintenir les développements nécessaires à l'alimentation de la plateforme Hadoop, à la mise en place d'extractions et à l'accompagnement des utilisateurs.
Freelance

Mission freelance
Ingénieur DevOps (H/F)

Insitoo Freelances
Publiée le
Administration linux
Ansible
Gitlab

2 ans
420-480 €
Lyon, Auvergne-Rhône-Alpes
Basée à Lille, Lyon, Nantes, Grenoble, Marseille, Paris et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Ingénieur DevOps (H/F) à Lyon, France. Contexte : Une équipe DevOps en charge de la mise en place et du maintien en condition opérationnelle des éléments d’infrastructure et outillage pour les Data Scientists et développeurs du département. Le projet met à disposition des équipes Data une plateforme de travail structurée autour de 3 axes : - des IDE complets pour développer, s'interfacer avec les partenaires du projet et explorer la donnée dans les meilleures conditions - des environnements applicatifs sécurisés et scalables pour permettre aux éléments produits par les utilisateurs d'atteindre un haut niveau de performance et de résilience -de l'outillage CI/CD clé en main pour uniformiser et fiabiliser ce processus. Les missions attendues par le Ingénieur DevOps (H/F) : Activité principale Construire et faire évoluer les outils nécessaires au déploiement continu et automatisé des applications web et traitements de données produits par les data analystes / data scientists Assurer l’évolution des éléments d’infrastructure, middleware et outillage en fonction des contraintes d’obsolescence, de sécurité et de fonctionnalité Echanger avec l’ensemble des acteurs du SI (Développeurs, Sécurité, Architectes, Exploitants, etc…) pour s'assurer de la bonne adéquation de la solution avec le cadre d'entreprise Créer et maintenir la documentation qui doit accompagner les changements mis en place Participation aux cérémonies d’équipe Activité secondaire Etudier l'accostage vers la data analyse de demain en lien avec le pôle SI DATA (cloud / on prime) pour assurer aux équipes analytiques d'IML une continuité d'activité dans une nouveau contexte DSI Stack technique de l'équipe · Système : Infrastructure 100% linux : RedHat, CentOS, Alpine · Middleware : Apache, Proftpd, JupyterLab, node, Shiny-server, VSCode server · Scripting/dev : Shell, Python, R, groovy, yaml, HCL (Terraform) · Bases de données : PostGreSQL (offre PGaaS notamment), espace produit sur B4ALL · CI/CD : Git, GitLab CI, Ansible, Jenkins, HELM, Artifactory, Vault, Terraform · Conteneurisation : Docker, Kubernetes, Podman · Métrologie : Grafana · Ordonnancement : Control-M / Airflow · Gestion de projet : Jira, Confluence
Freelance
CDI

Offre d'emploi
Ingénieur Systèmes Production – Control-M (H/F)

Lùkla
Publiée le
autonomie

1 an
Lyon, Auvergne-Rhône-Alpes
Contexte de la mission Dans le cadre d’un projet en environnement industriel et applicatif critique, nous recherchons un Ingénieur Systèmes Production, basé à 📍 Lyon, pour intervenir sur des sujets d’ordonnancement, d’automatisation et de maintien en conditions opérationnelles, au sein d’une organisation travaillant en Agile / SAFe. Vos missions Étude, déploiement et administration de solutions d’ordonnancement, notamment Control-M Étude et déploiement d’autres outils d’ordonnancement du marché Maintien en condition opérationnelle (MCO) évolutive et corrective Support Niveau 3 et appui aux équipes N1 / N2 Développement et déploiement de scripts d’automatisation (installation, exploitation) Développement et déploiement d’API Contribution à l’amélioration continue des performances de la solution Rédaction de documentation technique Accompagnement et formation des utilisateurs Participation aux crises applicatives Collaboration avec les équipes internes et le support éditeur Environnement technique Control-M (utilisation, installation, administration avancée) PostgreSQL (installation, administration, cluster) Docker / Dockerfile BASH / Shell Python (niveau avancé) Utilisation d’API
Freelance

Mission freelance
Ingénieur Migration de Données – Junior / Confirmé

Signe +
Publiée le
Linux

12 mois
300 €
Lyon, Auvergne-Rhône-Alpes
Contexte Dans le cadre de projets de migration de données vers de nouveaux systèmes d’information , nous recherchons un ingénieur migration junior disposant d’une première expérience, capable d’intervenir rapidement sur des sujets techniques et fonctionnels liés aux données. La mission s’inscrit dans un environnement structuré, avec des processus d’industrialisation, des outils internes et un fort niveau d’exigence sur la qualité des livrables. Localisation Lyon (Perrache) Télétravail partiel possible Démarrage Immédiat Mission longue (contrat initial 3 mois renouvelables) Missions principales Réaliser des études de migration de données (analyse source / cible) Rédiger les spécifications fonctionnelles et techniques de migration Définir les règles de transformation, d’éclatement, de fusion et d’appareillage de fichiers Développer et corriger des traitements de migration en pseudo Cobol / Cobol Tester, déboguer et valider les traitements développés Participer aux phases de recette et de validation des données migrées Présenter les résultats et avancements aux équipes MOA / Métiers Reporter l’avancement, les risques et les points de blocage Environnement technique Linux Cobol (copys, structures de fichiers, appareillage) Encodages EBCDIC / ASCII Fichiers plats Shell Linux (premier niveau) Bases de données (premier niveau, idéalement PostgreSQL ) Compétences requises Maîtrise de Linux et Cobol (obligatoire) Bonne compréhension des structures de fichiers et flux de données Capacité à concevoir des spécifications de migration de données Sensibilité forte à la qualité des données et aux tests Capacité à définir des stratégies de test, cas de tests et jeux d’essai Bonne organisation et capacité à gérer plusieurs sujets en parallèle Compétences appréciées Connaissance fonctionnelle des domaines : Assurance santé / prévoyance Banque Expérience en contexte de migration de SI Travail en environnement Agile Profil recherché Formation Bac+5 (informatique ou scientifique) Junior avec première expérience ou profil intermédiaire Autonomie progressive et esprit curieux Capacité à s’intégrer rapidement dans une équipe Bon relationnel et capacité de vulgarisation
Freelance

Mission freelance
POT9027 - Un expert stockage sur Lyon

Almatek
Publiée le
Git

6 mois
Lyon, Auvergne-Rhône-Alpes
Almatek recherche pour l'un de ses clients, un expert stockage sur Lyon. La mission est principalement orientée sur l’expertise stockage / sauvegarde : - Intervenir en tant qu’expert Stockage / Sauvegarde en appui des équipes internes - Dans le cadre du Maintien en Condition Opérationnelle des solutions, administrer les infrastructures, intervenir dans le diagnostic et la résolution des problèmes - Gérer les performances, les seuils d’alertes, l’organisation et l’optimisation des ressources du domaine - Gérer les incidents et problèmes liés au stockage / sauvegarde - Rédiger et mettre à jour les procédures d’administration et de support - Mettre à jour et diffuser les tableaux de bord - Faire des préconisations permettant d’améliorer les performances générales, la capacité à rendre le service, la robustesse et la sécurité des solutions - Faire des propositions pour améliorer l’administration des solutions (Powershell et Bash, SAN Switch et le zoning, baies de stockage Netapp (NAS) et baies de sauvegarde EMC Datadomain, logiciel Netbackup) - MCO et évolution des PRA / PCA (réplication, scripting, …) sur les environnements NAS et Block au niveau stockage - Assurer une veille technologique sur les périmètres concernées Connaissances appréciées - Environnements Purestorage FlashArrayX et IBM Flashsytem - Appliance Veritas Flex - stockage objet / CSI k8s / git ansible - être force de proposition - Autonomie - Aisance rédactionnelle (sans IA)
Freelance

Mission freelance
POT8896 - Un Expert PKI sur Lyon

Almatek
Publiée le
Public Key Infrastructure (PKI)

6 mois
280-400 €
Lyon, Auvergne-Rhône-Alpes
Almatek recherche pour l'un de ses clients un Expert PKI sur Lyon. La Prestation s’inscrit au sein des équipes sécurité du train IAM PKI, ZSx et IS4U dans le cadre des projets du Programme Cyber IAM - PKI Le Programme est gouverné par les équipes de pilotage au sein du département Cybersécurité. Les Projets commandités par ce programme, sont pour une partie, gérés par l’équipe projet au sein du département ISIS (Intégration, Support, Infrastructures Sécurisées). Les Services et Produits mis en œuvre pour répondre aux besoins des projets sont construit, et exploités par l’équipe d’exploitation au sein du département DIGIT (Gestionnaire des infrastructures de la DSI) La prestation s’inscrit au sein de l’équipe d’Exploitation de la PKI. Les activités des prestations concernent l’expertise technique et l’accompagnement à la construction de l’infrastructure, du produit délivrant le service de la PKI. L’activité se base sur la méthodologie AGILE, avec une déclinaison à l’échelle de la DSI selon le Framework SAFe, adaptée aux activités de Build et Run (Health). Les activités d’expertise technique attendues portent principalement (non exhaustive) autour des missions suivantes : - Conception, développement et maintien de l’infrastructure et de l’outillage des produits suivants : *PKI : EJBCA *HSM : Luna 7 HSM S700, S750, S790, U700, B700 *CLM : Keyfactor command *CMS : Ilex (Nexpublica) - Participer à la construction de l’exploitation des produits PKI, - Garantir son fonctionnement au niveau de service attendu (DIMA/PDMA) des incidents et demandes métiers, - Animer des réunions techniques et notamment des ateliers sur des sujets PKI, - Réaliser des ateliers avec l’intégrateur de la solution PKI choisi, - Définir les actions pour améliorer l’existant et renforcer la proactivité pour anticiper les ruptures ou dégradation de Service. Les compétences demandées : Expertise en solution de gestion d’une IGC, AC et Certificats (Administration de boitiers HSM Thales, exécuter les key ceremonies, CLM, CDP (Administration d’un point de distribution des CRLs), CMS Expertise en solution de gestion PKI => EJBCA Expertise en solution de gestion HSM => Luna 7, HSM S700, S750, S790, U700, B700 Expertise en solution de gestion CLM => Keyfactor command Expertise en solution de gestion CMS => Ilex (Nexpublica) Connaissances globales en Système, Stockage, Sauvegarde, Supervision Maîtrise des solutions d’hébergement et d’infrastructure en DC (Hardware Cisco UCS, HP Proliant), Maîtrise de l’administration de systèmes Redhat Linux Maitrise des langages de scripting : Shell, Python, groovy … Rédaction de documentation technique Capacité à planifier Gestion des alertes et des risques Capacités rédactionnelles (cahier des charges, REX, etc…) Dossier d'aide à la décision et support de présentation Réalisation d'études de veille technologiques
Freelance
CDI

Offre d'emploi
Administrateur système et réseaux

Groupe Aptenia
Publiée le
Administration réseaux

3 ans
30k-38k €
200-380 €
Lyon, Auvergne-Rhône-Alpes
En tant qu’Administrateur Systèmes et Réseaux orienté BUILD, vous êtes responsable de la conception, du déploiement, de la configuration et de l’optimisation des infrastructures systèmes et virtualisées. Vous intervenez principalement sur des projets d’installation et d’évolution d’environnements IT, en garantissant performance, sécurité et fiabilité. BUILD – Déploiement & Intégration Installer, configurer et maintenir les serveurs Windows Server et Linux (Debian, Ubuntu, RedHat, CentOS…) Déployer et administrer des environnements virtualisés : VMware (vSphere, ESXi, vCenter) Hyper-V Proxmox Mettre en place des infrastructures : Active Directory, GPO DNS, DHCP Serveurs de fichiers Serveurs applicatifs Solutions de sauvegarde Automatiser les déploiements (PowerShell, Bash, Ansible, scripts) Installer et configurer les équipements réseaux (switches, firewall, VLAN, VPN) Mettre en place des environnements haute disponibilité (cluster, réplication) 🔹 DEBUG & Optimisation Diagnostiquer et résoudre les incidents complexes (niveau 2/3) Analyser les logs systèmes et réseaux Optimiser les performances serveurs et virtualisation Mettre en place des plans de remédiation Effectuer des tests de validation technique
Freelance

Mission freelance
Expert Windows Server

Codezys
Publiée le
Active Directory
Ansible
CI/CD

12 mois
Lyon, Auvergne-Rhône-Alpes
Présence sur site à Lyon : le prestataire devra assurer une présence physique sur le site situé à Lyon trois jours par semaine. Cette présence régulière permettra une meilleure coordination avec l'équipe locale, une gestion efficace des opérations terrain et une réactivité optimale face aux imprévus ou demandes urgentes. La répartition exacte des journées pourra être définie en concertation avec le client, en tenant compte des activités spécifiques, des contraintes organisationnelles et des périodes clés du projet. Cette intervention sur site comprendra notamment : Gestion quotidienne des opérations : supervision des activités, suivi des tâches, et contrôle de la conformité aux normes en vigueur. Coordination avec les équipes locales : assurer une communication fluide pour garantir la cohérence des actions et la résolution rapide des problèmes. Support opérationnel : assistance aux équipes sur place, formation éventuelle, et gestion des ressources matérielles et humaines nécessaires au bon déroulement des activités. Reporting : établissement de rapports réguliers sur l’état d’avancement des travaux, les résultats obtenus, et les éventuels écarts ou difficultés rencontrées. La présence à Lyon s’inscrit dans une démarche de proximité, essentielle pour assurer la réussite du projet et répondre efficacement aux besoins du client. Le prestataire devra également être flexible quant à la possibilité d’adapter ces journées en fonction des phases du projet ou des urgences qui pourraient survenir.
CDI

Offre d'emploi
Ingénieur cybersécurité

Audensiel
Publiée le
Cybersécurité
SOC (Security Operation Center)

36k-50k €
Lyon, Auvergne-Rhône-Alpes
🔎 Nous recrutons un(e) Analyste SOC N2/N3 – Expert Splunk Vous êtes passionné(e) par la cybersécurité et souhaitez évoluer dans un environnement exigeant, au cœur des enjeux de détection et de réponse aux incidents ? Rejoignez-nous ! 🎯 Vos missions Au sein d’un SOC, vous interviendrez sur des environnements critiques et aurez pour responsabilités : L’analyse et la qualification des alertes de sécurité (N2/N3) L’investigation approfondie des incidents (analyse, containment, remédiation) La création et l’optimisation des règles de détection sous Splunk (SPL, use cases, dashboards, corrélations) L’amélioration continue du dispositif de détection (tuning, réduction des faux positifs, enrichissement des logs) La participation à des exercices Purple Team et à l’évaluation de l’efficacité des mécanismes de défense L’automatisation des réponses via playbooks / SOAR La rédaction de rapports d’incidents et de documentation technique Vous travaillerez en étroite collaboration avec des experts cybersécurité (architecture, threat intel, red team) dans une logique d’amélioration continue. 👤 Profil recherché Expérience confirmée en SOC N2/N3 Maîtrise de Splunk (SPL, onboarding de logs, création de règles et dashboards) Solides connaissances en réseaux, systèmes Windows/Linux et mécanismes de sécurité (EDR, SIEM, IDS/IPS) Capacité d’analyse avancée et esprit investigateur Des compétences en scripting (Python, PowerShell) ou en SOAR sont un plus Rigueur, autonomie et capacité à intervenir en environnement critique

Les métiers et les missions en freelance pour Shell

Administrateur·rice système Unix (linux...)

L'Administrateur·rice système Unix (Linux...) utilise les scripts Shell pour automatiser les tâches de gestion des systèmes, comme la configuration, la maintenance et la gestion des serveurs.

Ingénieur·e d'exploitation

L'Ingénieur·e d'exploitation écrit des scripts Shell pour automatiser les processus d'exploitation, surveiller les systèmes et effectuer des tâches de maintenance régulières.

Développeur·euse Python

Le/ La Développeur·euse Python utilise Shell pour gérer des environnements de développement, automatiser des workflows et exécuter des tâches en arrière-plan en complément du développement Python.

Ingénieur·e devops (Cloud)

L'Ingénieur·e devops (Cloud) utilise des scripts Shell pour automatiser la configuration des serveurs, déployer des applications, gérer les environnements cloud et optimiser les processus de développement continu.

18 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Lyon, Auvergne-Rhône-Alpes
0 Km 200 Km

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous