Trouvez votre prochaine offre d’emploi ou de mission freelance Apache à Lyon

Votre recherche renvoie 20 résultats.
Freelance
CDI

Offre d'emploi
Développeur Apache NiFi (H/F)

Craftman data
Publiée le
Apache NiFi
DevOps
Groovy

9 mois
40k-50k €
400-450 €
Lyon, Auvergne-Rhône-Alpes
Contexte Au sein de l’équipe Run Flux , vous interviendrez sur une plateforme critique de gestion de flux de données reposant sur Apache NiFi (environ 100 instances), dans un environnement cloud hybride (GCP / Azure). Missions principales Administration et gestion de plateformes Apache NiFi (configuration, optimisation, flux complexes) Conception et développement de flux de données critiques Automatisation des déploiements sur environnements IaaS & CaaS Développement de scripts en Groovy pour automatisation avancée Monitoring de la performance, disponibilité et fiabilité des flux Participation à la gestion des incidents et amélioration continue Interventions possibles en HNO (astreintes ponctuelles – environnement 24/7) Environnement technique Data / Flux : Apache NiFi Langages : Groovy, Java, SQL Cloud : GCP, Azure Data : BigQuery, BigTable Bases de données : Oracle, SQL Server, PostgreSQL Outils : GitLab, GitHub Formats : JSON, XML, CSV Profil recherché Expérience minimum de 3 ans sur Apache NiFi Bonne maîtrise de Groovy et scripting Compétences solides en SQL et manipulation de données Expérience en environnements cloud et DevOps Capacité à travailler en autonomie et à résoudre des problématiques complexes Très bon niveau de communication en français Atouts Expérience dans le secteur retail / grande distribution Connaissance des environnements critiques à forte volumétrie Culture DevOps / automatisation Soft skills Esprit d’analyse et force de proposition Rigueur et sens de la qualité Bon relationnel et travail en équipe Orientation amélioration continue
CDI
Freelance
CDD

Offre d'emploi
Développeur Big Data : Python, SQL, Shell, Spark expérimenté

KEONI CONSULTING
Publiée le
JIRA
Python
SQL

18 mois
20k-60k €
100-500 €
Lyon, Auvergne-Rhône-Alpes
Contexte Le client dans le cadre de son activité Big Data, recherche un profil en développement Data, Python, SQL, Shell, Spark (+ de 5 ans d'expérience) pour l’accompagner dans nos actions sur la plateforme Cloudera Hadoop. L'objectif de la mission est de réaliser et maintenir les développements nécessaires à l'alimentation de la plateforme Hadoop, à la mise en place d'extractions et à l'accompagnement des utilisateurs MISSIONS Rattaché au responsable Big Data, le profil aura pour principales missions : - de prendre en charge les évolutions des données à intégrer, reprendre les développements effectués pour l'alimentation du Datalake , de les faire évoluer en fonction des besoins (Stack technique : Hadoop Cloudera, Hive, Impala, Python, Shell, Linux, SQL, VBA, Jupyter) - d'avoir une expertise technique permettant de spécifier techniquement les tâches, fournir les requêtes de référence, effectuer une revue de code, accompagner les potentiels alternants ou stagiaires (une alternante à date) - de mettre en place des extractions à partir de ces données, - d’assurer le support niveau 2, - de faire appliquer les consignes aux utilisateurs, - de garantir la tenue des délais de livraison dans un contexte de production à fortes attentes - de contribuer à garantir la maintenabilité de la plateforme ainsi que ses performances et son exploitabilité Il veillera au respect de l’utilisation des modèles référencés ou à leur évolution en collaboration avec la Direction Technique Informatique et la Gourvernance de la Donnée. Le profil devra posséder des aptitudes et qualités avérées sur sa capacité à communiquer avec diplomatie, à écouter, à s'intégrer et à partager son savoir faire, à documenter ses actions et à accompagner. Dans le même ordre d'idée, quelques attendus : - Développement des traitements d'alimentation, forte capacité à structurer l'activité (JIRA), mise en place et description de processus (guides, accompagnement utilisateurs, …), pilotage opérationnel de certains sujets - Développement d'extractions avec SQL (expert) et scripting Shell avancé pour l'automatisation - Capacité à investiguer et faire du reverse engineering dans une architecture héritée complexe - Optimisation des traitements de la plateforme et ceux des utilisateurs - Capacité à expliquer simplement le sujet, à communiquer vers des interlocuteurs type développeur, bureau d'étude, qualifieur et ""clients"" (Groupes de protection sociale). La connaissance de Power BI et de SAS sont des plus." Livrables attendus Code source documenté Plan de tests / fiches de test Bilan Bordereau de livraison Manuel d’installation Dossier d’exploitation JIRA documentée" Environnement technique - technologique "• Cloudera Hadoop • Hive, impala • Python • SQL • Shell • Spark • VBA • GIT • Jupyter • Linux • JIRA" Compétences techniques Connaisance Cloudera Hadoop, Hive, Impala Développement Python Requêtage SQL Développement Shell Développement Spark (Scala) Utilisation de GIT Agilité (méthodes Kanban et/ou Scrum) Compétence liée à l'environnement Connaissance de l'écosystème de la protection sociale (Retraite Complémentaire idéalement)
Freelance

Mission freelance
Data Engineer Sénior (Hadoop / Python)

Les Filles et les Garçons de la Tech
Publiée le
Apache Spark
Hadoop
Python

12 mois
150-650 €
Lyon, Auvergne-Rhône-Alpes
Au sein du pôle Big Data d'un grand groupe, l'objectif principal de ce poste est de réaliser et de maintenir les développements nécessaires à l'alimentation du Datalake sur une plateforme Cloudera Hadoop, de mettre en place des extractions de données et d'accompagner les utilisateurs. Rattaché(e) au responsable Big Data, vous évoluerez dans un contexte de production à fortes attentes où la tenue des délais de livraison et le pilotage opérationnel sont primordiaux. Vos principales missions seront les suivantes : Développement et intégration : Prendre en charge les évolutions des données à intégrer et reprendre les développements existants pour l'alimentation du Datalake. Vous développerez également des extractions avec un niveau d'expertise en SQL et créerez des scripts Shell avancés pour l'automatisation. Expertise technique et mentorat : Spécifier techniquement les tâches, fournir des requêtes de référence, effectuer des revues de code et accompagner les collaborateurs juniors, stagiaires ou alternants. Support et accompagnement : Assurer le support de niveau 2, faire appliquer les bonnes pratiques et consignes aux utilisateurs, et rédiger la documentation requise (guides, description de processus). Optimisation et maintenance : Garantir la maintenabilité, les performances et l'exploitabilité de la plateforme en respectant l'utilisation des modèles référencés par la Gouvernance de la Donnée. Vous optimiserez les traitements de la plateforme et ceux des utilisateurs, et mènerez des investigations (reverse engineering) dans une architecture héritée complexe
Freelance
CDI

Offre d'emploi
Architecte Applicatif Sénior - Lyon

VISIAN
Publiée le
Apache Kafka
API REST
Java

3 ans
55k-60k €
600 €
Lyon, Auvergne-Rhône-Alpes
Contexte Dans un environnement bancaire en forte transformation technologique, une organisation d’architecture d’environ 50 collaborateurs accompagne la modernisation continue du système d’information. Le SI évolue dans un contexte marqué par : La généralisation des offres Cloud Le déploiement intensif de Kubernetes L’industrialisation des chaînes CI/CD L’essor des architectures API et microservices L’intégration de technologies d’IHM modernes L’évolution permanente d’un SI bancaire hybride , composé de briques historiques et de solutions modernes. La mission consiste à accompagner les équipes de développement dans la conception et l’évolution de solutions applicatives robustes, résilientes et évolutives. Missions Accompagner les équipes produits (squads) dans la conception technique et applicative de leurs solutions Apporter un support d’expertise sur les problématiques applicatives au sein du système d’information Participer aux travaux d’architecture transverse (patterns d’architecture, interactions entre produits, urbanisation applicative) Contribuer à la définition et la formalisation des standards d’architecture Produire les documents d’architecture fonctionnelle et applicative Accompagner les squads dans les phases de conception, développement et stabilisation des solutions Promouvoir les bonnes pratiques en matière de résilience applicative, performance et maintenabilité Environnement technique Java Spring (Core / Boot) Microservices Kubernetes Kafka REST / API Management Architectures événementielles Bases de données relationnelles et NoSQL CI/CD Cloud Conception de solutions intégrant des capacités d’IA générative Design patterns applicatifs Architectures mobiles Compétences techniques Expérience solide en développement Java et architectures applicatives Maîtrise des architectures microservices et API Expérience avec Kubernetes et les architectures conteneurisées Bonne connaissance des architectures événementielles (Kafka ou équivalent) Conception de systèmes résilients et scalables Expérience avec bases de données relationnelles et NoSQL Capacité à concevoir des architectures intégrant des services d’IA générative Compétences humaines Communication et pédagogie avec les équipes techniques Capacité d’analyse et de synthèse Autonomie et proactivité Capacité à travailler dans un environnement collaboratif et agile
Freelance
CDI

Offre d'emploi
Architecte Data

R&S TELECOM
Publiée le
Apache Hive
Cloudera
Hadoop

1 mois
Lyon, Auvergne-Rhône-Alpes
Le profil interviendra pour définir, concevoir et accomagner la construction de l'architecture cible Data. Ses missions principales seront de : Définir l’architecture cible Data : concevoir l’architecture Data cible n, alignée avec la stratégie globale Data et les principes Data‑Centric et définir les patterns d’intégration et les couches fonctionnelles de la future plateforme (ingestion, traitement, stockage, exposition). Concevoir l’architecture de la nouvelle plateforme Data : concevoir l’architecture technique globale de la plateforme, en intégrant l’écosystème existant (Teradata, Hadoop) et la stratégie d’évolution (cloud ou on‑prem, gouvernance, scalabilité). Proposer la trajectoire d’évolution permettant la transition vers la nouvelle plateforme (stratégie de migration, coexistence, phasage). Modélisation des données et harmonisation : concevoir les modèles de données harmonisés (modèle cible, datamarts, vues métiers, glossary). Définir les principes de modélisation à appliquer selon les usages : analytique, opérationnel, data products. Data Products & accompagnement métiers : accompagner les équipes métiers dans la conception et la structuration des data products. Garantir la cohérence des data products avec les modèles de données, les standards d’intégration et l’architecture cible. Définition et formalisation des standards Data : définir les standards d’intégration, de transformation, de stockage et d’exposition des données. Proposer et formaliser les bonnes pratiques autour des outils de l’écosystème (outils d’ingestion, qualité, orchestrateurs, catalogage, gouvernance).
Freelance
CDI

Offre d'emploi
Développeur Java / Spark

VISIAN
Publiée le
Apache Spark
Java

3 ans
37k-41k €
400-500 €
Lyon, Auvergne-Rhône-Alpes
Contexte Nous recherchons un(e) Développeur(se) Spark / Java pour intervenir sur la mise en place d’un socle SIG (Système d’Information Géographique) dédié à la gestion des risques climatiques. Le projet vise à industrialiser des modèles de calcul définis par une direction actuarielle afin d’intégrer et croiser des données géographiques, topographiques, satellites et métier, pour produire des scores de risques climatiques (inondation, sécheresse, tempête, etc.) dans un environnement Google Cloud Platform (GCP). Objectifs de la mission Comprendre et analyser les modèles de calcul définis par les actuaires Participer aux phases de conception de la solution Réaliser les développements en Spark Java, avec des librairies géospatiales Accompagner la montée en compétence sur la mise en œuvre de traitements Spark / Java Déployer les développements dans un environnement Google Cloud Platform Produire la documentation et assurer sa transmission aux parties concernées Anticiper les phases d’exploitation et de maintien en conditions opérationnelles Assurer un reporting régulier sur l’avancement Livrables Solution applicative développée et testée Documentation mise à jour Suivi interne mis à jour Profil recherché +5 ans d’expérience sur Spark & Java Expérience sur des traitements Big Data et pipelines de calcul Connaissance de librairies géospatiales dans Spark (fort plus) Expérience sur une solution équivalente type Apache Beam (plus) Capacité à produire de la documentation claire Autonomie, rigueur, bonne communication Environnement technique Java Apache Spark Librairies géospatiales Google Cloud Platform (GCP) Plus : Apache Beam
CDI

Offre d'emploi
Data Engineer Databricks - Lyon

KOMEET TECHNOLOGIES
Publiée le
Apache Spark
Databricks

45k-55k €
Lyon, Auvergne-Rhône-Alpes
En tant que Data Engineer, vous intervenez sur la conception, le développement et l’optimisation de pipelines de données robustes et scalables. Vous travaillez au cœur des plateformes Data afin de garantir la qualité, la disponibilité et la performance des données utilisées par les équipes métiers, BI et Data Science. Expérience attendue : 3 à 8+ ans en ingénierie Data. Vous correspondez au/à la Data Engineer que nous recherchons si : Vous évoluez efficacement au sein d’équipes agiles et pluridisciplinaires , en collaboration étroite avec les équipes Data, IT et métiers Vous faites preuve d’un fort esprit analytique et d’une grande rigueur Vous êtes autonome , proactif et doté d’un solide sens des responsabilités Vous êtes capable de communiquer clairement avec des interlocuteurs techniques comme non techniques Vous savez prioriser vos tâches , gérer les contraintes et respecter vos engagements Vous disposez d’un bon esprit de synthèse et êtes orienté résultats et valeur métier Vous avez une bonne connaissance des environnements Business Intelligence , Big Data et des architectures Lakehouse Vous avez déjà travaillé sur des plateformes Data modernes (Cloud) Vous maîtrisez SQL comme langage d’interrogation des données et avez des notions de modélisation de données (architecture médaillon, modèle en étoile …) Vous disposez d’un bagage en software engineering , vous permettant d’écrire un code robuste, lisible, maintenable et testable, notamment en Python Vous appliquez les bonnes pratiques de développement : structuration du code, modularité, gestion des dépendances, conventions de nommage Vous êtes sensibilisé aux principes de qualité logicielle (tests unitaires, tests d’intégration, revue de code) Vous êtes à l’aise avec les outils de versioning ( Git ) et les workflows collaboratifs associés Vous savez concevoir des pipelines Data comme de véritables produits logiciels, en tenant compte de la maintenabilité, de l’évolutivité et de l’observabilité
Freelance

Mission freelance
Développeur(euse) Big Data

CAT-AMANIA
Publiée le
Apache Spark
Hadoop
Python

12 mois
400-550 €
Lyon, Auvergne-Rhône-Alpes
Description du poste : Dans le cadre de l'activité Big Data de notre client, nous recherchons un profil en développement Data, Python, SQL, Shell, Spark (+ de 5 ans d'expérience) pour nous accompagner dans nos actions sur notre plateforme Cloudera Hadoop. L'objectif de la prestation est de réaliser et maintenir les développements nécessaires à l'alimentation de la plateforme Hadoop, à la mise en place d'extractions et à l'accompagnement des utilisateurs.
Freelance
CDI
CDD

Offre d'emploi
Développeur  Data Python SQL Shell Spark

KEONI CONSULTING
Publiée le
JIRA
Jupyter Notebook
Python

18 mois
20k-60k €
100-500 €
Lyon, Auvergne-Rhône-Alpes
CONTEXTE : Le client dans le cadre de son activité Big Data, recherche un profil en développement Data, Python, SQL, Shell, Spark (+ de 5 ans d'expérience) pour nous accompagner dans les actions sur la plateforme Cloudera Hadoop. L'objectif de la mission est de réaliser et maintenir les développements nécessaires à l'alimentation de la plateforme Hadoop, à la mise en place d'extractions et à l'accompagnement des utilisateurs MISSIONS Rattaché au responsable Big Data, le profil aura pour principales missions : - de prendre en charge les évolutions des données à intégrer, reprendre les développements effectués pour l'alimentation du Datalake , de les faire évoluer en fonction des besoins (Stack technique : Hadoop Cloudera, Hive, Impala, Python, Shell, Linux, SQL, VBA, Jupyter) - d'avoir une expertise technique permettant de spécifier techniquement les tâches, fournir les requêtes de référence, effectuer une revue de code, accompagner les potentiels alternants ou stagiaires (une alternante à date) - de mettre en place des extractions à partir de ces données, - d’assurer le support niveau 2, - de faire appliquer les consignes aux utilisateurs, - de garantir la tenue des délais de livraison dans un contexte de production à fortes attentes - de contribuer à garantir la maintenabilité de la plateforme ainsi que ses performances et son exploitabilité Il veillera au respect de l’utilisation des modèles référencés ou à leur évolution en collaboration avec la Direction Technique Informatique et la Gourvernance de la Donnée. Le profil devra posséder des aptitudes et qualités avérées sur sa capacité à communiquer avec diplomatie, à écouter, à s'intégrer et à partager son savoir faire, à documenter ses actions et à accompagner. Dans le même ordre d'idée, quelques attendus : - Développement des traitements d'alimentation, forte capacité à structurer l'activité (JIRA), mise en place et description de processus (guides, accompagnement utilisateurs, …), pilotage opérationnel de certains sujets - Développement d'extractions avec SQL (expert) et scripting Shell avancé pour l'automatisation - Capacité à investiguer et faire du reverse engineering dans une architecture héritée complexe - Optimisation des traitements de la plateforme et ceux des utilisateurs Livrables attendus "Code source documenté Plan de tests / fiches de test Bilan Bordereau de livraison Manuel d’installation Dossier d’exploitation JIRA documentée" Environnement technique - technologique "• Cloudera Hadoop • Hive, impala • Python • SQL • Shell • Spark • VBA • GIT • Jupyter • Linux • JIRA" Compétences techniques Connaisance Cloudera Hadoop, Hive, Impala Développement Python Requêtage SQL Développement Shell Développement Spark (Scala) Utilisation de GIT Agilité (méthodes Kanban et/ou Scrum) Compétence liée à l'environnement Connaissance de l'écosystème de la protection sociale
Freelance

Mission freelance
Ingénieur Data Oracle/SQL/Python

CS Group Solutions
Publiée le
Apache Airflow
Oracle
Python

12 mois
380-400 €
Lyon, Auvergne-Rhône-Alpes
Nous recherchons un Ingénieur Data Oracle/SQL/Python Objectif global : Développement Data Engineer Oracle/SQL/Python Contrainte du projet: Contexte Data Les livrables sont: Développement des nouvelles fonctionnalités TU / Spécifications techniques MCO/RUN Compétences techniques: Oracle - Confirmé - Impératif SQL - Confirmé - Impératif Python - Junior - Important Airflow - Junior - Souhaitable Description détaillée: Nous cherchons un data ingénieur ASAP pour une mission longue durée Compétences : ORACLE impératif SQL impératif Python : c’est un plus mais pas obligatoire Expérience : Participation à des projets liés à la Data et aux Bases de données (injection et exposition des données) Bonne compréhension fonctionnelle Utilisation de GIT pour la gestion de version Niveau recherché : Confirmé (surtout Oracle et SQL, ok pour junior/intermédiaire sur Python) Compétences appréciées (Bonus) : Airflow Apache (ordonnanceur de traitements de données en Python) Trino (exposition des données depuis sources multiples en SQL) Méthodologie Agile SAFE & Scrum Outils de gestion de projet : Jira, Confluence Profil orienté Data Ingénieur On ne recherche pas de profil devsecOps, ni de data architecte Activités : Build 80% & MCO/RUN 20% Conditions de travail : Présentiel souhaité : 2 jours par semaine chez le client
Freelance

Mission freelance
Développeur Java expérimenté - Lyon

VISIAN
Publiée le
Apache Kafka
Docker
Java

3 ans
400 €
Lyon, Auvergne-Rhône-Alpes
Dans le cadre du renforcement d’une squad IT dédiée aux outils d’avant-vente Crédit Entreprises , une organisation de premier plan du secteur bancaire recherche un développeur expérimenté pour venir renforcer une équipe déjà en place. La squad intervient sur des applications critiques utilisées par les chargés d’affaires entreprises , couvrant notamment : L’analyse du risque crédit et l’octroi, La négociation commerciale et tarifaire, Les workflows d’échanges entre Front Office et Back Office, La construction et la formalisation des propositions commerciales clients. Le contexte est agile , à forte dimension métier , avec des enjeux de robustesse, de performance et de qualité logicielle. Missions Au sein de la squad, le développeur interviendra sur l’ensemble du cycle de vie des applications : Conception et développement de fonctionnalités Développement backend Java et exposition d’API REST Participation à l’évolution des architectures applicatives Contribution aux choix techniques et aux bonnes pratiques de développement Intégration dans une équipe de développement existante Collaboration étroite avec les autres développeurs et les interlocuteurs fonctionnels Participation aux rituels agiles et à la dynamique collective de l’équipe Environnement technique Langages : Java (8, 11, 17, 21), JavaScript Frameworks : Spring, Spring Boot API : REST Outils & DevOps : Git, Docker, Kubernetes Méthodologie : Agile Informations complémentaires Contexte applicatif métier à forte valeur ajoutée Équipe déjà structurée et en place Mission de renfort avec intégration rapide Environnement technique moderne et évolutif
Freelance

Mission freelance
DevSecOps (H/F)

Insitoo Freelances
Publiée le
Apache Maven
Docker
Jenkins

2 ans
400-600 €
Lyon, Auvergne-Rhône-Alpes
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un DevSecOps (H/F) à Lyon, France. Contexte : Les missions attendues par le DevSecOps (H/F) : Mettre en place et maintenir les chaînes d'intégration et de déploiement continu (CI/CD) Automatiser les tests (unitaires, d’intégration, de non-régression) dans la chaîne CI Gérer les pipelines de build et de déploiement Piloter la gestion des vulnérabilités (détection, remédiation, suivi) Participer à l'élaboration de l'architecture sécurisée du produit avec les experts cybersécurité Promouvoir les bonnes pratiques de développement sécurisé auprès des équipes Automatiser la gestion des infrastructures via des outils IaC Identifier des leviers d'amélioration sur la rapidité, la qualité ou la stabilité des livraisons Terraform, Gitlab, Docker, Jenkins, Maven Sécurité: Checkmarx SAST, Checkmarx SCA, Checkmarx KICS, AWS Inpector, AWS Security Hub AWS (scanner Prowler, TestSSL) Monitoring : CloudWatch, Synthetics, Grafana Certification AWS SysOps Admin Associate / AWS DevOps Professional / AWS Security Specialty / AWS Cloud Practitioner Foundational demandées Profils lyonnais ou périphérie IMPERATIF Fonctionnement 2 jours non consécutifs et 3 jours de télétravail
CDI

Offre d'emploi
Ingénieur DevSecOps

REDLAB
Publiée le
Ansible
Apache
GitLab CI

40k-46k €
Lyon, Auvergne-Rhône-Alpes
Pour notre client, nous recherchons un ingénieur DevSecOps. Au sein d'une équipe de 6 personnes, notre client recherche un Ingénieur DevSecOps orienté Sécurité/PKI * Projet de MCO / RUN sur un produit dans les zones sécurisées, une expérience en exploitation est indispensable. Projets : Mise à plat des gestes d’exploitations (MCO et le MCS du service) en vue de former un infogérant sur tout ou partie des gestes, Finaliser les outils d’exploitation (supervision, exploitation des logs ….), Mise à jour la documentation du service et insertion dans le catalogue de service du client Poursuivre l’automatisation des gestes d’exploitation…
Freelance

Mission freelance
Architecte Data AWS (H/F)

Insitoo Freelances
Publiée le
Apache Kafka
Apache NiFi
Apache Superset

2 ans
550-610 €
Lyon, Auvergne-Rhône-Alpes
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Architecte Data AWS (H/F) à Lyon, France. Contexte : Dans le cadre d’un programme de transformation Data, nous souhaitons consolider son socle data autour d’une architecture cible fiable, évolutive et sécurisée. L’architecte data interviendra en support de l'équipe existante, en assurer la validation technique et fonctionnelle, et mettre en œuvre les mesures de sécurité nécessaires. Les missions attendues par le Architecte Data AWS (H/F) : Sous la responsabilité du responsable de centre d'expertise Data, il aura en charge de : Valider, sécuriser et faire évoluer l’architecture technique de la plateforme Data (Data Lake, Data Mesh, Data Warehouse) en intégrant les exigences de sécurité Garantir la cohérence, la robustesse et la sécurité des flux de données entre les différents systèmes. Accompagner les équipes projets dans le choix et l’implémentation des solutions techniques. Assurer la veille technologique et proposer des améliorations continues. Collaborer avec les architectes, le RSSI, DPO et équipes cybersécurité pour intégrer les contrôles nécessaires. Assurer la traçabilité des décisions et la documentation des choix techniques. Partager sur des solutions et architectures mises en œuvre chez d'autres clients. Assurer la veille technologique et proposer des améliorations continues. Environnement technique : Architecture et modélisation : Conception de modèles de données (relationnels, NoSQL, dimensionnels, etc.). Maîtrise des architectures Data Warehouse, Data Lake et Data Mesh. Base de données : Expertise en systèmes de gestion de bases de données SQL, NoSQL et notamment PostgreSQL, Snowflake, ElasticSearch et DuckDB Cloud Computing : Connaissance approfondie des services de données des fournisseurs Cloud et notamment AWS Langages et technologies : Intégration & Flux : Apache Nifi ; Transport & Temps Réel : Apache Kafka ; Visualisation (BI) & Reporting : Apache Superset Gouvernance Data : Définition des politiques, des standards et des normes pour garantir la qualité, l'intégrité et la gestion du cycle de vie des données. Sécurité : Connaissance des principes de cybersécurité et maîtrise de la réglementation sur la protection des données (notamment le RGPD). Approche Secure by design (chiffrement, gestion des accès, observabilité, supervision).
CDD
Freelance

Offre d'emploi
Ingénieur(e) DevSecOps F/H

CGI
Publiée le
Administration linux
Ansible
Apache

1 an
Lyon, Auvergne-Rhône-Alpes
Vous rejoignez CGI, leader mondial du conseil et des services numériques à Lyon et accompagnez nos clients. A Lyon, nos équipes accompagnent nos clients grands comptes dans la mise en œuvre de leurs projets stratégiques. Nos services couvrent l'ensemble du cycle de production logiciel, de l’amont des projets à la maintenance de solutions dans des domaines variés comme l'énergie, le transport, la pharma, le secteur public, la finance ou les télécommunications. Notre agence abrite également le centre mondial d'excellence de CGI dédié à la digitalisation de la supply chain, offrant ainsi de multiples perspectives d’évolution de carrière. Nous recherchons un Ingénieur DevSecOps confirmé, spécialisé en PKI et maîtrisant les environnements Linux et l’automatisation. Vous interviendrez sur un projet mêlant BUILD et MCO, avec de forts enjeux de sécurité, d’industrialisation et de fiabilité des chaînes de certification au sein d’un environnement critique. Fonctions et responsabilités : Contribuer au BUILD et au MCO d’une plateforme PKI Administration et intégration de solutions PKI / Autorités de Certification (AC) dont EJBCA Automatiser les déploiements, configurations et opérations via Ansible Développer ou maintenir des scripts (Python, Bash) Contribuer à la supervision : tableaux de bord, alerting, exploitation avec Grafana Intervenir sur les environnements virtualisés / cloud interne (OpenStack) Participer au RUN : diagnostics, analyse d’incidents, actions curatives et préventives Maintenir et améliorer les pipelines GitLab CI , la gestion des images et artefacts ( Docker, JFrog ) Administrer / configurer serveurs Apache / Nginx Rédiger la documentation technique et utilisateurs Participer activement aux cérémonies Agiles (daily, sprint planning, review, rétro…) En nous rejoignant, vous bénéficiez notamment des avantages suivants : - Offre complète de formations : techniques, métiers, développement personnel - Qualité de vie au travail : jusqu’à 3 jours de télétravail par semaine, 27 jours de congés payés, RTT, congés ancienneté et enfant malade, programme santé & bien-être - Avantages sociaux : régime d’achats d’actions, participation, PEE, Compte Epargne Temps Et bien d'autres encore ! Qualités requises pour réussir dans ce rôle : Expertise DevSecOps, idéalement orientée PKI Appétence forte ou expérience significative en PKI / AC Très bonne maîtrise Linux Maîtrise Ansible Connaissance Python (scripting) Connaissance OpenStack Connaissance Grafana Connaissance GitLab CI , Docker , JFrog Connaissance Apache / Nginx Aisance dans les environnements d’exploitation (RUN / MCO) Atouts / Compétences appréciées : Expérience en exploitation dans un contexte critique Capacité à rédiger de la documentation claire et structurée Bonne compréhension et pratique des méthodes Agiles CGI est un employeur inclusif et attentif aux candidatures des personnes en situation de handicap, à l’évolution de carrières des hommes et des femmes et au bien-être de nos salariés LGBT+. Notre engagement en faveur de la diversité et de l’inclusion a été reconnu par l’obtention du label recrutement inclusif, décerné par Job in Live, acteur spécialisé dans le recrutement inclusif. Dans un souci d’accessibilité et de clarté, le point médian n’est pas utilisé dans cette annonce. Tous les termes employés se réfèrent aussi bien au genre féminin que masculin.
Freelance
CDI

Offre d'emploi
Business Analyst / Data Analyst

R&S TELECOM
Publiée le
Apache Airflow
Azure Logic Apps
ETL (Extract-transform-load)

1 an
Lyon, Auvergne-Rhône-Alpes
Contexte de la mission : Pour l’un de nos clients, cette mission consistera par l’accompagnement du lancement d’un projet interne stratégique destiné à doter ses équipes commerciales d’un outil de pilotage centralisé axé sur la donnée. Tâches à réaliser : Recueillir et formaliser les besoins métier des équipes Sales / Sales Ops (indicateurs, rapports, cas d’usage). Analyser les sources de données existantes (dont Salesforce) et comprendre le business data model actuel. Concevoir et faire évoluer le modèle de données dans une logique Medallion / Canonical / Shared Data Model. Cadrer et spécifier les pipelines de données (ETL / workflows) avec les outils en place : Fabric Pipeline, dbt, Alteryx, Airflow, LogicApps, PowerAutomate, etc. Définir les règles de transformation et de qualité de données (nettoyage, harmonisation, gestion des doublons, référentiels). Mettre en place et documenter l’historisation et la data lineage de bout en bout (de la source jusqu’aux vues analytiques). Rédiger la documentation fonctionnelle et le dictionnaire de données pour les équipes data et métiers. Jouer le rôle de “go-to person” / référent data pour l’équipe projet, en répondant aux questions et en arbitrant les choix fonctionnels. Accompagner les utilisateurs (explication des KPIs, démonstration des vues, recueil de feedbacks) et proposer des améliorations continues.

Les métiers et les missions en freelance pour Apache

Administrateur·rice système Unix (linux...)

L'administrateur·rice système Unix utilise Apache pour configurer et gérer des serveurs web sous Linux, en assurant la disponibilité et la performance des services web.

Ingénieur·e systèmes & réseaux

L'ingénieur·e systèmes et réseaux administre les serveurs Apache, configure les protocoles de communication, et optimise les performances des sites web et des applications web.

Ingénieur·e d'exploitation

L'ingénieur·e d'exploitation utilise Apache pour déployer et maintenir les serveurs web, supervisant leur performance et leur disponibilité tout en garantissant la sécurité des applications web.

Responsable des infrastructures et de la production

Le / La responsable des infrastructures et de la production supervise l'usage d'Apache pour héberger des applications et sites web, en garantissant la sécurité et la performance de l'infrastructure.

20 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Lyon, Auvergne-Rhône-Alpes
0 Km 200 Km

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous