L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 692 résultats.
Offre d'emploi
DATA ENGINEER PYPARK / DATABRICKS / POWER BI / DATAIKU
Publiée le
Azure
Databricks
Dataiku
3 ans
40k-45k €
400-570 €
Paris, France
Bonjour, Pour le compte de mon client, nous recherchons un data engineer. L’équipe de BUILD (qui gère les données du socle relation client et du socle connaissance client. Cette équipe est en charge de mettre à disposition des données en fraicheur pour deux équipes business. Le Data Ingénieur sera intégré dans une équipe Marketing d’une dizaine de personnes. La ressource doit accompagner la direction dans la réalisation des outils BI et analyses ad hoc pour leur permettre la réalisation de leurs usages. La mission se décompose en deux volets : 1. DIR DATA : Apporter un appui à la capacité à faire de l’équipe BUILD du projet et d’épauler la capacité à faire des métiers sur des montées de versions de leurs produits data métiers. Contexte de migration des projets métiers data basé actuellement sur Synapse vers Unity Catalog (Databricks). 2. DIR MKT : L'objectif de la mission est de permettre à la direction de piloter les offres par la réalisation d'analyse et la construction de tableaux de bord. Les indicateurs mis en visibilité permettront à la direction de suivre l'adoption des offres et services et de prendre les décisions stratégiques. Actiivités du poste : Partie direction Data Participation active à l’appui des équipes métiers lors de la migration vers Unity Catalog / suppression de synapse. Appui aux métiers pour assurer la MCO de leurs produits data métiers Participation active à l’équipe de développement BUILD du projet et aux phases de recette et de validation sur les différentes livraisons des traitements de données en lien avec l’équipe de build projet. - Participation ponctuelle aux analyses d’écarts et à l’identification des causes racines sur des problèmes de qualité et incohérences de données remontées via les clients auprès de la Relation Client, l’équipe RGPD ou par d’autres canaux internes (ex : incohérences sur les dates de naissance, doublons de clients, de segments de voyages, problèmes de référentiels, etc.) - Participation ponctuelle à la construction et évolutions sur des tableaux de bord Power BI en lien avec les besoins de monitoring de la donnée des socles sous responsabilité de la direction Data . Partie Direction MKT : Construction et maintien de tableaux de bord : Élaboration et implémentation de modèles de données optimisés pour les tableaux de bord Construction du tableau de bord Validation de la conformité et de la fiabilité des données présentées dans les tableaux de bord Traitements de données Développement et maintien d’indicateurs Optimisation des performances des traitements de données Interne Automatisation de la chaine de traitements des données depuis le socle Data TGV-IC ou d'autres sources Supervision de la chaine de traitements Réalisation d’analyse Réalisation d'extractions et analyses data ad hoc pour répondre aux besoins spécifiques des métiers Actions de gouvernance de la donnée Catalogage de la donnée : Documentation des dictionnaires de données, du lineage et des produits data business Suivi de la qualité des données Mise en place d’un outil de supervision de la qualité des données Identification des anomalies et investigations
Mission freelance
Tech Lead Data Engineering / Databricks – Mission longue
Publiée le
Management
12 mois
400-660 €
Île-de-France, France
Télétravail partiel
Nous recherchons pour l’un de nos clients grands comptes un Tech Lead spécialisé Data Engineering afin de rejoindre une squad produit au sein d’un environnement moderne et exigeant. 🎯 Objectif de la mission Contribuer au delivery des produits data, piloter les choix techniques, encadrer les bonnes pratiques, et garantir la qualité logicielle au sein d’une équipe pluridisciplinaire (Data Engineers, Data Scientists, Software Engineers…). 🎤 Soft skills Leadership technique + accompagnement d’équipe Communication structurée et vulgarisation technique Rigueur, autonomie et sens du delivery Capacité à interagir avec de multiples parties prenantes
Offre d'emploi
Data Science/Analyse
Publiée le
BigQuery
SQL
1 an
40k-45k €
310-450 €
Île-de-France, France
Télétravail partiel
Data Science/AnalyseContexte La Direction Data, au sein de la Direction du Numérique, a été créée avec la volonté de faire de la Data un levier de croissance des offres numériques. La Direction du Numérique a en effet de forts enjeux de développement des usages numériques de contenus propres ou issus des chaînes d'une grande organisation audiovisuelle. La Direction Data a 3 grandes missions : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l'expérience utilisateurs et mettre à disposition auprès des équipes internes des outils d'aide à la décision et des outils de pilotage. Description du poste L'équipe Data Science recherche une prestation de Data Science Analyse - Edito & Produit. Une expérience de 2 ans est requise pour cette prestation. Déroulement des analyses Être à l'écoute et comprendre les besoins métier Proposer des méthodes et des axes d'analyses pertinents pour y répondre Tirer des enseignements et faire des recommandations en se basant sur les résultats de l'analyse Synthétiser les résultats, les mettre en forme (Excel, Power Point) et les restituer à l'oral aux équipes métier Communiquer régulièrement sur les résultats des analyses réalisées à l'ensemble de la direction Analyses pour enrichir l'animation et la stratégie éditoriales Profiling utilisateurs : par catégories de contenus, programmes, par chaînes, par device… Analyses de parcours : programmes ou catégories recrutants, fidélisants Segmentation des utilisateurs selon leurs préférences de contenus, les moments de consommation… Analyses pour enrichir la stratégie produit Audit des données issues des nouvelles fonctionnalités Analyse de l'usage des fonctionnalités, profiling Analyse de l'impact de nouvelles fonctionnalités sur le comportement utilisateur : recrutement, engagement Analyse des parcours des utilisateurs sur les différentes offres digitales : entrée sur la plateforme, accès aux contenus… Dashboards Être référent sur les dashboards de connaissance utilisateurs Garantir la maintenance et la bonne mise à jour des dashboards existants Ajustement des existants (nouveaux indicateurs, modifications de calculs…) Être force de proposition sur les évolutions des dashboards existants Créer de nouveaux Dashboards : prise de besoin avec le métier, identification des indicateurs pertinents, maquette de visualisation, définition de la structure de la donnée, création du dashboard Power BI Communiquer sur les dashboards, accompagner les équipes métiers dans leur utilisation, mettre en place des démos…
Offre d'emploi
Chef de projet Technique - Data Azure + Databricks + Power BI (H/F)
Publiée le
Azure
Databricks
Microsoft Power BI
1 an
Paris, France
Télétravail partiel
Mission longue durée – Paris / Aix-en-Provence / Lausanne (Suisse) Secteur d’activité : Horlogerie de luxe Missions Pilotage complet du projet : planning, jalons, risques, reporting, animation des comités. Suivi financier : budget, consommés, prévisionnels, arbitrages, revues internes/client. Coordination et validation des livrables techniques et fonctionnels. Leadership technique sur Azure (IAM, architecture cloud), Databricks (pipelines, optimisation, ingestion), Power BI (modélisation, datasets, gouvernance). Gestion du relationnel client multi-acteurs, communication claire, gestion des attentes et décisions. Coordination d’une équipe pluridisciplinaire et diffusion des bonnes pratiques data & cloud . Compétences techniques Maîtrise de Microsoft Azure (Data Lake, Data Factory, SQL/Synapse, DevOps). Expertise Databricks (Spark, optimisation, CI/CD, ingestion/transformation). Très bon niveau Power BI (DAX, modélisation, datasets, gouvernance). Bonne compréhension des architectures data modernes et environnements CI/CD. Compétences gestion & relationnel Méthodologies Agile et cycle en V. Pilotage planning/risques/livrables, gestion budgétaire avancée. Leadership, communication, diplomatie, gestion de situations sensibles. Capacité à décider rapidement et à fédérer une équipe.
Mission freelance
Data Engineer (H/F)
Publiée le
Dataiku
1 an
350 €
Clermont-Ferrand, Auvergne-Rhône-Alpes
Télétravail partiel
📌 Data Engineer (H/F) – Poste basé à Clermont-Ferrand 3 jours de présentiel / 2 jours de télétravail 📢 Pas de portage ni de sous-traitance Nous recherchons un Data Engineer autonome , pour accompagner la transformation data de l’entreprise et soutenir les équipes métier dans leurs analyses, pilotages et initiatives de création de valeur. 🎯 Missions principales Collecter, analyser et exploiter les données pertinentes pour optimiser le pilotage des activités. Accompagner les équipes métier dans le développement, le déploiement et l’opération des solutions data. Concevoir des modèles de données (relationnel, dimensionnel, Data Vault). Développer et optimiser des pipelines ETL/ELT robustes et maintenables. Garantir la qualité et la gouvernance des données (lineage, métadonnées, quality checks…). Participer à l’évolution de l’ architecture data (Data Lakehouse, Data Mesh). Produire des visualisations et analyses accessibles (Power BI). Maintenir le catalogue de datasets à jour. Réaliser les tests selon la stratégie définie. Fournir des kits de formation et accompagner les utilisateurs dans la prise en main des solutions. 📈 Résultats attendus Données pertinentes identifiées, capturées et valorisées. Optimisation du temps, des outils et des ressources liés à la gestion data. Analyses et visualisations lisibles et exploitables par les métiers. Recommandations permettant la création de valeur opérationnelle. Amélioration continue des services et processus grâce aux insights data. Respect des normes éthiques et de gouvernance du groupe. Promotion et documentation des produits data pour faciliter leur maintien dans le temps. 🧠 Compétences requises Data Engineering Modélisation : relationnelle, dimensionnelle, Data Vault Pipelines ETL / ELT Gouvernance : data lineage, qualité, catalogage Architectures data modernes : Data Lakehouse, Data Mesh Langages SQL avancé Python / PySpark avancé Technologies Dataiku Power BI Databricks Azure Data Factory Azure Logic Apps 📍 Conditions Poste basé à Clermont-Ferrand 3 jours de présentiel / 2 jours de télétravail Pas de portage, ni de sous-traitance
Mission freelance
Data Analyst Power BI
Publiée le
Data analysis
Marketing
Microsoft Power BI
2 ans
400-450 €
Lille, Hauts-de-France
Télétravail partiel
La mission consiste à : - Analyser les données clients - Réaliser des analyses ad hoc pour répondre aux besoins des équipes - Mettre en place des tableaux de bord Power BI pour suivre les KPIs - Identifier des opportunités business via des analyses prédictives ou des insights data-driven Compétences demandées : - Expériences significatives en tant que data analyst, avec une spécialisation en marketing (loyalty, CRM, leads, media, generosity, pricing...) - Maitrise de Power BI - Bonne compréhension des enjeux marketing client - Anglais professionnel
Mission freelance
Data Engineer (IA/Géospatial) (H/F)
Publiée le
MLOps
Python
6 mois
300-350 €
Toulouse, Occitanie
Télétravail partiel
Notre client, spécialiste du Traitement et Analyse de données, est à la recherche de son futur Data Engineer (IA/Géospatial) (H/F) pour son site de Toulouse, dans le cadre de son activité. Intégré aux équipes du client, vous devrez : * Développer et industrialiser des pipelines et modèles IA exploitant des données géospatiales et météorologiques, dans un environnement cloud-native. ## Compétences techniques attendues * Données météo & satellites Maîtrise des formats (NetCDF, GeoTIFF, HDF5), outils Python (xarray, rasterio…), prétraitement d’images, expérience Sentinel-1/2 et données météo (ARPEGE, AROME, GFS, ERA5). * Data Engineering Pipelines ETL/ELT scalables, orchestration (Airflow, Prefect, Argo), bases de données (PostgreSQL/PostGIS, MongoDB, Snowflake), optimisation des accès. * MLOps & DevOps Déploiement de modèles (CI/CD, monitoring), outils ML/Cloud (MLflow, SageMaker, Docker, Kubernetes, Terraform), AWS/Azure/GCP. * Développement logiciel Python, frameworks web (FastAPI, Django, Flask), bonnes pratiques (tests, docs, versioning).
Offre d'emploi
Chef de Projet Data (22)
Publiée le
Google Cloud Platform (GCP)
SQL
1 an
40k-45k €
400-800 €
Île-de-France, France
Télétravail partiel
Descriptif du poste La Direction Technique du Numérique mène des projets transverses en étroite collaboration avec les autres directions, notamment la direction Data. La Direction Data, au sein de la Direction du Numérique, a été créée avec la volonté de faire de la Data un levier de croissance des offres numériques. Elle a 3 grandes missions : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l'expérience utilisateur, mettre à disposition auprès des équipes internes des outils de pilotage et d'aide à la décision. Afin d'assurer la coordination de l'ensemble de cas d'usages transverses aux pôles Data. Prestations attendues En interaction avec l'ensemble de la direction data et des directions métiers consommatrices des données (Produit, Editorial, Partenariats, Marketing, Publicité…), la prestation consistera à : Gestion de la coordination intra Data : Assurer la transversalité Data pour les projets transverses entre les pôles (Technique, Intelligence, Management, et Gouvernance) Identification des actions pour chaque équipe Suivi des avancées et remontées des alertes Mise en place la coordination, la documentation, la comitologie projet Remontée au management le suivi de ces sujets transverses Gestion de la coordination inter Data : Point d'entrée pour les principales directions métiers consommatrices des données, et responsabilité de la coordination des différents pôles Data avec les équipes métiers sur leurs besoins (Collecte, tracking, Dashboard, analyses,…) Identification des besoins Représentation de la data dans les instances de coordination projets transverses Suivi des projets en mettant en place la coordination entre les interlocuteurs data et métiers, organisation de la documentation, des ateliers de travail, des réunions de restitution avec les parties prenantes Communication des delivery Data afin d'assurer la promotion des travaux
Mission freelance
Data Analyste énergie flux ETL/ELT : Localisation : Saint-Denis/ko
Publiée le
ETL (Extract-transform-load)
6 mois
400-420 £GB
Saint-Denis, Île-de-France
Télétravail partiel
Data Analyste énergie flux ETL/ELT : Localisation : Saint-Denis Date de début : 05/01/2026 Data Analyst expérimenté , idéalement avec expérience dans : la qualité et fiabilisation des données , les flux ETL/ELT ou intégrations multi-sources, le domaine énergie (ENEDIS/GRDF, compteurs, data énergie bâtimentaire) serait un plus, rédaction d’expressions de besoins, interactions avec DSI, compréhension architectures data. Compétences clés : SQL, ETL/ELT, gouvernance data, structuration et documentation des données, contrôle qualité, architecture fonctionnelle simple. Objectif de la mission Assurer la mise en qualité de la donnée énergétique et mettre en place les flux de data entre les outils internes de gestion de l’énergie (ConsoNG, eVision, Portail de Management de l’Énergie…). Périmètre opérationnel Le consultant interviendra sur : Définition et documentation des nomenclatures de compteurs et sous-compteurs Intégration de nouveaux objets énergétiques dans ConsoNG : → sous-compteurs, panneaux photovoltaïques, IRVE Participation aux programmes Linky (ENEDIS) et Gaspar (GRDF) → fiabilisation des données et échanges avec les distributeurs Mise en place et contrôle des flux inter-outils data Rédaction des expressions de besoins fonctionnels pour la DSI Mise en œuvre de règles de : contrôle d’accès aux données validation des données supervision du cycle de vie des données gestion des versions et historisation Livrables attendus Flux data inter-outils opérationnels Données énergétiques affichées de manière cohérente dans le Portail de Management de l’Énergie Documents fonctionnels et règles de qualité / gouvernance data Profil recherché Data Analyst expérimenté , idéalement avec expérience dans : la qualité et fiabilisation des données , les flux ETL/ELT ou intégrations multi-sources, le domaine énergie (ENEDIS/GRDF, compteurs, data énergie bâtimentaire) serait un plus, rédaction d’expressions de besoins, interactions avec DSI, compréhension architectures data. Compétences clés : SQL, ETL/ELT, gouvernance data, structuration et documentation des données, contrôle qualité, architecture fonctionnelle simple.
Mission freelance
Data Engineer / MLops expérimenté ou sénior Python, Pydantic, PymuPDF/3 jours TT
Publiée le
Machine Learning
Python
6 mois
410-550 £GB
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Data Engineer / MLops expérimenté ou sénior Lyon (2 jours TT) Python, Pydantic, PymuPDF Compétences attendues : Pipeline de données et de machine learning Compétences en programmation (Python, Pydantic, PymuPDF) Compétences sur les services d’IA d’AWS (sagemaker) et des services AWS (StepFunction, Lambda, SQS, CloudWatch, Textract…) Compétences en computer Vision par réseaux de neurones Outils de DevOps et de Cloud Computing (Terraform) Processus CI / CD Outils d’automatisation Méthodologies agiles (Jira, Confluence, Kanban, Scrum…) Connaissance des principaux LLM dont les modèles Gemini Compétences en optimisation sous contraintes et connaissance d’outils comme ORTools Localisation de la mission : Lyon 2 jours de présence sur site Date de démarrage : Début janvier Minimum 3 ans d’expérience Profils expérimentés (3 à 7 ans d’expérience) Profils senior (7 ans et +) Missions : Détection d’opportunités IA/ML et contribution à des preuves de concept (POC) (Identifier et analyser des opportunités IA/ML, concevoir et documenter des POC fonctionnels, puis présenter et évaluer leur valeur métier et robustesse auprès des parties prenantes.) Développement de fonctionnalités de Machine Learning et d'IA (Concevoir et valider l’architecture SI, collaborer avec l’équipe produit pour intégrer des fonctionnalités IA/ML, livrer des incréments industrialisables et contribuer à la documentation technique et produit.) Industrialisation et standardisation des pratiques IA / MLOps (Intégrer et déployer des modèles IA avec des formats standard, optimiser leur performance et coût, assurer le monitoring et les mises à jour, contribuer aux pratiques MLOps et réaliser une veille technologique en ML/IA.)
Mission freelance
Data engineer - Reconstruction modèle tabulaire – SQL / DAX
Publiée le
DAX
SQL
15 jours
Asnières-sur-Seine, Île-de-France
Télétravail partiel
Data engineer - Reconstruction modèle tabulaire – SQL / DAX - 15 JOURS Contexte & objectif de la mission L’entreprise recherche un Data Engineer opérationnel pour intervenir sur un environnement décisionnel existant présentant des problèmes de : redondance de données , manque de fiabilité / véracité , performances insuffisantes dans les rapports et calculs, modèle tabulaire (cube) devenu difficile à maintenir. L’objectif de la mission est de reconstruire le modèle tabulaire , fiabiliser les sources, optimiser les performances et remettre le datamart sur des bases saines. Missions principales Analyser l’existant : tables SQL, flux, relations, modèle tabulaire actuel. Identifier les causes de redondance, d’incohérences et de problèmes de performances. Proposer une modélisation cible optimisée (star schema, normalisation, référentiels). Reconcevoir ou reconstruire le modèle tabulaire (VertiPaq) dans les bonnes pratiques. Reprendre les mesures DAX : fiabilisation, optimisation, documentation. Améliorer la qualité, la cohérence et la fraîcheur des données. Mettre en place les optimisations SQL (indexation, refactor, vues, partitionnement si nécessaire). Documenter les travaux réalisés et transmettre les bonnes pratiques. Livrables attendus Nouveau modèle tabulaire propre, performant et stable Refonte ou nettoyage des tables SQL sources Mesures DAX revues et fiabilisées Optimisations performances (SQL + DAX + modèle) Documentation technique Plan d’amélioration continue si nécessaire Environnement technique MS SQL Server SSAS Tabular / VertiPaq DAX Modélisation BI MS + Visualisation PowerBI Entrepot de données : Talend
Offre d'emploi
Data Engineer - Lyon
Publiée le
Databricks
DBT
Snowflake
50k-60k €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Ton quotidien chez Komeet sera rythmé par : Animation des ateliers afin d’étudier et cadrer les besoins clients Préconisation, conception et mise en œuvre des plateformes Data (datawarehouse, datalake/lakehouse ) Rédaction de dossiers d’architecture et spécifications techniques Mise en œuvre des stratégies d’exploitation de plateformes Data Construction et déploiement des pipelines de données (ETL / ELT) à l’aide de langage de programmation ou d’outils de type Low-Code Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. Tests, validation et documentation des développements Réalisation d'audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP
Mission freelance
Product Owner expérimenté - Bordeaux
Publiée le
Agile Scrum
Application mobile
Front-end
9 mois
400-500 €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
🚀 Mission Freelance – Product Owner Expérimenté (H/F) 📍 Localisation : Bordeaux 🗓️ Démarrage : ASAP 📆 Durée : Mission longue 💼 Expérience : 6 à 7 ans minimum 🎯 Objectif de la mission Prendre le relais d’un PO expérimenté afin de piloter l’évolution d’un CRM interne stratégique , au cœur des enjeux customer-centric du client. Vous travaillerez en binôme avec un PM et interviendrez sur des sujets Front, CRM et potentiellement mobile. 🧩 Vos principales responsabilités • 📱 Piloter la delivery des expériences front proposées aux utilisateurs sur l’application. • 📅 Prioriser, affiner et suivre la roadmap produit en coordination avec le PM. • 🔧 Assurer la gestion du RUN sur les périodes clés pour garantir la continuité opérationnelle. • 🧠 Apporter une vision claire et structurée pour faire évoluer le CRM interne (back-office développé en interne). • 💬 Travailler au quotidien avec les équipes métiers et techniques pour aligner besoins, contraintes et priorités. 📌 Exemples de projets à mener • 🎵 Déploiement d’un Wrap Up type Spotify directement dans l’application. • 🎥 Évolutions du CRM pour intégrer de nouvelles fonctionnalités de paramétrage vidéo .
Mission freelance
Consultant Master Data SAP (Manufacturing & Reporting) – Migration ECC → S/4HANA
Publiée le
CDS Views
Microsoft Power BI
SAP S/4HANA
6 mois
Île-de-France, France
Télétravail partiel
Besoin très urgent – Consultant Master Data SAP (Manufacturing & Reporting) – Migration ECC → S/4HANA Informations générales : • Localisation : 2x3jours/mois à Bourges et le reste en IDF • Démarrage : ASAP • Nationalité : FR obligatoire • Durée : 6 mois renouvelable • Rythme : 3 jours sur site / 2 jours télétravail Contexte de la mission : Dans le cadre du projet de migration du SI SAP, le client recherche un consultant Master Data SAP pour accompagner la transition des données dans l’écosystème ECC → S/4HANA. La mission inclut la préparation, le nettoyage, la transformation et la migration des données, avec un usage intensif des outils LSMW, Mass Update et solutions de Data Cleansing. Le consultant interviendra en étroite collaboration avec les SMEs pour fiabiliser l’ensemble des Master Data Manufacturing et assurer la qualité des données migrées.
Mission freelance
Tech Lead DATABRICKS (Lyon)
Publiée le
Azure Data Factory
Java
1 an
500-650 €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Hello, Pour le compte de l'un de mes clients Lyonnais, je suis à la recherche d'un leader technique. QUALITES RECHERCHEES : • Connaissances avancées fonctionnelles des technologies suivantes : Postgres, PowerBI, Databreaks, Angular/React en mode Cloud et On Primise au possible • Pilotage / Supervision technique haut niveau de l’équipe en fonction des besoins • Expérience significative dans la mise en oeuvre de besoin impliquant plusieurs SI • Force de proposition sur l’amélioration de la surveillance de l’application et sur les évolutions techniques de l’application • Capacité à prendre du recul et à avoir une vision globale sur les technologies utilisées • Capacité à gérer les contraintes de délai et les périodes de stress inhérentes au projet • Expérience dans l’analyse des besoins techniques et dans l’animation d’ateliers techniques • Bonne communication et bonne capacité à s’adapter à ses interlocuteurs • Une expérience dans l'énergie serait un plus
Offre d'emploi
Administrateur Systèmes Linux / DevOps [Mi-Temps / Vrai Full Remote]
Publiée le
Administration linux
Docker
Gitlab
44k-50k €
France
Télétravail 100%
Rattaché·e à la direction technique, vous interviendrez au cœur de l'infrastructure IT, avec un rôle clé dans sa gestion, sa sécurisation et son évolution. À l’interface entre les enjeux systèmes, DevOps et les équipes de développement, vous contribuerez activement à la fiabilité et à la performance des environnements de la société. Votre mission principale consistera à assurer l’administration quotidienne des serveurs Linux : maintenance, mises à jour, supervision et suivi de la sécurité (pare-feu, politiques de protection, certificats). Vous veillerez en permanence à la disponibilité et au bon fonctionnement des services, en mettant en place des outils de monitoring et de dashboarding adaptés. Vous prendrez également en charge la conteneurisation et l’orchestration des applications, en déployant et administrant des environnements Docker ainsi qu’un orchestrateur (Kubernetes, Swarm ou équivalent), dans une logique de haute disponibilité et de résilience. Une part importante de votre rôle portera sur l’automatisation et l’amélioration continue : création de scripts (Bash, Python…), fiabilisation des tâches récurrentes, optimisation des pipelines CI/CD sous GitLab et contribution à l’évolution des processus internes. Vous interviendrez aussi sur des sujets d’infrastructure transverse tels que la gestion des noms de domaine et des DNS, l’administration des services de messagerie, ainsi que la mise en place et le suivi des politiques de sauvegarde et de restauration des données. Enfin, vous travaillerez en étroite collaboration avec les équipes de développement, en apportant votre expertise systèmes et DevOps, tout en assurant un support technique auprès des utilisateurs internes. Environnement technique : Linux (requis), Docker (requis), Kubernetes (souhaité), GitLab (requis), Ansible (souhaité), Réseau (requis), Bash (souhaité), Symfony (souhaité)
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Traitement fiscal des cotisations sociales payées en 2025 sur CA micro-BNC 2024
- La Société de portage avec qui j'ai signé m'impose la soltion MAY
- Utiliser Qonto pour créer la microentreprise
- Compte dédié micro-entreprise
- Service de comptabilité en ligne fiable et réactif pour une succursale de SASU
- Offre propulse IT
2692 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois