L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 5 275 résultats.
Offre d'emploi
Security Data Engineer - Structuration Logs Cybersecurite
PSSWRD
Publiée le
Cybersécurité
Data Lake
Logstash
1 an
40k-45k €
500-700 €
Issy-les-Moulineaux, Île-de-France
Au sein de la direction cybersécurité d'un grand groupe international du secteur hôtelier, vous interviendrez en tant que Security Data Engineer pour structurer et optimiser l'ensemble de l'écosystème de logs de sécurité. Aujourd'hui, les logs proviennent de multiples sources et outils avec des formats hétérogènes, rendant leur corrélation et leur exploitation difficile. Votre mission sera d'inventorier l'ensemble des sources de logs, de définir une nomenclature unifiée et des pipelines de normalisation, d'organiser le stockage en distinguant le temps réel (SIEM Splunk) du stockage économique pour la conformité, et de proposer une architecture data cible intégrée a la démarche data globale de l'entreprise. Vous serez la personne référente sur la partie data au sein de l'équipe cyber, avec une forte autonomie et un rôle de force de proposition. Vos missions principales : ● Cartographier l'écosystème existant (outils, sources, cas d'usage) et proposer une architecture cible avec roadmap ● Créer un référentiel complet des sources de logs (volume, format, fréquence, qualité, valeur cyber) ● Définir et implémenter une normalisation unifiée des logs (Common Information Model) et les pipelines de transformation ● Optimiser la collecte : réduire le bruit, filtrer, enrichir (CTI, Threat Intelligence) et améliorer la qualité des données ● Collaborer avec les équipes SOC (temps réel), GRC (conformité/reporting) et les équipes data métier de l'entreprise ● Assurer le transfert de compétences et la formation des équipes a l'exploitation des logs et des outils
Mission freelance
Data Analyst
PARTENOR
Publiée le
Dataiku
Google Cloud Platform (GCP)
Gouvernance
1 an
Puteaux, Île-de-France
Notre client réalise une transformation de sa plateforme Data vers la Google Cloud Plateform avec l'adoption de Dataiku en outil de data préparation. Au sein de la direction Intelligence de la donnée, le département Data Management et Business Intelligence a pour objectif de réaliser sa propre transformation et d'accompagner les directions utilisatrices de GCP/Dataiku à exploiter la plateforme dans le cadre défini, de déployer la gouvernance associée et de l'ajuster dans une démarche d'amélioration continue. Nous recherchons un(e) Data analyst pour aider à accompagner cette transformation. Ces travaux mixent des aspects de pilotage, d'accompagnement au changement et de développements BI Data management, Accompagnement au changement, Data-préparation (Dataiku), plateforme GCP.
Offre d'emploi
POT9085 - Un Agile Master Data Sur Plaine Saint Denis
Almatek
Publiée le
Méthode Agile
Saint-Denis, Île-de-France
Almatek recherche pour l'un de ses clients, Un Agile Master Data Sur Plaine Saint Denis. Contexte : Au sein de la direction des technologies, les équipes Data Services ont pour raison d’être de fournir une plateforme et des services data fiables, sécurisés et industrialisés, permettant aux équipes produit et métiers des différentes BU d’exploiter la donnée en toute autonomie. Elles agissent comme un enabler transverse, en séparant clairement les responsabilités (infrastructure, gouvernance, usages) et en mettant à disposition des données de qualité, accessibles et exploitables à l’échelle de l’entreprise. Par leur expertise, elles valorisent la donnée pour soutenir la prise de décision, le pilotage de la performance et l’innovation, au service des enjeux business et stratégiques Activités : Au sein des équipes Data Services, le consultant sera amené à avoir : Un rôle d’agile master au sein d’une équipe pluridisciplinaire œuvrant sur un produit Un rôle d’agile master à l’échelle du domaine Data Fabric ( 30 personnes), A animer les cérémonies et faciliter les ateliers collaboratifs A Mettre en place les artefacts (Indicateurs, Burndown, HealthCheck...), utiles, utilisés et utilisables au suivi de l’efficience du collectif et élaborer le plan d’amélioration continue Identifier les dysfonctionnements et points d’amélioration Analyser proactivement les obstacles, éléments bloquants, interférences extérieures, et de tout ce qui peut détourner le collectif de ses objectifs et le ralentir Alerter sur les éléments bloquants et obstacles qui ne peuvent être traités localement Compétences attendues : Capacité à analyser et à comprendre un système complexe (techniquement, fonctionnellement et organisationnellement). Capacité à résoudre des problématiques. Esprit d’analyse et de synthèse. Organisation. Rigueur. Bonne capacité à travailler en équipe.
Offre d'emploi
Expert Automation / RPA / Data (H/F)
OMICRONE
Publiée le
Automatisation
Data analysis
Python
2 ans
40k-45k €
400-500 €
Île-de-France, France
📢 Mission – Expert Automation / RPA / Data (H/F) Dans le cadre d’un projet d’automatisation à forte valeur ajoutée, nous recherchons un expert en automatisation et traitement de documents pour intervenir sur des sujets innovants mêlant RPA et Data. 🔹 Missions : Conception et développement de solutions d’automatisation Traitement et automatisation de documents (workflows) Optimisation des processus métiers via RPA Contribution à des cas d’usage mêlant data et automatisation 🔹 Stack / Compétences : UiPath, Python, Data Science, automatisation de processus, traitement documentaire 👤 Profil : Senior / Expert 🌍 Anglais professionnel requis ⚠️ Profils basés en France uniquement ❌ Sous-traitance non autorisée
Mission freelance
UI/UX Data Designer (H/F) - IDF + Remote
Mindquest
Publiée le
Databricks
Figma
Microsoft Power BI
3 mois
330-480 €
Roissy-en-France, Île-de-France
Le chantier Cockpit a pour objectif de construire des outils de pilotage afin d'assister dans la prise de décision. Dans ce chantier, le Design System DataViz a été construit avec l'objectif de rendre les informations complexes accessibles et exploitables grâce à une visualisation claire et intuitive. La construction du Design System DataViz est au coeur de la construction des outils de pilotage (chantier Cockpit). Il s'agit de construire un langage commun pour l’ensemble des métiers en standardisant les éléments design et les composants visuels Power BI. Contenu détaillé de la prestation : Vous allez travailler étroitement avec le directeur de projets Design System DataViz, les équipes Data et les métiers. Le but de la prestation consiste à l'accompagnement UX/UI design dans la production DIRECTION DES SYSTEMES D'INFORMATION Le but de la prestation consiste à l'accompagnement UX/UI design dans la production et livraison d'éléments design et graphiques, de composants Power BI dessinés dans le cadre du design system DataViz, de maquettes Power BI. - Comprendre les besoins et les enjeux à piloter - Comprendre les connaissances nécessaires pour le pilotage et la décision - Traduire les besoins/enjeux en conception et en design en s'appuyant sur le design system actuel Par exemple : o Mettre en place les scénarisations des KPI o Mettre en place la hiérarchisation visuelle par typographie et graphique o Mettre en place les filtres interactifs… - Concevoir / produire les éléments de design pour répondre au besoin conception - Produire / enrichir / standardiser le design system - les éléments design pour conception (ex: palette de couleurs contrastées, encadrés et pictogrammes, graphiques enrichis et dessinés…) - Produire / faire évoluer / enrichir / standardiser le design system es composants Power BI pour Dashboard - Maintenir / faire évoluer / produire la bibliothèque design system conception (éléments design) - Maintenir / faire évoluer / produire la bibliothèque design system Power BI (composants PBI dessinés) - Produire les maquettes Power BI Attentes pour la prestation • Conception / réalisation des outils de pilotage pour les différents enjeux / métiers • Réalisation des éléments design • Réalisation des éléments Power BI dessinés • Réalisation des maquettes / reportings PBI dynamiques • Enrichissement et gestion de nos dictionnaires design system • Rédaction des cahiers des charges, spécifications fonctionnelles et techniques nécessaires • Garant de la qualité de réalisation Le(la) consultant(e) va travailler sur les environnements (Figam, PowerBI, Azure, Databricks, SQL, …) co-managé par les équipes Data Factory ainsi que les équipes DCLD (direction client digital). Livrables • Design system – éléments de conception UIUX • Design system – composants Power BI dessiné • Reportings/Maquettes Power BI dynamique • Cahiers des charges / CR / Dictionnaires • Présentation / Documentation Technique • Figma • Power BI / DAX • Cloud Azure • Databricks • SQL • Python, Spark, Scala • Spyder…
Mission freelance
Machine Learning Engineer – MLOps & Plateforme Data/IA
ESENCA
Publiée le
CI/CD
Docker
Google Cloud Platform (GCP)
3 ans
Lille, Hauts-de-France
🎯 Contexte Dans le cadre du développement d’une plateforme Data & IA à l’échelle internationale , un acteur majeur renforce ses équipes afin de structurer et industrialiser ses pratiques MLOps . L’objectif est de faciliter le déploiement, l’exploitation et la scalabilité des modèles de machine learning, tout en garantissant leur intégration fluide au sein des produits digitaux. Vous interviendrez dans un environnement moderne, orienté cloud, automatisation et intelligence artificielle , incluant des cas d’usage avancés autour de l’IA générative. 🧩 Mission En tant que Machine Learning Engineer , vous accompagnez la mise en œuvre et la montée en maturité des pratiques MLOps, depuis la conception jusqu’à la mise en production des modèles. Vous intervenez sur l’ensemble du cycle de vie des applications ML, avec une forte dimension industrialisation, automatisation et performance . 🚀 Responsabilités principales1. Déploiement et exploitation des modèles ML Mettre en production des modèles de machine learning Assurer leur disponibilité, leur performance et leur fiabilité Intégrer les solutions ML dans les produits digitaux 2. Data engineering & pipelines Collecter, nettoyer et structurer les données Concevoir et orchestrer des pipelines de données Garantir la qualité et la gouvernance des données 3. MLOps & automatisation Mettre en place des pipelines CI/CD pour les modèles ML Automatiser les déploiements et les mises à jour Industrialiser les processus de développement et d’exploitation 4. Monitoring & performance Développer des outils de monitoring des modèles (performance, dérive, disponibilité) Mettre en place des indicateurs de suivi Assurer la robustesse et la résilience des solutions 5. Contribution technique & innovation Participer aux choix techniques et d’architecture Contribuer à l’adoption de pratiques avancées (MLOps, LLMOps) Être force de proposition sur les évolutions technologiques 📦 Livrables attendus Pipelines de données et de déploiement industrialisés Modèles ML déployés en production Outils de monitoring et de supervision Documentation technique Amélioration continue des pratiques MLOps 📅 Modalités Démarrage : ASAP Rythme : temps plein Organisation : agile 🎯 Objectif Industrialiser et faire évoluer les pratiques MLOps afin de garantir des solutions ML robustes, scalables et intégrées , au service des produits digitaux et des usages métiers.
Offre d'emploi
Chef de projet Infrastructures IT – Déploiement Réseaux & Serveurs
VADEMI
Publiée le
ITIL
LAN
WIFI
6 mois
Bondoufle, Île-de-France
Au sein de la Direction qui conçoit, met en œuvre et exploite les réseaux, les serveurs pour le groupement , la mission consiste à piloter des projets d'infrastructures IT sur différents sites logistiques du groupement en France, Belgique, Portugal et Pologne. Le prestataire coordonnera le déploiement des réseaux télécom, courants faibles, WAN, LAN, WiFi ainsi que des serveurs locaux (AD, WSUS, bureautique, applications…). En coordination avec les installateurs du câblage, les correspondants informatiques locaux et les équipes Réseaux, Systèmes et Applicatives, il identifiera les actions, établira les chiffrages et plannings puis coordonnera les réalisations jusqu’à la mise en exploitation des sites. Il pratiquera un reporting hebdomadaire sur les différents chantiers suivis. Objectif global : Accompagner Accompagner le déploiement des infrastructures réseaux et serveurs sur les sites logistiques France et International Contrainte forte du projet : Déplacements épisodiques France et international Les livrables sont : Chiffrages projets et plannings Comptes-rendus de réunion et supports de comités projets et pilotage
Mission freelance
REFERENT TECHNIQUE SYSTEMES ET RESEAUX H/F
Cheops Technology
Publiée le
Active Directory
Administration linux
Administration réseaux
3 mois
400-460 €
Villebon-sur-Yvette, Île-de-France
Missions Principales 1. Pilotage de la Scission & Décommissionnement · Identifier et isoler les services critiques de l'entité cédée. · Exécuter le plan de décommissionnement des serveurs et infrastructures obsolètes. · Préparer et réaliser le changement de domaine (Active Directory, GPO). 2. Administration de l'Infrastructure Cible (70 pers.) · Gestion du stockage mutualisé et des protocoles de partage de fichiers ( CIFS ). · Administration et migration des serveurs de fichiers locaux (site de Villebon). · Maintien en condition opérationnelle (MCO) des serveurs infogérés (interface avec les prestataires). · Gestion de la messagerie et des accès distants ( VPN ). 3. Documentation et Transfert de Compétences · Réaliser une cartographie précise du SI de l'entité restante. · Sécuriser l'ensemble des procédures d'administration et les accès critiques (comptes admin, licences, contrats). 4. Support et Evolution · Assurer le support de niveau 2/3 auprès des utilisateurs. · Accompagner le déploiement de nouveaux flux de données (ex: Talend ). PS : Liste non exhaustive
Offre d'emploi
Expert Auditeur Cybersécurité H/F
CONSORT GROUP
Publiée le
Check Point
Fortinet
NIST
55k-59 998 €
Auvergne-Rhône-Alpes, France
Chaque moment compte. Surtout ceux que vous vivez à fond. Bienvenue chez Consort Group. Consort Group, accompagne depuis plus de 30 ans les entreprises dans la valorisation de leurs données et infrastructures. Elle s'appuie sur deux leaders, Consortis et Consortia, et place l’humain et la responsabilité sociétale au cœur de ses valeurs. Expert Auditeur Cybersécurité H/F C’est votre future équipe Fondée en 2012, l'agence Rhône-Alpes rassemble une équipe de 120 collaborateurs. Elle accompagne près d’une vingtaine de clients, allant des grands comptes aux ETI et PME. Elle s’appuie sur un Centre de Services spécialisé dans le stockage et la sauvegarde ainsi que sur un Centre d'Expertise en sécurité. L'agence accorde une importance particulière à un recrutement fondé sur l'humain et la transparence. C’est votre mission Vous êtes passionné·e par la sécurité des systèmes d’information et des infrastructures réseau ? Ce poste est fait pour vous. En tant qu' Expert Auditeur Cybersécurité , vous êtes responsable de l’audit, de l’analyse et de l’optimisation des règles de sécurité de notre écosystème : Côté build : Auditer les règles de firewall existantes (flux entrants/sortants, segmentation réseau, politiques de filtrage) Analyser la conformité des configurations avec les politiques de sécurité et la gouvernance en place Identifier les anomalies, redondances, incohérences et règles obsolètes Évaluer les risques liés aux configurations en place et proposer des axes d’amélioration Définir et formaliser des recommandations pour optimiser la sécurité et la performance des règles Participer à l’amélioration continue des standards et bonnes pratiques de sécurité Contribuer à la documentation des architectures et des règles de filtrage Côté run : Assurer le suivi et la mise à jour des règles de sécurité en fonction des évolutions des besoins Contrôler la conformité continue des configurations firewall Produire des rapports d’audit et de conformité à destination des équipes techniques et du management Collaborer avec les équipes réseau, sécurité et conformité pour le traitement des anomalies Participer aux comités de sécurité et aux échanges autour de la gestion des risques Accompagner les équipes dans la compréhension et l’application des règles de sécurité Contribuer à la gestion des incidents liés aux flux réseau et à la sécurité C’est votre parcours Vous avez au moins 3 à 5 ans d’expérience sur de l'Audit Firewall. Vous aimez analyser, sécuriser et optimiser des infrastructures critiques sans jamais cesser d’innover. Vous cherchez un cadre où vos idées comptent et où la technique va de pair avec la collaboration. C’est votre expertise : Maîtrise des technologies firewall : Palo Alto, Check Point, Fortinet, Cisco ASA Bonne connaissance des concepts réseau et sécurité : NAT, ACL, filtrage stateful, inspection de paquets Compréhension des architectures réseau complexes et des flux inter-applicatifs Connaissance des normes et référentiels de sécurité : ISO 27001, NIST, RGPD Utilisation d’outils d’audit et de reporting de règles firewall Environnement de travail : Linux, écosystèmes réseau sécurisés, collaboration en contexte Agile / DevOps C’est votre manière de faire équipe : Rigueur et sens du détail dans l’analyse des règles et des risques Esprit analytique et capacité à prioriser les enjeux de sécurité Excellentes capacités de communication pour restituer des analyses complexes Esprit collaboratif et aisance dans le travail avec des équipes pluridisciplinaires C’est notre engagement Chez Consort Group, vous êtes un·e expert·e qu’on accompagne pour que chaque mission devienne une étape qui compte. Un onboarding attentif et humain Une vraie proximité managériale Des formations accessibles en continu Des engagements concrets : inclusion, égalité, solidarité Un package RH complet : mutuelle, carte TR, CSE, prévoyance Une culture du feedback et des projets qui font sens C’est clair Le process de recrutement : Un premier échange téléphonique avec notre team recrutement Un entretien RH ainsi qu’un échange métier avec un.e ingénieur.e d’affaires Un test ou un échange technique avec un.e de nos expert.es Un dernier point avec votre futur.e manager ou responsable de mission Et si on se reconnaît : on démarre ensemble C’est bon à savoir Lieu : Lyon Contrat : CDI Salaire : De 55 000€ à 60 000€ (selon expérience) brut annuel Famille métier : cybersécurité Ce que vous ferez ici, vous ne le ferez nulle part ailleurs. Ce moment, c’est le vôtre.
Offre d'emploi
Offre de mission Developpeur Fullstack Sénior equipe MOS sur Maison ALFORT
EterniTech
Publiée le
Angular
Apache Kafka
Copilot
3 mois
Maisons-Alfort, Île-de-France
Je cherche pour un de mes clients un Developpeur Fullstack Sénior equipe MOS sur Maison Alfort Contexte : L’objet de cette consultation est une prestation d’assistance technique pour un développeur Confirmé intervenant sur un périmètre du service de Gestion Assurance Export (GAE) au sein de la Direction des Services Informatiques du client qui mène à bien les projets informatiques. La mission se déroulera au sein des équipes Agiles en charge des applications du SI . Cette prestation d’assistance technique JAVA sera supervisée par le Scrum Master de l’équipe et le responsable du train SAFe TransSquadExpress. La mission s’exercera au sein de l’équipe de projets dédiée à l'Assurance-crédit mais pourra être amenée à évoluer au sein d’autres équipes du même groupe de projets ou sur des sujets complémentaires. Missions : Ci-dessous les principales activités à mener dans le cadre de la mission : • S'assurer que les besoins sont bien couverts dans les engagements du train • S'assurer que les livrables sont dans la cible technique du client • S'assurer de développer dans le cadre du DevSecOps • Promouvoir les pratiques DevSecOps au sein de l'équipe • Prendre en charge les correctifs nécessaires • Assurer la réalisation des tests unitaires et automatisés, des tests End To End • Participer au bon niveau des indicateurs sur l'Excellence opérationnelle de l'application et du périmètre de l'équipe • Participer aux revues des User Stories (US) et aux chiffrages • Corrections des anomalies et suivi de production • S'assurer que les pipelines de déploiement continu sont bien en place et conformes • Automatisation des tests dans le processus de déploiement • Création/correction de pipeline DEVSECOPS, Jenkins file • Utilisation d'outil de supervision d'applications • Participer aux cérémonies du train SAFe • Mettre en pratique l'usage de l'IA générative Compétences métier souhaitables : • La pratique de l'agilité dans une ou plusieurs missions précédentes est obligatoire. • Une formation ou mieux une certification SAFE favorisera la candidature. Liste des technologies : • Langages/Framework: Java v17+ / J2EE / SQL / Spring Boot 3+/ Spring Batch /Spring Data / Angular v14+ • Pratique de Github Copilot est un réel plus • Méthodologie : Agile (Scrum), SAFE • Webservices Rest • Intégration continue : Jenkins, Maven • Déploiement continu : Pipelines CI/CD, DevSecOps • Maîtrise des outils : JIRA (Structure, Big Picture, XRay), Power AMC • Mapping des données : JPA • Base de données : Oracle, PostgreSQL • Concepts à maitriser : Docker / Kubernetes / Kafka • Outils de tests: JUnit, Cucumber, Selenium, Gherkin • Gestion des anomalies et des assistances, Ticketing : ITSM • Gestion de configuration : Git • Pratiques : TDD/BDD • Gestion des appels API
Offre d'emploi
Data Quality / VBA Developer (H/F)
OMICRONE
Publiée le
Microsoft Access
Microsoft Excel
Microsoft Power BI
2 ans
40k-45k €
400 €
Île-de-France, France
📢 Mission – Data Quality / VBA Developer (H/F) Dans le cadre d’un programme de transformation data au sein d’un grand groupe bancaire, nous recherchons un consultant confirmé en VBA / Data Quality pour intervenir sur des sujets de réconciliation de données et automatisation de processus . 🔹 Missions : Maintenance et évolution de scripts VBA (Excel / Access) Pilotage des processus de réconciliation de données Exécution et suivi de bulk data Administration et migration SharePoint Online Suivi des incidents et amélioration des processus 🔹 Environnement technique : VBA, Excel, Access, SQL, PowerShell, SharePoint Online, ServiceNow, Power BI 📍 Localisation : France (présentiel + télétravail) 📅 Démarrage : Avril 2026 👤 Expérience : 3 ans minimum
Offre d'emploi
Développeur Python/ DevOps H/F
CELAD
Publiée le
38k-45k €
Rennes, Bretagne
Envie d’un nouveau challenge... CELAD vous attend ! Nous poursuivons notre développement et recherchons actuellement un(e) Développeur Python/ DevOps H/F pour intervenir chez un de nos clients. Contexte : Vous intervenez au sein d’un environnement technique exigeant autour d’un système d’information stratégique, dédié à la gestion et à la supervision d’infrastructures réseau à grande échelle. Vous intégrez une équipe produit en mode Agile, en collaboration avec des équipes réparties sur plusieurs sites, et participez au développement d’applicatifs critiques dans un écosystème orienté open source et conteneurisation. Votre mission : Au sein d'une équipe projet, vous serez en charge de : - Développer des applications en Python dédiées à la gestion et à la supervision réseau - Participer à la conception technique et à l’évolution des applicatifs - Intégrer et interfacer les solutions avec des équipements réseau - Contribuer à l’industrialisation et à l’automatisation des déploiements - Garantir la performance, la disponibilité et la fiabilité des solutions - Travailler en collaboration avec les équipes produit dans un cadre Agile
Offre d'emploi
TECH LEAD DATA GCP
UCASE CONSULTING
Publiée le
Docker
Google Cloud Platform (GCP)
Python
6 mois
40k-45k €
400-550 €
Paris, France
Je recherche pour un de mes clients un Tech Lead Data : Dans ce cadre, la nouvelle squad data aura la charge de : • La migration et le déploiement en production de traitements de données sur GCP (workflows) • La copie d’historique de données depuis le data warehouse on-prem vers GCP BigQuery • La mise en place d’un orchestrateur pour les traitements de données sur GCP • La mise en place d’une solution de data lineage au niveau colonne de données. • L’automisation de processus de data engineering par l’IA ou une plateforme d’automatisation (e.g. n8n). La composante développement sera importante, jusqu’à 80% du temps et dépendra de la taille de la squad et de la charge de développement. Description de la prestation Missions principales : • Participer aux analyses, études d’impacts et cadrage techniques • Concevoir des solutions en respectant l’architecture data et les bonnes pratiques de développement • Réaliser le développement des data products et assurer la maintenance évolutive et corrective des data products existants • Effectuer des contrôles croisés entre développeurs ou des relectures de code afin d’assurer la qualité des développements réalisés par l’équipe • Rédiger la documentation technique des data products • Apporter une expertise de troisième niveau dans les incidents de production, et si besoin la réalisation de solution de contournements, ou de correctifs de manière à assurer une qualité de fonctionnement optimale • Accompagner les Data Engineers sur les bonnes pratiques, les choix d’architecture et dans leur travail au quotidien • Effectuer les audits et les contrôles des développements réalisés : Sécurité, Maintenabilité, Robustesse et Performance • Reporter l’activité à la Squad et travailler dans une démarche d’efficacité collective Livrables principaux : • Etudes d’impact technique • Faire des propositions techniques • Réaliser du code applicatif à l’état de l’art sur notre Data Platform GCP • Rédiger les documentations techniques liés à ta solution, incluant le modèle de données, les procédures, l’ordonnancements • Schéma de solution des flux, modèle de données • Fournir des chiffrages détaillés des futures réalisations • Relecture de code technique • Rédaction de SFD, STD, Manuel d’installation Compétences techniques : • Langages de programmation : Python, SQL, Scripts Shell • Services de streaming data : Kafka • Services d’ingestion des données : Kafka Connect, SFTP • Services de stockage : GCP BigQuery, Cloud Storage, Kafka, Sharepoint • Processing : Scripts Python, Data Build Tool (DBT), GCP Dataflow • Restitution : Looker (Dashboards, Explores de données), Fichiers de reporting (CSV, Excel) • Outils de collaboration et de CI/CD : GitLab •Utilisation de plateformes pour le développement et le déploiement : Docker, Kubernetes, Kustomize, Helm Charts, Terraform • Testing : Tests avec DBT, Tests de non-régression, collaboration avec la QA. • Outils IA et d’automatisation : Gemini Code Assist, Antigravity, n8n, Gitlab Duo • Manipulation des formats de fichiers : CSV, JSON, Avro, XML Compétences transverses : • Proactivité et prise d’initiative • Autonomie et rigueur • Capacité à communiquer, à travailler en équipe et excellent relationnel • Capacité d’adaptation aux changements • Curiosité, veille technologie sur le data engineering et sur l’AI / ML • Capacité à aborder des problèmes complexes de manière structurée • Aptitude à concevoir des solutions innovantes • Capacité d’écoute, d’analyse et de synthèse • Maitrise de l’agilité
Mission freelance
Architecte Logiciel Senior Python / Django – Automatisation Réseau & Nautobot
Deodis
Publiée le
Kubernetes
1 an
500 €
Île-de-France, France
Nous recherchons un Architecte Logiciel Senior spécialisé en Python afin de rejoindre une équipe internationale dédiée à un projet d’automatisation réseau à fort enjeu. Vous interviendrez au cœur d’une squad composée de développeurs juniors et confirmés ainsi que d’ingénieurs réseaux, avec pour mission de concevoir des architectures logicielles robustes, définir des spécifications techniques précises et accompagner la montée en maturité des pratiques de développement. Vous serez impliqué dans l’analyse de l’existant, la mise en place d’architectures modernes (microservices, APIs, Kubernetes), et la structuration des standards techniques, tout en jouant un rôle clé de leader technique et de référent auprès des équipes, dans un environnement collaboratif et orienté valeur.
Offre d'emploi
Administrateur systèmes et réseaux Azure H/F
FENYX Consult
Publiée le
Azure
Lille, Hauts-de-France
Conception, mise en œuvre et maintenance des Landing Zones Azure, en lien avec notre stratégie FinOps et sécurité cloud. – Administration des environnements IaaS/PaaS Azure (App Services, VMs, networking, bastion, sauvegarde, logs, etc.). – Supervision des abonnements, analyse des coûts. – Pilotage des aspects IAM / RBAC / PIM et application des politiques de sécurité cloud (en collaboration avec la SSI). – Contribution aux projets applicatifs hébergés sur Azure. – Administration secondaire des environnements Microsoft 365 (Power Platform, Entra ID, Exchange Online) en soutien des usages. – Interface technique avec les prestataires cloud, les équipes internes, et les métiers. – Backup LAN/WAN legacy (CISCO, Fortinet).
Offre d'emploi
Administrateur système et réseau Cloud N2
Proxiad
Publiée le
Azure
LAN
3 ans
40k-50k €
400-510 €
Île-de-France, France
Nous recherchons un(e) Administrateur(trice) Systèmes & Réseaux N2, avec une dominante systèmes (80 %) et une appétence pour les sujets réseau (20 %). Le/la candidat(e) devra disposer de connaissances pratiques du Cloud Microsoft Azure et être motivé(e) pour monter en compétences sur cet environnement. Le poste s’inscrit dans un environnement majoritairement Windows (99 %), avec des compétences attendues sur les infrastructures LAN et les équipements de sécurité (firewall), aussi bien en On-Premise que dans le Cloud (Azure). Une première expérience sur les environnements Azure est requise, au-delà des bases sur Entra ID. Les missions seront principalement orientées RUN (activité majoritaire et incompressible), incluant la participation aux astreintes/shifts, le traitement des demandes et incidents, ainsi que la prise en charge de sujets transverses tels que l’obsolescence (MCO) et la sécurité (MCS). En parallèle, le/la candidat(e) contribuera à des projets techniques (BUILD) visant à faire évoluer les infrastructures.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Nouveau volet social dans la déclaration d'impôts sur le revenu
- Passer de micro à SASU avec des factures en attente : comment récupérer son reliquat ARE ?
- Simulateur urssaf pour nouvelle regle avec cipav et EURL introuvable ?
- Offre fictifs et offre non sérieuses
- Retour d'expérience démission-reconversion
- Vue CV
5275 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois