L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 197 résultats.
Offre d'emploi
📩 Data Engineer / DevOps – Data Platform
Gentis Recruitment SAS
Publiée le
Apache Kafka
Apache Spark
AWS Cloud
1 an
Paris, France
Contexte de la mission Dans le cadre du développement d’une Data Marketplace interne , notre client construit une plateforme centralisant l’ensemble du parcours data (discovery, qualité, gouvernance, transformation, monitoring, BI). Déjà déployée auprès de premiers utilisateurs, la plateforme entre dans une phase de scalabilité et d’industrialisation avec un objectif de déploiement à grande échelle (plusieurs milliers d’utilisateurs à l’international). Vous intégrerez une équipe produit data avec des enjeux forts autour de la performance, de la qualité des données et de l’expérience utilisateur. Objectifs & livrables Développement et optimisation de pipelines data complexes Mise en place de process de data quality Contribution à une architecture scalable et modulaire Industrialisation des flux (CI/CD, automatisation) Documentation technique et participation aux choix d’architecture Missions principales Data Engineering Développer et maintenir des pipelines (batch & streaming) Gérer l’ingestion multi-sources (API, bases, streaming) Optimiser les performances (latence, volumétrie, retry) Implémenter des contrôles de qualité et de traçabilité Backend & Architecture Concevoir une architecture data modulaire et scalable Développer des composants réutilisables Garantir la maintenabilité et la qualité du code DevOps & Industrialisation Mise en place de pipelines CI/CD Automatisation des déploiements Gestion des environnements cloud Collaboration Travail étroit avec PO, data engineers et équipes métiers Participation aux rituels agiles et code reviews Stack technique Data Python, Scala Spark Kafka / Kinesis / EventHub Airflow, DBT Cloud AWS (Lambda, Glue, Step Functions, Redshift, DynamoDB) Azure (Functions, CosmosDB) DevOps Docker, Kubernetes CI/CD (GitLab CI, Jenkins, GitHub Actions) Terraform, Ansible Observabilité Prometheus, Grafana, ELK, Datadog
Offre d'emploi
Expert ZABBIX
Taimpel
Publiée le
DevOps
Grafana
Python
2 ans
70k-77k €
650-720 €
Yvelines, France
FICHE DE POSTEAdministrateur Expert Zabbix / Architecte Solution Contexte Au sein du Pôle , vous intégrez le Domaine d’Expertise Automatisation & Observabilité , qui accompagne l’ensemble des entités du groupe dans leurs projets de transformation technologique. Les équipes interviennent sur des environnements critiques à grande échelle dans les domaines : Banque de détail Services de paiement et flux Assurance Infrastructures bancaires L’équipe Observabilité est composée d’environ 60 experts répartis sur plusieurs sites en France et intervient sur des environnements techniques à très forte volumétrie. Dans un contexte de transformation technologique et d’industrialisation des plateformes , nous recherchons un Administrateur Expert Zabbix / Architecte Solution pour renforcer l’équipe. Missions principalesTransformation et BUILD Accompagner les projets de transformation autour de l’Observabilité Contribuer à la rationalisation des solutions de supervision sur les environnements Open, Réseau et natifs Participer à l’évolution et à l’industrialisation des plateformes de monitoring Garantir la cohérence des architectures de supervision Architecture et expertise technique Assurer l’architecture et l’administration avancée de la plateforme Zabbix Garantir l’ opérabilité et la performance de la plateforme Déployer et améliorer les solutions de Monitoring as Code Concevoir et intégrer de nouveaux composants techniques automatisés Automatisation et DevOps Développer et améliorer les mécanismes d’ automatisation des opérations Industrialiser les déploiements et l’administration des composants Contribuer aux pratiques DevOps et d’infrastructure automatisée RUN et support d’expertise Assurer un support d’expertise de niveau 3 Interagir avec l’éditeur et les équipes de support internationales Garantir la stabilité et la qualité de service des plateformes Amélioration continue Participer à la veille technologique Anticiper les évolutions produits avec le Product Owner Contribuer à l’amélioration continue et au contrôle qualité des plateformes Environnement technique Supervision : Zabbix Métrologie / Dashboarding : Grafana, InfluxDB Hypervision : Netcool Operation Insight (NOI) Automatisation / DevOps Monitoring as Code Contexte technique : Environ 50 000 serveurs supervisés Plateformes hautement industrialisées Environnements sécurisés du secteur bancaire Forte exigence de scalabilité, performance et robustesse Profil recherchéExpertise technique Expertise avancée Zabbix (architecture, intégration, corrélation, administration) Expérience dans des environnements de supervision grands comptes Bonne connaissance des solutions de métrologie et monitoring Compétences techniques Zabbix Grafana InfluxDB Solutions de supervision Open Source Automatisation / DevOps Scripting : Python Shell Perl Java Soft skills Curiosité technique Capacité d’analyse Esprit d’innovation Force de proposition Sens du service client Excellent relationnel Langues Anglais professionnel requis.
Mission freelance
Développeur DevSecOps / Python (H/F) - 93
Mindquest
Publiée le
DevSecOps
Python
3 mois
290-400 €
Saint-Denis, Île-de-France
Contexte : Notre client recherche un Développeur DevSecOps et Python confirmé. L’intervenant travaillera sous la supervision du Tech Lead transverse et devra monter en compétences pour en devenir le backup opérationnel. Mission Les missions couvrent deux périmètres : DevSecOps : mise en place de pipelines CI/CD, conteneurisation, identification et résolution de failles de sécurité, monitoring des performances, automatisation des tâches de développement, test et déploiement. Python / Data : élaboration de reportings métiers, parsing de données, alimentation du Datastore DOAAT, réalisation d’IHM métier, MCO des utilitaires Python existants, support Tableau / Power BI, aide à la mise en place d’un modèle de prévision thermique.
Mission freelance
Développeur / Lead IA Générative
HAYS France
Publiée le
IA Générative
LangChain
Python
3 ans
100-420 £GB
Lille, Hauts-de-France
Objectifs de la mission & Livrables attendus🔧 Objectifs Concevoir, développer et optimiser un agent IA génératif dédié au shopping. Intégrer des frameworks agentiques modernes (LangChain, LangGraph…). Structurer et exploiter une base vectorielle pour supporter le RAG. Garantir une mise en production robuste et scalable du système. Superviser la cohérence, la qualité et les performances de l’agent via des outils dédiés (Ragas, MCP, métriques internes…). Accompagner les équipes internes (data, digital, produit) sur les aspects techniques et méthodologiques. 📦 Livrables Audit technique complet (architecture existante, données, risques, opportunités). Recommandations stratégiques et opérationnelles pour le choix des modèles, frameworks et architecture cible. Développement informatique / Data Science : Développement du chatbot agentique Pipelines de données Mise en place du RAG Intégration dans les systèmes Boulanger Documentation technique (architecture, APIs, workflows agentiques, MLOps). Évaluation & tests (via Ragas, MCP ou outils équivalents). Support au déploiement en production et au monitoring post-lancement.
Mission freelance
Senior Business Analyst AML(Cash Management) - Paris
Net technologie
Publiée le
AML (Anti-Money Laundering)
Business Analyst
Cash Management
1 an
Paris, France
Dans le cadre du déploiement mondial d’une solution Anti-Money Laundering (AML/CTF) sur 32 pays (EMEA, APAC, AMER), nous recherchons un Senior Business Analyst orienté Data pour renforcer le programme de transformation au sein de CIB. 🎯 Enjeux : Renforcer la couverture des risques AML/CTF Développer des contrôles & indicateurs data-driven Accompagner la transformation des dispositifs de transaction monitoring 🔎 Missions clés Transformer la donnée en insights à valeur ajoutée Définir KPIs, reporting & cadres de monitoring Traduire les exigences réglementaires en spécifications fonctionnelles & data Améliorer la qualité & la cohérence des données AML Formuler des recommandations d’optimisation Suivre l’implémentation des évolutions IT Reporting régulier auprès du Program Manager
Mission freelance
Generative AI Engineer (H/F) 92
Mindquest
Publiée le
Amazon S3
AWS Cloud
Python
3 mois
La Défense, Île-de-France
Développement IA / Computer Vision: - Concevoir et développer de nouveaux cas d’usage en vision par ordinateur : - Détection de corrosion - Segmentation 2D/3D - Classification d’anomalies - Améliorer les performances et la robustesse des modèles existants MLOps & Industrialisation: - Concevoir et déployer une infrastructure MLOps complète sur AWS - Structurer et automatiser les pipelines de Machine Learning : - Entraînement - Validation - Versioning - Déploiement - Mettre en place le suivi des expérimentations et la gestion des modèles - Définir et appliquer les bonnes pratiques d’industrialisation : - CI/CD - Monitoring des modèles - Gestion des versions Gestion des données: - Gérer et structurer les datasets d’images 2D/3D issus des drones - Contribuer à l’amélioration continue de la qualité des données Collaboration transverse: - Travailler en étroite collaboration avec les équipes techniques et métiers - Assurer la cohérence technique et fonctionnelle des solutions développées
Offre d'emploi
Ingénieur DevOps/Cloud
NAVIGACOM
Publiée le
AWS Cloud
Azure
55k-75k €
Puteaux, Île-de-France
Dans le cadre de notre développement, nous recherchons un Ingénieur DevOps/Cloud pour intervenir sur des environnements complexes et internationaux. Vous intervenez sur l’ensemble de la chaîne de valeur, du build à la production : Concevoir, déployer et maintenir des infrastructures cloud (AWS et/ou Azure) Mettre en place et optimiser des pipelines CI/CD pour automatiser les déploiements Industrialiser les environnements via des approches Infrastructure as Code (IaC) Participer à la containerisation des applications (Docker) et à leur orchestration (Kubernetes) Assurer la supervision, la performance et la disponibilité des systèmes Mettre en place des solutions de monitoring, logging et alerting Travailler sur la sécurisation des environnements cloud (IAM, secrets, bonnes pratiques) Participer à l’amélioration continue des processus DevOps Collaborer avec les équipes de développement pour optimiser les architectures applicatives Intervenir en support sur des incidents critiques en production Documenter les architectures, les pipelines et les procédures
Offre d'emploi
Data Engineer Cloud H/F
FED SAS
Publiée le
55k-65k €
75001, Paris, Île-de-France
Je suis Sheeranaze MEHENTAL, Consultante en recrutement au sein de FED IT, cabinet de recrutement spécialisé sur les métiers des systèmes d'information et de la transformation digitale : infrastructure, chefferie de projet, data, cybersécurité, développement et top management. Je recrute pour mon client basé à Paris, un Data Ingénieur Cloud H/F dans le cadre d'un CDI. Rattaché à la DSI, vous contribuez à la conception, à l'industrialisation et à la fiabilisation de la plateforme data de l'entreprise. Votre rôle est clé pour garantir la disponibilité, la qualité et la sécurisation des données utilisées par les équipes BI, analytics et métiers Vos principales missions : Développement et gestion des pipelines data * Concevoir et maintenir des pipelines d'ingestion et de transformation des données * Contribuer à la structuration et à la performance du Data Lake et du Data Warehouse * Assurer la disponibilité et la fiabilité des flux de données Industrialisation de la plateforme data * Participer à la mise en place de standards de développement et de déploiement * Contribuer à l'automatisation et à l'industrialisation des pipelines data * Garantir la robustesse et la performance des traitements Qualité, sécurité et gouvernance des données * Mettre en place des contrôles de qualité et de traçabilité des données * Contribuer au monitoring et à l'observabilité de la plateforme * Veiller au respect des exigences de sécurité et de conformité (RGPD) Collaboration transverse * Travailler en étroite collaboration avec les équipes BI, Data Analytics et IT * Participer à la documentation et au partage de bonnes pratiques * Contribuer à la structuration et à l'amélioration continue de la Data Factory
Mission freelance
Ingénieur Observabilité & Devops Platform
CHARLI GROUP
Publiée le
Ansible
ELK
Grafana
3 ans
Paris, France
Au sein de la direction IT d'un grand groupe financier international, les équipes Platform Engineering pilotent des services digitaux critiques autour de l'Observabilité, de l'Automatisation et du DataOps. Dans le cadre d'un programme de transformation majeur, l'objectif est de développer une capacité d'observabilité "by design" couvrant l'ensemble des applications et infrastructures métiers. Missions principales Recueil des besoins auprès des équipes applicatives et infrastructure — Conception de solutions de collecte de métriques, logs et traces — Réalisation de POC et MVP sur les solutions d'observabilité pertinentes — Intégration dans l'écosystème existant de monitoring et d'alerting — Développement d'automatisations via pipelines DevOps (déploiement d'agents, gestion de configuration) — Mise en place et maintien de pipelines CI/CD avec tests unitaires selon des standards élevés — Contribution à la définition des standards produit dans le contexte groupe — Onboarding de nouveaux clients internes sur les plateformes. Stack & compétences recherchées Prometheus / Grafana, OpenTelemetry, Datadog / Dynatrace, ELK / Loki, Ansible / Terraform, Kubernetes, CI/CD (Jenkins / GitLab), Python / Go / Shell, APM, pratiques SRE. Secteur financier · Grande entreprise internationale · DSI Globale · Transformation digitale
Offre d'emploi
Administrateur Système & devops
Le Groupe SYD
Publiée le
Administration système
microsoft
35k-45k €
Saint-Herblain, Pays de la Loire
🌟Quel sera ton poste ? 🌟 Rejoins une équipe d’environ 60 personnes basée à Saint-Herblain , qui travaille sur des projets d’intégration majoritairement en SaaS (≈90 %) , avec une part On-Prem (≈10 %) , dans des contextes métiers exigeants et variés. Ton rôle est clé : tu interviens comme référent infrastructure & DevOps , au croisement des équipes de développement, des chefs de projet et des clients. En tant qu’ Administrateur·rice Systèmes & DevOps , tu es un acteur pivot des projets . Tu accompagnes les équipes projet sur les sujets d’infrastructure, d’automatisation et d’architecture, tout en participant à l’amélioration continue de nos pratiques techniques. Tu évolues entre : des missions de routine projet (accompagnement, industrialisation, sécurisation), et des phases de découverte / R&D , pour concevoir les meilleures architectures d’intégration possibles chez nos clients. Tes missions : Architecture & conseil (rôle central) Accompagner les clients dans la définition des architectures d’intégration des solutions Microsoft dans leur SI Être force de proposition sur les choix techniques, Cloud et DevOps auprès de l’équipe SYD Participer aux réflexions d’urbanisation et d’intégration applicative Cette dimension “architecture & conseil” est au cœur du poste. Accompagnement des équipes projet Travailler en étroite collaboration avec les développeurs et chefs de projet Accompagner la livraison du code , l’industrialisation des déploiements et les bonnes pratiques DevOps Superviser et gérer les ressources Azure liées aux projets Contribuer à la supervision des environnements SaaS hébergés sur l’écosystème Microsoft (Azure / Power Platform) Environnements Cloud & On-Prem Intervenir sur des environnements Azure (sécurité, monitoring, optimisation) Participer ponctuellement à des projets On-Prem : installations migrations environnements existants (anciennes versions Dynamics AX / CRM Automatisation & DevOps Concevoir et faire évoluer des pipelines CI/CD (Azure DevOps) Développer des scripts et automatisations (PowerShell) Participer à la standardisation et à l’industrialisation des environnements Expertise & amélioration continue Assurer un support technique de haut niveau d’expertise , en lien avec nos clients et Microsoft Capitaliser via la rédaction de procédures et guides techniques Participer à une veille technologique continue (Azure, DevOps, Cloud Microsoft) Ton environnement technique Tu évolues dans un écosystème Microsoft riche et structuré , qui correspond à l’environnement actuellement utilisé sur nos projets . Il n’est pas attendu que tu maîtrises l’ensemble de ces technologies dès ton arrivée . L’important, c’est d’avoir de bonnes bases, de la curiosité et l’envie de monter en compétence, accompagné par l’équipe. Environnement actuel : Azure (services Cloud, sécurité, monitoring) Azure DevOps (Repos, Pipelines) PowerShell (automatisation, scripting) SQL Server (administration) Power Platform
Offre d'emploi
Ingénieur DevOps Confirmé (H/F) / DevSecOps / Bordeaux
OCSI
Publiée le
Ansible
CI/CD
DevOps
3 ans
40k-55k €
400-550 €
Bordeaux, Nouvelle-Aquitaine
Contexte Dans le cadre de la transformation et de la modernisation de son système d’information, notre client, acteur reconnu dans le secteur de l’assurance, souhaite renforcer les équipes de sa Direction des Systèmes d’Information. L’objectif est d’accélérer la montée en maturité DevOps, d’industrialiser les processus de déploiement et de renforcer la sécurité des environnements applicatifs. Dans ce contexte, nous recherchons un Ingénieur DevOps confirmé afin d’accompagner les équipes techniques dans l’optimisation des infrastructures et des chaînes CI/CD. Missions Au sein des équipes IT, vous interviendrez en collaboration étroite avec les équipes développement, exploitation et architecture . À ce titre, vos principales responsabilités seront : Concevoir, déployer et maintenir des infrastructures fiables et scalables Participer à la mise en place et à l’optimisation des pipelines CI/CD Assurer le maintien en condition opérationnelle de la stack GitLab CI/CD Automatiser les déploiements et l’infrastructure via les outils Infrastructure as Code Mettre en œuvre les bonnes pratiques DevSecOps Mettre en place et optimiser les solutions de monitoring et d’observabilité Participer à l’amélioration continue des processus DevOps Rédiger la documentation technique et accompagner les équipes internes
Mission freelance
Un DevOps Sénior Kafka Kubernetes sur la région parisienne
Almatek
Publiée le
Apache Kafka
Google Cloud Platform (GCP)
Kubernetes
3 mois
Paris, France
Almatek recherche pour l'un de ses clients, Un DevOps Sénior Kafka Kubernetes Data Platform Sur la région parisienne. ENVIRONNEMENT TECHNIQUE ET EXPERTISES NÉCESSAIRES. Maîtriser les technologies GCP (Google Cloud Platform) telles que Google Kubernetes Engine (GKE), Cloud Storage, Cloud SQL et Cloud Monitoring. Maîtriser en profondeur Apache Kafka, de sa confi guration avancée (partitionnement, réplication, compaction) à son exploitation en production, en passant par le tuning des performances, la gestion fi ne des topics et des offsets, la mise en oeuvre de la sécurité (TLS, SASL, ACL) et l’intégration avec des outils de supervision comme Prometheus et Grafana Avoir une solide expérience avec Kubernetes, notamment la création et la gestion de clusters, le déploiement d'applications et la supervision des performances. Être à l'aise avec les concepts DevOps, tels que l'intégration continue (CI) et la livraison continue (CD), et les outils associés. Connaissance des bonnes pratiques de sécurité et de la mise en place de politiques d'accès. Compréhension des concepts de base des bases de données relationnelles. Maîtrise des scripts de scripting (bash, Python, etc.). Esprit d'analyse et d'amélioration continue : Capacité à évaluer le code et ses impacts, ainsi qu'à remettre en question les solutions existantes pour les améliorer. Capacité à travailler de manière autonome et à gérer son temps effi cacement. Excellente communication écrite et orale : Aptitude à produire des livrables et des reportings de haute qualité. Esprit d'équipe : Capacité à collaborer effi cacement avec les membres de l'équipe pour atteindre des objectifs communs. Maîtrise des concepts d’Agilité (Scrum, Sprint Planning, Backlog…). Le/la consultant(e) doit disposer de son propre matériel, adapté aux besoins de la mission : OS & CPU : Windows (Intel Core i7 ou i9, AMD Ryzen 7 ou 9), MacOS (M2 ou supérieur), Linux (AMD Ryzen 7 ou 9) RAM : minimum 16 Go, idéalement 32 Go ou plus Stockage SSD) : minimum de 512 Go, idéalement 1 To ou plus
Mission freelance
Développeur Python Senior / Équipe Architecture
Tenth Revolution Group
Publiée le
.NET
Azure
Python
1 an
500-550 €
Calais, Hauts-de-France
À propos du poste Dans le cadre d’une mission de longue durée, nous recherchons un Développeur Python Confirmé à Senior pour intégrer une équipe d’architecture stratégique. Vous interviendrez sur la conception et le déploiement de solutions d’ Intelligence Artificielle au sein d’un écosystème complexe et hautement sécurisé. Ce poste s'adresse à un profil expert, capable d'évoluer en totale autonomie dans un environnement où la rigueur technique et le respect des normes sont les maîtres-mots. Missions : Concevoir, développer et optimiser des services backend en Python déployés sur Azure ( AKS , Azure SQL ). Contribuer aux choix d’architecture (scalabilité, sécurité, performance, résilience) et produire la documentation associée. Opérer et faire évoluer la CI/CD sous GitHub (GitHub Actions : workflows, environments, secrets, quality gates). Mettre en place et maintenir le monitoring / observabilité avec Grafana (dashboards, alerting, SLO/SLA). Collaborer avec les équipes gérant le legacy .NET (interop, refactor, standardisation des APIs). Travailler avec le frontend (migration Angular → React ) pour garantir des contrats API stables et performants. Contribuer aux exigences de sécurité et de conformité (revues, change/advisory, security-by-design). IA (focus) : identifier, prototyper et industrialiser des use cases IA (intégration de services IA, POCs → prod, bonnes pratiques d’observabilité et de gouvernance). Environnement technique : Langages & runtime : Python (backend), .NET (legacy) Cloud : Azure ( AKS , Azure SQL ) CI/CD : GitHub (GitHub Actions) Observabilité : Grafana Frontend : React (migration depuis Angular) Méthodo : environnements complexes/processés (quality gates, revues, change management)
Mission freelance
Un consultant DevOps (IAM / HashiCorp Vault) à Lyon 7
Almatek
Publiée le
HashiCorp Vault
3 mois
320-500 €
Lyon, Auvergne-Rhône-Alpes
Almatek recherche pour l'un de ses clients, Un consultant DevOps (IAM / HashiCorp Vault) à Lyon 7 Description Missions principales : - Concevoir, automatiser et maintenir des pipelines CI/CD. - Gérer et optimiser les déploiements Kubernetes et les builds des images Docker. - Déployer Keycloak et appliquer les bonnes pratiques de sécurité - Superviser la performance et la disponibilité des systèmes (monitoring, alerting). - Collaborer avec les équipes de développement et d’exploitation Environnement techniques : - Kubernetes - Docker - CI/CD - Hashicorp vault - Ansible (Développer et utiliser les rôles) - IAM : Keycloak (SSO, OIDC, SAML, MFA). - Monitoring : Prometheus, Grafana. - Openstack - AD/LDAP - Infrastructures d’exploitation (réseau, stockage, sauvegarde, supervision…) Compétences relationnelles : Travail en équipe agile Autonomie Avoir une communication technique claire En terme d’expérience : 5 ans et plus
Offre d'emploi
Développeur Senior Fullstack JS
CONCRETIO SERVICES
Publiée le
Full stack
Node.js
40k-56k €
Île-de-France, France
Notre client poursuit son expansion et recrute un Développeur Senior Fullstack JavaScript / TypeScript prêt(e) à prendre en charge des sujets techniques ambitieux au sein d’équipes pluridisciplinaires. 🎯 Vos missions Contribuer activement au développement fullstack : Node.js, React, TypeScript. Prendre en charge les sujets techniques complexes des sprints et débloquer l’équipe. Animer la vie de l’équipe : coordination, priorisation, entraide, partage de pratiques. Garantir la qualité du delivery : code review, stratégie de tests, documentation maintenue. Appliquer et faire respecter les standards d’ingénierie : clean code, sécurité, tests. Participer à l’industrialisation : CI/CD, automatisation, releases maîtrisées, rollback. Assurer la stabilité en production : logs, métriques, traces, root cause analysis. Renforcer la sécurité applicative (OWASP) : authentification, autorisations, durcissement API. Livrer sur le cloud : configuration, secrets, monitoring, bonnes pratiques de déploiement. Utiliser des outils d’IA pour accélérer le delivery (code, tests, doc, investigation) en garantissant confidentialité et rigueur. 🚀 Exemples de projets Éducation : application d’examen client lourd + web (Electron, React Native, Node.js). Énergie : portail DATA avec Power BI embarqué (Node.js Fastify, React, PostgreSQL, Prisma). Médical : app HDS de prise de rendez-vous (Fastify, Next.js, Prisma, Ory Kratos, graph DB).
Mission freelance
INGENIEUR DATA BI EXPERIMENTE
PROPULSE IT
Publiée le
BI
24 mois
250-500 €
Paris, France
Nous recherchons un(e) ingénieur Data BI expérimenté Contexte Au sein d'une Data Factory nous recherchons à renforcer notre équipe avec un Data Engineer expérimenté, une expérience dans le secteur du e-commerce serait apprécié. La Data Factory de notre client joue un rôle central dans l'exploitation et l'optimisation des données pour soutenir les différentes initiatives stratégiques de l'entreprise. Elle se concentre sur la création d'une infrastructure de données robuste, la mise en place de pipelines de données fiables, et l'exploitation de données pour générer des insights à forte valeur ajoutée pour les équipes. Description • Participe à l'analyse du besoin avec la supervision du binôme PO/TechLead et à la conception du modèle de données permettant de répondre aux enjeux. • Utilise l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets • Conçois, développe et maintien les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. • Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale • Identifie et résout les goulots d'étranglement et les problèmes de performances dans les flux de données • Met en place des processus et des contrôles pour garantir la qualité des données • Conçoit et met en œuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. • Réalise la recette technique et participe à animer la recette fonctionnelle avec les utilisateurs et le PO • Rédaction des documents associés au projet (Spécifications Techniques, Cahier de recette Technique, Document d'exploitation) • Être force de proposition sur l'amélioration de la stack Data • Faire le reporting d'avancement des travaux • Support au déploiement • Assure la maintenance corrective ou évolutive • S'assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe Livrables Spécifications Techniques, Cahier de recette Technique, Document d'exploitation Reporting d'avancement des travaux Programme développés
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
197 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois