L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 4 472 résultats.
Offre d'emploi
Administrateur systèmes Zabbix H/F
CONSORT GROUP
Publiée le
Tassin-la-Demi-Lune
Chaque moment compte. Surtout ceux que vous vivez à fond. Bienvenue chez Consort Group. Consort Group, accompagne depuis plus de 30 ans les entreprises dans la valorisation de leurs données et infrastructures. Elle s'appuie sur deux leaders, Consortis et Consortia, et place l’humain et la responsabilité sociétale au cœur de ses valeurs. Administrateur systèmes Zabbix H/F C’est votre future équipe Fondée en 2012, l'agence Rhône-Alpes rassemble une équipe de 120 collaborateurs. Elle accompagne près d’une vingtaine de clients, allant des grands comptes aux ETI et PME. Elle s’appuie sur un Centre de Services spécialisé dans le stockage et la sauvegarde ainsi que sur un Centre d'Expertise en sécurité. L'agence accorde une importance particulière à un recrutement fondé sur l'humain et la transparence. C’est votre mission Vous êtes passionné·e par l’industrialisation des plateformes de supervision et l’optimisation des processus ? Ce poste est fait pour vous. En tant qu’Ingénieur Supervision / Observabilité, vous êtes responsable de l’industrialisation et du bon fonctionnement des plateformes de supervision de notre écosystème : Côté build : Industrialiser les plateformes de supervision et les processus associés Définir, formaliser et documenter les standards et bonnes pratiques de supervision Mettre en place des outils et scripts d’automatisation (Ansible, Shell, Python) Participer à l’évolution des outils de supervision (Zabbix, AppDynamics) Concevoir et améliorer les dispositifs de collecte et d’analyse des logs (ElasticSearch) Accompagner les équipes dans l’appropriation des plateformes (documentation, onboarding) Animer des ateliers techniques et assurer des transferts de compétences Côté run : Assurer le support méthodologique auprès des équipes utilisatrices des plateformes Gérer l’activité de support (ticketing, priorisation, suivi des incidents) Maintenir en conditions opérationnelles les outils de supervision Superviser les performances applicatives et systèmes Contribuer à l’analyse des incidents et à leur résolution Participer aux tests de performance et de charge (Neoload, JMeter) Garantir la qualité et la fiabilité des dispositifs de supervision C’est votre parcours Vous avez au moins 3 ans d’expérience dans des environnements administrateur exigeants, avec une expérience significative en exploitation et méthodologie de supervision . Vous aimez structurer, industrialiser et transmettre votre savoir sans jamais cesser d’innover. Vous cherchez un cadre où vos idées comptent et où la technique va de pair avec la collaboration. C’est votre expertise : Maîtrise impérative de Zabbix Environnement Linux (maîtrise) et Windows (notions) Automatisation : Ansible, Shell, Python Supervision applicative : AppDynamics Gestion des logs : ElasticSearch Tests de performance : Neoload, JMeter Travail en environnement Agile / DevOps C’est votre manière de faire équipe : Capacité à vulgariser et transmettre des sujets techniques Esprit collaboratif et sens du service (clients internes) Rigueur et sens de la documentation Autonomie et proactivité Esprit d’analyse et résolution de problèmes C’est notre engagement Chez Consort Group, vous êtes un·e expert·e qu’on accompagne pour que chaque mission devienne une étape qui compte. Un onboarding attentif et humain Une vraie proximité managériale Des formations accessibles en continu Des engagements concrets : inclusion, égalité, solidarité Un package RH complet : mutuelle, carte TR, CSE, prévoyance Une culture du feedback et des projets qui font sens C’est clair Le process de recrutement : Un premier échange téléphonique avec notre team recrutement Un entretien RH ainsi qu’un échange métier avec un.e ingénieur.e d’affaires Un test ou un échange technique avec un.e de nos expert.es Un dernier point avec votre futur.e manager ou responsable de mission Et si on se reconnaît : on démarre ensemble C’est bon à savoir Lieu : Lyon Contrat : CDI Télétravail : Hybride Salaire : De 40000 € à 45000 € (selon expérience) brut annuel Famille métier : Systèmes Ce que vous ferez ici, vous ne le ferez nulle part ailleurs. Ce moment, c’est le vôtre.
Offre d'emploi
Data Analyst Microsoft H/F
OBJECTWARE
Publiée le
Data Warehouse
DAX
Microsoft Fabric
1 an
40k-55k €
400-490 €
Bordeaux, Nouvelle-Aquitaine
Nous recherchons un Data Analyst qualifié et orienté métier pour rejoindre notre équipe Data Fabric. Dans ce rôle, vous serez chargé de traduire les besoins métiers internes en spécifications fonctionnelles structurées, modèles analytiques, tableaux de bord pertinents et analyses exploitables, afin de soutenir la prise de décision basée sur la donnée au sein de l'organisation. Responsabilités principales Analyse des besoins métiers et compréhension des données Identifier et analyser les besoins des clients internes et les traduire en cas d'usage analytiques clairs et spécifications de reporting. Collaborer avec les parties prenantes métier pour comprendre les processus, KPI et flux de prise de décision, ainsi que la logique métier derrière les indicateurs demandés. Développer et maintenir une bonne compréhension des modèles de données de la plateforme, des domaines de données de référence (ex. Client, RH, Finance) et des produits de données préparés (curated). Accompagner les responsables de domaines de données et les demandeurs de projets dans la planification des modèles de données et des transformations, en s'assurant de la clarté des définitions avant l'implémentation technique. Valider les définitions des indicateurs et les règles métiers afin de garantir leur cohérence entre les différents domaines et rapports. Développement analytique et visualisation Concevoir, développer et maintenir des tableaux de bord et rapports analytiques avec Power BI. Créer des modèles sémantiques et des mesures alignés avec les définitions métiers et les standards de gouvernance établis. Garantir que les tableaux de bord soient intuitifs, fiables et optimisés en performance. Améliorer en continu les visualisations et structures de reporting en fonction des retours des parties prenantes. Collaboration avec la plateforme Data Travailler étroitement avec les Data Engineers pour s'assurer que les transformations de données répondent à la logique métier et aux besoins de reporting. Fournir des retours sur la qualité des données, l'utilisabilité des modèles et les éventuelles lacunes dans les produits de données. Promouvoir des définitions cohérentes des KPI et de bonnes pratiques de documentation. Accompagner l'onboarding des nouveaux utilisateurs de la plateforme en leur fournissant des orientations sur les datasets disponibles et les capacités de reporting. Contribuer aux pratiques de gouvernance des données en documentant les définitions des indicateurs, la propriété des rapports et les règles d'utilisation.
Offre d'emploi
Tech Lead Data Engineer - Databricks / AWS
VISIAN
Publiée le
Apache Airflow
API
AWS Cloud
3 ans
Paris, France
Le data engineer/Tech Lead intègre une équipe en charge du lakehouse pour le client. De nombreuses challenges techniques sont attendus. Focus sur ses activités : -Contribue à la conception de outils de traitement BigData (Ingestion / Traitement / Analyse) -Cadrage technique des besoins émis par les consommateurs de la plateforme Data -Est garant de la mise en production des traitements au sein de la plateforme -Optimisation du code et de la capacité des VMs mise en œuvre pour chaque traitement -Garantit la disponibilité et l'outillage pour les équipes métier, ainsi qu'aux utilisateurs de la plateforme (data scientists / data analystes / data engineer)
Offre d'emploi
POT9019 - Un Expert GED Mezzoteam sur Val de Fontenay / Gare de Lyon
Almatek
Publiée le
MOA
6 mois
40k-50k €
400-600 €
Fontenay-sous-Bois, Île-de-France
Almatek recherche pour l'un de ses clients, Expert GED Mezzoteam sur Val de Fontenay / Gare de Lyon Notre client recherche un profil expertise / architecture / technique, avec une expérience probante en GED, idéalement sur MEZZOTEAM, une bonne compréhension des environnements cloud et de leur interaction avec les SI locaux, ainsi qu’une appétence fonctionnelle marquée. Des compétences complémentaires en PostgreSQL, DBEAVER, Linux/Shell et scripts Windows sont appréciées Contexte client / Activités : Le besoin de notre client vise à renforcer l’équipe MOE GED avec un expert technique GED / MEZZOTEAM capable d’accompagner le Delivery Lead sur les sujets techniques liés à la GED Projet et à la GED Maintenance. A ce titre, le consultant devra : -Jouer un rôle de référent technique vis-à-vis de l’éditeur MEZZOTEAM, -Préanalyser les besoins remontés par la MOA, -Challenger les devis et solutions proposés par l’éditeur, -Participer aux revues hebdomadaires, -Contribuer au paramétrage, aux interfaces, aux tests, à la gestion des risques et à la documentation. La mission attend aussi une forte dimension AMOE / coordination technique : -gestion des environnements, -r-ecette technique, -analyse d’incidents, -suivi de tickets, -assistance à maîtrise d’ouvrage, -rédaction de spécifications et accompagnement des équipes. Compétences requises : GED, MOE, AMOA
Offre d'emploi
Développeur IA Fullstack (H/F)
CITECH
Publiée le
Chatbot
CI/CD
Copilot
53k-70k €
Orléans, Centre-Val de Loire
🚀 CITECH recrute ! 👌 ✨ Vous souhaitez participer à un projet stratégique et innovant autour de l’IA et de l’AIOps ? Rejoignez une mission à forte valeur ajoutée au sein d’un grand acteur institutionnel, au cœur de sa feuille de route AIOps 2026 . 💡 Nous recherchons un(e) Développeur IA Fullstack (H/F) pour concevoir et déployer les premiers cas d’usage IA (MVP) sur une plateforme dédiée, au service de la performance opérationnelle et de la réduction des incidents IT. 🙌🔽 Vos principales missions : 🔽🙌 Développement Front-end & Expérience Utilisateur 🔸 Concevoir et développer le front-end du portail IA (accès aux assistants, modules de formation, FAQ). 🔸 Créer des interfaces web modernes : portails, widgets chatbot, panels Grafana . IA & Chatbots 🔸 Développer des chatbots basés sur des architectures RAG , avec une gestion fine des droits d’accès et de la sécurité. 🔸 Enrichir une marketplace d’assistants IA préconfigurés . Intégration & Déploiement 🔸 Déployer des agents IA dans l’écosystème Microsoft 365 / Copilot , avec exposition via API . 🔸 Assurer l’intégration technique avec les outils existants : plateforme IA, ITSM, Grafana (Agent AIOps). Projet & Documentation 🔸 Produire les livrables projet (comptes rendus, documentation technique). 🔸 Participer à la communication projet (niveau 3). 🔸 Collaborer étroitement avec un Chef de projet , un Architecte et un Développeur Fullstack .
Mission freelance
Lead DevOps (H/F)
STHREE SAS pour HUXLEY
Publiée le
12 mois
75001, France
Localisation: Paris (2 à 3 jours de télétravail par semaine) Conditions : Freelance ou portage (pas de sous-traitance) et ouvert au CDI Contexte Notre client est un acteur important dans le secteur du paiement. Pour leur département IT, composé d'environ dix personnes (architecte SI, développeurs, experts infra…) je recherche un Lead DevOps expérimenté pour renforcer leur équipe technique passionnée et exigeante. L'environnement est très "geek-friendly" : forte culture technique, volonté de tester, prototyper, documenter et maintenir un code propre. Vous travaillerez au quotidien avec des profils très techniques, dont un management particulièrement sensible aux bonnes pratiques DevOps. Le rôle inclut une grande rigueur, un sens du détail irréprochable, et la capacité à délivrer en autonomie dans un cadre structuré. Objectifs du poste Concevoir, développer et maintenir les plateformes Cloud (principalement GCP) destinées à héberger les solutions internes. Implémenter les meilleures pratiques en matière d'infrastructure, CI/CD, observabilité et sécurité. Optimiser l'usage du Cloud et contribuer à la maîtrise des coûts. Expertise & Leadership technique Être la référence interne sur les sujets GCP, Kubernetes et DevOps pour plusieurs entités. Accompagner et mentorer les membres de l'équipe sur l'ingénierie et les bonnes pratiques. Participer à la définition des architectures, standards techniques et process d'automatisation. Collaboration & Delivery Travailler au quotidien avec les équipes DevOps, AppOps, Développement, Data, IT et Sécurité. Contribuer à la mise en place de solutions robustes, scalables et sécurisées. Produire un reporting clair et synthétique (tickets, documentation, suivi). Stack technique recherchée Must-have Kubernetes (idéalement très solide) CI/CD & IaC : GitHub Actions, GitLab CI, ArgoCD, Terraform, Terragrunt, Ansible Infrastructure as Code : Terraform / Terragrunt Containers : Docker Monitoring : Grafana, Prometheus Langages : Python (gros plus), Shell, Go, Java Dev mindset : un background de développeur (et non purement infra) Databases & Data: PostgreSQL, MySQL, BigQuery, ElasticSearch Cloud & Infra : Linux, GCP (networking, storage, databases, IAM, security), Kubernetes, Cloud Run Monitoring & Ops : Datadog, Grafana, Prometheus, Atlassian Suite (Jira, Confluence, OpsGenie, StatusPage…) IT & Security : JumpCloud, Bitdefender, Bitwarden, Nordpass Anglais courant obligatoire (échanges quotidiens, ticketing en anglais) Nice-to-have GCP (idéalement), mais AWS est totalement acceptable Expérience dans des environnements fintech ou monétique (pas obligatoire) Intérêt fort pour les POCs, les tests, la R&D technique Profil recherché Expérience 10 ans d'expérience minimum en DevOps / SRE. 20 ans serait idéal (ancien senior/lead avec recul et maturité technique). Soft skills Ultra‑rigoureux , attaché au clean code et à la documentation. Très structuré : bullet points Jira, suivi, reporting. Capable de travailler avec des personnes très techniques, "geeks", exigeantes. Capacité à exécuter clairement une demande et rendre compte en fin de journée. À l'aise dans des environnements où l'on attend précision, discipline et respect des conventions techniques.
Offre d'emploi
Product Owner (H/F) – Data / API / Kafka
Proxiad
Publiée le
Apache Kafka
Backlog management
Rédaction des spécifications fonctionnelles
12 mois
40k-45k €
400-500 €
Lille, Hauts-de-France
🌟 Contexte Dans le cadre d’un programme stratégique au sein du groupe ADEO, nous recherchons un Product Owner pour intervenir sur le produit Purchase Price & Profitability , et plus précisément sur le composant “Eco-contributions” . 👉 Objectif : piloter et structurer une solution permettant de gérer les éco-contributions (ex : DEEE) à l’échelle du groupe. 📅 Roadmap : Fin du cadrage business : T1 2026 Lancement des développements : T2 2026 Mise en production : déploiement sur 2 Business Units d’ici fin 2026 🎯 Enjeu majeur : remplacer une partie du legacy et construire un produit à forte valeur métier. 🎯 Votre mission En tant que Product Owner , vous êtes responsable de la vision produit et de la maximisation de la valeur métier. 🧩 Pilotage produit Concevoir et faire évoluer le produit en lien avec les métiers et utilisateurs Définir la vision produit et contribuer à la stratégie (quarter plan / PI planning) Rédiger les documents de cadrage 📊 Gestion du backlog & delivery Construire, alimenter et prioriser le Product Backlog Rédiger les User Stories / Epics (Jira) Définir les priorités en fonction des enjeux métier et techniques Suivre les KPI métier pour mesurer la valeur créée 🤝 Animation & coordination Animer les rituels agiles (sprints, reviews, etc.) Assurer la communication produit (slides d’avancement, reporting) Collaborer étroitement avec les équipes techniques et métiers ✅ Recette & qualité Valider les développements réalisés Organiser les phases de recette métier Garantir la qualité et la non-régression des livrables
Mission freelance
[FBO] Product Owner Data sur des données RH - Saint Denis - 1419
ISUPPLIER
Publiée le
9 mois
300-430 €
Saint-Denis, Île-de-France
Contexte de la mission Product Owner Data dans le cadre du projet DataSmart RH Les données RH sont actuellement exploitées manuellement via Excel, ce qui engendre un risque d'incohérences et une sécurité limitée. Le besoin est de disposer d'une base unique, automatisée, sécurisée et actualisée quotidiennement. Nature de la prestation à effectuer : Il/Elle adressera les actions suivantes : - Designer les alimentations des données (fréquence, groupes de données, mode delta et/ou full, stockage et data préparation) - Réaliser les spécifications détaillées des besoins d’extraction vis-à-vis de ADP et SuccessFactors afin de répondre aux besoins métier et de respecter ceux de l’environnement Data de Generali (pour la création du Data Domain) - Prendre en compte les autres systèmes providers de données (bases mortes et autre système opérationnel de formations, WeLearn/Cornerstone) - Être force de proposition pour la gestion des habilitations sur les données - Participer à la recette des extractions et des imports dans le Data Domain Il/Elle sera sous la responsabilité du manager de l'équipe Pilotage SIRH et travaillera avec l’ensemble des parties-prenantes : - L’équipe métier : Pilotage RH - L’équipe AMOA Pilotage SIRH - L’équipe IT RH - L’équipe IT DATA - Les éditeurs 2. Management de projets product owner Référent de la vision métier au sein des équipes agiles : - Collabore avec les métiers pour élaborer la vision du produit - Partage cette vision avec les équipes de développement agile - Mène une réflexion stratégique préparatoire des versions à venir Priorisation par la valeur du contenu métier : - Identifie les fonctionnalités et exigences attendues - Priorise toutes les users stories au sein du Product Backlog - Maintien le product backlog et cherche en permanence à maximiser la valeur métier pour les utilisateurs Transmission aux équipes agiles pour assurer la compréhension du besoin métier : - Découpe chaque fonctionnalité en user story pouvant être implantée en une seule itération - Définit les critères d'acceptation indispensables à sa bonne compréhension par les équipes agiles - Intègre et suit la prise en compte des exigences non fonctionnelles (ENF : accessibilité, sécurité IT, RGPD, RSE...) dès l'étape de conception - Contribue aux réunions agiles avec les équipes de développement et le Scrum Master Recette des éléments métiers produits par l'équipe agile : - Réalise ou organise le déroulement des tests utilisateurs - Récolte les feedbacks des utilisateurs pour les équipes de développement Objectifs et livrables Indispensables • Expertise dans la création de Datalake RH • Connaissance des outils de l’environnement technique Generali Data, spécifiquement Snowflake, Dataiku et PowerBI • Connaissance du modèle de données standard ADP •
Offre d'emploi
Développeur Python / IA
CAT-AMANIA
Publiée le
Agent IA
DevOps
Python
40k-60k €
Levallois-Perret, Île-de-France
AI Delivery accompagne les métiers et les pays dans leurs projets de Data science, depuis la génération de use case jusqu’à la mise en production. Notre équipe, dynamique et internationale, au profil « start-up » intégrée à un grand groupe, regroupe des profils de Data scientist experts en Machine Learning (computer vision, NLP, scoring), un pôle ML engineering capable d'accompagner les DataScientists lors de l'industrialisation des modèles développés (jusqu'à la mise en production) ainsi qu’une équipe AI Projects. AI Delivery met aussi à disposition des lignes de métiers Personal Finance la plateforme de Datascience « Sparrow », qui comporte * une plateforme d'exploration et de développement Python, Sparrow Studio, développée in-house par une équipe dédiée * un framework d'industrialisation des modèles de Datascience, Sparrow Flow, ainsi qu'une librairie InnerSource “pyPF” facilitant les développements des Data Scientist. * une plateforme d'exécution des modèles de Datascience, Sparrow Serving * et un outil de Community Management, Sparrow Academy L’équipe Technical Office, composée principalement de MLOps Engineers, a pour principale mission d’être garante de la qualité des livrables de l’ensemble de la direction, de les déployer sur le cloud privé du Groupe, « dCloud » et enfin d’assurer la haute disponibilité de l’ensemble de nos assets. Cette équipe conçoit, développe et maintient des plateformes et des frameworks de data science. PF fait appel a une prestation en AT pour assurer l’évolution et la haute disponibilité de l'ensemble de nos assets. Le prestataire aura la charge de la disponibilité et de la stabilité de nos différentes plateformes data avec un focus particulier sur notre asset Sparrow. Le prestataire intègrera l’équipe du Technical Office. DevOps, MLOps, Data Science, Cloud sont les moteurs de son quotidien. Les sujets traités par l’équipe sont variés : • Participer à la maintenance/l’évolution des frameworks de data science existants (Python) ; • Participer à la maintenance/l’évolution des pipelines de CI/CD (Gitlab CI, GitOps) ; • Participer à la maintenance/l’évolution de l’Observabilité des plateformes (logging, monitoring, traçabilité) ; • Participer à la mise en production des outils et des solutions IA déployées sur la plateforme ; • Être force de proposition et participer aux POCs. Stack Technique de l’équipe : • Langages : Python, Golang, Bash • GNU/Linux • Kubernetes • DevOps tooling : Docker, Buildkit, Gitlab, GitlabCI, Artifactory, ArgoCD, Helm, Kustomize • Cloud services : Certmanager, Redis, Grafana, Jaeger, Prometheus, ELK, MinIO, Postgres Pre requis : • Expérience dans la prestation en python ; • Maîtrise de GitLab et des processus de CI/CD ; • Bonnes connaissances des infrastructures Cloud (système distribué et Object Storage) ; • Connaissance en machine learning et data science ; • Très bonnes connaissances en Intelligence Artificielle ; • Connaissances en Kubernetes sont un plus ; • Orienté clients, capacité à collaborer et communiquer à l’oral et à l’écrit ; • Niveau d’anglais correct à l’écrit et à l’oral ; • Méthodique et autonome • Intéressé par le monde open source
Offre d'emploi
Ingénieur d’étude Microsoft BI Senior (H/F) – Expert MSBI
Amontech
Publiée le
MSBI
1 an
50k-55k €
500-550 €
Paris, France
📌 Contexte de la mission Dans le cadre de la poursuite de la mise en place et de l’évolution d’une plateforme décisionnelle au sein d’un grand environnement du secteur financier, nous recherchons un Ingénieur d’étude Microsoft BI senior . Vous interviendrez au sein de l’équipe BI (MOE E&D) et participera au développement ainsi qu’à la maintenance évolutive et corrective du système décisionnel . L’objectif est de contribuer au maintien en condition opérationnelle et de sécurité des solutions BI , tout en répondant aux besoins d’évolution du système de reporting. 🎯 Missions principales Vous aurez notamment en charge : Participer à la formalisation des spécifications fonctionnelles Analyser les besoins et identifier les impacts sur l’existant Proposer des solutions et participer à la modélisation Contribuer aux choix d’architecture technique (DWH / infra / architecture) Participer à la définition du planning et du plan de charge Rédiger les spécifications techniques Développer les nouvelles demandes (données, cubes, rapports…) Rédiger les documents d’exploitation et consignes de pilotage Accompagner les phases de recette, homologation et mise en production Assurer le support de production (niveau 2 / 3) et la maintenance corrective Assurer le suivi et le reporting auprès du responsable MOE Accompagner les équipes support et métiers
Offre d'emploi
Data Engineer GCP
KLETA
Publiée le
BigQuery
Google Cloud Platform (GCP)
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Data Engineer GCP pour concevoir, optimiser et industrialiser des plateformes data cloud natives sur Google Cloud. Vous analyserez des architectures existantes, proposerez des trajectoires d’évolution (refonte des pipelines, migration vers des traitements serverless, optimisation des modèles analytiques) et guiderez leur mise en œuvre avec BigQuery, Dataflow, Pub/Sub et Cloud Storage. Vous serez responsable de la conception et de la fiabilisation des pipelines d’ingestion et de transformation, de l’amélioration des performances et de l’intégration de mécanismes d’observabilité et de qualité des données. Vous travaillerez main dans la main avec les équipes Cloud et DevOps pour intégrer les traitements dans des pipelines CI/CD robustes et adaptés aux contraintes d’exploitation. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes client sur les meilleures pratiques de data engineering cloud native et d’usage avancé de GCP. Votre mission combinera expertise technique, rigueur méthodologique et capacité à structurer des solutions scalables et pérennes.
Mission freelance
SAP Tech Lead BTP / Integration & Data Conversion
Intuition IT Solutions Ltd.
Publiée le
SAP ABAP
SAP S/4HANA
2 ans
Versailles, Île-de-France
Nous recherchons un SAP Tech Lead BTP / Integration & Data Conversion pour une mission de très longue durée dans le cadre d'une implémentation SAP S/4 Hana Cloud. Vous participerez à toutes les étapes du projet. Vous devez être capable de piloter techniquement les projets d'intégration et de conversion de données, tout en contribuant à la mise en œuvre de solutions autour de SAP BTP, des APIs et des flux entre SAP, Legacy Systems et les différents systèmes. Mission: Gérer techniquement le travail autour de SAP BTP, Integration Suite, APIs et l'interfaçage avec les systèmes legacy. • Définir et sécuriser les solutions d'intégration : APIs, événements, fichiers, middleware et sécurité des échanges. • Superviser les activités de conversion de données : mappage source/cible, règles de transformation, qualité, reprises et basculement. • Contribuer à la mise en œuvre de sujets critiques et soutenir les équipes projet sur les normes techniques. • Produire des recommandations de gouvernance d'architecture et de développement en ligne avec les principes Clean Core. Livrables: • Dossier d'intégration technique/cadre de données. • Mappage d'interface et stratégie API/BTP. • Documents de conception technique détaillée sur les flux et conversions critiques. • Stratégie et plan de conversion de données avec mappage, règles de transformation et séquencement. • Support pour les tests d'intégration, les cycles de validation et le basculement. • Documentation et transfert de connaissances aux équipes internes.
Mission freelance
DATA MESH PLATFORM MANAGER
Codezys
Publiée le
Azure
Cloud
Data governance
12 mois
Courbevoie, Île-de-France
Contexte de la mission Le Groupe met en place une Self-Service Data Platform basée sur les principes du Data Mesh , appelée Group Data Platform (GDP) . La mission vise à concevoir, construire, déployer et exploiter cette plateforme à l’échelle de l’entreprise. Le Data Mesh Platform Manager sera responsable de la mise en œuvre, de l’adoption et du pilotage de la plateforme dans un environnement multi-cloud (AWS/Azure) et hybride, incluant des systèmes on-premise. Objectifs et livrables Construction et delivery de la plateforme Data Mesh : conception de l’architecture, définition des capacités, standards techniques, garantissant scalabilité, performance et sécurité. Livrables : ADR, architecture de référence, roadmap, standards techniques. Architecture cloud et hybride : conception, pilotage des déploiements sur AWS et Azure, intégration des systèmes on-premise, automatisation via Infrastructure as Code. Livrables : blueprint, framework de sécurité, conformité. Delivery et pilotage : gestion du cycle de deliverables, priorisation, suivi de la performance et gestion des incidents. Livrables : roadmap, plan de release, indicateurs de fiabilité. Déploiement dans les domaines métiers : accompagnement des équipes, création de data products, onboarding, résolution des problématiques d’adoption. Livrables : frameworks d’onboarding, playbooks, KPI d’usage, supports de formation. Product management et évolution : recueil des besoins, définition de la vision, mesure de la valeur, améliorations continues. Livrables : vision produit, KPI, feedbacks, roadmap d’évolution. Gouvernance et documentation : documentation des capacités, conformité avec la Data Governance fédérée. Livrables : référentiel, standards, frameworks, playbooks. Communication et reporting : suivi de l’avancement, reporting aux gouvernances, alignement des parties prenantes. Livrables : dashboards, présentations, suivi des décisions. Promotion et évangélisation interne : valorisation de la plateforme, développement de la communauté. Livrables : supports de communication, stratégies d’adoption, démonstrations, cas d’usage.
Offre d'emploi
Data Analyst Sénior Montpellier
Deodis
Publiée le
Data analysis
36 mois
51k-57k €
420-520 €
Montpellier, Occitanie
Mission à Montpellier, télétravail 2 jours / semaine Taches principales - activités BI Collaborer étroitement avec les Business Analystes afin d’identifier les besoins Data du métier grâce à des ateliers d’affinage Collecter et exploiter les données pour les restituer sous forme d’indicateurs ou de Tableaux de bord, et ainsi contribuer et conduire les analyses Data mises en lien avec les problématiques métiers Présenter les résultats aux équipes métiers Véhiculer auprès des métiers le cadre de gouvernance Data (Data Management, Data Privacy…) de l’entreprise, en portant les messages et expertises autour du Digital Contribuer à l’évolution des pratiques du Chapitre dans une logique d’amélioration continue 🎯 Evolutions des activités en temps 2 – activités data digital (tracking et data analyse associée) : Identifier, avec les Squads métiers, les besoins de tracking dans des ateliers d’affinage Réaliser les spécifications et recettes du tracking Collecter et extraire les données nécessaires à l’analyse Construire des tableaux de bord Restituer le plan de marquage déployé dans un livrable au format prédéfini pour les caisses régionales. Présenter le rendu aux squads métiers Contexte Intervention pour le compte du Chapitre Data à Montpellier : Le Chapitre Data intervient en transverse au sein de l'entreprise. Il recueille et fabrique les cas d'usages Data des différentes Squads de l'entreprise, sur des domaines métiers différents. Vous serez ainsi amené à travailler pour le compte de différentes Squads avec des interlocuteurs possiblement changeants. Vous serez également amené à échanger avec les autres membres du Chapitre du site de Montpellier mais aussi ceux des autres sites France. Attendu En tant qu’intervenant externe sur le poste de data analyst, vous interviendrez spécifiquement sur : • Fabrication de Tableaux de Bord via Microstrategy (sur des activités BI) • Calcul d’indicateurs via script SQL sur environnement Teradata (sur des activités BI) et intégration dans des pipelines de restitution normées ⚠️ Soft skills indispensables du fait du positionnement Chapitre : Autonome, Adaptable, Bonne communication / Pédagogue, Sait challenger les besoins / Prise de Lead Il sera également demandé à l’intervenant/e externe d'intervenir sur les activités Digital en lien avec la Données pour garantir la réussite du Pilotage des Parcours web : • Mise en œuvre du Tracking sur les parcours utilisateurs et Fabrication de Tableaux de Bord pour restituer les données aux métier (sur des activités Parcours Digitaux) - Logiciel et solutions analytiques : Tag Commander, Piano Analytics, Cosmo Survey • Conduite des analyses marketing sur la base du tracking déployé et force de proposition sur les possibles optimisations lors de ces analyses.
Mission freelance
Expert Nexthink - Nantes ou Paris/o
WorldWide People
Publiée le
Administration système
12 mois
400-540 €
Paris, France
Expert Nexthink Infinity - Nantes ou Paris A pourvoir : ASAP Séniorité : Expert TJM : Nantes : 450 ou Paris 540 Localisation : France (prévoir des déplacements en début de prestation sur Nantes pour la prise de connaissance du contexte client) Durée : 6 mois Nexthink Infinity (administraƟon, Requêtage NQL, Remote AcƟons, Campaigns) Confirmé Obligatoire Nexthink Infinity – IntégraƟons & connecteurs Intermédiaire Obligatoire Environnement Windows Client et Serveur Intermédiaire Obligatoire ScripƟng (PowerShell) Intermédiaire Souhaité Concepts ITSM (gesƟon d'incidents, CMDB) NoƟons Souhaité Environnements Citrix – VDI NoƟons Apprécié Atouts nécessaires à la prestaƟon : 3/3- Autonomie et rigueur dans la conduite des travaux - Capacité à travailler en équipe et à s'intégrer rapidement dans l'environnement client - Bonnes apƟtudes rédacƟonnelles (documentaƟon technique en français) - Force de proposiƟon sur les axes d'amélioraƟon de la soluƟon - Sens du service et orientaƟon uƟlisateur
Mission freelance
Expert Infrastructure IT Broadcast – Supply Chain & Diffusion
SKILL EXPERT
Publiée le
CVE
Linux
NAS
6 mois
Paris, France
Contexte de la mission Un grand groupe audiovisuel public français recherche deux profils seniors pour intervenir au sein de sa direction technique en charge des infrastructures IT des systèmes broadcast de supply chain et de diffusion, couvrant les chaînes nationales, ultramarines et régionales. Ces infrastructures sont opérées depuis deux centres de diffusion soumis à de très fortes exigences de disponibilité et de continuité de service. La mission porte sur la mise en place, la gestion des évolutions et les mises à jour de l'ensemble des briques d'infrastructure (stockage, virtualisation, systèmes d'exploitation, sécurité) au service des projets broadcast de supply chain et de diffusion, dans des environnements de production audiovisuelle critiques. Objectifs et livrables Installation, configuration, exploitation, MCO et troubleshooting de l'ensemble des briques d'infrastructure en environnement de production audiovisuelle à haute disponibilité Administration de plateformes d'infrastructure multi-tiers (hyperconvergence, virtualisation, stockage, réseau, OS) Migration de systèmes critiques non réinstallables avec continuité de service garantie Installation et mise en production de nouveaux équipements de stockage, remplacement de switches SAN en environnement de production critique Administration des solutions de bastion d'administration et gestion des accès privilégiés Suivi des vulnérabilités (CVE), planification et déploiement contrôlé des correctifs de sécurité Gestion des plateformes d'hyperconvergence, sauvegarde et archivage long terme sur cartouches Contribution à la supervision des infrastructures et mise en place d'alertes sur indicateurs sensibles Rédaction et maintien de la documentation technique : DAT, procédures d'exploitation, IPAM, gestion des flux
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
4472 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois