Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 5 027 résultats.
Freelance
CDI

Offre d'emploi
Senior IT PMO – Trading / Data Platform Migration – Remote EU

Avanda
Publiée le
Gestion de projet
JIRA
Market data

2 ans
Paris, France
Avanda est une société de conseil en informatique basée en Suisse. Nous recherchons actuellement un(e) PMO IT Senior pour rejoindre notre équipe internationale chez notre client final mondial dans la région de Zurich. Il s'agit d'une opportunité à long terme (le projet s'étend jusqu'en 2028). Le travail à distance est accepté, avec une présence sur site toutes les 4 à 6 semaines. En tant que PMO IT Senior, vous intégrerez un programme pluriannuel de migration de données de marché vers une plateforme Data & Analytics dans le secteur du Trading. En tant que PMO, vous apporterez votre soutien aux responsables de chantiers et au Chef de Projet dans la planification, la coordination et le pilotage quotidien du programme à travers plusieurs workstreams. Ce poste est ouvert en full remote (UE). VOS RESPONSABILITÉS Accompagner les responsables de chantiers dans la planification, le suivi des avancements et la coordination inter-workstreams Préparer et animer les réunions de projet : ordre du jour, comptes rendus, suivi des actions et registre des décisions Maintenir la documentation projet, les rapports d'avancement et les mises à jour à destination du management Suivre les points ouverts, les risques, les problèmes et les dépendances entre les workstreams, et escalader au Chef de Projet si nécessaire Contribuer à la préparation des documents destinés aux instances de pilotage Soutenir l'intégration des nouveaux membres du projet et assurer l'administration générale du projet
Freelance

Mission freelance
Consultant Data / ERP – Transformation Excel vers ERP & BI (H/F)

Freelance.com
Publiée le
ERP
Power Platform
PowerBI

1 an
Hauts-de-France, France
Dans le cadre d’un programme de transformation digitale d’envergure, vous interviendrez sur la modernisation des usages data avec le déploiement d’un ERP de type Microsoft Dynamics 365 Business Central (environnement Tegos). L’objectif est clair : sortir des usages Excel historiques structurer, automatiser et fiabiliser la donnée rendre les équipes métiers autonomes via des outils intégrés et des reportings modernes (notamment Microsoft Power BI) Vos missions1. Cadrage & analyse des besoins Analyser les usages actuels sous Excel (reporting, KPI, fichiers critiques) Identifier les écarts avec les standards ERP Challenger les besoins pour éviter la reproduction des pratiques existantes 2. Migration & transformation Reprendre et fiabiliser les données issues d’Excel Structurer les données dans l’ERP Concevoir des restitutions via : les modes analyses ERP des dashboards Power BI 3. Automatisation & industrialisation Supprimer les retraitements manuels Mettre en place des flux automatisés (datasets, rafraîchissements) Garantir la traçabilité et la cohérence des données 4. Accompagnement au changement Former les équipes métiers Créer des supports pédagogiques Accompagner la montée en autonomie des utilisateurs 5. Gouvernance data Définir des règles de gestion et de qualité de la donnée Mettre en place des bonnes pratiques (naming, référentiels, contrôles) Assurer la cohérence entre usages métiers et modèle ERP
Freelance
CDI

Offre d'emploi
Data Product manager

ANDEMA
Publiée le
Microsoft Power BI

6 mois
40k-63k €
450-500 €
Lille, Hauts-de-France
Raison d’être du poste : Le Data Product Manager assure l'interface stratégique et opérationnelle entre les Data Owners métier et l'équipe technique Data. Sa mission est de transformer la donnée issue des différents systèmes en produits analytiques performants pour piloter l'offre, l'impact scientifique du client et les processus d'accréditations internationales. Expert en modélisation Power BI, il garantit la fiabilité des indicateurs et la sécurité des accès, tout en challengeant les besoins métiers pour maximiser la valeur ajoutée des solutions déployées Finalités et Résultats Attendus : 1. Analyse, modélisation et structuration des données Analyser les modèles de données des différentes applications contributrices (sources de données ou consommatrices/cibles de données) Modéliser les données métiers (programmes, faculté, recherche et accréditations) dans un modèle commun ‘SKEMA’, développer des data products (PowerBI et autres) répondant aux besoins métier et maintenir le modèle sémantique de l'école. Définir et gérer la gouvernance des accès et la sécurité des données (Row Level Security) pour chaque data product. 2. Conception et développement des data products Ecrire les spécifications techniques pour les opérations de manipulation de données Documenter les logiques métier de transformation Comprendre, piloter les flux d’intégration et de transformation de données (Azure Data Factory, Synapse, PowerBI [demain Fabric / Databricks ou autres]) Développer les data products en lien avec les data owners et les équipes data Tester et valider la cohérence des flux de données entre les systèmes producteurs et les data products finaux. Suivre l’adoption des data products (usage, accès …) 3. Qualité et fiabilité des données Direction des Ressources Humaines Participer aux projets de migration et de mise en qualité des données entre systèmes applicatifs afin d’identifier les impacts sur le périmètre des data products concernés. Assurer la fiabilité des données, les contrôles de cohérence et participer au support technique associé des data products. 4. Structuration de la plateforme Data Avoir une compréhension d’une data plateforme et d’une modélisation médaillon Piloter la mise à disposition de donnée dans la data plateforme pour permettre la réalisation des data products. 5. Collaboration et accompagnement Savoir faire le pont entre les équipes métiers (vulgarisation des concepts) et les équipes techniques pour l’évolution des usages data Animer la communauté des data owner de l’univers « Offre d'enseignement & Impact scientifique » Environnement data : Modélisation de donnée • Power BI • Fabrics (est un plus) • Synapse / Azure (est un plus) • Databricks (est un plus) • Git, DevOps • SQL
Freelance

Mission freelance
Data Analyst / VBA Developer – Data Quality & KYC Transformation - Paris

Net technologie
Publiée le
Data quality
Powershell
SQL

6 mois
400-420 €
Paris, France
📊 Data Analyst / VBA Developer – Data Quality & KYC Transformation Dans le cadre d’un programme stratégique de transformation Client Lifecycle / KYC , nous recherchons un profil Data / VBA pour assurer la qualité et la continuité des flux de données entre systèmes legacy et une plateforme cible. 🎯 Enjeu : garantir la fiabilité des données , piloter les réconciliations et accompagner les migrations jusqu’au décommissionnement des outils historiques. 🚀 Missions Maintenance et évolution du code VBA (Excel/Access) Pilotage des réconciliations data (quotidiennes & hebdomadaires) Exécution et suivi des processus bulk de remédiation Administration et migration SharePoint Online Suivi des KPI et continuité des flux de production Contribution à la migration vers les outils cibles Documentation, support et coordination avec équipes internationales 📌 Répartition : 50% dev / 50% production & monitoring
Freelance

Mission freelance
ANALYSTE DE TEST ET VALIDATION - Databricks - Azure Confirmé F/H

SMARTPOINT
Publiée le
Azure
Databricks

12 mois
400 €
Châtillon, Île-de-France
Description détaillée Nous recherchons un Développeur BackEnd AEM pour rejoindre notre équipe. Vous serez chargé de la conception, du développement et de l'optimisation de solutions de gestion de contenu via Adobe Experience Manager (AEM) Cloud pour la Tribe Attract Ecom. Vous jouerez un rôle clé dans la conception et la mise en œuvre de solutions digitales innovantes. Vous collaborerez étroitement avec les équipes de développement frontend, produits, UX/UI, etc. pour créer des expériences utilisateurs de haute qualité, optimisées pour différents appareils et plateformes. Vos responsabilités :- Concevoir et développer des composants et des services back-end sur la plateforme AEM.- Intégrer AEM avec d'autres systèmes d'information via des API REST et/ou autres- Optimiser les performances des systèmes existants et veiller à leur évolutivité.- Participer à l’architecture et aux discussions techniques pour orienter les choix de développement.- Travailler en collaboration avec des équipes multidisciplinaires (frontend, UX, Design, etc).- Maintenir et améliorer les pipelines CI/CD pour l'automatisation des déploiements. - Garantir la sécurité et la conformité des systèmes développés selon les meilleures pratiques. - Fournir une documentation claire et détaillée pour les projets et les nouvelles fonctionnalités. Compétences requises pour cette mission : - Minimum de 7 ans en développement backend, avec une expérience significative sur AEM. (un plus si expérience sur la plateforme AEM Cloud & DAM). - Maîtrise de Java et des frameworks associés (Spring, OSGi). - Bonne compréhension des architectures RESTful et SOAP. - Connaissance des pratiques DevOps (CI/CD, Jenkins, etc). - Connaissance des outils de gestion de version tels que GitLab. - Compréhension des principes de sécurité applicative et de gestion des accès. - Connaissance des fragments de contenu et des fragments d'expérience AEM. - Expérience dans la configuration du Dispatcher AEM pour l'optimisation des performances. - Capacité à travailler en équipe et à collaborer avec des départements transverses. - Excellentes compétences en résolution de problèmes et en communication. - Proactivité et force de proposition pour améliorer les performances des applications. - Une bonne capacité d'adaptation dans un environnement en évolution rapide. Formation : - Diplôme en informatique, en ingénierie logicielle, ou dans un domaine connexe, ou expérience professionnelle équivalente.
CDI

Offre d'emploi
Data Scientist / AI Engineer (Agentique) (H/F)

█ █ █ █ █ █ █
Publiée le
Docker
Python
Pytorch

52 500 €
Paris, France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance
CDI

Offre d'emploi
DATA ANALYST AZURE / POWER BI

UCASE CONSULTING
Publiée le
Azure
Microsoft Power BI

6 mois
40k-45k €
400-550 €
Paris, France
Je recherche pour un de mes clients un Data Analyst Azure / Power BI : ROLE ET RESPONSABILITE : La mission comprendra les tâches suivantes : · Créer et optimiser des bases de données (SQL Server principalement). · Prendre en charge les développements de scripts SQL/Procédures. · Prendre en charge les développements des pipelines Azure Data Factory. · Participer à la mise en place de bonnes pratiques (CI/CD, DevOps Data, Data Quality). · Être force de propositions sur les optimisations de traitement · Rédaction de la documentation (spécifications techniques), recettes. · Gestion du code source via Microsoft Devops et déploiement CI/CD. · Préparation des livrables pour les mises en production. FORMATION, PROFIL ET EXPERIENCE : · Expérience significative dans le domaine de trois années d’expérience · Connaissance approfondie de Azure Data Factory · Connaissance approfondie des bases de données relationnelles et du langage SQL · Connaissance de TFS / Git (ou à minima autre gestionnaire de code source) · Expérience en déploiement continu CI/CD (Azure Devops)
Freelance
CDI

Offre d'emploi
Développeur .NET / Expert Azure - Secteur Retail (H/F)

Amontech
Publiée le
.NET
Azure
Git

1 an
45k-50k €
450-500 €
La Défense, Île-de-France
🧩 Contexte Dans le cadre du développement d’une solution Consumer 360 , nous recherchons un Développeur .NET expert Azure pour renforcer une équipe projet dans le secteur retail / mode. 🎯 Missions Vous interviendrez sur les activités suivantes : 🔹 Compréhension du projet Assimiler les éléments du back-office applicatif IT CRM sur différentes régions (Asie, Europe) Appliquer la stratégie applicative définie par les architectes CRM, RCU et Infrastructure Assurer le rôle de backup du Technical Lead 🔹 Développement & réalisation Développer des conteneurs (API & Web) Configurer le Load Balancing, API Management et la sécurité (OAuth) Modéliser, développer et configurer un SGBD (RDS ou NoSQL) Réaliser des tests unitaires couvrant le code source Appliquer les bonnes pratiques en matière de sécurité et réseau Utiliser les frameworks .NET Core et Azure Functions 🔹 Déploiement & industrialisation Participer à la préparation et à l’exécution des déploiements Maintenir le versioning des applications via les outils en place Utiliser Azure DevOps pour la gestion du code source (branches, merges) 🔹 Contribution technique Assurer la cohérence technique des modules Être force de proposition dans la conception technique Appliquer la méthodologie Agile 🛠️ Environnement technique Langages : C#, SQL Frameworks & technologies : .NET Core, Azure, Azure Functions Data : SQL Server, NoSQL (CosmosDB) Outils : Git, Azure DevOps Azure : Storage (Blob), Event Hub, Service Bus Protocoles : HTTPS, SOAP, RESTful, CSV, JSON, XML
Freelance

Mission freelance
ARCHITECTE TECHNIQUE ON PREMISE & CLOUD AZURE ET GCP

PROPULSE IT
Publiée le
Azure
Cloud

24 mois
325-650 €
Paris, France
Nous recherchons plusieurs Architectes Technique OnPrem & Cloud pour une mission longue chez l'un de nos clients. Niveau expérimenté à senior requis. CONTEXTE DE LA MISSION Au sein de l'équipe Architecture de la Direction des Infrastructures et de la Production du groupe, le consultant contribuera aux activités : - Etudes techniques & Design - Cadrage budgétaire - Définition des best practices d'architecture - Documentation - Accompagnement de la stratégie Move2Cloud - Co-construction des solutions - Accompagnement des équipes d'exploitation et de développement Environnement général - Plateformes E-commerce - Plateformes BackOffice & Logistique - Cloud Public Azure & GCP - Cloud Privé (Infrastructure VMWARE Infogérée) - CDN Akamai, LoadBalancing BigIP F5, Firewalling (Checkpoint & Fortinet) - Bases de données MS SQL Server, PostgreSQL, MySQL, IBM DB2, Oracle - Big Data Hadoop, Terradata, MapR, BigQuery, DataBricks - Conteneurisation Docker & Orchestration AKS - Progiciels SAP, Siebel, HRAccess DESCRIPTION DE LA MISSION - Etude des besoins issus des équipes de développement - Etude de l'évolution des composants de plateformes techniques ou de l'intégration de nouveaux services - Rédaction des documents d'architecture et d'intégration générale et détaillée - Rédaction des supports d'aide à l'exploitation et accompagnement des équipes d'exploitation durant la transition - Contribution à l'évaluation budgétaire des solutions mises en œuvre - Support N3 des équipes d'exploitation Démarrage souhaité : au plus tôt Durée de la mission : Longue Paris
Freelance

Mission freelance
DEVELOPPEUR SENIOR DYNAMICS 365

ARGANA CONSULTING CORP LLP
Publiée le
API
Azure Data Factory
C#

6 mois
500-550 €
Paris, France
🎯 Contexte de mission Dans le cadre de la digitalisation de ses processus métier et de l’évolution de sa plateforme CRM cloud, nous recherchons un Développeur Senior Dynamics 365 capable de concevoir, développer et maintenir des solutions robustes autour de Dynamics 365 et des services Azure. La mission s’inscrit dans un environnement international, exigeant et fortement orienté innovation, avec des enjeux autour de l’automatisation, de l’intégration des systèmes et de l’optimisation des parcours utilisateurs. 🛠️ Missions principales et rôle Développer et personnaliser les composants Dynamics 365 : formulaires, workflows, plugins, JavaScript/jQuery, traitements C# et SQL Concevoir et développer des Azure Functions (HTTP triggers, TimerTriggers, files d’attente, etc.) Intégrer des contrôles PCF et configurer les différents modules Dynamics 365, notamment Sales et Customer Service Automatiser les tâches utilisateurs, les notifications et certains traitements métiers Réaliser des analyses de bugs et assurer leur résolution Étudier la faisabilité des demandes métier et proposer des solutions techniques adaptées Concevoir des architectures fonctionnelles évolutives et documentées Mettre en place et maintenir les pipelines CI/CD ainsi que les processus de release Gérer les branches de code, les déploiements et les environnements Dev, UAT et Production Administrer les ressources Azure : Functions, Queues, Topics, Data Factory, Blob Storage Assurer les intégrations avec des systèmes tiers tels que des applications web, outils marketing, backoffice ou solutions de téléphonie Superviser la production et apporter un support aux utilisateurs Assurer la coordination avec les éditeurs et partenaires techniques pour la gestion des incidents Gérer les dépôts Git et garantir la qualité des livrables 🚀 Objectifs Faire évoluer et stabiliser la plateforme Dynamics 365 Optimiser les processus métiers grâce à l’automatisation et aux intégrations Garantir la fiabilité, la performance et la maintenabilité des développements Fluidifier les échanges entre Dynamics et les systèmes tiers Sécuriser les déploiements via des pratiques CI/CD robustes Accompagner les équipes métier dans leurs besoins d’évolution et d’amélioration continue 💡 Compétences requises Excellente maîtrise de Dynamics 365 CRM Expertise en développement C#, JavaScript et SQL Bonne connaissance des modules Sales et Customer Service Maîtrise des services Azure : Functions, Storage, Data Factory, Queues, Blob Storage Expérience confirmée sur les pipelines CI/CD et la gestion des environnements Solides compétences en architecture technique et documentation Maîtrise des outils de gestion de code source Git Expérience des intégrations avec des systèmes tiers et APIs Capacité à intervenir sur des problématiques de production et de support
Freelance
CDI
CDD

Offre d'emploi
DataOps & Administrateur Hadoop TJM MAX 580

Craftman data
Publiée le
Ansible
Apache Hive
Apache Spark

1 an
40k-45k €
400-580 €
Paris, France
Missions et responsabilités principales1. Déploiement et industrialisation des clusters Big Data Déploiement automatisé de clusters via des pipelines CI/CD Utilisation d’outils d’automatisation pour l’installation et la configuration des composants Adaptation des architectures selon les besoins projets (dimensionnement, sécurité, performance) Contribution à l’industrialisation des processus (CI/CD, Infrastructure as Code) Déploiement et configuration d’outils de gestion de plateforme Installation et configuration d’interfaces utilisateurs pour les environnements analytiques 2. Stack Big Data administrée Administration et intégration des composants suivants : Service d’annuaire : gestion des identités Service d’authentification : sécurisation des accès Système de fichiers distribué : gestion du stockage Framework de traitement distribué : gestion des ressources et exécution Outil de gestion des accès : politiques de sécurité Moteur de calcul distribué Moteur SQL pour l’accès aux données Base de données relationnelle associée aux services Service de coordination distribué Responsabilités associées : Installation, configuration et paramétrage avancé Gestion des dépendances inter-services Maintien de la cohérence des versions Optimisation des performances et de la stabilité 3. Provisionnement et préparation des environnements Provisionnement des machines virtuelles Préparation des prérequis systèmes (OS, stockage, réseau) Automatisation des installations via scripts et outils d’orchestration Gestion des environnements (développement, test, production) 4. Observabilité et supervision Mise en place et maintien de la supervision : Collecte des métriques Gestion et routage des alertes Centralisation et exploitation des logs Visualisation via tableaux de bord Définition et amélioration des indicateurs de supervision Analyse proactive des alertes Diagnostic et résolution d’incidents 5. Maintien en Condition Opérationnelle (MCO) Administration quotidienne des plateformes Big Data Support technique aux équipes projets et utilisateurs Gestion des incidents et demandes d’évolution Montées de version et correctifs Suivi de la capacité (CPU, RAM, stockage) Documentation technique et mise à jour des procédures Rituels et interactions Participation aux rituels d’équipe Coordination avec : Équipes infrastructure et exploitation Équipes projets data / métiers Référents sécurité Accompagnement des équipes dans l’usage de la plateforme Environnement technique global CI/CD & DevOps : outils d’intégration et de déploiement continus, gestion de code, qualité Automatisation : outils d’orchestration et scripting Infrastructure : virtualisation, conteneurisation Big Data : écosystème de traitement distribué Observabilité : outils de monitoring, logs et visualisation Points de vigilance Forte interdépendance des composants de la plateforme Sensibilité aux problématiques de capacité et de performance Importance de l’anticipation via la supervision Respect strict des standards de sécurité et des procédures internes Coordination transverse nécessaire pour les déploiements et évolutions majeures Charge estimative Déploiement d’un cluster complet : variable selon dimensionnement et spécificités projet MCO : charge récurrente hebdomadaire Incidents critiques : charge ponctuelle selon criticité
CDI

Offre d'emploi
Responsable infrastructure IT H/F

HN SERVICES
Publiée le
Administration linux
Administration Windows
Azure

55k-60k €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
HN Services recrute un.e Responsable Infrastructure IT afin de piloter et structurer l’ensemble des infrastructures IT (Cloud Azure & on-premise) dans un contexte industriel innovant chez l’un de nos clients situé sur Aix-en-Provence (13). Description du poste : Rattaché(e) à la Responsable SI, vous intervenez en tant que référent transverse sur l’ensemble des sujets liés à l’infrastructure IT et à sa sécurité, dans un environnement en pleine transformation (industrie 4.0, IA, machines connectées). À ce titre, vos missions sont les suivantes : Définir, piloter et faire évoluer l’architecture globale des infrastructures IT (cloud et on-premise) Garantir la cohérence, la performance et la disponibilité du système d’information Assurer la sécurité des infrastructures et la protection des données sensibles Superviser le maintien en conditions opérationnelles et de sécurité (MCO/MCS) Gérer les incidents critiques et intervenir en support N2/N3 sur les sujets complexes Accompagner les projets IT en apportant une expertise transverse infrastructure et cybersécurité Mettre en place et faire évoluer les standards, bonnes pratiques et politiques de sécurité Participer activement aux activités techniques (systèmes, réseaux, cloud, applicatif) Piloter et encadrer une équipe composée d’un ingénieur et d’un alternant Sensibiliser les équipes internes aux enjeux de cybersécurité et aux bonnes pratiques IT Vous évoluez dans un environnement technique comprenant notamment : Azure, infrastructures on-premise Windows et Linux, réseaux, virtualisation, solutions de sécurité.
CDI

Offre d'emploi
Data architect / Administrateur SAP BO BI H/F

VIVERIS
Publiée le

40k-55k €
Dijon, Bourgogne-Franche-Comté
Contexte de la mission : Viveris accompagne les grands acteurs du secteur bancaire dans leurs programmes de transformation métier et IT, avec une forte dimension data et décisionnelle. Dans ce contexte, nous recherchons un Administrateur / Data Architect SAP BusinessObjects (SAP BO BI) pour intervenir sur un chantier stratégique de la Data Factory. Vous intégrerez l'équipe Solutions BI et participerez à l'administration, l'optimisation et l'évolution des plateformes décisionnelles basées sur SAP BO, au coeur des usages data des métiers. Votre rôle consistera notamment à garantir la performance, la disponibilité et la gouvernance des environnements BI, tout en accompagnant les équipes dans l'architecture et l'évolution des solutions décisionnelles. Ce poste vous permettra d'évoluer dans un écosystème data exigeant, sur des sujets à fort impact métier, aux côtés d'équipes expertes engagées dans la valorisation de la donnée. Responsabilités : * Assurer le suivi opérationnel des plateformes SAP BO BI 4.3 ;Prendre en charge l'assistance de niveau 2 et 3 des multiples plateformes SAP BO BI 4.3 ; * Proposer des solutions d'optimisation des rapports ; * Participer aux différents projets à venir de conversion des univers, de pointage des WebI vers ces univers, de migration à terme vers SAP BO BI 2025 ; * Faire évoluer l'outillage pour industrialiser la gestion des plateformes (Scripting, Datamart de supervision/audit).
CDI

Offre d'emploi
Ingénieur SRE / DevOps Azure H/F

CONSORT GROUP
Publiée le
Cassandra
Redis

92100, Boulogne-Billancourt, Île-de-France
Chaque moment compte. Surtout ceux que vous vivez à fond. Bienvenue chez Consort Group. Consort Group, accompagne depuis plus de 30 ans les entreprises dans la valorisation de leurs données et infrastructures. Elle s'appuie sur deux leaders, Consortis et Consortia, et place l’humain et la responsabilité sociétale au cœur de ses valeurs. C’est votre future équipe Les équipes de Consortis, sont au cœur des enjeux actuels de Cybersécurité, Virtualisation & Cloud, Systèmes, Réseaux et Télécom, ainsi que sur les environnements Digital Workplace. Les compétences RPA et DevOps viennent renforcer ces offres pour accélérer l’agilité et l’efficacité opérationnelle des services délivrés. Ingénieur SRE / DevOps Azure H/F C’est votre mission Vous êtes passionné·e par le Cloud, l’automatisation et la fiabilité des systèmes distribués ? Ce poste est fait pour vous. En tant qu’ Ingénieur DevOps / SRE Azure , vous êtes responsable du bon fonctionnement et de l’évolution de notre écosystème : Côté Build Concevoir et déployer des infrastructures Cloud sur Microsoft Azure via Terraform Mettre en place et maintenir les pipelines CI/CD sous GitLab Automatiser les déploiements applicatifs et les environnements Industrialiser les pratiques DevOps pour garantir la reproductibilité Développer des scripts d’automatisation en Bash et Python Participer aux choix d’architecture avec les équipes techniques Côté run : Assurer la disponibilité, la performance et la stabilité des applications critiques Gérer les incidents de production et contribuer à leur résolution Mettre en place et piloter les outils de monitoring et d’alerting Suivre les KPI et garantir le respect des SLA Optimiser les performances des systèmes et des middleware Administrer et maintenir les composants techniques (API Manager, RabbitMQ, Redis, Cassandra) Contribuer à l’amélioration continue des pratiques SRE / DevOps Documenter et partager les bonnes pratiques au sein des équipes C’est votre parcours Vous avez au moins 5 ans d’expérience dans des environnements DevOps exigeants. Vous aimez automatiser, fiabiliser et optimiser les systèmes sans jamais cesser d’innover. Vous cherchez un cadre où vos idées comptent et où la technique va de pair avec la collaboration. C’est votre expertise : VMicrosoft Azure (App Service, Container Apps, APIM, Blob Storage, Cosmos DB) Terraform (Infrastructure as Code) GitLab CI/CD et automatisation des pipelines Docker et environnements conteneurisés Linux (administration avancée) Scripting Bash et Python Middleware : RabbitMQ, Redis, Cassandra, Elasticsearch API Management (Azure APIM) Méthodologie Agile (Kanban), outils Jira & Confluence C’est votre manière de faire équipe : Esprit collaboratif et capacité à travailler en transverse avec Dev, Ops et Architectes Sens des responsabilités et orientation résultats Proactivité et force de proposition Esprit d’amélioration continue Capacité à partager et vulgariser les bonnes pratiques C’est notre engagement Chez Consort Group, vous êtes un·e expert·e qu’on accompagne pour que chaque mission devienne une étape qui compte. Un onboarding attentif et humain Une vraie proximité managériale Des formations accessibles en continu Des engagements concrets : inclusion, égalité, solidarité Un package RH complet : mutuelle, carte TR, CSE, prévoyance Une culture du feedback et des projets qui font sens C’est clair Le process de recrutement : Un premier échange téléphonique avec notre team recrutement Un entretien RH ainsi qu’un échange métier avec un.e ingénieur.e d’affaires Un test ou un échange technique avec un.e de nos expert.es Un dernier point avec votre futur.e manager ou responsable de mission Et si on se reconnaît : on démarre ensemble C’est bon à savoir Lieu : Boulogne-Billancourt Contrat : CDI Télétravail : Hybride selon mission Salaire : De 50 K€ à 60 K€ (selon expérience) brut annuel Famille métier : DevOps / SRE / Cloud Ce que vous ferez ici, vous ne le ferez nulle part ailleurs. Ce moment, c’est le vôtre.
Freelance
CDI

Offre d'emploi
Data Engineer - SPARK/SCALA/DATABRICKS

UCASE CONSULTING
Publiée le
Apache Spark
Azure
Databricks

1 an
40k-66k €
400-600 €
Île-de-France, France
📢 Data Engineer Scala Spark – Environnement Cloud (H/F) 🧩 Contexte Dans le cadre du renforcement d’une équipe Data, nous recherchons un(e) Data Engineer expérimenté(e) afin d’intervenir sur des sujets à forte volumétrie, autour de pipelines de données complexes et d’optimisation des traitements. Vous évoluerez dans un environnement technique exigeant, avec des enjeux de performance, scalabilité et qualité de la donnée. 🚀 Missions principales Développement de pipelines data en Scala / Spark (batch principalement) Optimisation des traitements et gestion de volumétries importantes Mise en place et amélioration des bonnes pratiques de développement Participation à l’architecture et aux choix techniques Collaboration avec les équipes métiers et techniques Contribution au mentoring et partage de connaissances 🧰 Stack technique Scala / Spark Maven Environnement Cloud (AWS ou Azure) Databricks (selon contexte) API HTTP Stack ELK (optionnel) ✅ Must have Solide expérience en Scala / Spark (batch) Maîtrise des optimisations Spark Expérience sur fortes volumétries de données Bonnes pratiques de développement (clean code, build, versioning) Expérience en environnement Cloud (AWS ou Azure) Minimum 5 ans d’expérience en Data Engineering ➕ Nice to have Expérience avec Databricks Développement d’ API HTTP Connaissance de la stack ELK Expérience en environnement multi-projets 🤝 Soft skills Esprit d’analyse et rigueur Autonomie et force de proposition Bon relationnel et esprit d’équipe Capacité à comprendre les enjeux métiers Sens des priorités et gestion des délais 🎓 Profil Formation Bac+3 à Bac+5 en informatique Anglais technique requis 8 ans d'expériences MINIMUM ! 📍 Modalités Télétravail partiel (jusqu’à 3 jours / semaine) Mission longue Démarrage : ASAP
Freelance
CDI
CDD

Offre d'emploi
Administrateur Cloudera CDP & CDP Data Services (environnement OpenShift) TJM MAX 500

Craftman data
Publiée le
Cloudera
Hadoop
Kubernetes

8 mois
40k-45k €
400-550 €
Paris, France
Description du poste Dans le cadre du développement de ses plateformes data, l’entreprise recherche un administrateur spécialisé sur des solutions de type CDP et les services de données associés, notamment Private Cloud (PVC), évoluant dans un environnement conteneurisé OpenShift. Rattaché à l’équipe infrastructure ou data platform, le collaborateur intervient sur l’exploitation, l’administration et l’optimisation des plateformes big data, tout en garantissant leur disponibilité, leur performance et leur sécurité. Missions principales L’administrateur est responsable du bon fonctionnement de la plateforme CDP et de ses services data. Il assure l’installation, la configuration et la maintenance des environnements CDP Private Cloud ainsi que des services de données associés. Il prend en charge le déploiement et l’administration des services CDP Data Services (tels que Data Warehouse, Machine Learning ou Data Engineering) en s’appuyant sur l’infrastructure OpenShift. Il surveille en continu les performances de la plateforme et met en place des actions correctives ou d’optimisation afin de garantir un niveau de service optimal. Il participe à la gestion des incidents et des problèmes en analysant les causes racines et en proposant des solutions durables. Il veille à la bonne intégration des composants CDP avec l’écosystème technique existant, notamment les systèmes de stockage, de sécurité et de réseau. Il contribue à l’automatisation des tâches d’administration et de déploiement à travers des scripts ou des outils d’infrastructure as code. Il travaille en étroite collaboration avec les équipes data, DevOps et sécurité afin de faciliter l’usage de la plateforme et d’assurer sa conformité aux standards internes. Responsabilités techniques L’administrateur assure la gestion des clusters CDP Private Cloud (PVC), incluant leur installation, leur montée de version et leur maintenance corrective et évolutive. Il administre les environnements OpenShift utilisés pour héberger les services CDP Data Services et garantit leur bon dimensionnement. Il configure et maintient les services essentiels tels que Hive, Spark, Impala, HDFS et les services Kubernetes intégrés. Il met en œuvre les politiques de sécurité, notamment l’authentification (Kerberos, LDAP), la gestion des accès et le chiffrement des données. Il supervise les ressources système (CPU, mémoire, stockage) et optimise leur utilisation. Il participe à la mise en place de solutions de supervision et de logging adaptées à l’environnement. Compétences requises Le candidat possède une solide expérience sur la plateforme CDP, en particulier en environnement Private Cloud. Il maîtrise les concepts et l’administration d’OpenShift et des environnements Kubernetes. Il dispose de bonnes connaissances des composants big data tels que Hadoop, Spark, Hive et des outils associés. Il comprend les problématiques liées aux architectures distribuées, à la haute disponibilité et à la performance des systèmes. Il est à l’aise avec les environnements Linux et les outils d’automatisation (shell scripting, Ansible ou équivalent). Une bonne compréhension des enjeux de sécurité des données est attendue. Profil recherché Le poste s’adresse à un profil autonome, rigoureux et capable d’intervenir dans des environnements techniques complexes. Le candidat fait preuve d’un bon esprit d’analyse et de synthèse, et sait travailler en équipe avec des interlocuteurs variés. Une expérience dans un contexte DevOps ou data platform constitue un atout important. Environnement technique CDP Private Cloud (PVC) CDP Data Services (Data Warehouse, Data Engineering, Machine Learning) OpenShift / Kubernetes Hadoop ecosystem (HDFS, Hive, Spark, Impala) Linux (RedHat / CentOS) / Outils de monitoring et de logging
5027 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous