Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 5 015 résultats.
Freelance

Mission freelance
Data Scientist – Remote Sensing & Deep Learning (AgTech)

Intuition IT Solutions Ltd.
Publiée le
Python

3 mois
Toulouse, Occitanie
Contexte Dans le cadre d’un projet stratégique pour un client du secteur spatial/agricole, nous recherchons un Data Scientist expérimenté afin de reprendre et poursuivre des travaux en cours autour de la détection d’objets à grande échelle via imagerie satellite. La mission s’inscrit dans un environnement à forte dimension technique, combinant Computer Vision, traitement de données géospatiales et passage à l’échelle. Missions Reprise et amélioration de modèles de Computer Vision appliqués à l’imagerie satellite Implémentation et optimisation de modèles de segmentation d’instance et détection (type Mask R-CNN, U-Net) Traitement et fusion de données multi-sources ( optique Sentinel-2 & radar Sentinel-1 / SAR ) Industrialisation des pipelines de traitement et passage à l’échelle sur de larges zones géographiques (US, Brésil, Europe) Contribution aux bonnes pratiques MLOps (tracking, reproductibilité, déploiement) Déploiement et optimisation des modèles dans un environnement AWS
CDI

Offre d'emploi
Ingénieur d'Affaires Data & IA Secteur Luxe H/F

JEMS
Publiée le

45k-60k €
Levallois-Perret, Île-de-France
En tant qu' Ingénieur d'Affaires Data & IA secteur Luxe H/F vous aurez la charge de : • Créer et développer de nouvelles relations d'affaires avec des clients potentiels et des partenaires stratégiques du Luxe • Identifier et explorer de nouvelles opportunités de marché pour nos produits et services • Travailler en étroite collaboration avec nos équipes internes pour élaborer des solutions sur mesure pour nos clients du secteur du Luxe • Prévoir les tendances du marché du Luxe et anticiper les besoins des clients pour façonner notre stratégie de croissance • Représenter JEMS lors d'événements, de conférences et de réunions pour élargir notre réseau et renforcer notre présence sur le marché • Garder un œil sur la concurrence et élaborer des stratégies pour rester en tête Avantages à travailler chez JEMS : • Un accompagnement personnalisé pour développer votre carrière • L'opportunité de travailler dans un environnement dynamique et stimulant • Une culture d'entreprise qui encourage la créativité, l'innovation et la croissance personnelle • Un package de rémunération compétitif avec des avantages exceptionnels • Un soutien continu pour développer vos compétences et avancer dans votre carrière • Des séminaires d'intégration inoubliables Pour Postuler Si vous êtes prêt(e) à relever le défi et à devenir un acteur clé de notre équipe en tant qu'Ingénieur d'Affaires chez JEMS, envoyez nous votre CV accompagné d'une lettre de motivation convaincante qui montre pourquoi vous êtes la personne idéale pour ce poste. Montrez nous votre passion, votre détermination et votre vision pour l'avenir. Diversité Le Groupe JEMS porte fièrement sa valeur "Diversité" en se mobilisant pour l'inclusion et l'égalité des chances et en luttant contre toutes formes de discrimination. Tous nos postes sont ouverts aux personnes en situation de handicap. Chez JEMS, nous croyons que les meilleurs candidats sont ceux qui partagent notre passion pour l'innovation et notre engagement envers l'excellence. Rejoignez notre équipe et soyez prêt à changer le jeu ! Référence de l'offre : q6cu2z24va
Alternance

Offre d'alternance
APPRENTISSAGE - Ingénieur Machine Learning et Data scientist (F/H)

█ █ █ █ █ █ █
Publiée le
Deep Learning
Ocaml
Python

Paris, France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance
CDI
CDD

Offre d'emploi
Business Analyst SharePoint Online (Fonctionnel)- intranet

RIDCHA DATA
Publiée le
Business Analyst
Intranet
SharePoint Online

1 an
Île-de-France, France
📍 Localisation : Île-de-France / Hybride 📅 Démarrage : ASAP ⏳ Durée : Mission longue 🌍 Contexte international 🚀 Contexte de la mission Dans le cadre de la refonte d’un intranet global sous SharePoint Online (Microsoft 365) , nous recherchons un Business Analyst fonctionnel pour accompagner les équipes métiers dans la définition et la mise en place d’une plateforme moderne et collaborative. 👉 L’objectif : proposer une expérience utilisateur fluide, homogène et adaptée à un environnement international. 🎯 Votre rôle En tant que Business Analyst fonctionnel , vous êtes l’interface clé entre les métiers et les équipes IT, avec une forte orientation recueil de besoin et conception fonctionnelle (pas de technique / pas de développement). 🧩 Vos missions principales 🔍 Analyse & cadrage Recueillir et analyser les besoins métiers Animer des ateliers avec les différentes parties prenantes Formaliser les besoins (user stories, use cases, parcours utilisateurs) Identifier les axes d’amélioration des processus existants 📝 Conception fonctionnelle Rédiger les spécifications fonctionnelles Structurer le contenu : navigation, taxonomie, métadonnées Contribuer à la définition de l’expérience utilisateur (UX) Construire et gérer le backlog fonctionnel 🤝 Coordination & accompagnement Faire le lien entre métiers et équipes techniques Participer aux phases de recette (tests fonctionnels, UAT) Accompagner le changement (supports, communication, formation) 🌍 Environnement international Interagir avec des équipes internationales Assurer la cohérence entre besoins locaux et standards globaux 🛠️ Environnement fonctionnel SharePoint Online (Microsoft 365) Outils collaboratifs (Teams, etc.) Méthodologie Agile / Scrum
CDI

Offre d'emploi
Cloud Data Engineer AWS H/F

VIVERIS
Publiée le

45k-55k €
Grenoble, Auvergne-Rhône-Alpes
Contexte de la mission : Dans le cadre de projets stratégiques autour de la donnée et de l'intelligence artificielle, un grand groupe industriel renforce ses équipes afin de structurer et valoriser des données issues d'environnements industriels complexes. La mission s'inscrit dans une dynamique de construction et d'optimisation de plateformes data, avec des enjeux forts autour de la qualité, de la volumétrie et de l'exploitation des données pour des cas d'usage avancés (analytics, IA). L'environnement technique repose sur un écosystème cloud AWS, avec des outils modernes de data engineering tels que Databricks et Apache Spark, ainsi qu'une forte culture DevOps. Vous intégrerez une équipe en charge de l'ingestion, du traitement et de l'exposition de données à grande échelle. Responsabilités : - Concevoir et procéder à la maintenance des pipelines de données, de l'ingestion à l'exposition ; - Contribuer à l'optimisation des traitements de données à grande échelle et à la fiabilisation des flux ; - Collaborer avec les équipes data et IA afin de garantir la disponibilité et la qualité des données pour les usages analytiques et machine learning.
Freelance
CDI

Offre d'emploi
📩 Data Governance Specialist – Data Catalog & Integration

Gentis Recruitment SAS
Publiée le
Apache Airflow
Collibra
Data governance

6 mois
Paris, France
Contexte de la mission Dans le cadre du renforcement de son Center of Expertise Data Governance , notre client recherche un Data Governance Specialist pour intégrer l’équipe “Expertise”. Cette équipe joue un rôle transverse clé et intervient sur : la structuration des standards de gouvernance data l’industrialisation des pratiques la résolution des problématiques rencontrées par les équipes métiers et data (Digital Units) La mission s’inscrit dans un environnement data platform avancé , avec des enjeux forts autour de : Data Catalog Data Quality AI Governance Data Contracts Objectifs de la mission 1. Data Catalog (Collibra) – Configuration & amélioration produit Concevoir et implémenter des solutions dans Collibra Configurer l’outil (workflows, administration, évolutions spécifiques) Recueillir et prioriser les besoins utilisateurs Valider et implémenter les spécifications fonctionnelles 2. Intégration dans l’écosystème data Participer à l’intégration du Data Catalog avec la Data Platform Concevoir les flux d’échange de métadonnées Développer et maintenir les connecteurs (API, crawling, etc.) Collaborer avec les équipes architecture Gérer l’interaction avec le support éditeur 3. Gouvernance & transformation Contribution au programme Data Contracts Participation aux sujets stratégiques : AI Governance Framework Trust AI Data Quality by Design Environnement technique Data Catalog : Collibra Data Platform : Databricks Transformation : dbt Orchestration : Apache Airflow Intégration : APIs, connecteurs, metadata exchange Data Quality : Metrics Store / framework interne Compétences attendues Must have Data Governance (confirmé) Data Catalog (idéalement Collibra) Intégration data / metadata / APIs Databricks (avancé) dbt (avancé) Apache Airflow (avancé) Nice to have Expérience sur des programmes de Data Contracts Connaissance des enjeux AI Governance Expérience en environnement data platform à grande échelle Soft skills Capacité à travailler en transverse Bon relationnel avec équipes métiers et techniques Approche structurée / orientée solution Capacité à gérer des sujets complexes
CDI
Freelance

Offre d'emploi
Data Scientist Senior — Expert IA Générative

Craftman data
Publiée le
AWS Cloud
IA Générative
Large Language Model (LLM)

12 mois
Seine-Saint-Denis, France
Data Scientist Senior — Expert IA Générative Minimum 5 ans en Data Science, dont 2+ ans en IA Générative AWS (GCP accepté si expertise confirmée) Mon client recherche un expert Data Scientist avec une forte orientation IA Générative, capable d'agir à la fois comme référent technique et comme ambassadeur de l'IA auprès des parties prenantes métiers et IT. Ce profil doit être un véritable catalyseur du changement, prêt à faire bouger les lignes et à ancrer une culture de l'IA au sein du groupe. 1. Expertise IA Générative & Data Science ▸ Définir et appliquer les méthodologies, bonnes pratiques et standards liés à l'IA Générative (LLM, RAG, fine-tuning, prompt engineering, agents autonomes…) ▸ Concevoir, développer et déployer des modèles et solutions d'IA Gen adaptés aux enjeux d'EDF ▸ Assurer une veille technologique active et identifier les opportunités d'innovation ▸ Garantir la qualité, la robustesse et l'éthique des approches IA mises en œuvre 2. Identification & Portage des Cas d'Usage ▸ Explorer et qualifier de nouveaux cas d'usage IA Générative, tant pour les métiers qu'en interne à la DSIN ▸ Challengeur les approches IA existantes et proposer des alternatives plus performantes ou innovantes ▸ Construire des preuves de concept (PoC) et accompagner le passage à l'échelle ▸ Prioriser les cas d'usage selon leur faisabilité technique et leur valeur business 3. Animation & Communication ▸ Interagir avec les acteurs clés (Directions métiers, DSI, Comité de Direction) pour présenter les travaux et défendre les orientations IA ▸ Animer des ateliers de co-construction et des sessions de sensibilisation à l'IA Générative ▸ Vulgariser des concepts techniques complexes pour des audiences non spécialistes ▸ Participer activement aux instances de gouvernance IA du groupe 4. Transformation & Acculturation ▸ Impulser une dynamique de transformation autour de l'IA au sein de la DSIN et de ses partenaires ▸ Contribuer à la construction d'une feuille de route IA ambitieuse et réaliste ▸ Mentorer et monter en compétences les équipes internes sur les sujets IA Gen ▸ Être force de proposition pour faire évoluer les pratiques et les organisations PROFIL RECHERCHÉ Compétences techniques indispensables ▸ Maîtrise avancée des techniques de Data Science : machine learning, deep learning, NLP, statistiques ▸ Expertise confirmée en IA Générative : LLM (GPT, Llama, Mistral…), RAG, agents, orchestration (LangChain, LlamaIndex…) ▸ Expérience sur AWS (SageMaker, Bedrock, Lambda…) — GCP (Vertex AI, BigQuery ML) accepté ▸ Maîtrise des langages Python et des frameworks IA/ML (PyTorch, HuggingFace, scikit-learn…) ▸ Connaissance des pratiques MLOps et de déploiement en production (CI/CD, monitoring de modèles) Savoir-être & posture attendus ▸ Excellentes qualités de communication orale et écrite, capacité à vulgariser et convaincre ▸ Leadership d'influence : capacité à embarquer sans autorité hiérarchique ▸ Curiosité intellectuelle, esprit d'initiative et goût pour l'innovation ▸ Appétence forte pour le changement et volonté de faire évoluer les pratiques dans un grand groupe ▸ Rigueur, autonomie et capacité à gérer plusieurs sujets en parallèle Expériences valorisées ▸ Expériences dans des secteurs régulés ou à forte contrainte (énergie, industrie, finance, santé…) ▸ Participation à des projets IA d'envergure avec mise en production effective ▸ Contribution à des communautés IA (publications, conférences, open source…)
Freelance

Mission freelance
Développeur SAP BI

Ositel France
Publiée le
Azure
Legacy System Migration Workbench (LSMW)
PowerBI

3 mois
400-530 €
Paris, France
Nous recherchons un Développeur SAP BI pour une mission de 3 mois renouv sur Paris. Projet d'intégration des données SAP avec des systèmes "legacy", avec une perspective de reporting analytique (contrôle de gestion, logistique, etc). Il s'agit d'une fonction "hybride" alliant une connaissance technique et une appétence métier. Sur les aspects techniques, vous serez encadré par une ressource senior qui pourra vous former, vous orienter et sera votre Sparring partner pour trouver la meilleure approche pour le client. Le profil recherché est le suivant: 3 à 5 ans d'expérience Diplômé d'une école d'ingénieur informatique Connaissances des technologies SAP (Vues CDS) Connaissances du monde Azure et PowerBI Connaissances du monde logistique et du contrôle de gestion Intéressé à apprendre et orienté résultat
Freelance

Mission freelance
255961/Administrateur Azure/Fabric

WorldWide People
Publiée le
Azure

3 mois
400-440 €
Saint-Denis, Île-de-France
Administrateur Azure/Fabric Contexte de la mission Construire la nouvelle BI d’Entreprise sur Power BI / Fabric. Développer une nouvelle offre de Self‑BI reposant sur Power BI, Fabric et les Gateways On‑Premises. Objectifs et livrables Expert Microsoft Fabric, Power BI, Azure et infrastructures hybrides. Capable de co‑construire l’architecture avec l’équipe ASD et d’en assurer le build. Maîtrise des capacités Fabric, des Workspaces, Azure KeyVaults, Azure DevOps et Terraform. Compétences en administration : tenant, sécurité, identités, service principals, gateways On‑Premises. À l’aise avec DataOps : pipelines CI/CD, gestion des secrets, automatisation via API, PowerShell ou Python. Connaissance de dbt, Airflow et des enjeux de migration BI. Compétences en FinOps, monitoring, optimisation de performance et gestion des incidents. Compétences demandées Compétences Niveau de compétence Infrastructure as Code (IaC) & provisioning Cloud (Terraform) Confirmé Compétences FinOps, monitoring & performance Confirmé Compétences en Design & Build d’architecture data Expert Maîtrise technique de Microsoft Fabric / Power BI / Azur Expert Expertise DevOps & DataOps Confirm
Freelance
CDI

Offre d'emploi
Architecte Cloud Azure

Everwise
Publiée le
Administration linux
Azure
Powershell

12 mois
40k-55k €
400-550 €
Île-de-France, France
Architecte Cloud / DevOps Azure – Freelance (H/F) Localisation : Île-de-France / Hybride Démarrage : ASAP Type : Freelance TJM : Selon profil Contexte Dans le cadre du renforcement d’une équipe Cloud & DevOps, nous recherchons un Architecte Cloud / DevOps senior pour intervenir sur des environnements cloud complexes et à forte criticité. Missions Concevoir et faire évoluer des architectures cloud Azure robustes et scalables Mettre en place des solutions Infrastructure as Code (Terraform / Bicep) Déployer et administrer des environnements Kubernetes (AKS) Participer à l’industrialisation des déploiements et à l’amélioration des pratiques DevOps Assurer le maintien en condition opérationnelle et le support de niveau avancé Accompagner les équipes techniques sur les bonnes pratiques cloud et DevOps Intervenir dans un contexte international (anglais requis) Environnement technique Microsoft Azure Terraform / Bicep Docker / Kubernetes (AKS) Git, CI/CD, Azure DevOps PowerShell, Bash Windows Server / Linux Profil recherché Minimum 8 à 10 ans d’expérience IT, dont une forte expertise cloud Expérience confirmée en architecture cloud Azure Solide maîtrise des pratiques DevOps et Infrastructure as Code Bonne connaissance des environnements Kubernetes Capacité à intervenir sur des sujets techniques complexes Bon relationnel et capacité à interagir avec différents interlocuteurs Anglais professionnel requis Atouts Expérience en environnement multi-cloud Sensibilité aux problématiques de sécurité et de gouvernance Expérience en contexte grand compte
Freelance

Mission freelance
Coordinateur Data H/F

HAYS France
Publiée le

2 mois
Caen, Normandie
Mission : Mission de 2 mois en Freelance puis préembauche en CDI Lieu : Caen Vos Missions Organisation du reporting groupe Structure et centraliser les indicateurs clés (KPI) pour le pilotage stratégique et opérationnel. Définit et maintenir une architecture de reporting homogène pour l'ensemble du groupe. Évolution des tableaux de bord Conçoit, maintient et fait évoluer les dashboards pour répondre aux besoins métiers. Garantit l'automatisation, la lisibilité et la fiabilité des rapports. Modélisation des données et flux d'alimentation Conçoit et maintient les modèles de données (Datawarehouse, Datalake, Datamarts). Crée et optimise les processus d'intégration (ETL/ELT) pour alimenter les systèmes analytiques. S'assure de la qualité, de l'exhaustivité et de la fraîcheur des données. Relation avec les métiers et la Direction Technique (OT) Assure le lien fonctionnel entre les équipes métiers et la DSI (Direction Technique). Analyse les besoins, formalise les expressions de besoins, coordonne les réponses techniques. Mise en place de procédures de contrôle qualité Définit et met en oeuvre des règles de contrôle de cohérence et de qualité des données. Met en place des alertes, indicateurs de suivi et tableaux de bord de contrôle. Participe à la conformité réglementaire (ex : RGPD, audit interne). Administration de la plateforme BI Gére les environnements de BI (paramétrage, déploiement, supervision). Met en oeuvre une gouvernance des accès et des rôles : Définit les périmètres d'accès aux données (cloisonnement par entité, fonction, niveau hiérarchique). Assure une gestion fine des droits utilisateurs, rôles et permissions. Formation et accompagnement des utilisateurs Forme les utilisateurs clés et les référents métier aux outils BI et aux bonnes pratiques d'usage des données. Élabore des supports pédagogiques (guides, vidéos, documentation). Développe l'acculturation des collaborateurs à la donnée et à l'IA. Veille technologique & innovation Suit les évolutions dans les domaines BI, data, cloud et IA. Identifie les opportunités d'optimisation ou de transformation des processus métier grâce à la donnée
Freelance

Mission freelance
DevOps / ETL Data Engineer - Banque

STHREE SAS
Publiée le

6 mois
75001, Paris, Île-de-France
💼 DevOps / ETL Data Engineer (H/F) 📍 Paris - Hybride (2 jours sur site par semaine) 🗓️ Mission longue - Démarrage été 2026 🎯 Contexte de la mission Vous rejoignez une équipe Agile intervenant sur des projets data structurants , dans un environnement international et fortement réglementé. La mission porte principalement sur la conception, le développement et la maintenance de flux de données critiques. 🚀 Vos missions Au quotidien, vous serez amené(e) à : Réaliser des analyses fonctionnelles et techniques Concevoir et développer des traitements ETL (principalement orientés intégration) Modéliser et enrichir des bases de données Développer des scripts SQL et Shell Paramétrer les outils ETL et garantir leur bonne exécution Produire l'ensemble des livrables : code, scripts, documentation, jeux de tests Effectuer les tests et contrôles (logique maker / checker) Participer aux mises en production et au support des équipes opérationnelles Collaborer avec les équipesIT et métiers dans un cadre Agile : backlog grooming, user stories, critères d'acceptation, démos de fin de sprint Contribuer à la qualité, la performance, la sécurité et la conformité des solutions livrées Être force de proposition dans une logique d' amélioration continue ✅ Profil recherché Profil confirmé avec environ 4 à 6 ans d'expérience en environnement Data / ETL Maîtrise impérative de : ETL (Datastage ou équivalent) SQL Shell scripting Habitué(e) aux méthodes Agile À l'aise dans des environnements structurés et exigeants Capacité à travailler en équipe, sens des responsabilités, rigueur Anglais professionnel requis Une expérience en environnement bancaire ou réglementé est appréciée mais non obligatoire
Freelance

Mission freelance
Business Analyst / Support – EQD Flow Platform - Paris

Net technologie
Publiée le
Business Analysis
Business Analyst
Finance

1 an
Paris, France
📈 Business Analyst / FO Support – EQD Flow Platform Nous recherchons un(e) Business Analyst pour rejoindre une plateforme stratégique dédiée aux produits EQD Flow , couvrant l’ensemble du cycle de vie des transactions Front Office. 🎯 Environnement moderne en architecture microservices & event sourcing , au cœur des activités Sales & Trading. 🚀 Missions : Intégration de nouveaux flux & enrichissement des produits existants Développement de nouvelles fonctionnalités autour des produits EQD Flow Collecte des besoins métiers, analyse & rédaction des spécifications Participation aux cycles complets : testing, release management, documentation, démos utilisateurs Support fonctionnel niveau 3 auprès des opérateurs Front Office Contribution aux réflexions transverses sur la cohérence métier & fonctionnelle 👉 Mission à forte visibilité au cœur d’une plateforme Front Office innovante et internationale.
Freelance
CDI

Offre d'emploi
Ingénieur de Production Senior – DevOps Azure - Env Windows

Taimpel
Publiée le
Azure DevOps
Dynatrace
microsoft

2 ans
44k-55k €
400-450 €
Hauts-de-Seine, France
🕐 Type de mission : Production / Support Applicatif / DevOps Contexte de la mission Dans le cadre du renforcement d’une équipe Application Support , nous recherchons un Ingénieur de Production Informatique Senior (DevOps Full Windows) pour intervenir sur un environnement applicatif critique à forte visibilité métier. La mission porte sur le support, la disponibilité et l’évolution des plateformes applicatives utilisées par des clients finaux ainsi que par les équipes internes de gestion et de souscription. Vous intégrerez une équipe Agile travaillant en étroite collaboration avec : les équipes de développement les équipes de production les équipes d’ infrastructure et d’architecture L’objectif principal est de garantir la disponibilité, la stabilité et la performance des applications , tout en contribuant à leur industrialisation et leur modernisation . Missions principalesProduction applicative et exploitation Assurer la disponibilité et la performance des applications Superviser les plateformes via des outils de monitoring (Dynatrace, Grafana, etc.) Diagnostiquer et résoudre les incidents de production Participer aux cellules de crise et aux analyses post-incidents Garantir la stabilité et la résilience des environnements applicatifs Déploiements et gestion des livraisons Coordonner les déploiements applicatifs sur les différents environnements Sécuriser les mises en production Superviser l'exécution des procédures de livraison Assurer la traçabilité des changements et le suivi des mises à jour Automatisation et industrialisation Développer des scripts et outils d’automatisation Industrialiser les processus de déploiement et de support Contribuer à la modernisation des outils de supervision et d’exploitation Améliorer en continu l’efficacité opérationnelle Gestion de l’infrastructure applicative Garantir la sécurité et la performance des infrastructures Participer à la maintenance et aux mises à jour des environnements Collaborer avec les équipes techniques pour optimiser les architectures Collaboration DevOps Travailler en interaction constante avec les équipes de développement Contribuer à l’amélioration des pipelines de déploiement Participer aux rituels Agile (planning, sprint, revue, etc.) Support opérationnel Participer aux astreintes et interventions hors horaires ouvrés si nécessaire Assurer un support applicatif de niveau avancé Compétences techniques attenduesEnvironnement Microsoft Windows Server (2012 / 2019 ou supérieur) IIS .NET Active Directory SQL Server Cloud et DevOps Azure (IaaS / PaaS) Azure DevOps Azure Data Factory Déploiements automatisés Certification AZ900 appréciée ou expérience équivalente. Production et automatisation PowerShell (v2 / v4) Gestion des pipelines et livraisons Automatisation des tâches d’exploitation Supervision et monitoring Expérience avec des outils tels que : Dynatrace Nagios AppDynamics Grafana Kibana PowerBI Ordonnancement et flux Orchestration de jobs (type TWS ou équivalent) Gestion des échanges de fichiers sécurisés Protocoles de transfert sécurisés (ex : CFT ) Expérience recherchée Nous recherchons un profil ayant : une expérience solide en production applicative une forte pratique de la gestion d’incidents en environnement critique une expérience confirmée en environnement Microsoft une bonne maîtrise des environnements Azure et Azure DevOps Une expérience dans des environnements à forte contrainte de disponibilité est fortement appréciée. Soft skills et mindset attendus Ce poste nécessite un profil ayant une excellente posture professionnelle . Le candidat devra démontrer : une excellente communication orale une présentation professionnelle irréprochable une capacité à interagir avec différents interlocuteurs techniques et métiers un esprit d’équipe fort Nous recherchons également une personne : motivée et impliquée proactive et force de proposition capable de travailler avec autonomie ayant un bon esprit d’analyse capable de garder son sang-froid en situation d’incident Environnement de travail Organisation en méthodologie Agile Interaction forte avec les équipes Dev, Ops et Infra Environnement technique riche et évolutif
Freelance
CDI

Offre d'emploi
Expert Data Engineer / DevOps

R&S TELECOM
Publiée le
Apache Kafka
Java
Kubernetes

6 mois
40k-45k €
400-500 €
Bordeaux, Nouvelle-Aquitaine
Contexte de la mission Dans le cadre d’un programme structurant de modernisation du système d’information , nous recherchons un profil Data Engineer / DevOps senior pour renforcer une équipe existante. La mission s’inscrit au cœur du SI cible , au service de plusieurs applications critiques orientées data, intégration et services temps réel. Le poste vise à industrialiser les chaînes DevOps et à structurer les flux Data Lake dans un environnement cloud native, fortement automatisé et orienté open source . Démarrage souhaité : mai / juin Localisation : Rive gauche bordeaux, nécessite un véhicule Objectifs de la mission Le rôle est double : DevOps / Plateforme Industrialisation et sécurisation des chaînes d’intégration et de déploiement Standardisation des pratiques GitOps sur un socle Kubernetes multi‑environnements Renforcement de l’automatisation et de l’observabilité des plateformes applicatives et data Data / Streaming Accompagnement à la conception et à la standardisation des flux data temps réel Structuration d’un Data Lake orienté streaming et lakehouse Garantie de la performance, de la résilience et de la maintenabilité des flux Domaines d’intervention & compétences clés Socle Kubernetes & DevOps Orchestration : Kubernetes (Namespaces, Ingress, RBAC) GitOps : GitLab CI, Helm, ArgoCD Observabilité : Grafana, Prometheus, Loki, Tempo Sécurité CI/CD : SAST, DAST, Trivy Environnements : OpenStack Écosystème Data & Data Lake Streaming & CDC : Kafka, Debezium Processing : Spark SQL, Airflow Lakehouse : Apache Iceberg Query Engine : Trino (PrestoSQL) Stockage objet : Ceph (ou équivalent) Micro‑services & APIs Runtimes : Java / Quarkus, Python API Management : Kong Protocoles : MQTT (atout) Optimisation des performances applicatives et data Livrables attendus (exemples) Socle & automatisation Mise en place d’architectures ArgoCD (Application of Applications) Catalogue de Charts Helm industrialisés Bibliothèque de pipelines GitLab CI/CD standardisés et sécurisés Data & Streaming Provisionnement automatisé des clusters Kafka et connecteurs Debezium Configuration optimisée de Trino sur stockage objet Mise en place des DAGs Airflow pour l’orchestration des traitements Documentation & MCO Dashboards de supervision avancés Rédaction du Dossier d’Architecture Technique (DAT) Rédaction de Runbooks MCO / PRA Définition de standards techniques et bonnes pratiques cloud native Profil recherché Expérience confirmée (5 à 8 ans minimum) en DevOps, Data Engineer ou Platform Engineer Très bonne maîtrise de Kubernetes et des pratiques GitOps Expérience concrète sur des plateformes Kafka et Data Lake À l’aise dans des contextes SI complexes et structurants Capacité à travailler en collaboration étroite avec équipes de développement, architectes et chefs de projet Autonomie, rigueur, sens de l’industrialisation
CDI

Offre d'emploi
Architecte Data - IBM InfoSphere DataStage PX

CAT-AMANIA
Publiée le
CI/CD
Exadata
Kubernetes

40k-73k €
Île-de-France, France
Offre d'emploi : Architecte Solution Data / Référent Technique Plateforme Dans le cadre du déploiement récent d'une infrastructure Data Factory d'envergure, comprenant un entrepôt de données transversal et un écosystème de services associés, un profil d'expert technique est recherché pour assurer la pérennité et l'évolution de la plateforme. Missions principales Le titulaire du poste agit en tant que référent sur l'ensemble des choix technologiques et architecturaux de la plateforme. Les responsabilités s'articulent autour des axes suivants : Conception et Architecture : Traduire les besoins métier en solutions fonctionnelles et techniques. Analyser les besoins, définir les solutions et valider les nouveaux cas d'usage. Gouvernance Technique : Identifier les écarts entre les besoins spécifiques et les fonctionnalités de la plateforme mutualisée. Maintenir la documentation technique (cartographies, dossiers d'architecture, principes d'éligibilité). Expertise Data : Garantir la qualité de la modélisation des données, du lignage et de la qualité des flux. Coordination : Assurer l'interface entre les référents IT (Projet/Production) et les interlocuteurs métier (CDO, utilisateurs finaux) pour définir les priorités et les trajectoires d'évolution. Accompagnement : Faciliter le travail des équipes de développement tout au long du cycle de vie des projets et garantir le respect des standards d'architecture. Compétences techniques requises Une maîtrise approfondie des environnements data complexes est indispensable, avec une expertise particulière sur les technologies suivantes : ETL : IBM InfoSphere DataStage PX (compétence critique). Bases de données : Oracle Exadata au sein d'une architecture de type "Data Mesh" multi-instances. Orchestration et CI/CD : AutoSys, Ansible, Jenkins. Environnement Cloud : Kubernetes. Développement et Monitoring : Notions en Java/Angular et utilisation de Dynatrace. Profil recherché Le candidat doit démontrer une capacité à prendre de la hauteur sur des problématiques complexes et à s'imposer comme un garant des choix d'architecture. Une aptitude à influencer les décisions stratégiques et une rigueur méthodologique dans la gestion du lignage et de la qualité des données sont essentielles. Ce poste s'adresse à un profil expérimenté possédant une vision transverse de la chaîne de valeur de la donnée, de l'ingestion à l'exposition.
5015 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous