Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 1 713 résultats.
CDI
CDD

Offre d'emploi
Technicien Support Applicatif N2 (H/F)

RIDCHA DATA
Publiée le
API REST
Confluence
JIRA

1 an
Sophia Antipolis, Provence-Alpes-Côte d'Azur
Contexte de la mission Dans le cadre d’une augmentation importante de la charge de travail , l’équipe support doit être renforcée afin de maintenir un niveau de service optimal. Le technicien interviendra au sein de l’équipe support pour assurer le traitement des demandes clients et le bon fonctionnement des applications . Missions principalesSupport technique et applicatif Assurer un support de niveau 2 via un outil de ticketing . Diagnostiquer et résoudre les incidents techniques et fonctionnels . Garantir le respect des SLA liés au traitement des demandes de support. Gestion des comptes et accompagnement client Configurer les comptes clients sur les différentes applications . Accompagner les clients dans l’ intégration et l’utilisation de la solution en collaboration avec l’équipe Customer Success Management (CSM) . Rédiger les communications clients en cas d’incident ou d’évolution. Supervision et maintenance Déployer et maintenir les outils de supervision de la solution . Participer au suivi du bon fonctionnement des services applicatifs . Documentation et amélioration continue Rédiger et maintenir les procédures de support (niveau 1 et niveau 2) . Participer à l’ amélioration des processus de support . Support opérationnel Bien que les appels entrants soient principalement traités par un prestataire externe , intervenir ponctuellement en débordement si nécessaire. Livrables attendus Traitement des tickets de support niveau 2 Respect des SLA de traitement Documentation des procédures de support Communications clients lors d’incidents ou évolutions Suivi des outils de supervision applicative Compétences techniquesCompétences indispensables REST / SOAP – Confirmé – Impératif Bonne connaissance des outils de ticketing Compétences appréciées Jira Confluence Langues Anglais professionnel – impératif Environnement de travail Environnement éditeur logiciel Collaboration avec les équipes support, technique et Customer Success Méthodologie Agile (appréciée)
CDI

Offre d'emploi
Consultant DataOps / Administrateur Hadoop

Craftman data
Publiée le
Ansible
CI/CD
Docker

La Défense, Île-de-France
Dans le cadre de ses projets Big Data internes, notre client recherche un Consultant DataOps & Administrateur Hadoop confirmé , intégré à l’équipe BDP (Big Data Platform) . Le consultant interviendra sur le déploiement, l’industrialisation, l’exploitation et le maintien en condition opérationnelle de clusters Big Data personnalisés, basés sur la TOSIT Data Platform (TDP) , au service des projets data et métiers. 🎯 Rôle et responsabilités 1. Déploiement & industrialisation des clusters Big Data Déploiement automatisé de clusters via pipelines Jenkins Installation et configuration des composants Hadoop via Ansible Adaptation des architectures selon les besoins projets (sécurité, performance, capacité) Contribution aux pratiques CI/CD et Infrastructure as Code Déploiement et administration du TDP Manager Mise en place de Hue pour les environnements Datalab 2 . Administration avancée de la stack Hadoop / TDP Le consultant est responsable de l’installation, la configuration et l’exploitation de : Sécurité & identités : OpenLDAP Kerberos Ranger (politiques de sécurité) Stockage & calcul distribué : HDFS (baie Huawei) Hadoop (YARN, services core) Traitement & accès aux données : Spark Hive Services transverses : ZooKeeper PostgreSQL Responsabilités associées : Gestion des dépendances inter-services Cohérence des versions Optimisation des performances et de la stabilité Résolution des incidents complexes 3. Provisionnement & automatisation des environnements Provisionnement de VM sous VMware Préparation des prérequis systèmes (OS, réseau, stockage) Automatisation via Ansible et scripts Bash Gestion des environnements DEV / RECETTE / PROD 4. Observabilité, supervision & anticipation Mise en œuvre et maintien de la stack d’observabilité : Prometheus Alertmanager Loki / Promtail Grafana Définition des indicateurs de supervision Analyse proactive des alertes Diagnostic et résolution d’incidents 5. Maintien en Condition Opérationnelle (MCO) Administration quotidienne des clusters Hadoop Support aux équipes projets et utilisateurs Datalab Gestion des incidents, demandes d’évolution et correctifs Montées de version Suivi de capacité (CPU, RAM, stockage) Rédaction et mise à jour de la documentation technique 🤝 Interaction & posture attendue Participation active aux rituels d’équipe Coordination avec : Équipes infrastructure Équipes projets data / métiers Référents sécurité Capacité à accompagner et conseiller les équipes dans l’usage de la plateforme Forte capacité de communication transverse 🧠 Compétences clés attendues Techniques Expertise Hadoop / Big Data on-prem Solide expérience DataOps / DevOps Maîtrise de : Jenkins, GitLab CI/CD, SonarQube Ansible, Bash VMware, Docker Stack d’observabilité (Prometheus, Grafana, Loki) Méthodologiques & soft skills : Rigueur et sens de la qualité Forte sensibilité aux enjeux de sécurité Capacité d’anticipation (supervision, performance, capacité) Autonomie et esprit d’équipe Aisance dans des environnements complexes et critiques ⚠️ Points de vigilance Forte interdépendance des composants Hadoop Exigences élevées en matière de sécurité (Kerberos, Ranger) Enjeux de performance et de disponibilité Nécessité d’une coordination transverse permanente
Freelance
CDI
CDD

Offre d'emploi
DevOps & SRE Engineer (H/F)

RIDCHA DATA
Publiée le
Agile Scrum
Ansible
AWS Cloud

1 an
40k-51k €
370-440 €
Paris, France
Contexte de la mission Dans le cadre d’une stratégie de transformation vers le cloud public , une grande organisation internationale poursuit la modernisation de ses infrastructures et de ses plateformes de développement. L’objectif est de faire du cloud public la principale plateforme d’hébergement des applications , tout en renforçant les pratiques DevOps, la fiabilité des systèmes et l’automatisation des processus. Dans ce contexte, l’équipe Cloud / DevOps Platform souhaite renforcer son expertise afin d’améliorer : les plateformes CI/CD la Developer Experience la sécurité et la conformité des environnements Missions principales En tant que DevOps & SRE Engineer , vous interviendrez sur les plateformes DevOps et le backbone du Software Development Life Cycle (SDLC) . Vous évoluerez dans un environnement agile (SCRUM / SAFe) favorisant la collaboration, la transparence et l’amélioration continue. Automatisation et infrastructure Concevoir, développer et maintenir des automatisations d’infrastructure via Terraform et Ansible . Développer des intégrations et automatisations permettant d’améliorer la fiabilité et la performance des plateformes . Fiabilité et exploitation (SRE) Mettre en place et améliorer les processus d’automatisation et de gestion des incidents selon les principes Site Reliability Engineering (SRE) . Garantir la stabilité, la sécurité et la scalabilité des environnements. Evolution des plateformes Contribuer à l’évolution du backbone SDLC afin de répondre aux besoins métiers et aux exigences opérationnelles. Participer à l’amélioration des pratiques DevOps, sécurité et conformité . Collaboration et accompagnement Collaborer avec les équipes techniques, les équipes produit et les parties prenantes . Accompagner et mentorer les ingénieurs SRE et les équipes de développement . Environnement techniqueDevOps / CI-CD GitHub Enterprise Server (GHES) Pipelines CI/CD Pratiques DevSecOps Infrastructure as Code Terraform Ansible Cloud Microsoft Azure AWS Environnements hybrides et gestion de résidence des données Monitoring et exploitation Outils de monitoring et d’alerting Gestion des incidents Outils collaboratifs Jira Confluence Langages / scripting Bash PowerShell Méthodologie Agile : SCRUM / SAFe Culture DevOps et amélioration continue Approche SRE (Site Reliability Engineering)
Freelance
CDI

Offre d'emploi
Senior IT Project Manager – Programme Data

Gentis Recruitment SAS
Publiée le
Data governance
Data management
Service Delivery Management

12 mois
Paris, France
Contexte de la mission Dans le cadre d’un programme stratégique de transformation data à l’échelle internationale, notre client recherche un Senior IT Project Manager pour piloter le déploiement d’un backbone data B2B. Le programme vise à : standardiser les définitions de données B2B industrialiser les contrôles de qualité de données fiabiliser le reporting multi-pays aligner les processus Sales, Finance, Risk, Operations et Carbon fournir une source de vérité unique (single source of truth) Le périmètre couvre plusieurs entités internationales (Europe, Amériques, APAC) dans un environnement fortement gouverné. Objectifs de la mission Le consultant interviendra en responsabilité sur le pilotage global des activités IT liées au programme. Principales responsabilités : Déployer et améliorer les indicateurs et métriques B2B Piloter l’onboarding des parties prenantes Garantir le respect des objectifs, du périmètre, des délais, du budget et de la qualité Coordonner la communication projet et la gestion des stakeholders Piloter les risques, incidents et changements Assurer le steering IT et la delivery des développements selon la roadmap Coordonner les équipes IT locales, architectes et parties prenantes internationales Assurer le reporting auprès des instances de gouvernance Livrables attendus Planning de suivi projet Définition et suivi du périmètre Planification capacitaire Reporting de gouvernance Suivi des risques et plans de remédiation Points différenciants (fortement valorisés) Expérience programmes data backbone / data governance Contexte grands groupes internationaux Coordination multi-pays Interaction Data Office / Product Owners Environnements fortement gouvernés
CDI
CDD

Offre d'emploi
Lead Developer .NET / Vue.js

RIDCHA DATA
Publiée le
.NET
API REST
Vue.js

1 an
Lyon, Auvergne-Rhône-Alpes
Contexte de la mission Dans le cadre d’un projet applicatif stratégique , un Lead Developer .NET / Vue.js est recherché afin de piloter techniquement une équipe de développement. Le Lead Developer interviendra au sein d’une squad composée de 5 personnes : 2 développeurs Full Stack 1 Architecte 1 développeur Backend (mi-temps) 1 alternante L’objectif est d’assurer le pilotage technique des développements , garantir la qualité des livrables et accompagner l’équipe dans la réalisation des projets. Missions principalesPilotage technique Encadrer techniquement les développeurs afin de garantir le respect des standards et exigences technologiques . Participer aux choix techniques et à l’architecture applicative . Assurer la qualité du code et des bonnes pratiques de développement . Développement Participer activement aux développements applicatifs en .NET et Vue.js . Contribuer au développement et à la maintenance des applications existantes . Intervenir sur le développement d’ API et d’applications client lourd . Coordination et suivi Identifier et anticiper les points bloquants techniques . Assurer un reporting régulier auprès des parties prenantes du projet. Accompagner les membres de l’équipe dans leur montée en compétences. Environnement technique .NET Vue.js API REST Architecture applicative Développement client lourd Organisation du travail 3 jours sur site à Lyon 2 jours en télétravail
Freelance

Mission freelance
Data Scientist orienté Marketing- H/F

Wekey
Publiée le
Data science

6 mois
600-660 €
Niort, Nouvelle-Aquitaine
Hello ! Nous c’est WEKEY ! Nous ne sommes ni une ESN ni un cabinet de recrutement. Aaah mais qui sommes-nous alors ? Pour tout savoir sur nous et votre future mission c’est par ici 😁⬇ Vous êtes Data Scientist orienté Marketing H/F et vous recherchez une mission en freelance ? Nous avons le projet qu’il vous faut pour l'un de nos clients basé à Niort dans le secteur des assurances. CE QUI VOUS ATTEND 👀 Dans le cadre de la mission votre rôle sera : Cadrage des besoins métiers (Marketing) Identification de cas d’usage IA (segmentation, churn, appétence, reco produit…) Analyse et préparation des données Conception, entraînement et évaluation de modèles ML Implémentation en Python jusqu’à la mise en production Présentation et vulgarisation des résultats Force de proposition sur des approches innovantes
Freelance

Mission freelance
Tech Lead DBT

CONCRETIO SERVICES
Publiée le
Data governance
DBT

12 mois
400-650 €
Île-de-France, France
Nous recherchons en urgence un Tech Lead / Architecte DBT pour rejoindre l'équipe de notre client et piloter la mise en place d’une nouvelle plateforme data basée sur DBT . Notre client souhaite industrialiser sa plateforme DBT. Jusqu’à présent, seules des POC ont été réalisés et nous avons besoin d’un profil expérimenté pour : Définir le socle et l’architecture cible Poser les bonnes pratiques et standards Expliquer comment construire et opérer une plateforme DBT Mettre en place des pipelines CI/CD garantissant une excellente expérience Data Engineer Missions principales Le Tech Lead DBT devra : Concevoir et construire la plateforme DBT from scratch Définir les bonnes pratiques, patterns et standards : naming, tests, linters, modèles, orchestration, etc. Mettre en place les pipelines CI/CD adaptés à DBT Garantir une expérience développeur optimale (DX) pour les data engineers Monter rapidement en compétence sur GCP (une carence identifiée mais surmontable) Collaborer quotidiennement avec les équipes pour assurer une intégration réussie Contribuer à un programme structurant autour de S3NS
Freelance

Mission freelance
Consultant Corporate Finance (Lyon)

SQLI
Publiée le
Data management

6 mois
400-550 €
Lyon, Auvergne-Rhône-Alpes
Hello, Pour le compte de l'un de mes clients dans le secteur d'éléctroménager, je suis à la recherche d'un consultante corporate finance. Le rôle du corpo Finance : • Gestion de projet avec la capacité de coordonner efficacement diverses parties prenantes en tant que Business & Développeurs. • Collecte des exigences du côté commercial. • Rédaction de spécifications fonctionnelles, garantissant une documentation claire et précise. • Aider les développeurs avec les tests initiaux. • Soutenir les utilisateurs avec des tests d’acceptation, des formations, etc. Le candidat doit avoir des connaissances commerciales significatives dans les sujets de vente. La familiarité avec SAP BW ou SQL, permettant une interaction avec les outils d’analyse de données et de reporting, serait un avantage.
CDD
CDI
Freelance

Offre d'emploi
Architecte DATA  Sénior

KEONI CONSULTING
Publiée le
Big Data
SQL
Teradata

18 mois
20k-60k €
100-600 €
Lyon, Auvergne-Rhône-Alpes
"Contexte du besoin Nous recherchons un profil senior en architecture Data afin de nous accompagner dans la définition de l'architecture Data cible, la mise en oeuvre de la nouvelle plateforme Data dans un ecosysteme exisant. Le profil devra accompagner à la définition de l'architecture Data cible, la définition des standards, normes et bonnes pratique sur l'ensemble des socles Data et la mise en œuvre de la nouvelle plateforme Data. MISSIONS - Définir l’architecture cible Data : concevoir l’architecture Data cible de la fédération, alignée avec la stratégie globale Data et les principes Data‑Centric et définir les patterns d’intégration et les couches fonctionnelles de la future plateforme (ingestion, traitement, stockage, exposition). - Concevoir l’architecture de la nouvelle plateforme Data : concevoir l’architecture technique globale de la plateforme, en intégrant l’écosystème existant (Teradata, Hadoop) et la stratégie d’évolution (cloud ou on‑prem, gouvernance, scalabilité). Proposer la trajectoire d’évolution permettant la transition vers la nouvelle plateforme (stratégie de migration, coexistence, phasage). - Modélisation des données et harmonisation : concevoir les modèles de données harmonisés (modèle cible, datamarts, vues métiers, glossary). Définir les principes de modélisation à appliquer selon les usages : analytique, opérationnel, data products. - Data Products & accompagnement métiers : accompagner les équipes métiers dans la conception et la structuration des data products. Garantir la cohérence des data products avec les modèles de données, les standards d’intégration et l’architecture cible. - Définition et formalisation des standards Data : définir les standards d’intégration, de transformation, de stockage et d’exposition des données. Proposer et formaliser les bonnes pratiques autour des outils de l’écosystème (outils d’ingestion, qualité, orchestrateurs, catalogage, gouvernance). Le profil devra justifier : - d’une expérience confirmée dans la conception et la mise en œuvre de plateformes Data modernes, - d’une expertise en architecture Data (modèles de données, intégration, scaling, sécurité, qualité), - d’expériences significatives sur des projets incluant : la définition d’architectures cibles, la conception de modèles de données complexes, l’accompagnement de trajectoires de migration (Hadoop, Teradata ou plateformes équivalentes), la mise en place de data products et d’approches orientées produit." Environnement technologique actuel : Teradata,SQL, Datastage, Power BI, Hadoop Cloudera, Hive, Impala, Python" Livrables attendus Dossiers d'architecture cible, générale et détailée Cartographie des flux et sources de données Schéma d'intégration avec l'écosystem existant Documents de description des standards, principes et bonnes pratiques Feuille de route et trajectoire cible Ateliers et comptes rendus Support de présentation architecture et dossiers d'arbitrages Environnement technique - technologique Environnement technologique actuel : Teradata,SQL, Datastage, Power BI, Hadoop Cloudera, Hive, Impala, Python Compétences Data Conception d'architecture plateforme Data : - maitrise des architectures Data - maitrise patterns d'ingestion, stockage, transformation, exposition, - capacité à concevoir une architecture cible cohérente avec le SI existant" Modélisation des données : - concevoir des modèles conceptuels, logiques et physiques ; -harmoniser et rationaliser les modèles dans une logique Data Centric ; - appliquer des standards et bonnes pratiques (normalisation, typage, granularité, qualité)." Définition, conception et urbanisation de Produits Data Définition des standards, normes et bonnes pratiques Accompagnement, communication et alignement multi-acteurs "Compétence liée à l'environnement " "Expérience dans l'écosystème de la protection sociale (Retraite Complémentaire idéalement)"
CDI
Freelance

Offre d'emploi
Data Scientist Computer Vision

Craftman data
Publiée le
Data science
Deep Learning
Google Cloud Platform (GCP)

3 mois
Grand Est, France
Dans le cadre de notre croissance, nous renforçons notre équipe data et recherchons un(e) Data Scientist spécialisé(e) en Computer Vision pour concevoir des solutions IA à fort impact business dans l’univers de l’ aménagement intérieur . Notre ambition : exploiter la donnée et l’IA pour aider les équipes commerciales à identifier les besoins clients et à configurer des scènes d’ameublement en temps réel , directement à partir d’images. 🎯 Vos missions Développer des modèles de Computer Vision (détection, segmentation, classification d’images) Transformer des images en insights actionnables pour les équipes commerciales Déployer et maintenir des solutions de traitement d’images en production sur GCP (Vertex AI) Concevoir des pipelines et algorithmes de visualisation temps réel de scènes d’ameublement Collaborer étroitement avec les équipes métier pour traduire les enjeux business en solutions techniques Participer au déploiement en production et aux bonnes pratiques MLOps Assurer une veille technologique continue en vision par ordinateur 🧠 Profil recherché Bac+5 en Data Science, IA, Informatique ou équivalent Minimum 2 ans d’expérience en Computer Vision dans des contextes similaires Solide maîtrise du Machine Learning / Deep Learning Très bonne maîtrise de Python et des frameworks TensorFlow / PyTorch Expérience du déploiement de modèles sur GCP / Vertex AI Connaissance des pipelines de production et des pratiques MLOps Capacité à comprendre les enjeux business et à travailler avec des équipes commerciales Autonomie, rigueur et curiosité technologique ✨ Pourquoi nous rejoindre ? Projets innovants à forte valeur business Impact direct sur les ventes et l’expérience client Environnement technologique moderne et stimulant Télétravail flexible et équipe collaborative
Freelance
CDI
CDD

Offre d'emploi
Incident Manager N2 (IDF)

RIDCHA DATA
Publiée le
PowerBI
Réseaux
ServiceNow

1 an
40k-45k €
310-350 €
Île-de-France, France
Présentation du service Au sein d’une direction en charge des infrastructures télécom, réseaux et sécurité , l’équipe dédiée assure un rôle transverse dans la gestion des activités opérationnelles et de gouvernance. Cette équipe intervient principalement sur trois axes : Gouvernance : gestion des processus et référentiels, suivi des indicateurs et tableaux de bord, gestion des dossiers transverses (organisation, conformité…). Troubleshooting avancé : analyse de traces réseau, analyse de trafic bas niveau, qualification des incidents et expertise technique. Gestion de projets transverses . Le poste est rattaché à l’activité gouvernance des infrastructures IT . L’équipe est composée de collaborateurs répartis entre la France et l’international . Principales missionsAnimation et coordination Organiser et animer différents comités opérationnels (comité de production, comité de changements, etc.). Assurer la coordination des réunions avec les équipes locales et internationales . Suivi réglementaire et conformité Suivre différents dossiers réglementaires et de conformité : contrôles permanents recommandations d’audit suivi de l’obsolescence des infrastructures Assurer le suivi des actions, des plannings et des alertes . Pilotage et reporting Générer des tableaux de bord opérationnels : capacity planning des infrastructures suivi de l’obsolescence indicateurs RSE Mettre en place et suivre les indicateurs de performance (KPI) . Produire des indicateurs de qualité liés aux changements, incidents, sauvegardes et inventaires. Gestion des habilitations Assurer la gestion et la mise à jour du référentiel des habilitations . Gestion des incidents majeurs (Incident Manager N2)Gestion des incidents critiques Coordonner la résolution rapide des incidents majeurs (P1/P2) . Mobiliser les équipes techniques afin d’assurer un retour à la normale dans les meilleurs délais . Communication de crise Assurer une communication claire et régulière auprès des parties prenantes (équipes internes, direction, utilisateurs). Analyse post-incident Réaliser les analyses de causes racines (RCA) . Rédiger les rapports post-incident et proposer des actions correctives . Suivi des performances Suivre les SLA et KPI liés aux incidents . Produire des tableaux de bord et participer aux comités de pilotage . Amélioration continue Collaborer avec les équipes support, infrastructure, développement et sécurité afin d’améliorer les processus de gestion des incidents. Compétences requisesCompétences techniques Génération d’ indicateurs et tableaux de bord – Confirmé – Impératif Maîtrise de Power BI et PowerPoint – Confirmé – Impératif Bases en réseaux, télécoms et sécurité en environnement de production – Confirmé – Important Connaissance des outils Splunk et ServiceNow – Junior – Appréciable Langues Anglais professionnel – impératif
Freelance
CDI

Offre d'emploi
Chef de Projet IT Data Confirmé

Gentis Recruitment SAS
Publiée le
Data governance
Data management
Gestion de projet

12 mois
Paris, France
Contexte de la mission Dans le cadre d’un programme international de déploiement de Data Products au sein d’une entité majeure du secteur de l’énergie, nous recherchons un Chef de Projet IT confirmé . La mission porte sur la coordination du déploiement mondial de 3 à 4 solutions data couvrant notamment : Gestion des données fondamentales Données de production (éolien, solaire) Données de marché Les déploiements concerneront plusieurs pays : UK, US, Italie, Espagne. Objectifs de la mission Définir le planning d’adoption multi-pays Coordonner les chefs de projets produits Piloter une équipe transverse de 3 à 4 personnes Assurer reporting, gestion des risques et suivi budgétaire Garantir le respect qualité / coûts / délais Responsabilités principalesPilotage projet Planification et suivi opérationnel Coordination internationale Gestion des dépendances techniques Animation des comités de pilotage Gouvernance & Data Interaction avec Data Owners, Data Stewards, Data Custodians Compréhension des enjeux de data management Gestion des risques IT et SLA Déploiement Coordination des mises en production Organisation du support et maintenance Accompagnement des utilisateurs
Freelance
CDI

Offre d'emploi
Data Engineer Big Data

KLETA
Publiée le
Apache Kafka
Apache Spark
ELK

3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Data Engineer Big Data pour concevoir et industrialiser des plateformes de traitement de données à grande échelle. Vous analyserez des architectures existantes, proposerez des trajectoires d’évolution (modernisation des pipelines, optimisation des traitements distribués, passage vers des architectures plus scalables et temps réel) et guiderez leur mise en œuvre avec Spark, Kafka et les écosystèmes Big Data. Vous serez responsable de la refactorisation et de l’optimisation des pipelines de données, de l’amélioration des performances et de l’intégration de mécanismes de fiabilité et d’observabilité des flux. Vous travaillerez main dans la main avec les équipes Cloud et DevOps pour adapter les traitements aux pipelines CI/CD et aux contraintes d’exploitation. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes client sur les meilleures pratiques de data engineering et d’industrialisation. Votre mission combinera expertise technique, rigueur méthodologique et capacité à structurer des solutions pérennes.
Freelance
CDI

Offre d'emploi
Développeur Sénior backend Java Core - Multithreading calculs distribués (7 ans et plus)

Digistrat consulting
Publiée le
Big Data
DevOps
Java

3 ans
50k-70k €
500-600 €
Paris, France
🏭 Secteurs stratégiques : Banque d’investissement PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Au sein d’une équipe qui travaille sur une application d'aide à la décision pour le trading. Elle permet de gérer des données historiques sur les clients, et les données de marché, ainsi que des données intraday et des mesures de risques, il permet aussi de visualiser les axes de trading. L’application utilise Angular 15 comme front end, Java 11 et Python 2 en back end, et Apache ignite pour le calcul distribué, et Mongo DB comme base de données. Pour la partie déploiement, on utilise Docker / Kubernetes et Jenkins
CDI
Freelance

Offre d'emploi
Consultant/te Senior Support & Configuration Collibra

Craftman data
Publiée le
AWS Cloud
Collibra
Databricks

3 mois
Île-de-France, France
Localisation : Région Parisienne Présence : 2 à 3 jours par semaine sur site (candidat hors Paris : 1 jour/mois) Démarrage : ASAP Durée : Jusqu’au 30/06/2026 (mission de 3 mois renouvelable) Contexte de la mission Dans le cadre du renforcement de sa plateforme de Data Gouvernance , notre client recherche un Consultant Senior Collibra Support & Configuration afin d’assurer l’administration avancée, le support technique de niveau 3 et l’optimisation de la plateforme Collibra. Le consultant interviendra également sur l’intégration de Collibra avec les systèmes internes et accompagnera les entités métiers dans leur adoption de la solution. Missions principales Administration et support avancé Administrer la plateforme Collibra (utilisateurs, rôles, groupes, permissions, domaines) Maintenir et faire évoluer le métamodèle Collibra Surveiller les performances de la plateforme Diagnostiquer et résoudre les incidents complexes ( support niveau 3 ) Assurer le suivi technique avec l’éditeur si nécessaire Intégration et automatisation Intégrer Collibra avec les systèmes internes et outils de l’écosystème data Configurer et maintenir les connecteurs Collibra Exploiter les API REST Collibra pour automatiser les processus Développer des scripts Python pour automatiser l’ingestion et la mise à jour des métadonnées Configurer et optimiser les workflows Collibra Mettre en œuvre des mécanismes d’automatisation et d’optimisation continue Accompagnement des entités Assurer le support fonctionnel et technique N3 via JIRA Adapter les configurations et le modèle opérationnel aux besoins métiers Créer des tableaux de bord personnalisés (HTML) Animer des sessions d’intégration, de démonstration et de formation Accompagner les équipes dans leur onboarding sur Collibra Être le référent technique Collibra auprès des équipes Data Gouvernance Profil recherché Consultant senior spécialisé sur la plateforme Collibra , avec une forte expertise en administration, intégration et automatisation. Expérience : Minimum 5 ans d’expérience 3 à 5 ans minimum sur Collibra Maîtrise avancée de Collibra Gestion du métamodèle, workflows et ingestion de métadonnées Expérience avec Collibra Edge Intégration et développement API REST Collibra Scripting Python Compréhension des architectures d’intégration (connecteurs, API) Systèmes et outils data Bases de données : Oracle, SQL Server, PostgreSQL, Teradata Databricks SAP : SAP BW, SAP HANA, S/4HANA LeanIX Services cloud : AWS Outils BI : Power BI Outils JIRA Création de dashboards HTML Compétences fonctionnelles Bonne compréhension des concepts de gouvernance des données et de gestion des métadonnées Capacité à accompagner les métiers dans l’adoption des outils Bon relationnel et capacité à intervenir dans des environnements complexes
Freelance

Mission freelance
Développeur Talend

Mindquest
Publiée le
Data Lake
Gouvernance
Talend

8 mois
400-500 €
Châtillon, Île-de-France
Développer et mettre en œuvre de nouveaux pipelines d’intégration de données sur les plateformes existantes. Participer à la modélisation, au paramétrage, au développement et aux phases de test des solutions data. Assurer le maintien en condition opérationnelle (MCO) des pipelines et des plateformes de traitement des données. Contribuer à la gouvernance des plateformes en veillant au respect des processus et des standards techniques. Apporter un support technique aux équipes projets (équipes SI, équipes data et parties prenantes internes). Garantir la qualité, la sécurité et la fiabilité des flux de données intégrés dans le Data Lake. Participer à la définition et à l’amélioration des bonnes pratiques de développement, d’architecture et de gestion de configuration. Concevoir et maintenir les infrastructures de traitement de données permettant de gérer des volumes importants de flux. Superviser l’intégration et la qualité des données provenant de sources multiples . Contribuer à la cartographie des sources de données et à la structuration des bases de données . Réaliser une veille technologique sur les solutions de traitement et d’exploitation de la donnée.

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

1713 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous