Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 6 444 résultats.
Freelance

Mission freelance
Project Manager (GRC IA CLOUD DATA)

Groupe Aptenia
Publiée le
Cloud
Data management
Gouvernance, gestion des risques et conformité (GRC)

6 mois
400-600 €
Paris, France
🎯𝐓𝐨𝐧 𝐭𝐞𝐫𝐫𝐚𝐢𝐧 𝐝𝐞 𝐣𝐞𝐮 : - Piloter les analyses de risques IT & cybersécurité sur des projets innovants (IA, Cloud, Data) - Accompagner les projets en apportant expertise sécurité et conseil (data protection, conformité, architecture) - Identifier, qualifier et suivre les risques, vulnérabilités et plans de remédiation - Assurer la conformité des projets IT (y compris third parties) et la résilience opérationnelle - Préparer et animer les comités de validation (risk, sécurité) 🛠️ Gouvernance & GRC - Intégrer les analyses dans l’outil GRC Groupe - Contribuer au programme cybersécurité (référentiel NIST CSF) - Produire le reporting (KPI, tableaux de bord, comités) - Maintenir et améliorer les politiques et procédures 🤝 Environnement - Collaboration avec équipes IT, métiers, sécurité, data, juridique et compliance - Contexte international et multi-sites
Freelance

Mission freelance
POT8985 - Un Lead Data Continuity sur Meudon

Almatek
Publiée le
Big Data

6 mois
400-550 €
Meudon, Île-de-France
Almatek recherche pour l'un de ses clients, un Lead Data Continuity sur Meudon. Objectif : Diagnostiquer les risques liés à la maturité et à la continuité des données Sécuriser les décisions clés de conception (KDD) Concevoir et contribuer au lancement d'un hub de continuité des données permanent Activités : Concevoir et déployer un cadre de maturité structuré Animer des ateliers multi-entités Réaliser des profils de données Élaborer des cartographies de maturité inter-groupes Identifier les risques systémiques Fournir une feuille de route de remédiation priorisée
Freelance

Mission freelance
POC TOM Deployment Focus Data

NOVAMINDS
Publiée le
Comptabilité
Trésorerie

4 mois
400-710 €
Paris, France
Objectif de la mission Au service du Groupe et de ses clients finaux, le client a en charge la gestion des équilibres du bilan et des risques structurels du Groupe ainsi que le refinancement des Métiers. Dans un contexte réglementaire en pleine évolution et afin de faire face à ces nouveaux enjeux, ce métier doit faire évoluer ses systèmes d'information en profondeur (gestion de la Liquidité, tarification interne...). Dans le cadre de la redéfinition de son Target Operating Model, ainsi que l'implémentation de son plan de transformation IT mais également dans un contexte où, en cohérence avec la stratégie du Groupe, le client déploie et adapte ses outils de pilotage et de reportings à un nouvel outil comptable, un certain nombre de processus doivent être testés et mis en place. En l'occurrence et afin de répondre à ses différents mandats, le client a défini un set de données critiques adressé à la comptabilité dont la mise à disposition dans un timing approprié et à une granularité et qualité suffisante sont structurantes dans la réalisation de ses différents mandats. Ces données doivent notamment s’insérer dans les processus quotidiens du client permettant la construction des métriques de risque associées (impasse de Liquidité, bilan spot, impasse de taux, Taux de Cession Interne, P&L,…). Prestations demandées - Recueil des besoins du client et guidelines associées - Etre en capacité d'analyser les plans de comptes comptables transmis par les équipes Finance - Autonomie - Interactions avec les équipes Finance, IT Finance, IT client, client (Animation + contribution lors de meeting dédiés) - Mise en place de contrôles ad-hoc et récurrents relatifs à la fiabilisation des données comptables et extra-comptables transmises par Finance à la fois en amont mais également dans le cadre de leur intégration dans les outils client - Lien avec Finance pour compréhension, cadrage et paramétrage du bilan des entités - Réalisation de tests fonctionnels relatifs à la mise en place de nouvelles évolutions (système d'opérations, systèmes comptables, systèmes client) - Etre un point de contact privilégié en matière d'architecture (Système de booking d'opérations --> Comptabilité --> Systèmes client) et de sourcing de donnée - Animation des comités utilisateurs - Réalisation de paramétrage en adéquation avec les conventions de rachats par le client des éléments du bilan des entités
Freelance

Mission freelance
Business Analyst Finance DATA / IA - Paris

Net technologie
Publiée le
Big Data
Elasticsearch
Méthode Agile

9 mois
Paris, France
Dans le cadre d’un programme réglementaire stratégique, nous recherchons un Senior Business Analyst pour contribuer à l’industrialisation d’une plateforme globale de Front Office destinée à renforcer la supervision des activités de trading et de sales. 🎯 Objectif : développer une plateforme de monitoring couvrant communications, ordres, transactions et données associées , intégrant des technologies d’analyse avancées (NLP / IA). 🚀 Missions Recueil et formalisation des exigences fonctionnelles et use cases Rédaction des spécifications fonctionnelles et techniques Coordination avec les Data Engineers et les équipes projet Participation aux sprints Agile et suivi des livraisons Conception de la stratégie data pour l’analyse multi-sources Organisation et pilotage des tests UAT Collaboration avec les équipes Business, Compliance et IT
CDI

Offre d'emploi
Product Owner Data F/H - Informatique de gestion (H/F)

█ █ █ █ █ █ █
Publiée le
Scrum

Marseille, Provence-Alpes-Côte d'Azur

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Ingénieur Production BI : Expert Microsoft (Power BI / SSIS) (H/F)

Link Consulting
Publiée le
BI
microsoft

1 mois
600-700 €
Paris, France
Notre client, acteur majeur du secteur bancaire, recherche un Ingénieur de Production / Middleware spécialisé Microsoft BI (H/F) pour renforcer ses équipes sur un projet critique de build et d’industrialisation des plateformes. Vos missions : Au sein d’une équipe en charge de l'ingénierie des outils BI & ETL, vous interviendrez sur la conception et l'automatisation des environnements Microsoft dans un contexte à forte contrainte opérationnelle. * Build & Ingénierie : Réaliser l’installation et le paramétrage "from scratch" d'infrastructures Power BI Report Server, SSIS et SSRS. * Architecture Technique : Définir l’architecture cible, rédiger les Dossiers d’Architecture Technique (DAT) et assurer l'évolution des environnements. * Automatisation & DevOps : Piloter l’industrialisation des déploiements via Ansible et les outils de CI/CD (XL Release / XL Deploy). * Administration Middleware : Assurer le maintien en condition opérationnelle (MCO) et l'optimisation des serveurs Web IIS et des instances SQL Server. * Sécurisation : Contribuer aux dispositifs de sécurité (SSO, certificats, Kerberos), aux plans de sauvegarde et à la continuité de service (PCA/PRA). * Support & Expertise : Réaliser des diagnostics complexes sur la stack Microsoft, identifier les causes racines et rédiger les procédures d’exploitation pour les supports N1/N2. Compétences techniques : * Expertise Microsoft BI (Power BI RS, SSIS, SSRS) – côté infrastructure et administration. * Maîtrise du Middleware Windows : IIS (Internet Information Services) et gestion des instances SQL. * Industrialisation : Maîtrise d’Ansible et connaissance des outils XL Deploy / XL Release. * Environnements : Expertise Windows Server (et notions Linux). * Sécurité & Réseau : Compétences en SSO, Active Directory et gestion des flux sécurisés. * Documentation : Capacité à rédiger des dossiers d’architecture et des procédures d’exploitation rigoureuses.
CDI

Offre d'emploi
Consultant décisionnel BI - Energie H/F

VIVERIS
Publiée le

45k-50k €
France
Contexte de la mission : Viveris vous propose de rejoindre un projet stratégique en tant que Consultant Décisionnel BI, au sein d'une squad agile intervenant pour un client majeur du secteur de l'énergie. Vous intégrerez une équipe en charge d'une solution de reporting et d'analyse de données, visant à consolider, fiabiliser et restituer les informations issues des activités de notre client, afin de faciliter le pilotage opérationnel et métier. Vous évoluerez au sein d'une équipe d'une dizaine de personnes, composée notamment d'un Chef de projet, d'un Product Owner, de développeurs BI, d'un Lead Tech et de profils DevOps. Responsabilités : - Analyser les besoins fonctionnels et techniques ; - Modéliser et enrichir les datawarehouses (entrepôts de données) et les datamarts (magasins de données) ; - Concevoir des rapports et tableaux de bord clairs, et adaptés aux besoins métiers ; - Tester et valider la qualité ainsi que la performance des livrables.
Freelance
CDI

Offre d'emploi
Delivery Manager Data

VISIAN
Publiée le
Architecture
Big Data
Databricks

1 an
Paris, France
Contexte de la mission Le programme vise à doter le reporting financier de capacités de pilotage et d'analyse de la marge, de prévisions financières, de gestion du budget et des opérations de clôture. La solution s'appuie sur une plateforme Data centralisée agrégeant les flux provenant des systèmes de facturation, de pricing et de sourcing d'énergie. Le programme est structuré autour de trois familles d'équipes : 3 équipes en charge de la visualisation des chiffres et de l'expérience utilisateurs Contrôle de Gestion 2 équipes Data en charge de l'ingestion, de la transformation et de la qualité des données Une équipe Plateforme assurant la maintenance du socle technique, l'orchestration des traitements et leur monitoring La solution est aujourd'hui incomplètement industrialisée et un plan d'action visant à finaliser la mise en place des flux, à sécuriser les données, à consolider l'approche transverse bout-en-bout du programme et à assister les équipes dans leurs pratiques agiles est en cours. Le Delivery Manager est le pilote de ce Plan d'action en étroite collaboration avec la Direction de Programme Métier et les Data Providers.
Freelance

Mission freelance
Développeur Backend Data – Elasticsearch

Codezys
Publiée le
Elasticsearch
ELK
Grafana

6 mois
Paris, France
Contexte de la mission Au sein de la Direction des Systèmes d'Information (DSI), le service "systèmes connectés" pilote un portefeuille de projets liés à plusieurs applications, dont certaines en phase de BUILD et d'autres en phase de RUN . Dans ce cadre, nous recherchons un profil expérimenté pour assurer la responsabilité technique d’un projet existant. Ce projet, récemment mis en production, vise à fournir des indicateurs via une interface Grafana, permettant un suivi précis des modules de télérelève et de radio-relève. Il comprend notamment une couche d'ingestion qui permet d'enregistrer les données dans une base ElasticSearch, avec un format adapté. L'ingestion est pilotée par du code Java. Les indicateurs ainsi produits permettent au métier de suivre environ 1 million de modules clients, avec des index quotidiens sur une période de 3 ans. La mission principale consiste à : Maintenir l’existant en assurant la stabilité et la performance du système Analyser et résoudre les incidents ainsi que répondre aux questions remontées par le métier, en expliquant et en corrigeant les résultats affichés Ajouter de nouveaux objets en fonction des besoins métiers Le projet "Supervision Télérelève" s’appuie sur un socle technique composé de Java, ELK (ElasticSearch, Logstash, Kibana) et Grafana, visant à fournir une solution de reporting performante pour les experts et les collectivités. Bien que le socle technique soit en place, il nécessite un maintien ainsi que le développement de nouveaux objets. Une collaboration avec d’autres équipes sera nécessaire pour travailler sur des questions d’authentification, en intégrant la solution dans d’autres projets. Par ailleurs, une migration vers Databricks peut être envisagée à moyen terme, ce qui impliquera une adaptation technique future. Le candidat retenu occupera un rôle de TechLead / Développeur : il devra analyser l’existant, assurer le débogage, suivre le backlog, et échanger avec le métier, le Product Owner (PO) et, éventuellement, avec les architectes. En tant que seul acteur technique sur ce projet, il doit faire preuve d'une grande autonomie et d’une capacité à gérer l’ensemble des sujets techniques. Profil recherché : Expérience confirmée en gestion de projets techniques similaires Maîtrise de Java, ELK Stack et Grafana Capacité à analyser, diagnostiquer et corriger les incidents Autonomie et initiative dans la gestion de projet Bonnes qualités de communication pour échanger avec différentes équipes techniques et métiers
CDI

Offre d'emploi
Tech Lead Talend H/F

JEMS
Publiée le

50k-60k €
Levallois-Perret, Île-de-France
Nous recherchons un(e) Tech Lead Talend capable de trouver des solutions innovantes et robustes à l'ensemble des problématiques Data. Vous aurez la charge de : • Assurer la mise en œuvre de l'accès, du référencement et de la qualité de la donnée • Assurer l'industrialisation, la supervision et l'intégration des solutions • Rédiger les normes de développement • Participer à la rédaction du manuel d'exploitation En tant que Tech Lead Talend, vous savez : • Vous présenter et promouvoir des architectures data face au client • Identifier et comprendre les besoins métiers • Former, encadrer et faire évoluer les consultants juniors • Participer à la réponse aux appels d'offres (avant-vente) Référence de l'offre : jc2qdxrvdh
Freelance

Mission freelance
Data Engineer Nantes /st

WorldWide People
Publiée le
Python

12 mois
340-390 €
Nantes, Pays de la Loire
Data Engineer Nantes •Langages de programmation et scripting (ex : SQL, Python, Java, Bash/Shell scripting, …) •Bases de données (ex : Base, Data Warehouse, Data Lake, Data Platform / Lakehouse, …). •Traitement des données (Frameworks Big Data, comme Apache Spark, Pipelines ETL/ELT, Streaming, …) •Cloud Computing (ex : Azure, Concepts cloud, stockage et calcul distribués, …) •Modélisation des données et architecture (ex : Modélisation des données relationnelles et dimensionnelles, modèle en étoile, en flocon, compréhension des architectures Data Lake, Data Warehouse, et Data Platform / Lakehouse, …) •Gestion et optimisation des schémas pour les performances. •DevOps et ingénierie logicielle (ex : outils CI/CD, conteneurs et orchestration, versionnement via Git/GitHub pour le suivi du code source, surveillance et journalisation, …) •Outils de gestion des données et gouvernance (Qualité des données : Vérification des duplications, gestion des erreurs, validation… Gouvernance des données : Connaissance des politiques comme le RGPD, gestion des catalogues, Sécurité des données…) 07/04/2026 Mission longue Ce poste est ouvert à la pre-embauche Le Data Engineer est un expert en gestion des données, qui est chargé de la conception et de la maintenance de l’infrastructure data du périmètre en responsabilité Tâches : Infrastructures de données : •Cartographie et documente les sources de données. •Assure la maintenance des différentes applications données (Data) déployées en production et des infrastructures. •Conçoit les solutions permettant le traitement de volumes importants de flux de données et ceci en toute sécurité. •Structure les bases de données (sémantique, format, etc.). •Contribue à la gestion des référentiels de données. Intégration des données : •Capte et stocke, en toute sécurité, les données (structurées ou non) produites dans les différentes applications ou venant de l’extérieur de l’entreprise. •Assure la supervision et l’intégration des données de diverses nature qui proviennent de sources multiples. Vérifie la qualité des données qui entrent dans la Data Platform et s’assure de leur sécurité. •Nettoie la donnée (élimination des doublons…) et la valide pour une utilisation aval. •Animation des communautés : •Anime la communauté technique qui met en oeuvre les dispositifs prévus ou nécessaires à l’application de la politique de la donnée de l’entreprise. Veille technologique : •Reste en alerte sur les technologies liées au traitement de la manipulation de la donnée et identifie les solutions utilisables. •Propose des évolutions pour les infrastructures et solutions de données en place. Compétences Technique : •Langages de programmation et scripting (ex : SQL, Python, Java, Bash/Shell scripting, …) •Bases de données (ex : Base, Data Warehouse, Data Lake, Data Platform / Lakehouse, …). •Traitement des données (Frameworks Big Data, comme Apache Spark, Pipelines ETL/ELT, Streaming, …) •Cloud Computing (ex : Azure, Concepts cloud, stockage et calcul distribués, …) •Modélisation des données et architecture (ex : Modélisation des données relationnelles et dimensionnelles, modèle en étoile, en flocon, compréhension des architectures Data Lake, Data Warehouse, et Data Platform / Lakehouse, …) •Gestion et optimisation des schémas pour les performances. •DevOps et ingénierie logicielle (ex : outils CI/CD, conteneurs et orchestration, versionnement via Git/GitHub pour le suivi du code source, surveillance et journalisation, …) •Outils de gestion des données et gouvernance (Qualité des données : Vérification des duplications, gestion des erreurs, validation… Gouvernance des données : Connaissance des politiques comme le RGPD, gestion des catalogues, Sécurité des données…) Compétences Métier : •Compétences analytiques et mathématiques (Compréhension des statistiques pour interpréter les données et aider les équipes de Data Science, Familiarité avec les bases de l’apprentissage automatique et des modèles d’IA, …). •Résolution de problèmes : Capacité à identifier des inefficacités et à proposer des solutions. •Communication : Présentation claire des concepts techniques à des publics non techniques. •Adaptabilité : Apprendre rapidement de nouvelles technologies dans un domaine en constante évolution
Freelance

Mission freelance
Consultant Corporate Finance (Lyon)

SQLI
Publiée le
Data management

6 mois
400-550 €
Lyon, Auvergne-Rhône-Alpes
Hello, Pour le compte de l'un de mes clients dans le secteur d'éléctroménager, je suis à la recherche d'un consultante corporate finance. Le rôle du corpo Finance : • Gestion de projet avec la capacité de coordonner efficacement diverses parties prenantes en tant que Business & Développeurs. • Collecte des exigences du côté commercial. • Rédaction de spécifications fonctionnelles, garantissant une documentation claire et précise. • Aider les développeurs avec les tests initiaux. • Soutenir les utilisateurs avec des tests d’acceptation, des formations, etc. Le candidat doit avoir des connaissances commerciales significatives dans les sujets de vente. La familiarité avec SAP BW ou SQL, permettant une interaction avec les outils d’analyse de données et de reporting, serait un avantage.
CDI

Offre d'emploi
Data Ingénieur - Expert Spark H/F

CONSORT GROUP
Publiée le

Tassin-la-Demi-Lune
Chaque moment compte. Surtout ceux que vous vivez à fond. Bienvenue chez Consort Group. Consort Group, accompagne depuis plus de 30 ans les entreprises dans la valorisation de leurs données et infrastructures. Elle s'appuie sur deux leaders, Consortis et Consortia, et place l’humain et la responsabilité sociétale au cœur de ses valeurs. Data Ingénieur - Expert Spark H/F Vous êtes passionné·e par les architectures de données à grande échelle et le traitement temps réel ? Ce poste est fait pour vous. En tant qu' Expert Spark Data Engineer , vous êtes responsable de l'analyse, de l'optimisation et de l'évolution de notre pipeline de données au cœur de notre écosystème BI et statistiques. Côté build Conception et préconisations d'architecture Réaliser l'analyse et l'état des lieux technique de la solution existante (Kafka Connect, Spark, Kubernetes, MongoDB sur OVH) Produire les préconisations d'amélioration du Spark streaming pour le traitement temps réel Définir le dimensionnement infrastructure adapté au streaming temps réel (350 bases, 5 000 req/s, 1 To/an) Proposer une stratégie de dimensionnement MongoDB et de structuration de la donnée (standardisation des patterns) Rédiger le document d'architecture cible et le dossier de préconisations Côté run Optimisation et maintien en condition opérationnelle Assurer la fiabilité et la performance du pipeline de données en production sur l'infrastructure OVH Superviser les flux Kafka Connect et garantir la continuité du traitement des données entrantes Monitorer les performances Spark et intervenir sur les axes d'optimisation identifiés Veiller à la cohérence et à la qualité de la donnée stockée dans MongoDB Participer aux revues techniques et accompagner les équipes internes ENOVACOM dans la montée en compétences C'est votre parcours Vous avez au moins 5 ans d'expérience dans des environnements Data Engineering exigeants, avec une forte exposition aux architectures de traitement temps réel et à la gestion de volumétries importantes. Vous aimez diagnostiquer, optimiser et concevoir sans jamais cesser d'innover. Vous cherchez un cadre où vos idées comptent et où la technique va de pair avec la collaboration. C'est votre expertise Apache Spark – maîtrise avancée du streaming et du batch, tuning et optimisation des performances MongoDB – modélisation, structuration de la donnée et bonnes pratiques de dimensionnement Kafka / Kafka Connect – conception et exploitation de pipelines de données en flux continu Déploiement Apache Spark sur Kubernetes – configuration, orchestration et gestion des ressources OVH Cloud – déploiement et exploitation d'infrastructures cloud dans un contexte de production C'est votre manière de faire équipe Capacité d'analyse et de synthèse : vous transformez des états des lieux complexes en préconisations actionnables Rigueur documentaire : vos livrables (architecture cible, dossiers techniques) sont clairs et exploitables Posture conseil : vous savez challenger l'existant et proposer des axes d'amélioration concrets Esprit de collaboration : vous travaillez en proximité avec les équipes internes et partagez vos expertises Autonomie et sens des priorités dans un environnement technique à fort enjeu de performance C’est notre engagement Chez Consort Group, vous êtes un·e expert·e qu’on accompagne pour que chaque mission devienne une étape qui compte. Un onboarding attentif et humain Une vraie proximité managériale Des formations accessibles en continu Des engagements concrets : inclusion, égalité, solidarité Un package RH complet : mutuelle, carte TR, CSE, prévoyance Une culture du feedback et des projets qui font sens C’est clair Le process de recrutement : Un premier échange téléphonique avec notre team recrutement Un entretien RH ainsi qu’un échange métier avec un.e ingénieur.e d’affaires Un test ou un échange technique avec un.e de nos expert.es Un dernier point avec votre futur.e manager ou responsable de mission Et si on se reconnaît : on démarre ensemble C’est bon à savoir Lieu : Marseille Contrat : CDI Télétravail : Hybride Salaire : De 40000 € à 45000 € (selon expérience) brut annuel Famille métier : Data Ce que vous ferez ici, vous ne le ferez nulle part ailleurs. Ce moment, c’est le vôtre.
CDI
Freelance

Offre d'emploi
Consultant Data Visualization – Qlik Sense (H/F)

ADDIXWARE
Publiée le
Qlik Sense

1 an
40k-60k €
380-500 €
Signes, Provence-Alpes-Côte d'Azur
Dans le cadre du renforcement de son pôle Data, notre client structuré autour d’une organisation data en deux volets (Data Engineering / Data Visualization) recherche un Consultant Data Visualization spécialisé sur Qlik Sense . L’équipe Data Engineering (notamment via Talend) est déjà en place et produit les flux et référentiels de données. La mission s’inscrit donc côté restitution et valorisation de la donnée , avec un enjeu fort sur la qualité des dashboards et l’adoption métier. Intégré au sein de l’équipe Data / BI, vous intervenez sur la conception, le développement et l’optimisation de dashboards sous Qlik Sense , en lien étroit avec les équipes métiers et data. À ce titre, vous serez en charge de : Recueillir et analyser les besoins métiers en matière de reporting et de pilotage Concevoir des dashboards interactifs et ergonomiques sous Qlik Sense Modéliser les données dans Qlik (data model, scripts de chargement) en lien avec les flux existants Assurer la qualité, la performance et la fiabilité des visualisations Participer à l’amélioration continue des reportings existants Accompagner les utilisateurs dans la prise en main des outils (pédagogie, support) Collaborer avec les équipes Data Engineering (Talend) pour garantir la cohérence des données Livrables : Tableaux de bord Qlik Sense (KPI, reportings métiers, dashboards interactifs) Modèles de données optimisés (scripts de chargement, structuration) Documentation technique et fonctionnelle Recommandations UX/DataViz pour améliorer la lisibilité et l’usage Support et accompagnement des utilisateurs
CDI

Offre d'emploi
ALTERNANCE - Assistant Ingénieur data et chimie (H/F)

█ █ █ █ █ █ █
Publiée le
Laravel
Python

Pantin, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Data Engineer

Hanson Regan Limited
Publiée le
Apache NiFi
Cloudera
Hadoop

12 mois
500-650 €
Paris, France
Hanson Regan recherche un Data Engineer pour une mission 12 mois renouvelable, basée à Paris Données en anglais : Compétences: -Hadoop Cloudera - Flux de travail / injection - Outils de visualisation - Pipeline Longue liste : Les outils d’ingestion de données : NiFi Les outils de stockage de données : HDFS, CEPH Les outils d’ordonnancement des jobs : Airflow Les outils de gestion des ressources (CPU, RAM) : YARN Les moteurs et frameworks d’exécution : MapReduce, Spark, TEZ Les langages de développement : Python, Scala Les outils de prototypage/exploration : Jupyter, Dataiku Les outils orientés datamart : Hive, PostgreSQL Les outils de proxyfication (Access) : Knox, HAProxy Les outils d’affichage d’indicateurs et tableau de bord : Grafana, Tableau, Superset, S7 Les outils de sécurité : Kerberos, LDAP, IPA gratuite Les outils d’administration et de gouvernance : ClouderaManager, Ranger Les outils de supervision et d’exploitation (DevOps) : Prometheus, Puppet, Heat, Ansible Les dépôts de binaires : Mirroring des dépôts issus du web HTTP pour les applications tiers. Merci de nous contacter au plus vite si vous êtes intéressé ou si vous connaissez une personne correspondant à ce profil
6444 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous