L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 3 216 résultats.
Mission freelance
Expert Kibana / Data Visualisation (F/H)
CELAD
Publiée le
Bitbucket
CI/CD
Data visualisation
12 mois
550-590 €
Paris, France
Envie d’un nouveau challenge... CELAD vous attend ! 🚀 Nous poursuivons notre développement et recherchons actuellement un.e Expert Kibana / Data Visualisation pour intervenir chez un de nos clients dans le secteur banacaire. 💻💼 Voici un aperçu détaillé de vos missions 🎯 : - Concevoir, développer et maintenir des dashboards avancés sous Kibana pour assurer une visibilité de bout en bout des systèmes et des flux de données - Transformer des données issues de Elasticsearch en visualisations claires, pertinentes et actionnables - Mettre en place des visualisations interactives (filtres, drill-down, agrégations) pour faciliter l’analyse et la prise de décision - Analyser les données collectées via Filebeat et Logstash afin d’en maximiser la valeur - Exploiter les fonctionnalités de Machine Learning de Kibana pour détecter anomalies, tendances et signaux faibles - Collaborer avec les équipes techniques pour optimiser les requêtes, les index et la qualité des données - Traduire les besoins métiers en dashboards pertinents et exploitables - Assurer la fiabilité, la cohérence et la qualité des données présentées
Offre d'emploi
Data Engineer (H/F)
OBJECTWARE
Publiée le
DBT
Google Cloud Platform (GCP)
Reporting
50k-60k €
Bordeaux, Nouvelle-Aquitaine
Contexte Dans le cadre du renforcement de ses équipes Data, notre client recherche un Data Engineer avec une forte appétence pour le reporting et la valorisation de la donnée. L’objectif est de structurer, industrialiser et exploiter les données afin de produire des indicateurs fiables et utiles aux métiers. Missions Concevoir, développer et maintenir des pipelines de données robustes et scalables Assurer la collecte, transformation et mise à disposition des données Participer à la modélisation des données (datawarehouse / datamart) Mettre en place et optimiser les flux via des outils d’orchestration Collaborer avec les équipes métiers pour comprendre les besoins en reporting Développer et alimenter des tableaux de bord et reportings Garantir la qualité, la fiabilité et la performance des données Participer à l’industrialisation des traitements (CI/CD, bonnes pratiques) Environnement technique Cloud : GCP (idéalement) ETL / Orchestration : Airflow, DBT Langages : Python BI / Reporting : Power BI, Tableau ou équivalent Data : SQL, modélisation data
Offre d'emploi
Expert Microsoft Teams – Téléphonie & Oracle SBC (H/F)
Lùkla
Publiée le
Microsoft Teams
Oracle
Réseau téléphonique commuté (RTC)
4 ans
40k-65k €
400-600 €
Île-de-France, France
Contexte: Au sein de la DSI d'un grand groupe bancaire international, vous intervenez comme référent expert sur l'écosystème Microsoft Teams et la téléphonie d'entreprise, dans un contexte de transformation digitale et de modernisation des infrastructures de communication. Vous rejoignez l'équipe Collaboration & Communication en charge de l'évolution, de la sécurisation et du maintien en conditions opérationnelles des services de téléphonie et de collaboration pour plusieurs milliers d'utilisateurs répartis à l'international. Objectifs de la mission: Assurer l'expertise et le support niveau 3 sur Microsoft Teams, notamment la partie Teams Phone / Calling / Direct Routing. Piloter et maintenir les infrastructures Oracle SBC (Session Border Controller). Contribuer aux projets d'évolution, de migration et de sécurisation des services de téléphonie. Garantir la qualité de service, la disponibilité et la performance des solutions de communication unifiée. Accompagner les équipes internes et les utilisateurs dans un contexte international.
Offre d'emploi
Security Data Engineer - Structuration Logs Cybersecurite
PSSWRD
Publiée le
Cybersécurité
Data Lake
Logstash
1 an
40k-45k €
500-700 €
Issy-les-Moulineaux, Île-de-France
Au sein de la direction cybersécurité d'un grand groupe international du secteur hôtelier, vous interviendrez en tant que Security Data Engineer pour structurer et optimiser l'ensemble de l'écosystème de logs de sécurité. Aujourd'hui, les logs proviennent de multiples sources et outils avec des formats hétérogènes, rendant leur corrélation et leur exploitation difficile. Votre mission sera d'inventorier l'ensemble des sources de logs, de définir une nomenclature unifiée et des pipelines de normalisation, d'organiser le stockage en distinguant le temps réel (SIEM Splunk) du stockage économique pour la conformité, et de proposer une architecture data cible intégrée a la démarche data globale de l'entreprise. Vous serez la personne référente sur la partie data au sein de l'équipe cyber, avec une forte autonomie et un rôle de force de proposition. Vos missions principales : ● Cartographier l'écosystème existant (outils, sources, cas d'usage) et proposer une architecture cible avec roadmap ● Créer un référentiel complet des sources de logs (volume, format, fréquence, qualité, valeur cyber) ● Définir et implémenter une normalisation unifiée des logs (Common Information Model) et les pipelines de transformation ● Optimiser la collecte : réduire le bruit, filtrer, enrichir (CTI, Threat Intelligence) et améliorer la qualité des données ● Collaborer avec les équipes SOC (temps réel), GRC (conformité/reporting) et les équipes data métier de l'entreprise ● Assurer le transfert de compétences et la formation des équipes a l'exploitation des logs et des outils
Mission freelance
Data Analyst Power BI
Groupe Aptenia
Publiée le
Azure
Microsoft Power BI
Python
8 mois
400 €
Strasbourg, Grand Est
🔍 Nous recherchons un Data Analyst Power BI pour renforcer une équipe Data dans un contexte industriel international 🎯 Vos missions principales ✅ Concevoir et développer des dashboards Power BI pour les métiers (reporting, analyse) ✅ Interagir avec les équipes business pour comprendre et traduire les besoins ✅ Contribuer à la valorisation des données dans un environnement Azure / Databricks ✅ Collaborer avec les équipes Data Engineering en France et en Allemagne 🧩 Contexte Environnement industriel Interaction directe avec le siège en Allemagne Enjeux Data à l’échelle européenne et internationale Volonté de renforcer l’expertise Data côté France
Offre d'emploi
Tech Lead Fullstack FAE
SKYLLIT
Publiée le
Angular
Apache Maven
CI/CD
1 an
Île-de-France, France
Missions – Tech Lead Full Stack Porter les exigences DSI et les NFR Assurer le leadership technique et l’architecture (API, events…) Garantir la sécurité (veille CVE, bonnes pratiques) Prendre en charge les enablers techniques Promouvoir et appliquer les pratiques DevSecOps Concevoir, maintenir et sécuriser les pipelines CI/CD (tests automatisés, Jenkinsfile) Développer, corriger et assurer la qualité (tests unitaires, automatisés, End-to-End) Gérer les anomalies et le suivi de production Veiller à la conformité des livrables aux standards techniques Suivre les indicateurs d’excellence opérationnelle Participer aux rituels Agile/SAFe, aux estimations et aux communautés de pratique Collaborer avec les équipes du train (Système, Tech Leads…) Utiliser les outils de supervision applicative Intégrer l’usage de l’IA générative Si tu veux, je peux aussi adapter le wording pour un ton plus “consulting” ou plus “interne DSI”.
Mission freelance
249595/DATA Q Ingenieur - Snowflake , Dataiku , 'ELT ou ETL, Python et SQL
WorldWide People
Publiée le
Snowflake
6 mois
Saint-Denis, Île-de-France
DATA Q Ingenieur - Snowflake Confirmed, Maitrise de Dataiku Confirmed, Familier avec le concept d'ELT ou ETL Expert, Modélisation de données Confirmed, Expertise SQL, Python Expert, Connaissance technique de l'environnement Data (architecture medaillon, principe des data mesh) Confirmed , Votre rôle axé Analytics Engineer sera de : - Transformer, modéliser et documenter les données brutes pour les rendre exploitables - Développer des modèles et produits de données axés conformité pour alimenter la base graphe en partant des données brutes des applications - Maintenir en condition opérationnel nos flux d'ingestion vers la base de données graphes - Améliorer des processus de traitement des données pour gagner en rapidité et en efficacité. - Créer et mettre à jour de la documentation pour aider à l’utilisation des produits de données. - Automatiser des tests de contrôle et surveillance de la qualité pour garantir l’intégrité des données traitées. - Produire des analyses à destination de nos métiers pour le calibrage de scénarios de fraude ou vigilance LCB-FT - Collaborer avec les différentes parties prenantes (notamment les Data Engineers et les métiers de la fraude et LCB-FT) pour enrichir les données de la base de données graphes en fonction de leur besoin - Collaborer avec l'équipe Data Plaform en mettre en production les différents produits de données"
Offre d'emploi
Tech Lead expert
SARIEL
Publiée le
.NET
.NET CORE
Animation
12 mois
55k-75k €
450-590 €
Châtillon, Île-de-France
Bonjour, Nous recherchons pour notre client basé en région parisienne un Tech Lead expert (plus de 10 ans d’expérience) Objectif Global - Animer chapitre .NET / e-commerce de notre client Contrainte forte du projet E-commerce, ingénierie logicielle et documentaire Les livrables sont Qualité & standards .NET Backlog d'animation et de veille de la communauté Roadmap de modernisation & radar tech Compétences techniques Expertise .NET (C#, EF Core, .NET 8/9/Core) - Expert - Impératif Software Craftsmanship (DDD, SOLID, Clean Code) - Expert - Impératif Mentorat & coaching technique - Expert - Important Animation de communauté & communication - Confirmé – Souhaitable Connaissances linguistiques Français Courant (Impératif) Description détaillée Détail des responsabilités : 1. Garant de la cohérence et de la qualité technique - Définir et faire évoluer les standards de développement (coding guidelines, architecture de référence, sécurité). - Piloter la réduction de la dette technique et assurer le suivi de l’obsolescence des composants de la stack .NET (migration .NET Core/8/9). - ntervenir en tant qu'expert sur les problématiques de performance, de scalabilité ou de sécurité les plus complexes au sein des squads. 2. Mentorat - Accompagner les développeurs dans leur parcours d'expertise technique via du mentorat individuel et du pair-programming. - Identifier les besoins en formation au sein du chapitre et proposer des plans d'apprentissage adaptés. - Faciliter l'onboarding technique des nouveaux arrivants pour assurer une prise de poste rapide et conforme à nos standards. 3. Animation de la communauté - Organiser et animer la vie du chapitre : réunions de partage (BBL), ateliers de co-construction, coding dojos. - Favoriser une culture d'innovation et de veille technologique partagée. - Assurer la transversalité avec les autres chapitres (Cloud, DevOps, Data) pour garantir l'alignement des architectures. Profil recherché : Nous recherchons un(e) candidat(e) avec une expérience significative (10 ans+) en environnement .NET, ayant déjà occupé des fonctions de Chapter Lead ou d'Architecte. - Maîtrise technique absolue de l'écosystème C# / .NET moderne. - Passion pour la transmission : vous aimez faire grandir les autres sans avoir besoin d'un lien de subordination pour convaincre. - Capacité de synthèse : vous savez transformer une veille technologique en une roadmap concrète pour l'entreprise. - Soft Skills : Leadership naturel, excellente communication orale, diplomatie et sens de l'écoute. Dans le cas où vous êtes intéressé par ce poste, pourriez-vous SVP m'envoyer votre CV au format Word en indiquant votre disponibilité ainsi que vos prétentions salariales ou votre tarification journalière si vous êtes indépendant ?
Mission freelance
Consultant DataViz & Support BI
ESENCA
Publiée le
DAX
Google Cloud Platform (GCP)
Looker Studio
3 ans
Lille, Hauts-de-France
Objectif de la mission Accompagner les utilisateurs dans l’exploitation et l’optimisation des outils de Data Visualization, en assurant un support de qualité, l’amélioration des performances et la diffusion des bonnes pratiques. Environnement & contexte Vous intervenez au sein d’une équipe transverse dédiée au support et à l’accompagnement des utilisateurs sur les solutions Data & BI. Votre rôle consiste à traiter les sollicitations (incidents, demandes, conseils) tout en contribuant à l’amélioration continue des outils et des usages. La mission s’articule en deux phases : Phase d’immersion : montée en compétences sur l’écosystème DataViz et les outils en place Phase opérationnelle : contribution active au support utilisateurs et à l’optimisation des plateformes Missions principales 1. Audit & optimisation des performances (Power BI) Analyser les rapports à forte consommation de ressources Identifier les goulots d’étranglement (modèles, requêtes, DAX) Proposer et mettre en œuvre des optimisations techniques Suivre les performances et alimenter les indicateurs de pilotage 2. Support utilisateurs & accompagnement Prendre en charge les incidents et demandes (création, accès, paramétrage) Accompagner les utilisateurs dans la prise en main des outils Améliorer l’expérience utilisateur et la qualité de service Rédiger et maintenir la documentation et les guides 3. Amélioration continue Identifier les demandes récurrentes et proposer des automatisations Contribuer à l’évolution des pratiques DataViz Participer à la structuration du support et à la qualité globale du service Compétences techniques Obligatoires : Power BI (niveau expert) Maîtrise avancée du DAX Analyse de performance (DAX Studio, Server Timings, Query Plan) Importantes : DAX Studio (analyse VertiPaq, optimisation des modèles) Souhaitables : Looker Studio Environnement GCP (notions) Connaissance des outils BI (type SAP BO) Atouts complémentaires : LookML, API, GitHub, Terraform Compréhension des architectures Data modernes Environnement technique Power BI (certification PL-300 appréciée) DAX Studio (VertiPaq Analyzer, Server Timings…) Analyse Storage Engine vs Formula Engine Outils de Data Visualization et de reporting
Mission freelance
Développeur Java orienté Data H/F
ODHCOM - FREELANCEREPUBLIK
Publiée le
Java
Python
SQL
6 mois
Neuilly-sur-Seine, Île-de-France
Descriptif de mission – Développeur Fullstack orienté Data Nous recherchons un développeur fullstack ayant une forte sensibilité à la data, pour intervenir sur une application interne stratégique dédiée à la gestion de données complexes et volumineuses. L’environnement technique s’appuie sur : des interfaces de consultation de données, un back-end en Java, une base de données SQL avec un modèle riche et structuré, des traitements batch automatisés (Java / SQL). Dans ce contexte, la qualité, la fiabilité et la structuration des données sont au cœur des enjeux. Vos responsabilités En vous appropriant les enjeux fonctionnels et la base de code existante, vous interviendrez sur l’ensemble du cycle de vie de l’application : Analyse & compréhension des données Manipuler et analyser des modèles de données complexes Garantir la cohérence, la qualité et l’intégrité des données Identifier des axes d’optimisation du data model Conception & développement Implémenter des fonctionnalités en lien avec les besoins métier Participer à la conception technique et à l’évolution de l’architecture Réaliser des prototypes et contribuer aux choix techniques Data & performance Écrire et optimiser des requêtes SQL complexes Participer à l’optimisation des traitements batch et des performances globales Qualité & tests Mettre en place et exécuter des tests (unitaires, intégration, end-to-end) Identifier, analyser et corriger les anomalies Maintenance & amélioration continue Assurer la maintenance corrective et évolutive Participer à la rétro-ingénierie du code existant Contribuer à la documentation et aux bonnes pratiques (versioning, code review…)
Offre d'emploi
Data Engineer - SPARK/SCALA/DATABRICKS
UCASE CONSULTING
Publiée le
Apache Spark
Azure
Databricks
1 an
40k-66k €
400-600 €
Île-de-France, France
📢 Data Engineer Scala Spark – Environnement Cloud (H/F) 🧩 Contexte Dans le cadre du renforcement d’une équipe Data, nous recherchons un(e) Data Engineer expérimenté(e) afin d’intervenir sur des sujets à forte volumétrie, autour de pipelines de données complexes et d’optimisation des traitements. Vous évoluerez dans un environnement technique exigeant, avec des enjeux de performance, scalabilité et qualité de la donnée. 🚀 Missions principales Développement de pipelines data en Scala / Spark (batch principalement) Optimisation des traitements et gestion de volumétries importantes Mise en place et amélioration des bonnes pratiques de développement Participation à l’architecture et aux choix techniques Collaboration avec les équipes métiers et techniques Contribution au mentoring et partage de connaissances 🧰 Stack technique Scala / Spark Maven Environnement Cloud (AWS ou Azure) Databricks (selon contexte) API HTTP Stack ELK (optionnel) ✅ Must have Solide expérience en Scala / Spark (batch) Maîtrise des optimisations Spark Expérience sur fortes volumétries de données Bonnes pratiques de développement (clean code, build, versioning) Expérience en environnement Cloud (AWS ou Azure) Minimum 5 ans d’expérience en Data Engineering ➕ Nice to have Expérience avec Databricks Développement d’ API HTTP Connaissance de la stack ELK Expérience en environnement multi-projets 🤝 Soft skills Esprit d’analyse et rigueur Autonomie et force de proposition Bon relationnel et esprit d’équipe Capacité à comprendre les enjeux métiers Sens des priorités et gestion des délais 🎓 Profil Formation Bac+3 à Bac+5 en informatique Anglais technique requis 8 ans d'expériences MINIMUM ! 📍 Modalités Télétravail partiel (jusqu’à 3 jours / semaine) Mission longue Démarrage : ASAP
Mission freelance
Expert SAP BC - S/4HANA & RISE
Zenith Rh
Publiée le
12 mois
Ille-et-Vilaine, France
Nous recherchons pour notre client, un(e) Consultant Expert SAP BC - S/4HANA & RISE, pour une mission en freelance de longue durée. Au sein d'un acteur majeur de son marché, vous rejoindrez une équipe dynamique de 8 experts rattachée au pôle SAP Cloud Hosting. Dans un contexte de transformation digitale d'envergure, votre rôle sera d'apporter une expertise de haut niveau sur les solutions S/4HANA et RISE avec SAP pour soutenir la modernisation des infrastructures du groupe. Les enjeux de la mission sont multiples : assurer la continuité de service, piloter des migrations complexes vers le cloud et garantir la performance globale d'un environnement technologique de pointe. Vous interviendrez sur l'ensemble du cycle de vie des solutions, du diagnostic technique à la coordination des partenaires externes. Les principales responsabilités incluent : 🔹 Le pilotage technique des projets de migration et d'intégration S/4HANA et RISE. 🔹 Le diagnostic et la résolution de problématiques complexes liées aux environnements cloud. 🔹 Le suivi de la performance des partenaires via le respect des engagements contractuels (SLA). 🔹 L'installation, la configuration et l'optimisation des infrastructures (Core SAP, VTOM). 🔹 L'animation d'une communauté d'experts et la coordination des équipes sécurité, réseau et applicatives.
Offre premium
Offre d'emploi
Expert en cybersécurité - Senior
ITS GROUP
Publiée le
Cybersécurité
Île-de-France, France
Le Groupe opère dans plus de 150 pays et gère ses actifs d’infrastructure informatique (IAM / Cloud / Réseau / Endpoint) : Missions L'équipe Cybersécurité Infrastructure Globale assure les responsabilités suivantes sur les périmètres décrits ci-dessus : Analyse des risques de sécurité pour chaque actif. Audits de sécurité. Revue et mise à jour des politiques de sécurité (ex. : définition de guides de durcissement/hardening). Gestion des approbations de sécurité (ex. : validation de flux réseaux). Participation aux projets de sécurité (ex. : ZTNA, durcissement de la sécurité). Apport d'expertise technique en cybersécurité. Interface et communication avec les Zones (ASIE / AMÉRIQUES / EUROPE).
Mission freelance
Data Analyst Spécialiste sur Infor M3
DEVIK CONSULTING
Publiée le
SQL
1 an
400-600 €
Île-de-France, France
Description Pour le compte de notre client grand compte, Nous recherchons un Data Analyst sénior sur l’ERP Infor M3 pour accompagner le client sur les données de domaines Finance et Achats Le consultant participera à la cartographie des tables et champs de donnée brutes issus de l’ERP Infor M3 Tâches principales Assurer le cadrage technique des données Collaboration avec les Data Engineers pour identifier les champs pertinents dans M3 Collaboration avec les Data Engineers pour définir les règles de gestion associés Profil Recherché Communication : Confirmé SQL : Confirmé Infor M3 / Movex : Expert Data Analyst : Expert L’Anglais est Obligatoire sur cette mission Lieu : Ile-de-france
Mission freelance
Data engineer orienté back end (Python) PostgreSQL - AWS - Airflow
Celexio
Publiée le
AWS Cloud
Bash
CI/CD
6 mois
400-600 €
Paris, France
Dans le cadre d'une migration de GCP à AWS, nous recherchons un ingénieur cloud senior pour accompagner ntore client. Voici les missions : Concevoir, construire et maintenir des pipelines de données de niveau production qui alimentent les indicateurs et modèles. Industrialiser les prototypes de recherche de l'équipe en systèmes de production fiables et évolutifs. Construire et maintenir des services backend exposant des indicateurs et des produits de données. Assumer la responsabilité du cycle de vie des systèmes que vous construisez, y compris l'infrastructure, le déploiement et la surveillance, en collaboration avec les Ingénieurs Ops. Exploiter et maintenir les pipelines et les services en production , y compris le débogage, la résolution d'incidents et les améliorations de performances. Participer à la migration de GCP vers AWS et contribuer au démantèlement progressif des anciens pipelines et de l'infrastructure. Garantir la qualité, la fiabilité et la reproductibilité des données à travers les pipelines et les services. Travailler en étroite collaboration avec les économistes, les scientifiques et les Ingénieurs Ops pour assurer la livraison fluide de nouveaux indicateurs et modèles en production. Améliorer l'expérience développeur, la documentation et les outils internes pour rendre les systèmes plus faciles à exploiter et à maintenir.
Offre d'emploi
Expert SAP LeanIX
VISIAN
Publiée le
API
Architecture
GraphQL
1 an
Paris, France
Contexte L’expert SAP LeanIX est responsable de la mise en œuvre, de l’exploitation et de la gouvernance de l’outil en tant que solution d’architecture d’entreprise (EA) et de gestion du portefeuille applicatif (APM). L’outil est utilisé dans l’ensemble des entités réparties dans 25 pays, qui gèrent leurs données de manière décentralisée. Missions Administration de SAP LeanIX et gestion des utilisateurs Configuration de SAP LeanIX afin de répondre aux besoins des projets Intégration de SAP LeanIX avec d’autres référentiels métiers et outils ITSM via des intégrations natives (SAP Signavio / ServiceNow), des API GraphQL et des webhooks Management de l’initiative de qualité et de fiabilité des données applicatives : Organisation, animation et suivi des comités de pilotage (Data Quality SteerCos) pour chaque domaine d’architecture d’entreprise Identification des problèmes de qualité des données applicatives, contact avec les responsables concernés et suivi des actions jusqu’à la résolution des problèmes
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
3216 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois