Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 755 résultats.
Offre d'emploi
EXPERT ADMINISTRATION LINUX - INFORMATIQUE SCIENTIFIQUE (H/F)
TEKTEO
Publiée le
Calcul hautes performances (HPC)
Linux
Linux Debian
220 jours
10k-55k €
100-550 €
Paris, France
Nous recherchons un Expert Administration Linux pour intervenir dans un environnement scientifique exigeant. Vous gérez des postes sous Rocky Linux et Ubuntu, créez et maintenez les masters systèmes, assurez le packaging de logiciels via EasyBuild et travaillez sur des environnements HPC (GNU, Intel OneAPI, MPI, CUDA). Vous prenez en charge le support N2/N3, la virtualisation (VirtualBox), le diagnostic Windows 11 et participez aux déploiements via SCCM/Intune. Vous contribuez à la stabilité, la performance et l’évolution d’infrastructures critiques dédiées à la recherche.
Mission freelance
Expert sécu applicative
Codezys
Publiée le
Collibra
Python
Vulnerability management
12 mois
450-500 €
Toulouse, Occitanie
Au sein de notre équipe de sécurité applicative, vous serez chargé(e) d’analyser les nouvelles vulnérabilités identifiées par nos outils de sécurité. Vous prioriserez leur correction en coordination avec les équipes concernées, en tenant compte du degré d’urgence, tout en fournissant des éléments d’aide pour faciliter la résolution. Vous aurez également l’opportunité de contribuer aux automatisations existantes afin d’optimiser notre processus de sécurité. Responsabilités : Analyser les vulnérabilités applicatives détectées par nos outils de sécurité. Prioriser les corrections et collaborer avec les équipes concernées en fonction du niveau d’urgence. Fournir un soutien et des ressources pour la correction des vulnérabilités. Participer aux initiatives d’automatisation des processus de sécurité. Modalités : Localisation : Toulouse Mode de travail : 2 jours de télétravail par semaine Budget prestataire : 500 € par jour Expérience requise : entre 6 et 9 ans
Mission freelance
DATA ANALYST - Expert (>10 ans) F/H
SMARTPOINT
Publiée le
Apache Spark
Databricks
DataGalaxy
24 mois
550-580 €
Île-de-France, France
Dans le cadre du renforcement du DataLab, nous recherchons un Data Analyst Lead en prestation, rattaché à l’équipe Gouvernance des données. La mission s’inscrit dans un environnement Grande Distribution, multienseignes et multimétiers, avec de forts enjeux de pilotage de la performance, qualité des données, modélisation et usages analytiques à grande échelle. La connaissance du domaine de la Grande Distribution est un critère essentiel. Objectifs de la mission Apporter une expertise en data analyse et en conception de solutions informatiques orientées données. Contribuer à la montée en compétence des Data Analysts du DataLab. Accompagner les équipes produits et projets sur des sujets analytiques et techniques avancés. Animer la communauté des Data Analystes. Coanimer la Data Authority et les ateliers associés, en lien avec l’équipe Gouvernance des données. Principales missions Expertise en data analyse et conception de solutions data. Support avancé aux équipes produits / projets (indicateurs complexes, modélisation, cohérence des solutions). Contribution à la structuration et à l’alignement des KPI métiers. Animation de la communauté des data analystes (ateliers, bonnes pratiques, retours d’expérience). Contribution à la modélisation des données, notamment en faisant vivre le modèle de données communes. Coanimation de la Data Authority et des ateliers associés. Compétences clés attendues Expertise confirmée en data analyse. Capacité à concevoir et challenger des solutions data. Pratique avérée de la modélisation des données. Connaissance significative et opérationnelle de la Grande Distribution (critère indispensable) : enjeux business, indicateurs clés (vente, marge, stock, approvisionnement, performance magasin), compréhension des usages métiers de la donnée. Capacité à accompagner et faire monter en compétence des Data Analysts. Aisance dans l’animation de communautés et d’ateliers transverses. Contexte technique Technologies Big Data : SQL, Databricks, Scala, Python BI / Reporting : Power BI, MicroStrategy Modélisation des données : PowerDesigner Gouvernance des données : DataGalaxy Qualité des données / Data Observability : SODA Méthodologie projet : SAFE (Agilité à l’échelle) Outils Agile : Jira Environnements Big Data : Microsoft Azure & DataBricks Définit, développe, met en place et maintient les outils nécessaires à l'analyse des données par les équipes Data Conçoit les modèles de données et les contrats d'interfaces Est responsable de créer des solutions permettant le traitement de volumes importants de données tout en garantissant leur sécurité MISE EN PRODUCTION Prépare les documents requis pour les Mises En Production (MEP) et pour le Run (document d'exploitation, supervision, ?) Participe à la mise en place des processus et outils de supervision de son produit et des traitements associés Participe au transfert de compétences vers l'équipe en charge du RUN Respecte les bonnes pratiques de développement (optimisation, sécurisation, documentation, etc.) Participe aux différentes cérémonies agiles VEILLE ET SUIVI Assure une veille active sur les technologies et langages utilisés et leurs évolutions afin d'améliorer les compétences des équipes Participe à la résolution d'incidents sur le produit en collaboration avec les parties prenantes
Mission freelance
Tech Lead Full-Stack Senior – Environnement Data & GenAI (H/F)
Freelance.com
Publiée le
BigQuery
CI/CD
Github
6 mois
400-640 €
Île-de-France, France
📍 Lieu : Saint-Ouen 📅 Démarrage : ASAP ⏳ Durée : 02/03/2026 → 31/12/2026 💼 Expérience requise : 9 ans minimum 🗣 Anglais : courant 🔎 Description du poste Dans un contexte d’innovation digitale autour des sujets Data, GenAI et performance média , vous intervenez en tant que Tech Lead / Développeur Full-Stack Senior au sein d’une équipe pluridisciplinaire (Tech Lead, Full-Stack, Data Scientist, Data Engineer, Product Owner, QA). Vous serez en charge de la conception et du développement d’applications permettant notamment d’offrir une vision consolidée de la performance des assets média, depuis la stratégie globale jusqu’à l’activation locale. Vos missions principales : Développer des applications front-end performantes et responsive (React.js, JavaScript moderne) Concevoir et exposer des API de consommation pour la valorisation des données (BigQuery, PostgreSQL, MongoDB) Concevoir et implémenter des services back-end en Node.js et Python (FastAPI) Modéliser et exploiter des données via MongoDB et PostgreSQL Sourcer les données dans le Data Lake BigQuery et alimenter des Knowledge Graph Mettre en place et maintenir les pipelines CI/CD (GitHub Actions, GitLab CI, Jenkins…) Être le référent technique auprès des équipes Cybersécurité, Data Privacy et Architecture Investiguer et résoudre les problématiques techniques (debug, performance, optimisation) Intervenir sur des sujets Cloud GCP
Mission freelance
Cloud Ops Engineer GCP
CAT-AMANIA
Publiée le
AWS Cloud
Cloud Provider
Google Cloud Platform (GCP)
1 an
100-450 €
Lille, Hauts-de-France
Gérer l’organisation des 2 principaux Cloud providers : GCP et AWS Proposer, de part votre expérience sur le Cloud, de nouvelles approches de déploiement, gestion et exploitation de systèmes sur le Cloud. Scripting/automatisation/Infrastructure As Code : industrialisation des solutions avec des outils/langages tels que Terraform, Python, CloudFormation… Développer et mettre à disposition des reporting et tour de contrôle (inventaire et qualité) permettant d’informer nos utilisateurs et notre équipe de la qualité et évolution de nos environnements. Coder des applications (API, orchestration) en Python en utilisant les bonnes pratiques de code. Écrire et sensibiliser aux bonnes pratiques d’utilisation du Cloud avec également la formation de nos équipes techniques. Collaborer étroitement avec nos équipes de sécurité pour la gestion des alertes et du renforcement de nos process techniques et fonctionnels.
Offre d'emploi
Architecte Technique Senior (H/F)
IA Soft
Publiée le
Angular
Azure Kubernetes Service (AKS)
Mongodb
12 mois
40k-50k €
400-550 €
Île-de-France, France
Dans le cadre du renforcement de nos équipes Architecture, nous recherchons un Architecte Technique Senior pour garantir la cohérence technique des applications du périmètre, accompagner les projets dans leurs choix d’architecture et contribuer aux dossiers d’architecture technique (DAT) en lien étroit avec les équipes cybersécurité, infrastructure et exploitation. Objectifs : Garantir la cohérence technique des applications et leur alignement avec la stratégie d’entreprise. Collaborer avec l’ensemble des acteurs (projets, cybersécurité, infrastructure, exploitation, experts transverses). Piloter la réalisation des dossiers d’architecture technique (nouvelles applications et évolutions). Contribuer, sur sollicitation, à la gestion de crises (incidents / résolution). Identifier, mobiliser et animer les expertises techniques complémentaires . Gérer, compléter et suivre les demandes de services liées aux projets. Activités / Tâches : Planifier et animer les ateliers d’architecture avec les équipes projets et cybersécurité. Recueillir et analyser les besoins des équipes projet sollicitant les services d’architecture. Concevoir des architectures techniques et d’hébergement (Cloud / On-Premise) alignées avec la stratégie SI. Valider la faisabilité des architectures auprès de la cybersécurité, des experts infrastructure et des équipes d’exploitation. Rédiger et maintenir à jour les DAT / dossiers d’architecture technique & hébergement . Réaliser le dimensionnement initial des composants d’infrastructure. Présenter et défendre les dossiers en comités de validation . Proposer des axes d’amélioration (process, offres de service, templates, méthodes) aux architectes référents. Relire et valider les dossiers produits par d’autres architectes (autres divisions). Maintenir la cartographie applicative et suivre l’obsolescence du périmètre. Conseiller sur la stratégie d’évolution des applications. Apporter une expertise forte sur les socles Ubuntu / Apache / Tomcat . Livrables attendus : Production et suivi des Dossiers d’Architecture Technique (DAT) . Mise à jour d’un planner de suivi (versions, dossiers, jalons). Reporting hebdomadaire : planning, synthèse d’activité, points structurants, irritants, blocages. Centralisation et mise à jour des informations dans un référentiel/fichier centralisé . Compte-rendu hebdomadaire des activités (applications, temps passé, description macro). Connaissances techniques : Réseau, base de données, middleware, SQL OS : Ubuntu / Redhat (et connaissances Solaris/Windows appréciées) Cloud : AWS & Azure + On-Premise Virtualisation & conteneurs : VMWare, Docker, Kubernetes Bonne compréhension des logiciels/technos du schéma directeur Environnement technique : Cloud AWS / Azure / On-Premise Tomcat, Java, NodeJS, Kubernetes, Python, Angular Ubuntu, Solaris, Redhat, Windows PostgreSQL, Oracle, MongoDB
Mission freelance
Data domain lead
Codezys
Publiée le
Python
SQL
6 mois
450-550 €
Aubervilliers, Île-de-France
Aligner et renforcer les capacités des équipes IS&T, Data & Digital en coordination avec les parties prenantes du groupe. Accélérer, industrialiser et déployer des services numériques et de la valorisation des données, en s'appuyant sur des modèles de livraison basés sur les services, expertises métiers et logiciels. Développer, maintenir et soutenir des offres technologiques, data et digital pour créer de la valeur, en interne comme en externe. Chaque département doit se concentrer sur ses compétences clés tout en créant des synergies et en optimisant les interactions. Rôle du département DATA : Valoriser le potentiel des données en en faisant un actif stratégique pour renforcer la prise de décision basée sur les données. Renforcer la chaîne de valeur Data, en appliquant une stratégie de source unique de vérité, simplifier l’écosystème data et favoriser une approche centrée sur les données dans la stratégie applicative. Devenir un leader en Ecological AI en co-concevant un portefeuille de solutions Data. Équipe Data Transformation : Créer et dispenser des formations sur la data aux différents segments du personnel data. Réaliser des projets data avec les départements et Business Units (BU), notamment en automatisant les processus de reporting (projet KISS). Mettre en place une organisation Data à l’échelle du groupe et des BU pour améliorer la gouvernance et le reporting, en animant une communauté de responsables de la transformation data. Objectifs et livrables : En tant que responsable du domaine Data, vous gérez des missions de transformation, construisez des cas d’usage en analytics, supportez les initiatives d’automatisation et de changement, et garantissez l’alignement stratégique des produits data. Responsabilités clés : Vision et stratégie produit : Définir la vision et la feuille de route des produits data, agir comme point de contact unique pour les besoins métiers et aligner les solutions sur les objectifs opérationnels. Mise en œuvre & standards : Développer des solutions data (pipelines, datamarts, visualisations) conformes aux standards architecturaux, avec une expertise en modélisation sémantique et gestion des Master Data. Analyse & insights : Identifier des tendances via l’analyse de données, créer des dashboards et rapports stratégiques, soutenir les analystes citoyens en identifiant des opportunités à forte valeur ajoutée. Transformation et autonomisation : Promouvoir la maturité data par la formation (ex. Data Passport), faire évoluer la culture data et animer une communauté de Data Owners. Partenariats et adoption : Gérer attentes et besoins des parties prenantes, promouvoir et faciliter l’adoption des solutions data par les BU, en soutenant leur connexion à la plateforme.
Offre d'emploi
Expert automatisation et virtualisation - Toulouse (H/F)
STORM GROUP
Publiée le
Ansible
Python
VMware vSphere
3 ans
48k-54k €
420-450 €
Toulouse, Occitanie
Projet : La mission consiste à intégrer les processus opérationnels de l'équipe Virtualisation - Automatisation. Cette mission est soumise aux astreintes structurelles et aux interventions ponctuelles en HNO. Missions : Accompagner la croissance des métiers tout en optimisant les plateformes de Virtualisation dans un environnement complexe. Contribuer aux projets techniques et métiers en collaboration avec les équipes réseaux, stockage et DevOps. Elaborer et mettre en œuvre des solutions d'industrialisation et d'automatisation. Déployer et maintenir des infrastructures de virtualisation ESXi, NSX, VSAN. Traiter les incidents et les demandes. Résoudre les problèmes. Très bonne compétence de scripting impérative et expertise sur des outils d'automatisation (ansible, AAP2). Expertise sur l’utilisation des API et les méthodes DevOps est impérative.
Offre d'emploi
Expert automatisation et virtualisation - Nantes (H/F)
STORM GROUP
Publiée le
Ansible
Python
VMware vSphere
3 ans
48k-54k €
420-450 €
Nantes, Pays de la Loire
Projet : La mission consiste à intégrer les processus opérationnels de l'équipe Virtualisation - Automatisation. Cette mission est soumise aux astreintes structurelles et aux interventions ponctuelles en HNO. Missions : Accompagner la croissance des métiers tout en optimisant les plateformes de Virtualisation dans un environnement complexe. Contribuer aux projets techniques et métiers en collaboration avec les équipes réseaux, stockage et DevOps. Elaborer et mettre en œuvre des solutions d'industrialisation et d'automatisation. Déployer et maintenir des infrastructures de virtualisation ESXi, NSX, VSAN. Traiter les incidents et les demandes. Résoudre les problèmes. Très bonne compétence de scripting impérative et expertise sur des outils d'automatisation (ansible, AAP2). Expertise sur l’utilisation des API et les méthodes DevOps est impérative.
Offre d'emploi
Consultant(e) DATAIKU DSS
Hexateam
Publiée le
Dataiku
MySQL
Python
Île-de-France, France
Bonjour, Concernant le périmètre de nos activités sur dataiku, vous trouverez ci-dessous une brève description de mes taches par thématiques (Remarque : Les taches en gras sont des taches déjà accomplies, le reste est encore à faire) : Gestion des environnements : Récupération des logs DSS pour toutes les instances (Design et automation) et les mettre sur une bucket S3 dédié au monitoring Monitoring Développement d'un projet de monitoring données dataiku qui contient des tables décrivant tous les items développés sur dataiku, à partir desquelles on génère automatiquement des dashboards quotidiens pour monitorer les activités de tous les utilisateurs sur l’instance : Datasets,Projects,Jobs,Scenarios,Recipes,connections… Dashboards interactifs avec différents insights avec la possibilité de filtrer sur User/Project/connection/Dataset… Audibilité Rencontre avec deux équipes métiers ‘direction financière’ et ‘Data Energy management’ pour : Comprendre leurs métiers Cadrage de leurs besoins sur dataiku. Un état des lieux de leurs projets Finops Création d'un projet de ressource usage monitoring pour monitorer l’utilisation de dataiku en termes de ressources (CPU/RAM/SQL/kubernetes) avec des dahsboards interactifs quotidiens générés automatiquement Support, Accompagnement et industrialisation : Création d'un support de bonnes pratiques durant toutes les phases de développement d’un projet sur dataiku, partagé avec les différents membres des équipes métiers développant sur dataiku. Développement d’un plugin de contrôle de data quality pour être utilisé pour n’importe quel dataset dans n’importe quel projet. Développement d’une macro dataiku qui supprime automatiquement les datasets intermédiaires Instaurer les bonnes pratiques sur les projets (urgents :Prévision_elec_${compagne mensuelle} et budget_dev_elec) afin de les mettre en production. Transformation des recettes pythons en recettes visuels Industrialiser ces projets en automation node Développement d’une macro dataiku qui migre automatiquement les datasets d’un cdh vers un autre Accompagnement et support permanant sur dataiku : Proposition d’amélioration des développements avec des concepts dataiku Formation sur mesure sur des concepts dataiku Développement customisé selon le besoin Accompagnement de bout en bout sur la mise en prod des use cases
Mission freelance
Data Scientist
Orcan Intelligence
Publiée le
Large Language Model (LLM)
MLOps
Python
5 mois
500-650 €
Paris, France
Nous recherchons un/e Data Scientist pour rejoindre une équipe dynamique en Région parisienne (onsite 1x par semaine). Vous participerez à la conception et à la mise en œuvre de solutions de data science et d’apprentissage automatique à fort impact, contribuant directement à la création de valeur pour l’entreprise. Missions principales Concevoir et implémenter des solutions de data science de bout en bout pour résoudre des problématiques métier. Extraire, nettoyer et analyser de grands volumes de données, notamment à l’aide de Teradata Vantage et SQL . Construire et déployer des modèles de machine learning en Python . Exploiter des feature stores pour le développement et la mise en production des modèles. Explorer et appliquer des approches en IA générative (LLM, transformers) selon les cas d’usage. Définir des stratégies de data science alignées avec les objectifs métier et la feuille de route data de long terme. Communiquer méthodologies, résultats et recommandations à des publics variés (techniques et non techniques). Préparer et présenter des analyses et recommandations claires à différents niveaux (direction, opérationnel, technique). Collaborer avec les data engineers, analystes et experts métier pour intégrer les solutions en production. Contribuer à l’amélioration continue des outils, processus et bonnes pratiques en data science.
Offre d'emploi
Testeur technique/intégrateur
Etixway
Publiée le
Grafana
HTTP
Jenkins
6 mois
40k-50k €
400-480 €
Nantes, Pays de la Loire
Pour l'un de nos clients (secteur bancaire sur Nantes) , nous sommes à la recherche d'un Testeur technique/intégrateur qui viendra renforcer une équipe qui gère l’homologation technique des applications à destination des clients de la banque à distance. L’équipe intervient sur les applications de banque à distance (web & mobile) afin de garantir leur conformité aux exigences non fonctionnelles et leur capacité à être mises en production dans de bonnes conditions. L’objectif est d’assurer la qualité technique des livraisons, d’identifier les points de blocage (performance, charge, exploitabilité…), et de contribuer à l’industrialisation des processus de tests pour accélérer le Time To Market. L’activité est menée en méthodologie Agile (mode hybride Kanban / Sprint), sous le pilotage d’un Responsable Intégration. Dans le cadre des changements confiés à l’équipe, la mission consiste à : Prendre connaissance du changement et de son contexte technique Contribuer à la définition de la stratégie et du plan de tests Préparer les environnements et infrastructures de test Réaliser les tests techniques (fonctionnement, performance, charge, exploitabilité…) Analyser les résultats et produire les conclusions Participer au diagnostic en cas d’anomalie ou de dysfonctionnement Rédiger des rapports détaillés permettant la décision GO / NO GO Constituer et maintenir un patrimoine de tests réutilisables Assurer le reporting vers le Responsable Intégration Contribuer à l’amélioration continue, notamment sur l’activité tests Industrialiser les tests via des PIC (scripts / pipelines / automatisation)
Mission freelance
NetDevOps automatisation
Mindquest
Publiée le
Ansible
API REST
AWS Cloud
1 an
400-550 €
Saint-Denis, Île-de-France
Intégrer l’équipe NetDevOps afin de contribuer à l’automatisation des infrastructures réseau et à l’amélioration de l’efficacité opérationnelle. Automatisation réseau Développement de playbooks Ansible pour automatiser les configurations réseau. Administration et orchestration des déploiements via AWX . Développement de scripts Python pour automatiser les processus et intégrer des APIs réseau. Gestion des infrastructures Administration et optimisation de serveurs Linux hébergeant les outils de la plateforme. Gestion et maintenance des environnements techniques associés. Gestion d’inventaire et documentation Configuration et administration de Netbox (IPAM, inventaire des équipements, documentation). Intégration de Netbox avec les outils d’automatisation (Ansible, Python). Maintien de la cohérence entre inventaire logique et physique. Automatisation de la mise à jour des données d’inventaire. Monitoring et observabilité Mise en place de la collecte de logs et métriques via Vector . Création de dashboards Grafana pour le monitoring des infrastructures réseau. Mise en place d’alerting automatisé et reporting. Analyse des performances et optimisation continue. Industrialisation des opérations Consolidation des architectures d’automatisation réseau basées sur AWX et Ansible . Industrialisation des déploiements réseau (ACL, syslog, automatisations associées). Structuration des workflows d’exploitation automatisés. Contribution à la normalisation des pratiques réseau. Infrastructure et conteneurisation Déploiement d’applications sur AWS / EKS . Conteneurisation des outils NetDevOps avec Docker . Gestion d’environnements avec Docker-compose . Automatisation des déploiements et mise à l’échelle des solutions. Accompagnement des équipes Support aux équipes d’exploitation dans l’appropriation des outils et des processus. Participation à l’évolution de la plateforme vers des mécanismes d’exploitation avancée basés sur l’analyse des données collectées .
Mission freelance
Crédit risk modelling (PD, LGD, CreditVar) & Stress Test
Mon Consultant Indépendant
Publiée le
Matlab
Python
SQL
9 mois
550-590 €
Paris, France
Pour le compte de l’un de nos clients, nous recherchons un Credit Risk Quant disposant de plus de 4 ans d’expérience en modélisation du risque de crédit , notamment sur les modèles PD, LGD, CreditVaR , ainsi que sur les exercices de stress testing . Le consultant interviendra dans un environnement quantitatif exigeant, en lien avec les équipes risques et métiers. Une expertise en risque ALM est appréciée mais non discriminante. La mission requiert une excellente maîtrise des langages Python, Matlab et SQL . Démarrage prévu début mars .
Mission freelance
Tech Lead Data Engineer Java Python Azure
Cherry Pick
Publiée le
Azure
Java
PySpark
12 mois
600 €
Paris, France
But principal Le prestataire Tech Lead a pour mission principale de : • Contribuer au delivery du produit • Assurer les choix techniques en collaboration avec la squad dans le respect des standards, • Faire comprendre les choix techniques & obtenir l’adhésion des parties prenantes • Interagir au quotidien avec les parties prenantes (métier, tech authority...) • Garantir la qualité logicielle de la prestation de l'équipe Veiller à la bonne mise en œuvre du plan de développement du produit. Missions • Être le garant technique de la squad en la soutenant dans ses choix et dans la mise en œuvre des bonnes pratiques et standards • Garantir la qualité du code et suivre les KPIs pour le suivi de produit • Contribuer techniquement à la production du code • Remonter les alertes et garantir la résolution de problèmes dans un environnement agile en étroite collaboration avec Delivery Performance, Talent et Chapter leads • Être garant de la bonne mise en œuvre technique du plan de développement du produit.
Offre d'emploi
Expert Dataviz & Dashboarding
Lùkla
Publiée le
Apache Spark
Data visualisation
ELK
2 ans
55k-60k €
450-600 €
Guyancourt, Île-de-France
Au sein de l'équipe Data4Ops, vous jouez un rôle pivot dans la structuration et la valorisation des données opérationnelles du Système d'Information (SI). En collaboration directe avec le Product Owner Data et le Product Manager Observabilité, votre objectif est de transformer des flux de données complexes en leviers de décision stratégiques et opérationnels. Votre mission principale consiste à automatiser la collecte, la manipulation et la mise en image des données pour créer des outils de pilotage haute performance. Conception et stratégie : Recueil des besoins auprès des parties prenantes métiers et techniques. Rédaction des spécifications fonctionnelles et techniques. Conception de la documentation utilisateur et technique pour garantir la pérennité des solutions. Développement de visualisations : Création de tableaux de bord interactifs et de graphiques dynamiques sous Power BI et Grafana. Design d'interfaces intuitives permettant une lecture immédiate des enjeux critiques. Adaptation des rapports aux différents profils utilisateurs (Top Management vs Équipes Ops). 3. Engineering & analyse de données : Définition et implémentation de KPI métiers et techniques. Extraction, transformation et analyse automatisée (ETL) de données multi-sources. Modélisation de données pour optimiser les performances d'affichage des dashboards.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
755 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois