Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 3 343 résultats.
CDI
Freelance

Offre d'emploi
Développeur Python/Excel

OBJECTWARE
Publiée le
Microsoft Excel
Python

3 ans
40k-75k €
400-550 €
Île-de-France, France
Objectif de la mission Vous intégrez une équipe de développeurs dits « de proximité », experts en VBA, souhaitant réorienter leur production en Python (nouveaux projets et migration de certaines applications existantes). Les développements sont réalisés sur base de spécifications rédigées par des Business Analystes dédiés à chaque projet (pas de contact direct avec le métier). Nous recherchons donc un candidat spécialisé dans la manipulation en python des objets et des traitements bureautiques (MS Office) : • Import et traitement des données multi sources • Mise à jour et formatage de tableaux Excel ou de documents Word • Gestion de mails avec configurations multiples selon les contextes • Interactions MS Sharepoint • Enrichissement de fichiers connexes (logs, kpi, rapports, etc) • Traitements bureautiques de base (gestion des fichiers et des répertoires) • Environnements virtuels et scripts de déploiement sur les postes utilisateurs Librairies privilégiées : openpyxl, xlwings, pandas, pywin32, pathlib, os, shutil, Office365-REST-Python-Client, tkinter etc Une maîtrise approfondie des outils bureautique (notamment Excel) Un test technique explicitement orienté sur ces compétences sera proposé aux candidats. Nous sollicitons les commerciaux pour nous adresser uniquement des profils correspondant à ces besoins spécifiques et ayant une expérience significative dans un contexte analogue. Objectifs : • Développement de scripts pythons interfacés avec des fichiers MS Office • Création de documentations techniques • Maintenance des applications existantes • Participation aux points quotidiens et aux réunions d’équipe • Accompagnement de l’équipe (développeurs experts VBA) dans la montée en compétence sur Python (Best Practices, construction d’un Framework, etc)
CDI
Freelance

Offre d'emploi
Project manager Data Trade Denodo/VQL ( H/F)

AVA2I
Publiée le
Data quality
Finance
Microsoft Power BI

3 ans
Île-de-France, France
Dans le cadre d’un programme stratégique Data mené au sein d’un grand environnement bancaire international , une équipe IT orientée métiers Corporate & Trade Finance renforce ses capacités pour accompagner la transformation et l’accessibilité des données. Un projet structurant est en cours visant à centraliser, modéliser et distribuer les données Trade Finance , tout en garantissant un haut niveau de qualité, de gouvernance et de sécurité . Accompagner le métier Trade Finance dans l’accessibilité et la valorisation de ses données Piloter la migration des rapports BI existants vers une nouvelle solution Data Définir les plans d’actions et les roadmaps de migration des rapports existants Analyser et cadrer les besoins métier via des ateliers fonctionnels Prioriser et budgétiser les sujets de migration Coordonner les échanges avec des équipes internationales Implémenter les modèles de données sur une plateforme de virtualisation de données (Denodo / VQL) Rédiger la documentation fonctionnelle et les user stories Superviser les développements afin de maîtriser les risques et le périmètre Assurer l’assistance fonctionnelle auprès des équipes de développement Concevoir et maintenir des rapports sur Power BI Contribuer aux processus de Data Quality (définition et mise en place de règles)
Offre premium
Freelance
CDI

Offre d'emploi
Dev Etrading Warrant C++/finance de marché

Digistrat consulting
Publiée le
C/C++
Multithreading
Python

3 ans
40k-70k €
400-600 €
Paris, France
🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 💡 Contexte: La mission consiste au support dans le cadre des activités de: Participation, en tant que développement Front Office, à l'amélioration des automates de contribution sur warrants, certificats et produits exotiques. 💡 Principales Missions: • En salle de marché, collecte et analyse des besoins des traders • Développement de nouvelles fonctionnalités et la maintenance de la plateforme dans un cadre agile. • Assurance du suivi de la mise en production des nouvelles fonctionnalités. • Accompagnement de l'équipe Trading Support pour l’aider à maintenir la stabilité de la plateforme, améliorer ses performances et réduire le risque opérationnel. 💡 Environnement technique : C++ 17, Python, Git, Jenkins, Oracle, Linux Red Hat, NATS, Java
Freelance

Mission freelance
Technical Account Manager (TAM) Cybersecurity (Full TT)

Cherry Pick
Publiée le
Cybersécurité
Endpoint detection and response (EDR)
ERP

12 mois
Paris, France
Contexte du poste Dans le cadre de son développement continu et suite à une phase de restructuration ("post-PSE"), le client renforce ses équipes Professional Services & Customer Success. En tant que TAM, vous serez l'interlocuteur technique privilégié de vos clients, agissant comme un "Trusted Advisor" pour garantir le succès de l'adoption de nos solutions. Vos Missions Référent technique dédié : Être le point de contact technique principal pour un portefeuille de clients premium. Adoption et Optimisation : Accompagner les clients dans la configuration et l'optimisation des solutions du client (EDR, EPP) pour maximiser leur valeur ajoutée. Support Proactif : Assurer un suivi technique rigoureux pour garantir que les solutions fonctionnent parfaitement dans le contexte spécifique du client et prévenir tout risque d'attrition (churn). Gestion des incidents complexes : Collaborer avec les équipes MDR (Managed Detection and Response) et la R&D pour résoudre les tickets de support de niveau complexe. Voix du Client : Collecter les retours clients et collaborer avec les équipes Produit pour influencer la roadmap technique. Formation et Certification : Animer des sessions de montée en compétences et des programmes de certification pour les utilisateurs chez les clients ou partenaires.
Freelance

Mission freelance
Data engineer H/F

HAYS France
Publiée le

6 mois
450-500 €
Luxembourg
Responsabilités clés : Le département Risk a décidé de refondre ses outils de reporting réglementaire et interne pour l'ensemble du Groupe. La solution cible reposera sur la collecte des sources de données via notre Microsoft Data Platform, ainsi que sur la transformation des données et la production d'une grande partie du reporting Risques du Groupe à l'aide de l'outil WKFS RiskPro et, pour une liste limitée de rapports, via Risk EUC et des rapports / tableaux de bord Power BI. Responsabilités : Développement de pipelines dans Azure Synapse Analytics pour l'ingestion de données Implémentation des règles de transformation dans la Microsoft Data Platform du Groupe Réalisation des tests techniques unitaires Support à la phase UAT (corrections d'anomalies / demandes d'évolution) Déploiement des développements
Freelance

Mission freelance
Développeur Python/AWS - Lyon (69)

LeHibou
Publiée le
AWS Cloud
Python

6 mois
550-600 €
Lyon, Auvergne-Rhône-Alpes
Notre client dans le secteur Énergie et ressources naturelles recherche un Lead développeur Python / AWS H/F Descriptif de la mission: Contexte et objectif de la mission Le projet se compose de deux modules : - une plateforme d’entreprise étendue visant à échanger des objets métiers dans le cadre de la maintenance d’installations industrielles entre l’entreprise et ses prestataires externes, afin d’assurer une continuité numérique entre les systèmes d’information ; - un portail web destiné aux partenaires ne disposant pas de système d’information. Le prototype a été réalisé de mars à mai 2023 en co-développement avec une équipe de prototypage cloud, en mode serverless. La V1 de la plateforme est en production depuis décembre 2023 et la V1 du portail depuis décembre 2024. Depuis février 2026, les échanges de bout en bout en entreprise étendue sont effectifs sur un premier objet métier. La feuille de route 2026 porte sur : - la poursuite de l’ajout de fonctionnalités pour faciliter le déploiement ; - l’amélioration de la maintenabilité du code ; - l’amélioration des performances ; - la revue d’architecture et des services cloud utilisés ; - l’intégration des contraintes de cybersécurité ; - la précision de l’exploitabilité de l’application en production. Environnement technique et organisation La plateforme propose des échanges de données métier via API et s’interface avec des applications métier internes et celles des partenaires. Le portail est accessible via le web. Éléments techniques et d’exploitation mentionnés : - données en transit et au repos chiffrées et stockées via DynamoDB ; - authentification forte utilisateur pour l’accès au portail ; - gestion des identités techniques via Cognito ; - sécurisation en frontal via WAF V2 et CloudFront pour les échanges avec API Gateway et S3 ; - stratégie de sauvegarde quotidienne, hebdomadaire, mensuelle et annuelle sur les services hébergeant les données ; - centralisation des logs applicatifs et d’authentification dans un environnement d’exploration ; - cible d’exploitation 24/7 à terme, avec plage actuelle prévue 9h-17h, 5j/7. L’équipe est organisée en agilité à l’échelle (SAFe) et comprend notamment : - 1 lead développeur backend ; - 1 lead développeur frontend ; - 3 développeurs Python ; - 2 développeurs Angular ; - 1 Scrum Master ; - 1 Proxy PO ; - 1 Product Owner ; - 1 architecte référent ; - 1 chef de projet. Des échanges sont également prévus avec des partenaires industriels externes. Responsabilités principales La prestation consiste à prendre un rôle de lead sur les développements Python du produit. Les activités attendues sont : - prendre le rôle de lead sur les développements Python du produit ; - encadrer l’équipe de développement backend Python ; - réaliser les développements, évolutions et corrections ; - analyser et corriger les incidents de production ; - réaliser les revues de code ; - réaliser la refactorisation et l’optimisation du code ; - participer à la conception des solutions ; - chiffrer le besoin métier ; - concevoir les spécifications détaillées de la solution ; - concevoir les plans de tests techniques. Profil recherché Séniorité attendue : expert (12 ans et plus). Compétences techniques requises : - Boto3 : senior ; - Cloud AWS : senior ; - Python : senior ; - API REST : senior ; - DevOps (Git, Jenkins) : senior ; - Clean Architecture : expérimenté. Compétences humaines requises : - leadership ; - bonne communication ; - pédagogie. Livrables attendus - Spécifications techniques détaillées - Plan de tests techniques - Documentation applicative technique - Guide de bonnes pratiques de développement - Guide de paramétrage applicatif - Rapport d’audit de sécurité - Gestion de configuration (mise à jour) - Code source des développements réalisés Compétences / Qualités indispensables: Python,AWS Cloud,API REST,Boto3,Clean Architecture Compétences / Qualités qui seraient un +: Familiarité avec l’environnement d’un grand groupe industriel
Freelance

Mission freelance
101057/Architecte des moteurs et de l'IA - Python,Node.js,React

WorldWide People
Publiée le
Node.js
Python
React

9 mois
400-480 €
Bezons, Île-de-France
Architecte des moteurs et de l'IA - Python,Node.js,React Concevoir, structurer et faire évoluer nos moteurs logiciels et nos capacités d’IA. Concevoir, structurer et faire évoluer les moteurs applicatifs en Node et Python. Définir des architectures robustes, scalables et maintenables en environnement Kubernetes (GKE/EKS). Garantir des performances optimales pour des traitements intensifs (données, calculs, agents AI). Participation active au développement en React (front), Node & Python (back). Mise en place de microservices performants, adaptés aux contraintes SaaS et data-heavy. Optimisation et automatisation des déploiements via CI/CD (GitHub Actions ou équivalent). Concevoir et déployer des agents AI légers (AWS Lambda, microservices AI autonomes). Intégrer de manière cohérente les modèles LLM, embeddings, pipelines IA, outils vectoriels. Superviser la qualité, la robustesse et la fiabilité des agents dans leur exécution. Définir les pipelines de préparation des données, entraînement, validation et mise en production. Intégrer des outils MLOps (MLflow, Vertex AI, SageMaker ou équivalent). Veiller à la reproductibilité, la traçabilité et la gouvernance des modèles. Travailler en étroite collaboration avec les équipes Data, Produit, Impact scientifique et DevOps. Être l’interlocuteur technique clé pour les sujets IA, moteurs et calculs back-end. Faciliter la communication pour garantir la cohérence architecture/produit/IA. Rester à jour sur les innovations IA, agent frameworks, architectures serverless et MLOps. Être force de proposition pour optimiser les moteurs de calcul, les workflows AI et l’usage du cloud. Participer à la définition d’une feuille de route technique moderne et innovante.
Freelance

Mission freelance
Software Engineer (H/F) – Python Backend / GenAI / GCP

HOXTON PARTNERS
Publiée le
API REST
GenAI
Google Cloud Platform (GCP)

12 mois
Paris, France
Dans le cadre du renforcement d’une plateforme applicative innovante orientée IA générative, nous recherchons un Software Engineer disposant d’une expertise poussée en développement backend Python et en intégration de services GenAI au sein d’environnements cloud modernes. La mission s’inscrit dans un contexte de développement et d’industrialisation de la couche applicative IA, avec un fort niveau d’exigence sur la qualité logicielle, la scalabilité, la sécurité, la performance et l’intégration dans une architecture existante orientée microservices. Le consultant interviendra sur la conception, le développement et l’évolution de services backend exposés via API, avec un enjeu important autour de l’intégration de composants IA avancés, de la gestion des problématiques synchrones / asynchrones, ainsi que de l’évolution du socle agentique, notamment dans le cadre d’une migration de LangChain vers un framework Google. Responsabilités Concevoir, développer et faire évoluer des microservices backend en Python Exposer des APIs via FastAPI Développer des services robustes en environnement synchrone et asynchrone Concevoir et maintenir des APIs REST performantes et sécurisées Structurer les modèles de données avec Pydantic v2 Intégrer des services IA / GenAI dans l’architecture applicative existante Participer à la conception et à l’orchestration d’architectures microservices Contribuer à la migration et à la rationalisation du framework agentique (transition depuis LangChain vers un framework Google) Intégrer des LLMs via Vertex AI, OpenAI ou Anthropic Mettre en œuvre les bonnes pratiques de sécurité (authentification, validation, filtrage de contenu) Optimiser les performances (haut débit, faible latence) Participer à l’industrialisation des développements (CI/CD, cloud-native)
Freelance

Mission freelance
Développeur(euse) Big Data

CAT-AMANIA
Publiée le
Apache Spark
Hadoop
Python

12 mois
400-550 €
Lyon, Auvergne-Rhône-Alpes
Description du poste : Dans le cadre de l'activité Big Data de notre client, nous recherchons un profil en développement Data, Python, SQL, Shell, Spark (+ de 5 ans d'expérience) pour nous accompagner dans nos actions sur notre plateforme Cloudera Hadoop. L'objectif de la prestation est de réaliser et maintenir les développements nécessaires à l'alimentation de la plateforme Hadoop, à la mise en place d'extractions et à l'accompagnement des utilisateurs.
CDI

Offre d'emploi
Architecte Data (H/F)

CITECH
Publiée le
Data analysis
Microsoft Power BI
Teradata

40k-70k €
Lyon, Auvergne-Rhône-Alpes
Description de l'entreprise 🚀 CITECH recrute ! 🚀 ✨ Vous souhaitez mettre vos compétences techniques au service d’un projet d’envergure au sein d'un écosystème complexe et stratégique ? Alors cette mission est faite pour vous ! Nous recherchons un(e) Architecte Data Sénior (H/F) pour renforcer le Pôle Projets de la DSI de l’un de nos clients majeurs, acteur de référence dans le secteur de la protection sociale. 🙌🔽 Vos missions seront les suivantes : 🔸 Concevoir l'architecture cible de la plateforme Data en maîtrisant les patterns d'injection, de stockage, de transformation et d'exposition 🔸 Réaliser la modélisation des données (conceptuelle, logique et physique) dans une approche "Data Centric" 🔸 Assurer l'urbanisation des produits Data tout en garantissant l'harmonisation et la rationalisation des modèles 🔸 Définir les standards, les normes de qualité (typage, granularité) et les bonnes pratiques architecturales 🔸 Accompagner, communiquer et assurer l'alignement entre les différents acteurs métiers et techniques 🔸 Produire la documentation technique de référence (cahier des charges, schémas d'architecture) et assurer le transfert de compétences
Freelance

Mission freelance
Cloud DevOps Engineer orienté Data (GCP)

Gentis Recruitment SAS
Publiée le
DevOps
FinOps
Google Cloud Platform (GCP)

210 jours
400-450 €
Montpellier, Occitanie
Contexte Dans le cadre du renforcement d’une équipe Cloud / DevOps chez un acteur du secteur bancaire basé à Montpellier, nous recherchons un Cloud DevOps Engineer senior orienté plateformes Data. Le consultant interviendra sur la conception, l’implémentation et l’exploitation d’une infrastructure GCP containerisée destinée à supporter différents cas d’usage data (pipelines, traitements et services associés). L’objectif est d’industrialiser et d’opérer une plateforme cloud robuste, sécurisée et scalable, avec une forte culture Infrastructure as Code, GitOps et RUN. Missions principales Implémentation et administration GCP Concevoir et déployer des solutions techniques containerisées sur Google Cloud Platform Administrer et optimiser l’infrastructure GCP : GKE, GCE, GCS, Cloud SQL, VPC, Load Balancer, Private Service Connect, IAM Automatisation et industrialisation Automatiser le provisioning et la gestion des ressources cloud via Terraform et Terragrunt Concevoir et maintenir les pipelines CI/CD (GitLab CI) Standardiser les déploiements et garantir leur reproductibilité Sécurité Implémenter les bonnes pratiques de sécurité sur le cloud et Kubernetes Mettre en place la gestion des secrets et des accès (Vault, SSO) Participer au contrôle des vulnérabilités via des outils de scan (Xray, Trivy) Monitoring et observabilité Mettre en place des solutions de monitoring et d’alerting (Prometheus, Grafana, ELK) Exploiter Google Cloud Observability pour la supervision et le troubleshooting Support et RUN Assurer le maintien en conditions opérationnelles de la plateforme Opérer les déploiements et évolutions via une approche GitOps Garantir la traçabilité, la fiabilité et la conformité des déploiements Compétences indispensables Expérience significative sur Google Cloud Platform : GKE, VPC, IAM, Cloud SQL, GCS, Load Balancer Kubernetes et containerisation (Docker) Terraform et Terragrunt (niveau autonome) Git et GitLab CI Gestion des artefacts et registry : JFrog Artifactory ou GCP Artifact Registry Observabilité : Prometheus, Grafana, ELK, Google Cloud Observability Sécurité : Vault et outils de scan de vulnérabilités (Xray ou Trivy) Bonne culture réseau cloud (VPC, routage, sécurisation des flux) PostgreSQL (déploiement, administration et optimisation) Compétences appréciées Connaissance d’OpenShift Connaissance de l’orchestrateur Kestra Sensibilité aux problématiques FinOps et optimisation des coûts cloud
Freelance

Mission freelance
Data Engineer Senior GCP

TEOLIA CONSULTING
Publiée le
Apache Airflow
Architecture
BigQuery

3 mois
Paris, France
Nous recherchons un Data Engineer Senior pour intervenir au sein d’une plateforme Data stratégique dans un environnement numérique à forte volumétrie. Vous intégrerez une équipe composée d’un Product Owner, d’un Data Steward et de Data Engineers, au cœur d’une architecture cloud moderne orientée scalabilité, gouvernance et performance. Vos missions : Participer aux phases de conception et de planification des développements data Concevoir et maintenir des pipelines data robustes et scalables Collecter et centraliser des sources de données hétérogènes Structurer et optimiser le stockage des données Mettre en place des infrastructures scalables sur Google Cloud Platform Construire et maintenir les workflows CI/CD Garantir la sécurité, la conformité et la stabilité des environnements Contribuer aux initiatives de gouvernance des données Documenter les développements et partager les bonnes pratiques Accompagner les équipes internes dans l’exploitation des données Environnement technique : Google Cloud Platform (BigQuery, Dataproc, PubSub, Cloud Storage) Dataplex Universal Catalog Python SQL Spark Airflow Delta Lake Terraform / Terragrunt Gitlab / Gitlab CI/CD Méthodologies Agile (Scrum ou Kanban) Mission en environnement structuré avec forte exigence de qualité, de performance et de conformité réglementaire.
Freelance

Mission freelance
Senior Python Engineer – AI Agents & Automatisation (H/F)

Tenth Revolution Group
Publiée le
API REST
Python

12 mois
350-500 €
Lille, Hauts-de-France
🎯 Contexte de la mission Dans le cadre d'une transformation IA au sein d'un grand groupe retail européen , nous recherchons un Senior Python Engineer spécialisé en développement d'agents autonomes via OpenAI Agents SDK pour concevoir et industrialiser des workflows intelligents au cœur d'un SI complexe. 🛠️ Missions principales Conception et développement d' agents autonomes multi-steps avec OpenAI Agents SDK Intégration des agents dans les APIs internes et le SI existant (ERP, PIM, outils métier) Automatisation de processus métier complexes : orchestration des workflows, gestion des erreurs, supervision des exécutions Développement de services backend robustes en Python / FastAPI Participation aux choix d'architecture IA : patterns d'agents, handoffs, outils, guardrails Rédaction de code testé, documenté et orienté production Collaboration avec les équipes produit, data et infra 🔎 Profil recherché 5+ ans d'expérience en développement Python backend Expérience concrète avec OpenAI Agents SDK ou frameworks similaires (LangChain, LangGraph, CrewAI) Maîtrise des API REST et des patterns d'intégration SI Solide culture production-ready : tests, monitoring, gestion des erreurs, observabilité À l'aise dans un environnement grand compte en transformation Autonomie, rigueur et capacité à livrer rapidement
Freelance

Mission freelance
Consultant MOA Data / SQL – Secteur Protection Sociale

Comet
Publiée le
AMOA

1 an
400-650 €
Île-de-France, France
Dans le cadre d’un programme stratégique de transformation SI, un grand acteur de la protection sociale renforce ses équipes pour accompagner une migration majeure de référentiels métiers . Ce projet à fort enjeu s’inscrit dans une feuille de route nationale avec des impacts réglementaires et opérationnels importants. Au sein d’une équipe MOA, vous interviendrez sur un projet structurant autour de la fiabilisation des données et de la migration vers un système cible fédéré . Vos responsabilités Participation à la préparation de la migration des données Fiabilisation et contrôle des référentiels Réalisation des recettes fonctionnelles et data Analyse et suivi des anomalies Interface entre équipes métiers et IT (MOA / MOE) Contribution à l’ accompagnement des utilisateurs Rédaction de livrables et documentation
Freelance

Mission freelance
Data ingénieur Databricks  & Power BI Full remote ASAP (4-5 ans d'exp Databricks)

WorldWide People
Publiée le
Databricks

6 mois
320-340 €
France
Data ingénieur Databricks & Power BI Full remote ASAP (4-5 ans d'exp Databricks) Profil avant tout Data ingénieur Databricks avec des connaissances Power BI idéalement Python - SQL Data ingénieur Databricks & Power BI Full remote ASAP Profil avant tout Data ingénieur Databricks avec des connaissances Power BI idéalement Python - SQL Data ingénieur Databricks & Power BI Full remote ASAP Profil avant tout Data ingénieur Databricks avec des connaissances Power BI idéalement Python - SQL Data ingénieur Databricks & Power BI Full remote ASAP Profil avant tout Data ingénieur Databricks avec des connaissances Power BI idéalement Python - SQL
Freelance

Mission freelance
UI/UX Data Designer (H/F) - IDF + Remote

Mindquest
Publiée le
Databricks
Figma
Microsoft Power BI

3 mois
330-480 €
Roissy-en-France, Île-de-France
Le chantier Cockpit a pour objectif de construire des outils de pilotage afin d'assister dans la prise de décision. Dans ce chantier, le Design System DataViz a été construit avec l'objectif de rendre les informations complexes accessibles et exploitables grâce à une visualisation claire et intuitive. La construction du Design System DataViz est au coeur de la construction des outils de pilotage (chantier Cockpit). Il s'agit de construire un langage commun pour l’ensemble des métiers en standardisant les éléments design et les composants visuels Power BI. Contenu détaillé de la prestation : Vous allez travailler étroitement avec le directeur de projets Design System DataViz, les équipes Data et les métiers. Le but de la prestation consiste à l'accompagnement UX/UI design dans la production DIRECTION DES SYSTEMES D'INFORMATION Le but de la prestation consiste à l'accompagnement UX/UI design dans la production et livraison d'éléments design et graphiques, de composants Power BI dessinés dans le cadre du design system DataViz, de maquettes Power BI. - Comprendre les besoins et les enjeux à piloter - Comprendre les connaissances nécessaires pour le pilotage et la décision - Traduire les besoins/enjeux en conception et en design en s'appuyant sur le design system actuel Par exemple : o Mettre en place les scénarisations des KPI o Mettre en place la hiérarchisation visuelle par typographie et graphique o Mettre en place les filtres interactifs… - Concevoir / produire les éléments de design pour répondre au besoin conception - Produire / enrichir / standardiser le design system - les éléments design pour conception (ex: palette de couleurs contrastées, encadrés et pictogrammes, graphiques enrichis et dessinés…) - Produire / faire évoluer / enrichir / standardiser le design system es composants Power BI pour Dashboard - Maintenir / faire évoluer / produire la bibliothèque design system conception (éléments design) - Maintenir / faire évoluer / produire la bibliothèque design system Power BI (composants PBI dessinés) - Produire les maquettes Power BI Attentes pour la prestation • Conception / réalisation des outils de pilotage pour les différents enjeux / métiers • Réalisation des éléments design • Réalisation des éléments Power BI dessinés • Réalisation des maquettes / reportings PBI dynamiques • Enrichissement et gestion de nos dictionnaires design system • Rédaction des cahiers des charges, spécifications fonctionnelles et techniques nécessaires • Garant de la qualité de réalisation Le(la) consultant(e) va travailler sur les environnements (Figam, PowerBI, Azure, Databricks, SQL, …) co-managé par les équipes Data Factory ainsi que les équipes DCLD (direction client digital). Livrables • Design system – éléments de conception UIUX • Design system – composants Power BI dessiné • Reportings/Maquettes Power BI dynamique • Cahiers des charges / CR / Dictionnaires • Présentation / Documentation Technique • Figma • Power BI / DAX • Cloud Azure • Databricks • SQL • Python, Spark, Scala • Spyder…
3343 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous