Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 770 résultats.
Freelance

Mission freelance
UX/UI Designer Senior — Produit Data & Analytics H/F

Comet
Publiée le
Figma
Material-UI
Microsoft Power BI

5 mois
400-550 €
Île-de-France, France
🚀 Contexte Vous intervenez sur une plateforme interne data & performance digitale , utilisée à grande échelle dans un environnement international. Aujourd’hui : plusieurs modules fonctionnels existent développés de manière indépendante avec une expérience utilisateur fragmentée 👉 Objectif : améliorer et structurer l’expérience utilisateur , en collaboration avec une équipe produit et design plus senior 🎯 Votre rôle En tant que UX/UI Designer , vous contribuez activement à la refonte de l’expérience : Participation à la conception UX Design d’interfaces Contribution à la structuration produit Collaboration étroite avec designers seniors et équipes tech 🧩 Vos missions🔍 Recherche & analyse Participation aux audits UX Contribution aux interviews utilisateurs Analyse des parcours existants Identification des points de friction 🧠 Conception UX Contribution à la définition des personas Participation à la structuration des parcours Aide à la refonte de l’architecture de l’information 🎨 Design UI Création d’interfaces (web/app) Design de dashboards simples à intermédiaires Respect du design system existant 🧪 Prototypage & tests Prototypage sur Figma Participation aux tests utilisateurs Itérations design 🤝 Collaboration Travail avec Product, Tech et Design Contribution aux specs design Prise en compte des contraintes techniques
CDI

Offre d'emploi
Consultant(e) Senior - Data IA (Product Owner à Data Scientist) F/H - Système, réseaux, données (H/F)

█ █ █ █ █ █ █
Publiée le
Deep Learning
Scrum

Neuilly-sur-Seine, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Data Scientist Gen.AI (h/f)

emagine Consulting SARL
Publiée le

1 mois
111 €
France
Nous recherchons un Data Scientist Gen AI pour contribuer au développement de solutions innovantes basées sur l'IA générative. Le candidat idéal doit posséder une expertise en IA générative et en machine learning, ainsi qu'une aptitude avérée à créer des applications conversationnelles efficaces dans un cadre international. Missions principales : Concevoir et développer des solutions conversationnelles basées sur des modèles d’IA générative. Participer à l’architecture technique et au choix des frameworks tels que les LLMs, orchestration, RAG et fine-tuning. Implémenter des systèmes agentiques lorsque pertinent, y compris des multi-agents, l’utilisation d'outils et des chaînes de raisonnement. Mettre en place des pipelines robustes pour la collecte de données, la vectorisation, le monitoring et l’évaluation. Optimiser la performance, la fiabilité et la sécurité des réponses générées par les systèmes. Collaborer activement avec les équipes interfonctionnelles pour atteindre les objectifs de projet. Profil recherché : Anglais opérationnel pour un contexte international. Expérience confirmée en IA générative. Compétences confirmées en machine learning. Expérience sur le développement de solutions conversationnelles. Gros plus: connaitre le cloud AWS
Freelance

Mission freelance
Consultant Data Analyst Marketing – Dataiku & Analytics

Deodis
Publiée le
Dataiku

1 an
600 €
Île-de-France, France
Ce poste consiste à piloter et analyser la performance marketing à l’échelle internationale en s’appuyant sur la donnée. Il implique d’accompagner les équipes marketing dans l’identification de leurs besoins, de concevoir et automatiser des solutions de reporting et d’analyse (tableaux de bord, extractions, KPIs), et de formuler des recommandations stratégiques basées sur les données. Le rôle inclut également la gestion et la structuration des données (data lineage, dictionnaire), le développement de flux data robustes et maintenables (notamment via Dataiku, SQL et Python), ainsi que la mise en place de modèles analytiques simples. En interaction constante avec des équipes métiers et IT dans plusieurs pays, il requiert une forte capacité de coordination transverse, un souci de la qualité des données et une communication efficace en environnement international.
Freelance

Mission freelance
Tech Lead GCP / Data Engineering Senior (H/F)

HOXTON PARTNERS
Publiée le
BigQuery
Google Cloud Platform (GCP)
SQL

12 mois
Paris, France
Description du poste Dans le cadre d’un programme de transformation data de grande ampleur au sein d’un acteur international du secteur du luxe, nous recherchons un Tech Lead GCP senior pour intervenir sur des use cases commerce à forte valeur métier. L’enjeu principal de la mission est de concevoir et piloter des architectures data sur Google Cloud Platform afin de unifier l’expérience client online et offline , en structurant des socles de données capables d’alimenter les usages analytiques, les KPIs business et les dispositifs de pilotage associés. Le consultant ne sera pas positionné comme un simple data engineer, mais bien comme un profil expert GCP / Tech Lead , capable de porter la vision technique, de guider les choix d’architecture et d’accompagner les équipes sur la mise en œuvre. Il interviendra dans un environnement où la donnée doit permettre de mieux comprendre les parcours clients, de rapprocher les interactions digitales et physiques, et de renforcer la performance des usages commerce. Les responsabilités incluent notamment : Concevoir et faire évoluer des architectures data sur Google Cloud Platform Piloter techniquement la mise en place de solutions permettant de connecter et valoriser les données online et offline Définir et structurer des pipelines de données robustes, industrialisés et scalables Exploiter et optimiser BigQuery pour le stockage, la transformation et l’analyse de données à grande échelle Participer à la modélisation des données nécessaires aux indicateurs business et aux cas d’usage commerce Encadrer les choix techniques autour des flux de données, de la qualité, de la performance et des coûts Collaborer avec les équipes data, analytics et métiers pour produire des jeux de données exploitables Accompagner techniquement une équipe et jouer un rôle de référent sur les sujets GCP Contribuer à la mise à disposition des données pour les dashboards et outils de visualisation Participer à l’amélioration continue des architectures et des pratiques d’industrialisation
Freelance

Mission freelance
Expert SQL Sénior / Data Engineer DBT

Signe +
Publiée le
Google Cloud Platform (GCP)

5 mois
280-300 €
Lyon, Auvergne-Rhône-Alpes
🎯 MISSIONS Réaliser la data prep dans le cadre d'un projet d'automatisation des analyses récurrentes Contribuer à l'élaboration d'un cockpit de performance (data prep + data visualisation) Assurer le run quotidien : extraction, automatisation de livrables, création de reporting Renforcer le suivi de performance sur la partie non alimentaire Livrables attendus : Datasets sur BigQuery Classeurs Tableau Analyses + scripts pour le run quotidien 🛠️ ENVIRONNEMENT TECHNIQUE Cloud / Data : GCP, BigQuery Langages / Outils : SQL avancé (gros volumes), DBT Versioning : Git Méthode : Agile / Scrum 👤 PROFIL RECHERCHÉ Expert SQL Senior et/ou Data Engineer DBT confirmé Bac+5 informatique (école d'ingénieur ou université) ou équivalent 7 ans d'expérience minimum en Data Engineering DBT / SQL Expérience retail / grande distribution appréciée Bon communicant, autonome, esprit d'amélioration continue
Freelance
CDI

Offre d'emploi
Développeur BI / .NET (SSIS, SSAS, Azure)

Management Square
Publiée le
.NET
Azure
Azure Data Factory

1 an
50k-55k €
500-550 €
Paris, France
Contexte de la mission Dans le cadre de la modernisation d’un outil interne de pilotage de données financières (type cube décisionnel), une organisation recherche un consultant BI expérimenté pour accompagner la transformation technique et fonctionnelle de cette plateforme. L’outil permet le suivi d’indicateurs clés liés à l’activité (notamment des données financières et opérationnelles) et est utilisé par plusieurs départements métiers. Objectifs de la mission Le consultant interviendra sur plusieurs axes : Migration d’une architecture décisionnelle existante vers des technologies plus modernes Transition vers une plateforme cloud (Microsoft Azure) Enrichissement fonctionnel de l’outil Mise en place de mécanismes d’alerte automatisés Support opérationnel et maintenance évolutive Responsabilités principales 1. Modernisation de l’architecture Migration d’un modèle SSAS multidimensionnel vers un modèle tabulaire Optimisation des performances et des modèles de données Adaptation et migration des flux d’intégration de données (SSIS) Refonte et migration des rapports (SSRS) Déploiement de la solution sur Azure (Analysis Services, Data Factory, SQL Database, etc.) Intégration de nouvelles sources de données via API 2. Évolutions fonctionnelles Développement de nouveaux indicateurs et KPI Amélioration des règles de gestion et des calculs existants Intégration de nouvelles sources de données Extension du modèle de données 3. Mise en place d’un système d’alerting Définition des événements déclencheurs (seuils, anomalies, etc.) Développement de mécanismes d’alertes automatisées (emails, dashboards…) Intégration fluide avec l’écosystème existant 4. Support et maintenance Support applicatif de niveau 2/3 Analyse et résolution des incidents Collaboration avec les utilisateurs métiers Garantie de la stabilité et de la performance de la solution
Freelance
CDI

Offre d'emploi
Expert Data Cloud

ONSPARK
Publiée le
AWS Cloud
Azure
Docker

4 ans
Paris, France
Contexte OnSpark est un cabinet spécialisé dans la GMAO/EAM et l'intégration SI, en forte croissance (40 collaborateurs, CA 3,3 M€). Dans le cadre de la diversification de son offre vers la Data et l'Intelligence Artificielle, nous recherchons un Expert Data Cloud pour accompagner nos clients grands comptes. Vous interviendrez sur des projets de migration et d'exploitation de plateformes data vers le cloud, dans des contextes on-premise en cours de transformation, avec de fortes exigences en matière de sécurité et de conformité. Responsabilités Concevoir et déployer des architectures data sur le cloud Accompagner la migration des workloads data vers le cloud Optimiser les coûts et les performances des environnements cloud Assurer la sécurité et la conformité des données dans le cloud (RGPD, ISO 27001) Collaborer avec les équipes infrastructure, sécurité et data
CDI

Offre d'emploi
Consultant BI Azure Data Factory confirmé F/H - Maîtrise d'ouvrage et fonctionnel (H/F)

█ █ █ █ █ █ █
Publiée le
Github
SQL

Bordeaux, Nouvelle-Aquitaine

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Azure Platform Engineer – Data & Analytics

Codezys
Publiée le
Ansible
Azure
Azure Data Factory

6 mois
370-460 €
Paris, France
Contexte de la mission Cette équipe est responsable de la conception, du déploiement et de la maintenance d'une plateforme data cloud utilisée à l’échelle du groupe. Cette plateforme doit répondre à des enjeux majeurs tels que : la scalabilité la gouvernance la sécurité la performance Actuellement, l’environnement est principalement orienté vers Azure, avec une interopérabilité multi-cloud envisageable. Objectifs et livrables Infrastructure & Cloud (Azure) Développement et maintenance d’infrastructures en utilisant Terraform, Bicep et ARM Déploiement et gestion des ressources Azure : Azure Data Lake Storage (ADLS Gen2) Azure Storage (Blob) Azure Virtual Network, NSG, Private Endpoints Gestion des environnements cloud (DEV, TEST, PROD) Data Platform Administration et exploitation d’un Data Lake Azure Gestion des accès, de la gouvernance et de la sécurité des données : Azure AD / RBAC Politiques / Purview pour la gouvernance data Optimisation des performances et des coûts CI/CD & Automatisation Conception et maintenance de pipelines CI/CD avec Azure DevOps et GitHub Actions Automatisation des déploiements (infrastructure, données et services) Développement & APIs Création de microservices en Python Développement de REST APIs et architectures événementielles Intégration avec les services Azure tels que Functions et Event Hub Containers & Orchestration Déploiement de services containerisés via : Azure Kubernetes Service (AKS) Azure Container Apps / Azure Container Instances Monitoring & Fiabilité Mise en place de solutions de supervision telles que Azure Monitor, Log Analytics et Application Insights Suivi de la performance et de la disponibilité des services Collaboration Rédaction de documentation technique Interaction avec les équipes data, développement et métier Participation aux cérémonies Agile
Freelance
CDI

Offre d'emploi
Product Owner Big Data

KLETA
Publiée le
Big Data
Product management

3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Product Owner Big Data pour piloter la roadmap d’une plateforme data industrielle et maximiser la valeur des produits data. Vous analyserez les besoins métiers et techniques, structurerez le backlog produit et proposerez des trajectoires d’évolution alignées avec la stratégie data de l’entreprise. Vous travaillerez étroitement avec les équipes Data Engineering, Data Science, BI, Cloud et DevOps pour traduire les besoins en user stories claires, définir des critères d’acceptance et prioriser les fonctionnalités à forte valeur ajoutée. Vous accompagnerez la mise en place de produits data fiables, documentés et exploitables, en intégrant des enjeux de qualité, de gouvernance et de performance. Vous animerez des ateliers avec les parties prenantes, participerez aux cérémonies agiles et suivrez des indicateurs d’usage et de création de valeur. Vous aurez également un rôle clé dans la communication entre équipes techniques et métiers, en facilitant l’alignement stratégique et en promouvant une culture produit orientée données et impact business.
Freelance

Mission freelance
Expert Data Gouvernance (H/F) – Secteur Bancaire

CELAD
Publiée le

1 an
Paris, France
Contexte Dans le cadre d’une mission pour l’un de nos clients, acteur majeur du secteur bancaire, nous recherchons un Expert Data Gouvernance afin d’accompagner la structuration et l’optimisation de la gestion des données. Vous interviendrez dans un environnement exigeant, au cœur des enjeux stratégiques liés à la qualité, la sécurité et la valorisation des données. Vos missions Définir et déployer la stratégie de gouvernance des données Mettre en place les politiques, standards et processus de gestion des données Assurer la qualité, la fiabilité et la traçabilité des données (data quality, data lineage) Piloter les dispositifs de conformité (notamment réglementaires) Collaborer avec les équipes métiers, IT et data (Data Engineers, Data Analysts, etc.) Mettre en place et animer les comités de gouvernance Définir les rôles et responsabilités (Data Owner, Data Steward…) Accompagner la conduite du changement et la sensibilisation des équipes Suivre les indicateurs de performance liés à la data gouvernance
Freelance

Mission freelance
DATA ARCHITECTE

Coriom Conseil
Publiée le
Collibra
KPI
Modélisation

12 mois
460-610 €
Lille, Hauts-de-France
Modèles conceptuels de données par contexte métier Dossier de de conception de KPI Analyse de la conformité des API et Data Set Compétences techniques Modélisation de données - Expert - Impératif Modélisation de KPI - Confirmé - Important Collibra - Confirmé - Souhaitable Data governance - Confirmé - Souhaitable Connaissances linguistiques: Anglais Professionnel (Impératif) Description détaillée ATTENTION LE POSTE EST UN POSTE DE DATA ARCHITECT Nous cherchons un data architect pour intégrer la plateforme Ressources Humaines: Data architecture * Conception de modèles conceptuels de données par contexte métier. * Identification des évènements métier par contexte métier. * Définition et formalisation des Business Terms, Business Attributes et Business Event dans Collibra. * Définition des Indicateurs Clés de Performance par contexte métier. * Définition des règles de qualité des Business Terms. * Analyse de la conformité des API avec la data architecture. * Analyse de la conformité des Data Set avec la data architecture. * Réalisation du data lineage. * Rédaction de dossier d'architecture data répondant aux demandes business exprimées en quarter plan * Participation à la data governance de la plateforme
Freelance

Mission freelance
Data & Analytics Engineer (SQL / DBT)

Nicholson SAS
Publiée le
BigQuery
DBT
Google Cloud Platform (GCP)

6 mois
270 €
Lyon, Auvergne-Rhône-Alpes
Secteur : Grande Distribution Localisation : Lyon (Rythme : 3 jours de présence sur site par semaine) Durée : Mission longue visibilité (jusqu’au 16/10/2026) TJM Max : 270 € 🎯 Mission & Contexte Au sein d'une équipe dynamique dédiée au pilotage du secteur Non-Alimentaire , vous participerez à l'automatisation des analyses stratégiques. Votre mission consiste à transformer les données brutes en outils d'aide à la décision (cockpits de performance) pour les Category Managers. 🛠️ Vos responsabilités Data Preparation : Construire les pipelines de données nécessaires aux analyses récurrentes. Développement de Dashboards : Participer à la création et à l'évolution du cockpit de performance (Data Viz). Maintien Opérationnel (Run) : Assurer le bon fonctionnement quotidien des flux (extractions, scripts d'automatisation, vérification des rapports). Collaboration : Travailler en étroite collaboration avec les équipes métiers pour comprendre leurs besoins analytiques. 📦 Livrables Modèles de données structurés sur BigQuery . Tableaux de bord opérationnels sur Tableau . Documentation technique et scripts de maintenance. 💻 Stack Technique Environnement : Google Cloud Platform (GCP). Data : Maîtrise de SQL (requêtes complexes, optimisation). Transformation : Utilisation de DBT (ou forte volonté d'apprendre l'outil). Outils : Git (versioning), environnement Agile (Scrum).
Freelance
CDI
CDD

Offre d'emploi
Chef de projet MOE DATA (Tableau)

Freelance.com
Publiée le
Python
Tableau Desktop
Tableau software

1 an
40k-70k €
400-550 €
Paris, France
Client : Public Postes : Chef de projet Data (Tableau) Expérience : 8 ans minimum Localisation : Paris Démarrage : Sous 2 semaines Durée : 6 mois renouvelable Missions principales En tant que Chef de Projet TMA DATA , vous serez responsable du : Pilotage opérationnel Coordonner la TMA avec la MOA, les équipes de développement, DevSecOps et les services DTNUM Garantir le bon fonctionnement des deux applications Prioriser et suivre les demandes de maintenance corrective et évolutive Assurer le suivi des performances et proposer des actions d’amélioration Pilotage projet Préparer et animer les comités projet Assurer un reporting régulier auprès de la hiérarchie et du métier Suivre les budgets et engagements financiers Garantir la qualité documentaire et la conformité des livrables Qualité & conformité Superviser les tests, audits, homologations et contrôles réglementaires Veiller au respect des normes RGPD, RGGA et exigences de sécurité Compétences requises : Techniques Maîtrise des architectures applicatives backend / frontend Très bonnes connaissances PostgreSQL et requêtage SQL Maîtrise du progiciel Tableau Maîtrise de GitLab et des outils de gestion de configuration Connaissance des environnements Java / React / Python (lecture, compréhension) Projet Maîtrise des méthodologies Agile et Cycle en V Maîtrise de Jira , Git, gestion d’arborescence projet, documentation Animation de comités projet, pilotage, reporting hiérarchique et métier Suivi budgétaire et financier Pilotage d’équipes de développement Qualité & Conformité Connaissance des tests et audits nécessaires à la mise en service : Métrologie Audit de sécurité RGGA Homologation SSI RGPD Profil recherché Expérience confirmée en chefferie de projet TMA Connaissance solide des environnements Data , Reporting , API , Tableau, Python, Vertica Capacité à travailler en environnement multi‑acteurs (MOA, MOE, DevSecOps, architectes) Excellentes compétences de communication, coordination et pilotage Rigueur, autonomie, sens du service et capacité d’analyse
Freelance

Mission freelance
Développeur Backend Data – Elasticsearch

Codezys
Publiée le
Elasticsearch
ELK
Grafana

6 mois
Paris, France
Contexte de la mission Au sein de la Direction des Systèmes d'Information (DSI), le service "systèmes connectés" pilote un portefeuille de projets liés à plusieurs applications, dont certaines en phase de BUILD et d'autres en phase de RUN . Dans ce cadre, nous recherchons un profil expérimenté pour assurer la responsabilité technique d’un projet existant. Ce projet, récemment mis en production, vise à fournir des indicateurs via une interface Grafana, permettant un suivi précis des modules de télérelève et de radio-relève. Il comprend notamment une couche d'ingestion qui permet d'enregistrer les données dans une base ElasticSearch, avec un format adapté. L'ingestion est pilotée par du code Java. Les indicateurs ainsi produits permettent au métier de suivre environ 1 million de modules clients, avec des index quotidiens sur une période de 3 ans. La mission principale consiste à : Maintenir l’existant en assurant la stabilité et la performance du système Analyser et résoudre les incidents ainsi que répondre aux questions remontées par le métier, en expliquant et en corrigeant les résultats affichés Ajouter de nouveaux objets en fonction des besoins métiers Le projet "Supervision Télérelève" s’appuie sur un socle technique composé de Java, ELK (ElasticSearch, Logstash, Kibana) et Grafana, visant à fournir une solution de reporting performante pour les experts et les collectivités. Bien que le socle technique soit en place, il nécessite un maintien ainsi que le développement de nouveaux objets. Une collaboration avec d’autres équipes sera nécessaire pour travailler sur des questions d’authentification, en intégrant la solution dans d’autres projets. Par ailleurs, une migration vers Databricks peut être envisagée à moyen terme, ce qui impliquera une adaptation technique future. Le candidat retenu occupera un rôle de TechLead / Développeur : il devra analyser l’existant, assurer le débogage, suivre le backlog, et échanger avec le métier, le Product Owner (PO) et, éventuellement, avec les architectes. En tant que seul acteur technique sur ce projet, il doit faire preuve d'une grande autonomie et d’une capacité à gérer l’ensemble des sujets techniques. Profil recherché : Expérience confirmée en gestion de projets techniques similaires Maîtrise de Java, ELK Stack et Grafana Capacité à analyser, diagnostiquer et corriger les incidents Autonomie et initiative dans la gestion de projet Bonnes qualités de communication pour échanger avec différentes équipes techniques et métiers
770 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous