Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 1 668 résultats.
CDI

Offre d'emploi
Data Analyst (F/H)

CELAD
Publiée le

Montpellier, Occitanie
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 2 jours de télétravail par semaine – Montpellier (34) – Expérience de 7 ans min Envie de rejoindre une équipe où la tech et les projets stimulants sont au rendez-vous ? Cette opportunité est faite pour vous ! Voici un aperçu détaillé de vos missions : Collaborer étroitement avec le Business / PO / BA afin d’identifier et transcrire les besoins métiers en KPI (Valoriser les données / aider à la décision en menant des analyses d’indicateurs et des restitutions visuelles) Analyse exploratoire de données en vu d'aide à la décision Business : calcul, production, explication d'indicateurs/KPI bancaire Production de Data Viz en réponse à besoin métier de pilotage d'activités bancaire.
CDI

Offre d'emploi
Data Analyst (F/H)

CELAD
Publiée le

40k-49k €
Montpellier, Occitanie
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 2 jours de télétravail par semaine – Montpellier (34) – Expérience de 7 ans min Envie de rejoindre une équipe où la tech et les projets stimulants sont au rendez-vous ? Cette opportunité est faite pour vous ! Voici un aperçu détaillé de vos missions : Collaborer étroitement avec le Business / PO / BA afin d’identifier et transcrire les besoins métiers en KPI (Valoriser les données / aider à la décision en menant des analyses d’indicateurs et des restitutions visuelles) Analyse exploratoire de données en vu d'aide à la décision Business : calcul, production, explication d'indicateurs/KPI bancaire Production de Data Viz en réponse à besoin métier de pilotage d'activités bancaire.
CDI

Offre d'emploi
Intégrateur Production Data (Talend/PL-SQL)

TechOps SAS
Publiée le
SQL
Talend

50k-60k €
75003, Paris, Île-de-France
Responsabilités principales : Intégration & interopérabilité Concevoir, développer et maintenir les flux d’intégration entre les différents systèmes (ERP, CRM, e-commerce, logistique…) Assurer la cohérence et la fluidité des échanges de données entre les applications Participer à l’architecture des solutions d’intégration Développement & maintenance Développer et faire évoluer les traitements d’intégration via Talend Écrire, optimiser et maintenir des requêtes complexes en PL-SQL Garantir la qualité, la performance et la robustesse des flux Qualité & gouvernance de la donnée Assurer la fiabilité, l’intégrité et la traçabilité des données Mettre en place des contrôles et outils de monitoring Diagnostiquer et corriger les anomalies Collaboration transverse Travailler en étroite collaboration avec les équipes métiers et IT Participer aux projets de transformation digitale et d’évolution du SI Contribuer aux bonnes pratiques et à l’amélioration continue
Freelance
CDI

Offre d'emploi
Data Analyst

Deodis
Publiée le
PowerBI
PySpark
Python

12 mois
40k-48k €
400-440 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Sur site à AIx en Provence, télétravail 2/3 jours par semaine L’objectif est d’intégrer un profil Data Analyst / Data Scientist capable d’exploiter les données du système d’information afin d’identifier des incohérences, de développer des analyses avancées et de contribuer à la mise en œuvre de cas d’usage liés à la détection de fraude. L’intervenant devra exploiter et croiser les données issues du système d’information afin d’analyser leur cohérence et leur impact sur les processus métiers sensibles, notamment dans le cadre de la lutte contre la fraude. Description des missions Prendre en compte les données du domaine « Individu Allocataire » et analyser leurs impacts dans le système d’information. Mettre en œuvre des cas d’usage métiers orientés lutte contre la fraude (ciblage, analyse de données, modèles prédictifs). Réaliser des analyses exploratoires et statistiques sur les données disponibles. Développer et maintenir des produits data réutilisables (scripts, traitements, modèles). Produire des restitutions analytiques à destination des équipes métiers. Respecter les normes, standards et bonnes pratiques en vigueur au sein de l’équipe. Livrables attendus Le titulaire devra produire les livrables suivants : Programmes et scripts de traitement de données dans l’environnement Big Data Hadoop . Développements documentés permettant la réutilisation et la maintenance des traitements. Restitution des analyses sous forme de : présentations PowerPoint , tableaux de bord Power BI .
Freelance

Mission freelance
Senior Data Analyst Power BI

Atlas Connect
Publiée le
Amazon Redshift
API REST
AWS Cloud

12 mois
350-400 €
Paris, France
Nous recherchons un Senior Data Analysr Power BI . La mission implique la conception, le développement et la mise en œuvre de solutions analytiques avancées pour répondre aux besoins des métiers. 🎯 Missions principales Accompagner les utilisateurs dans la définition et la formalisation des besoins et des enjeux de restitution et de datavisualisation. Animer des ateliers de type “Design” pour clarifier les besoins et proposer des solutions adaptées. Participer aux travaux de cadrage SI , études d’opportunité et de faisabilité. Recueillir et rédiger les expressions de besoins et spécifications fonctionnelles de solutions analytiques, et valider les livrables. Concevoir et réaliser les restaurations Power BI : rapports, indicateurs et tableaux de bord. Participer à la documentation des règles de sécurité des données et des applications. Élaborer les manuels utilisateurs et les supports de formation aux applications de datavisualisation. Rédiger les spécifications techniques et cahiers des charges pour les POC ou déploiements. Préconiser les adaptations et améliorations des processus existants . 📊 Livrables Développement et déploiement des cas d’usage (cartographies, tableaux de bord, data quality, alimentation du DatalakeHouse…). Documentation des règles de calcul et d’agrégation pour les indicateurs. Rédaction de plans de tests, cahiers de recette et supports utilisateurs . Production et mise à disposition des tableaux de bord . 🛠️ Environnement technique Power BI (Desktop et Service) Databricks, Nifi, RedShift Power Automate, Power Platform Cloud AWS Smart Data, API REST
CDI

Offre d'emploi
Chef de Projet Assurance Retraite & Data (H/F)

FED SAS
Publiée le

60k-65k €
75001, Paris, Île-de-France
Fed IT, cabinet entièrement dédié aux recrutements spécialisés sur les métiers de l'informatique (Infra, Data, Développement, MOA, MOE, Management), recherche pour un de ses clients spécialisé dans le secteur de l'assurance retraite, un ou une : Chef de Projet Assurance Retraite & Data (H/F). Le poste est à pourvoir dans le cadre d'un CDI chez le client final. Au sein d'une DSI de 4 personnes, vous aurez la charge des projets des projets métiers de la structure, mais aussi des projets data et du reporting. Vous devrez fluidifier la relation entre la DSI et les métiers, de coordonner les projets, et répondre aux besoins des utilisateurs. A ce titre, vos principales missions seront : - Recueillir et formaliser les besoins des utilisateurs (Services Gestion, Analyse, Marketing, Communication, …) ; - Participer à la rédaction des cahiers des charges et des spécifications fonctionnelles & techniques ; - Etudier la faisabilité économique et technique des projets métiers & Data ; - Coordonner les parties prenantes (DSI, métiers, prestataires) ; - Suivre l'avancement des projets et assurer le reporting ; - Construire et maintenir les modèles de données ; - Développer les flux de données : extraction, transformation, chargement ; assurer la qualité des données : contrôles, corrections, cohérence, validation ; - Documenter les flux, modèles, règles et rapports sur les données ; - Créer des rapports et tableaux de bord (Power BI, Business Objects) ; - Accompagner les utilisateurs dans la conduite du changement ; - Participer à la priorisation des demandes et à la planification ; - Renforcer la qualité de service et l'efficacité opérationnelle notamment avec les projets IA ; - Assurer un support de qualité sur les solutions métiers & Data déployées…
Freelance

Mission freelance
Mission freelance - Data / AI Engineer Snowflake - Toulouse

KUBE Partners S.L. / Pixie Services
Publiée le
Apache Airflow
Apache Spark
Python

1 an
300-480 €
Toulouse, Occitanie
Vos missions : Collaborer avec le métier pour concevoir des transformations data / AI pertinentes pour le business, Industrialiser et gérer des pipelines de traitement de données en production, Contribuer à l’implémentation d’évolutions des plateformes data de nos clients, Accompagnement du métier dans le cadrage et le delivery de leurs cas d’usage data Être force de proposition auprès du client dans l’évolution de sa plateforme data Participation éventuelle à des avant-ventes afin d’aider à la conception de solutions techniques pour nos futurs clients Qualifications ? Vos atouts pour nous rejoindre : Cloud Data / IA Platform : Snowflake Orchestrateur : Airflow Framework de calcul distribué : Spark Langage : Python, PySpark, Scala, Java Infrastructure As Code : Terraform CI/CD : GitlabCI, Jenkins Containers : Docker, Kubernetes Versioning : Git
Freelance

Mission freelance
Data engineer GCP

NEOLYNK
Publiée le
Apache Kafka
Google Cloud Platform (GCP)
Looker Studio

3 ans
300-450 €
Lille, Hauts-de-France
Expertise SQL, ETL - Expert - Impératif CI/CD, github, Terraform, Kafka - Confirmé - Important Power BI, Looker - Confirmé - Important Google Cloud Platform (GCS, BigQuery) - Confirmé - Souhaitable Au cours de sa mission, le consultant : - Participera aux rituels agiles de l'équipe, - Analysera les besoins des utilisateurs et proposera des solutions innovantes et en phase avec les drivers de l'entreprises, - Développera les solutions data (Alimentation, stockage, modélisation, restitution), - Validera la qualité des développements de son équipe, - Améliorera et optimisera le patrimoine actuel de son équipe, - Maintiendra les solutions existantes (Run), - Contribuera à la construction du nouveau socle et des services sur la plateforme Google Cloud, - Accompagnera et acculturera les métiers sur les bonnes pratiques de l'exploitation de la Data Lille 2 jours de TT par semaine démarrage asap mission longue 3 ans
CDI

Offre d'emploi
R&D Data Scientist (H/F)

█ █ █ █ █ █ █
Publiée le

45k-50k €
Nantes, Pays de la Loire

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Data Analyste (H/F)

Freelance.com
Publiée le
PySpark

1 an
400-500 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
2 jours de télétravail non négociable Dans le cadre d’activités liées à l’ analyse de données pour des besoins de contrôle et prévention des risques , l’organisme recrute un Analyste Data afin d’intégrer une équipe spécialisée basée à Aix‑en‑Provence . L’objectif de cette mission est de concevoir et réaliser des analyses avancées à partir de l’ensemble des données du système d’information, afin d’évaluer leur cohérence et leur impact sur des processus métier sensibles . L’intervenant devra participer à la mise en place de cas d’usage orientés détection d’anomalies et comportements atypiques , en croisant différentes sources de données. Il sera également responsable de la création et de la maintenance de produits data réutilisables , tout en appliquant les pratiques internes de qualité, normes et gouvernance des données. Exemples de livrables attendus : Programmes de traitement Big Data Études et analyses documentées Présentations des résultats et recommandations Constructions de KPI et tableaux de bord de synthèse
Freelance

Mission freelance
Consultant SAP PP QM Data Migration

SAP-HIRE
Publiée le
SAP
SAP PP
SAP QM

9 mois
Paris, France
Nous recherchons un profil SAP PP QM sur la Data Migration pour renforcer un projet de migration vers SAP S/4. La mission consiste à Identifier et analyser des données à migrer (matériaux, nomenclatures, gammes, données qualité), mapper et définitir les règles de transformation, préparer et charger les données (LSMW / Migration Cockpit), contrôles qualité des données et gestion des incidents, participer aux phases de tests (SIT/UAT) et aux répétitions de migration (cutover). Vous aurez une expérience confirmée en migration de données SAP, une bonne compréhension des données PP & QM, serait autonome, rigoureux et orienté qualité des données. La mission doit se réaliser 3 jours sur site en IDF.
CDI

Offre d'emploi
Tech Lead Data Engineer H/F

JEMS
Publiée le

50k-75k €
Levallois-Perret, Île-de-France
Nous recherchons un(e) Tech Lead Data Engineer capable de trouver des solutions innovantes et robustes à l'ensemble des problématiques Data. Vous aurez la charge de : • Assurer la mise en œuvre de l'accès, du référencement et de la qualité de la donnée • Assurer l'industrialisation, la supervision et l'intégration des solutions • Rédiger les normes de développement • Participer à la rédaction du manuel d'exploitation En tant que Tech Lead, vous savez : • Vous présenter et promouvoir des architectures data face au client • Identifier et comprendre les besoins métiers • Former, encadrer et faire évoluer les consultants juniors • Participer à la réponse aux appels d'offres (avant-vente) Référence de l'offre : i5nesk9tv3
Freelance
CDI

Offre d'emploi
Data Engineer Senior Snowflake (Lead / Mentoring)

UCASE CONSULTING
Publiée le
AWS Cloud
Qlik
Snowflake

1 an
40k-45k €
400-650 €
Lyon, Auvergne-Rhône-Alpes
Bonjour à tous 😃 🔎 Contexte Dans le cadre du déploiement de Snowflake au sein de l’équipe Data, notre client recherche un Data Engineer expérimenté pour accompagner la montée en compétence des équipes, structurer l’architecture cible et intervenir sur des chantiers clés (migration & ingestion) 🎯 Objectifs de la mission 1. Accompagnement & montée en compétence Accompagner les équipes dans la prise en main de Snowflake Animer / coanimer des ateliers et diffuser les bonnes pratiques Faciliter l’appropriation des nouveaux workflows et outils 2. Architecture & structuration Concevoir et documenter l’architecture cible Snowflake Mettre en place et optimiser les pipelines d’ingestion et de transformation Garantir la performance, la scalabilité et la robustesse des traitements 3. Gouvernance & qualité de données Définir les règles de gouvernance (rôles, accès, organisation des environnements) Mettre en place des standards de développement (naming, versionning, documentation) Implémenter des processus de data quality (tests automatisés, contrôles de cohérence, fraîcheur…) Mettre en place des mécanismes de data observability et d’alerting Documenter les processus de gestion des incidents 4. Missions opérationnelles Participer à la migration de data products (Athena → Snowflake) Contribuer à l’ingestion et la structuration de nouvelles sources de données 🔧 Must have Expérience significative en tant que Data Engineer Expertise Snowflake (indispensable) Solide maîtrise SQL (optimisation, performance) Expérience en ingestion de données et/ou migration de plateformes data Connaissances en data quality et gouvernance Capacité à accompagner des équipes (pédagogie, mentoring) ➕ Nice to have Expérience sur AWS Connaissance de Qlik Expérience en environnement data moderne (pipelines, orchestration, CI/CD…) Contexte conseil / ESN Expérience sur des sujets de data observability 📍 Modalités Démarrage : Avril 2026 Localisation : Lyon Télétravail : 3 jours sur site/2 jours de TT
Freelance

Mission freelance
Business Analyst Data (Advanced)

Gentis Recruitment SAS
Publiée le
Big Data
Business Analyst
Data Lake

12 mois
Paris, France
Contexte de la mission Grand groupe international du secteur de l’énergie, fortement orienté data-driven, souhaite renforcer l’exploitation de ses données de marché afin de : Réduire les risques opérationnels Améliorer l’efficacité des équipes métiers Développer de nouvelles offres basées sur la donnée Le projet stratégique vise la mise en place d’une architecture Big Data de type médaillon (Bronze / Silver / Gold) dédiée aux market datas issues de différentes plateformes de marché. Objectifs du projet Le programme consiste à : Mettre en place les layers : Silver : données structurées et normalisées Gold : données calculées (orders, trades, orderbooks, best bid/ask, OHLC, VWAP, TWAP, etc.) Implémenter le data management : Data quality Data catalog Monitoring Exposer les données Gold via SDK et interfaces métiers Définir et appliquer les politiques d’accès Reprendre l’historique pour permettre le décommissionnement de solutions legacy Rôle du Business Analyst Le consultant interviendra au cœur d’un environnement mêlant équipes métiers (Trading Surveillance, Quant, Market Analysts) et équipes Data Engineering. Analyse & Cadrage Recueil et structuration des besoins métiers liés aux market datas Animation d’ateliers avec les stakeholders Analyse approfondie des données sources Identification des incohérences et cas spécifiques Spécifications fonctionnelles & Data Rédaction des spécifications Silver / Gold Définition des règles de transformation et d’enrichissement Data mapping Gestion de la complexité temporelle des données de marché Définition des modèles orientés usages métiers Data Management & Gouvernance Définition des règles de qualité et indicateurs Contribution au monitoring Participation au data catalog Garantie de traçabilité des règles métier Coordination & Delivery Collaboration étroite avec les Data Engineers Suivi des développements Élaboration de la stratégie de tests Conception et exécution des plans de tests Participation aux comités projet
Freelance

Mission freelance
Consultant SAP Datasphere

Nicholson SAS
Publiée le
Data visualisation
Gouvernance
Hortonworks Data Platform (HDP)

8 mois
680 €
Paris, France
Localisation : Paris / Remote Démarrage : ASAP Durée : Mission longue jusqu’au 31/12/2026 Contexte:Dans le cadre du développement d’une plateforme data basée sur SAP Datasphere , nous recherchons un consultant confirmé afin de contribuer à la conception, la modélisation et la gouvernance des données destinées aux équipes métiers (finance, supply chain, production, etc.). Vous interviendrez au sein d’une équipe data composée d’architectes, data engineers et experts SAP, sur des sujets d’intégration, de structuration et de valorisation des données. Missions: Analyse et cadrage Recueillir et analyser les besoins métiers. Identifier les indicateurs clés (KPI) et les besoins de reporting. Rédiger les spécifications fonctionnelles et techniques. Conception et modélisation Concevoir et structurer les modèles de données dans SAP Datasphere . Organiser les Spaces et structurer les modèles analytiques. Mettre en place des modèles dimensionnels (Star Schema / Snowflake). Intégration et transformation des données Configurer les connexions vers les différentes sources SAP et non-SAP. Mettre en place les Data Flows et Replication Flows . Réaliser les transformations, mappings et contrôles de qualité des données. Modèle sémantique et valorisation Définir les mesures, hiérarchies et relations entre les données. Structurer les datasets pour leur exploitation par les outils de reporting. Contribuer à la mise à disposition des données pour les équipes BI. Gouvernance et bonnes pratiques Participer à la gestion des métadonnées et à la documentation des modèles. Contribuer à la mise en place des bonnes pratiques de gouvernance et de qualité des données. Optimisation et amélioration continue Surveiller les performances des modèles et des flux de données. Optimiser les pipelines et la consommation des données. Participer aux évolutions fonctionnelles et techniques de la plateforme. Environnement technique: Data Platform SAP Datasphere SAP Business Technology Platform (BTP) Écosystème SAP SAP S/4HANA SAP BW / BW4HANA Data Engineering SQL (indispensable) ETL / ELT Modélisation dimensionnelle BI / Analytics SAP Analytics Cloud Power BI ou Tableau Profil recherché Expérience : 5 à 7 ans d’expérience sur des projets data / SAP. Compétences techniques Bonne maîtrise de SAP Datasphere . Solide connaissance de SQL et des concepts de transformation de données. Expérience en modélisation de données analytiques et dimensionnelles . Connaissance de l’écosystème SAP (S/4HANA, BW, BTP) . Expérience avec un outil de visualisation de données . Compétences fonctionnelles Capacité à traduire un besoin métier en modèle de données. Bonne compréhension des enjeux de qualité, structuration et gouvernance de la donnée . Soft skills Bon niveau de communication avec les équipes métiers et techniques. Esprit analytique et sens de la structuration. Autonomie et capacité à être force de proposition. Travail en équipe dans un environnement data.
CDI

Offre d'emploi
Auditeur & Data Analyst (H/F)

█ █ █ █ █ █ █
Publiée le
Microsoft Excel
Python
SQL

40k-50k €
Bordeaux, Nouvelle-Aquitaine

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

1668 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous