Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 3 776 résultats.
CDI
Freelance

Offre d'emploi
Data Engineer Senior – Palantir Foundry / Databricks – Secteur Assurance

Publiée le
Databricks
Jenkins
Python

1 an
35k-49k €
360-430 €
Île-de-France, France
Télétravail partiel
Rejoignez une équipe internationale dans le secteur de l'assurance/réassurance, au sein d’un environnement technique stimulant. Vous serez en charge de la conception et de la mise en œuvre de solutions de données avancées en utilisant des technologies modernes comme Databricks et Palantir Foundry . Le rôle implique une collaboration étroite avec des équipes produit pour développer des pipelines de données, services et APIs performants. Collecter et analyser les besoins métiers pour répondre aux exigences fonctionnelles et techniques. Concevoir, développer et maintenir des artefacts de données (pipelines, services, APIs) basés sur les meilleures pratiques. Implémenter des cas d’usage liés à l’analyse de données, à l’exploration BI et au calcul distribué. Documenter et optimiser les architectures de données suivant des standards éprouvés (architecture médaillon, GitFlow, etc.). Travailler en collaboration avec des équipes pluridisciplinaires pour garantir des livrables de qualité. Compétences obligatoires : Expertise en Databricks , Palantir Foundry , Python , SQL et Data Visualization . Maîtrise des outils MSDevOps , Jenkins , Artifactory , et Container Registry . Connaissances solides en parallélisation et programmation distribuée . Compétences appréciées : Expérience avec Delta Lake , BlobStorage , FileShare , et l’architecture médaillon.
CDI
Freelance

Offre d'emploi
Data web analyst

Publiée le
Google Cloud Platform (GCP)
Microsoft Power BI
Microsoft SQL Server

1 an
43k-45k €
430-500 €
Île-de-France, France
Télétravail partiel
L’équipe Data Science recherche une prestation de Data Science Analyse - Edito & Produit. Une expérience de 2 ans est requise pour cette prestation. Prestations attendues : Déroulement des analyses : - Être à l’écoute et comprendre les besoins métier, - Proposer des méthodes et des axes d’analyses pertinents pour y répondre, - Tirer des enseignements et faire des recommandations en se basant sur les résultats de l’analyse - Synthétiser les résultats, les mettre en forme (Excel, Power Point) et les restituer à l’oral aux équipes métier - Communiquer régulièrement sur les résultats des analyses réalisées à l’ensemble de la direction Analyses pour enrichir l’animation et la stratégie éditoriales : - Profiling utilisateurs : par catégories de contenus, programmes, par chaines, par device … - Analyses de parcours : programmes ou catégories recrutants, fidélisants - Segmentation des utilisateurs selon leurs préférences de contenus, les moments de consommation, … Analyses pour enrichir la stratégie produit : - Audit des données issues des nouvelles fonctionnalités - Analyse de l’usage des fonctionnalités, profiling - Analyse de l’impact de nouvelles fonctionnalités sur le comportement utilisateur : recrutement, engagement - Analyse des parcours des utilisateurs sur les différentes offres digitales : entrée sur la plateforme, accès aux contenus, … Dashboards : - Être référent sur les dashboards de connaissance utilisateurs - Garantir la maintenance et la bonne mise à jour des dashboards existants - Ajustement des existants (nouveaux indicateurs, modifications de calculs,…) - Être force de proposition sur les évolutions des dashboards existants - Créer de nouveaux Dashboards : prise de besoin avec le métier, identification des indicateurs pertinents, maquette de visualisation, définition de la structure de la donnée, création du dashboard Power BI - Communiquer sur les dashboards, accompagner les équipes métiers dans leur utilisation, mettre en place des démos, … Expertises demandées pour la réalisation de la prestation : Pour mener à bien la prestation, le prestataire devra maitriser les expertises suivantes : · Au moins 2 ans d’expérience sur des analyses de connaissance utilisateurs ou clients dans les secteurs de l’audiovisuel, du retail ou du ecommerce · Maîtrise avancée de SQL (au moins 2 ans d’expérience en SQL) · Maîtrise de Google Cloud Platform et maîtrise de Big Query · Connaissance de Power Bi · Connaissance des données issues de Piano Analytics · Connaissance de l’interface Piano Analytics · Connaissance de la mesure Mediametrie et des données Nielsen · Expérience dans le secteur audiovisuel sur des problématiques éditoriales · Expérience dans le secteur digital, ecommerce · Goût pour les contenus audiovisuels / vidéos · Capacité d’analyse, de synthétisation et de vulgarisation
Freelance

Mission freelance
Master Data

Publiée le
Data quality

6 mois
Rennes, Bretagne
Télétravail partiel
🚀Mission Freelance – Responsable Master Data / Data Governance 🚀 📅 Durée : 6 mois 🌍 Localisation : Bretagne ( 3x/semaine : frais de déplacements + logement pris en charge 🚀Démarrage ASAP -> Entretiens Vendredi Je recherche un profil pour piloter un projet Master Data & Data Governance au sein d’un groupe industriel en pleine transformation digitale (ERP Dynamics 365). Contexte : Projet de structuration et migration des données. Données complexes liées aux produits et machines de production. Pas de process existants : rôle clé dans la définition et la formalisation des process. Missions : Cartographier et valider les données ERP (clients, fournisseurs, produits). Assurer la qualité, la cohérence et la gouvernance des données. Accompagner les métiers et la DSI dans la structuration et la migration des données. Préparer et suivre les tests unitaires, UAT et Go Live. Profil recherché : Expérience en Master Data Management, data governance, migration et nettoyage de données. Rigueur, esprit de synthèse et capacité à interviewer les métiers pour capter les besoins réels. Autonomie et aptitude à piloter un projet transverse dans un environnement multi-outils. Je vous laisse m'envoyer un DM !
Freelance
CDI

Offre d'emploi
Data Analyst/Product Owner Supply Chain (2-5ans) (H/F)

Publiée le
Python
SQL
Supply Chain

3 ans
10k-55k €
100-480 €
Paris, France
Télétravail partiel
Nous recherchons un Data Analyst/PO (H/F) pour rejoindre la direction Data & Analytics d’un grand acteur du retail engagé dans un vaste programme de transformation analytique. 🎯 L’objectif ? Faire le lien entre les équipes métier (notamment Supply Chain) et les équipes data, afin de transformer les besoins opérationnels en solutions analytiques concrètes, impactantes et alignées avec la stratégie data du groupe. 🚀 Tes missions principales : 🎯 Analyse & accompagnement métier Identifier, comprendre et traduire les besoins des équipes opérationnelles en opportunités data & analytics Mener en totale autonomie des analyses ad-hoc : cadrage, extraction, traitement et restitution Communiquer les résultats aux équipes métier avec pédagogie, transparence et esprit critique Mettre en avant les limites, biais et axes d'amélioration des analyses réalisées 🧩 Pilotage de produits analytiques Tu endosseras également le rôle de Product Owner Data au sein d’une squad produit pluridisciplinaire : Définir la vision produit et la roadmap analytique en cohérence avec la stratégie globale Prioriser les besoins métier, identifier les problématiques analytiques à résoudre Rédiger les User Stories et spécifications nécessaires au delivery Planifier et suivre le développement des fonctionnalités analytiques Participer aux rituels agile (daily, sprint planning, refinements…) Définir et suivre les indicateurs de succès de chaque produit analytique Garantir l’adoption et l’utilisation des produits par les équipes métier 🔧 Environnement technique & outils : Données : SQL, BigQuery DataViz : Tableau, Google Looker Studio Versioning / Delivery : GitLab Langage complémentaire : Python (atout) Méthodologie : Agile (Scrum, Sprint Planning, Backlog…)
Freelance

Mission freelance
Architecte Data

Publiée le
Data Lake
Data Warehouse

6 mois
400-660 €
Paris, France
Nous recherchons pour notre client un Architecte Data dans le cadre d’un programme de transformation Data. Sous la responsabilité du responsable de centre d'expertise Data, il aura en charge de : Valider, sécuriser et faire évoluer l’architecture technique de la plateforme Data (Data Lake, Data Mesh, Data Warehouse) en intégrant les exigences de sécurité Garantir la cohérence, la robustesse et la sécurité des flux de données entre les différents systèmes. Accompagner les équipes projets dans le choix et l’implémentation des solutions techniques. Assurer la veille technologique et proposer des améliorations continues. Collaborer avec les architectes, le RSSI, DPO et équipes cybersécurité pour intégrer les contrôles nécessaires. Assurer la traçabilité des décisions et la documentation des choix techniques. Partager avec Apicil les REX sur des solutions et architectures mises en oeuvre chez d'autres clients. Assurer la veille technologique et proposer des améliorations continues.
Freelance
CDI

Offre d'emploi
Data Engineer (H/F) - Lyon

Publiée le
Apache Airflow
MLOps
PySpark

1 an
40k-45k €
400-500 €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Notre client, acteur majeur du secteur [énergie / distribution], recherche un.e Data Engineer confirmé.e pour renforcer ses équipes Data. Le poste combine Data Engineering et MLOps , avec une implication sur l’ensemble du cycle de vie des pipelines de données et modèles ML. Missions principales : Data Engineering (intervention sur 2 projets) Concevoir, développer et maintenir les pipelines de données pour 2 applications disctinctes. Assurer l’ingestion, la transformation et le stockage de données à grande échelle. Optimiser les traitements pour garantir des performances adaptées aux volumes traités. Mettre en place des mécanismes de qualité des données (contrôles, alertes, monitoring). Collaborer avec le pôle Développement pour définir les interfaces de données (API, bases de données). Documenter les flux de données et maintenir le catalogue de données. MLOps (Intervention sur 1 des 2 projets) Industrialiser l’entraînement des modèles ML pour l’optimisation du dimensionnement des groupes électrogènes. Déployer des pipelines CI/CD pour les modèles ML (versioning des données et modèles, automatisation de l’entraînement). Assurer le monitoring des performances des modèles en production (drift detection, métriques de performance). Collaborer avec les Data Scientists pour faciliter le passage des modèles du développement à la production.
Freelance

Mission freelance
Data manager IA Act / data gouvernance

Publiée le
Data governance
Gouvernance
IA

1 an
650-800 €
Paris, France
Télétravail partiel
Dans le cadre d'une création de poste, nous recherchons un(e) data manager sénior pour intervenir sur de la data gouvernance et de l'IA act. Le projet vise à accompagner le déploiement du domaine de conformité réglementaire. Vous apporterez un support méthodologique, organisationnel et opérationnel pour mettre en œuvre les dispositifs de conformité du Groupe aux réglementations sur le partage de données. Vous serez amené à : Contribuer à la définition de la feuille de route du Groupe en réponse aux exigences réglementaires Animer et coordonner des groupes de travail pluridisciplinaires (Data, sécurité, juridique, IT, métiers) Produire les livrables nécessaires à l'aide à la décision (analyses, synthèses, plans d'action) Assurer la sensibilisation des acteurs et l'appropriation des nouvelles gouvernances, en s'appuyant sur les démarches existantes (programme Data Act)
CDI
Freelance

Offre d'emploi
Data Analyst / Power BI

Publiée le
BI

24 mois
40k-45k €
225-450 €
Istres, Provence-Alpes-Côte d'Azur
Dans le cadre d'un projet stratégique dans l'aéronautique de défense, nous recherchons un(e) Data Analyst pour intégrer une équipe en charge du suivi de la qualité des données . Vous rejoindrez une équipe dynamique et participerez activement à l'analyse des données migrées et saisies par les utilisateurs. 🛠️ Vos missions principales Analyser en profondeur les données migrées et les données utilisateurs Vérifier la conformité, la cohérence et la qualité des données Produire des rapports de suivi et d'évolution Participer à l'amélioration continue des processus de collecte et de fiabilité des données Contribuer à la création de dashboards sous Power BI (occasionnellement) Assister les utilisateurs sur leurs problématiques de données et relayer certains sujets internes (25 % du temps)
Freelance

Mission freelance
Senior Data Scientist IA / LLM

Publiée le
LangChain
Large Language Model (LLM)
Python

12 mois
520-550 €
Paris, France
En quelques mots Cherry Pick est à la recherche d'un "Senior Data Scientist IA / LLM" pour un client dans le secteur bancaire Description 🚀 Le Contexte : L'ère des Agents Autonomes Dans le cadre du développement de nos solutions de nouvelle génération, nous recherchons un Data Scientist / AI Engineer capable de transformer des modèles de langage (LLM) en agents autonomes et décisionnels. Vous ne vous contenterez pas de faire des appels API simples ; vous concevrez des architectures d'agents complexes capables de raisonner, d'utiliser des outils et de gérer des workflows cycliques au sein d'un environnement Web robuste (Django). 🎯 Vos Missions : Orchestration et Architecture 1. Conception d'Agents avec LangGraph & LangChain : Développer des systèmes d'agents multi-acteurs utilisant LangGraph pour gérer des états complexes et des boucles de rétroaction (cycles). Implémenter des chaînes de traitement modulaires avec LangChain (RAG, mémoires, agents de planification). Optimiser le Prompt Engineering et la structuration des données en sortie (JSON mode, parsing). 2. Intégration et Backend (Django) : Développer les briques Backend sous Django pour exposer les capacités de l'IA via des APIs (REST / WebSockets pour le streaming). Gérer la persistance des états des agents et des sessions utilisateurs dans la base de données Django. Assurer la sécurité et l'authentification des accès aux outils LLM. 3. RAG & Knowledge Management : Mettre en œuvre des architectures de Retrieval Augmented Generation (RAG) performantes. Connecter les agents à des bases de données vectorielles (Qdrant, Pinecone, ou Pgvector) et des sources de données métiers. 4. Évaluation et Fiabilité (LLM Ops) : Mettre en place des protocoles d'évaluation pour mesurer la pertinence des agents (Frameworks type RAGAS ou DeepEval). Monitorer les coûts et les latences des appels aux modèles (OpenAI, Mistral, modèles Open Source).
Freelance

Mission freelance
Datascientist - sud est France

Publiée le
Data science

6 mois
Provence-Alpes-Côte d'Azur, France
Télétravail partiel
Dans le cadre de sa transformation SI, le client cherche un profil capable de valoriser les données , construire des modèles prédictifs , fiabiliser les pipelines data et produire des dashboards à forte valeur ajoutée. • Collecter, nettoyer et préparer les données issues de sources diverses • Concevoir et maintenir des architectures de données adaptées aux besoins analytiques • Collaborer avec les équipes techniques sur la structuration du modèle de données, la gouvernance et la qualité des référentiels. • Explorer les données pour identifier des patterns, tendances et corrélations • Valider et optimiser les modèles • Déployer les modèles dans des environnements de production • Restituer les résultats de manière claire aux parties prenantes • Collaborer étroitement avec les équipes métier, les développeurs. • Construire des modèles de machine learning adaptés aux besoins métier.
Freelance

Mission freelance
DATA MANAGER / REF GOUVERNANCE DE DE DONNEES

Publiée le
Collibra
Data governance
Gouvernance

1 an
Lille, Hauts-de-France
Télétravail partiel
Nous recherchons un Référent Gouvernance de Données / Data Steward pour une mission freelance au sein d’une équipe transverse Data. Ce rôle stratégique consiste à accompagner les équipes produits digitaux dans l’exposition et la qualité de leurs données, en garantissant le respect des règles de gouvernance définies au niveau groupe. Le consultant sera le point de référence sur la gouvernance des données , travaillera en autonomie et interagira régulièrement avec les autres référents data des différentes plateformes pour harmoniser les pratiques et contribuer à l’amélioration continue. Missions principales : Accompagner les équipes produits dans l’exposition de leurs données selon les standards de gouvernance. Définir et mettre en œuvre les règles de qualité des données en collaboration avec les équipes concernées. Garantir la certification des données publiées. Participer aux comités de gouvernance avec les autres référents data. Être force de proposition sur l’évolution des pratiques et des modèles de données. Contribuer à la modélisation des données et à la valorisation des données de référence. Livrables attendus : Données exposées selon les règles de gouvernance définies. Règles de qualité déployées et respectées. Évaluation du respect des standards de gouvernance.
Freelance

Mission freelance
Architecte DATA- Data Architecture

Publiée le
DBT
Python
Terraform

18 mois
110-600 €
Paris, France
Télétravail partiel
CONTEXTE : la Direction Technique a besoin d’être accompagnée sur une prestation d’Architecture Data pour l’ensemble de la Data Platform et des dispositifs associés. MISSIONS Au sein des équipes Data composées de product owners, de data engineers, de data scientists et autres profils, la prestation portera sur l’accompagnement des équipes dans les domaines suivants : · Architecture technique : o Garantir le respect des normes et la cohérence de la stack technique entre les différentes équipes o Contribuer et s’assurer de la mise en place de contrats d’interface entre les différentes équipes o Connaître les standards du marché et assurer une veille technologique o Participer aux tests et à l’introduction de nouvelles technologies o Comprendre et auditer l’architecture existante afin de proposer des améliorations · Developer expérience : o Contribuer à l’écriture de nouveaux modules Terraform o Accompagner les équipes dans leur montée en compétence de l’Infrastructure as Code et des nouvelles technologies o Définir les standards concernant les équipes de développement, en particulier sur la CI/CD · FinOps : o Mettre en place un plan de suivi du budget par équipe o Implémenter les outils de monitoring (alertes, seuils, etc.) o Identifier les optimisations et contribuer à leur priorisation Expertises demandées pour la réalisation de la prestation : · Au moins 3 ans d’expérience en tant qu’Architecte Data dans un environnement data · Compétences solides en data : structures de données, code, architecture · Expériences approfondies des meilleures pratiques des architectures en général et data en particulier · Expérience dans la sécurisation d’application dans le Cloud · Expériences dans un environnement du cloud Google (GCP) · Expériences intégrant BigQuery, Cloud Composer (Airflow) et Dataplex Universal Catalog · Expériences intégrant les langages Python et SQL · Expériences intégrant Spark · Expériences intégrant dbt · Expériences intégrant Terraform et Terragrunt
Freelance

Mission freelance
Data engineer - Reconstruction modèle tabulaire – SQL / DAX

Publiée le
DAX
SQL

15 jours
Asnières-sur-Seine, Île-de-France
Télétravail partiel
Data engineer - Reconstruction modèle tabulaire – SQL / DAX - 15 JOURS Contexte & objectif de la mission L’entreprise recherche un Data Engineer opérationnel pour intervenir sur un environnement décisionnel existant présentant des problèmes de : redondance de données , manque de fiabilité / véracité , performances insuffisantes dans les rapports et calculs, modèle tabulaire (cube) devenu difficile à maintenir. L’objectif de la mission est de reconstruire le modèle tabulaire , fiabiliser les sources, optimiser les performances et remettre le datamart sur des bases saines. Missions principales Analyser l’existant : tables SQL, flux, relations, modèle tabulaire actuel. Identifier les causes de redondance, d’incohérences et de problèmes de performances. Proposer une modélisation cible optimisée (star schema, normalisation, référentiels). Reconcevoir ou reconstruire le modèle tabulaire (VertiPaq) dans les bonnes pratiques. Reprendre les mesures DAX : fiabilisation, optimisation, documentation. Améliorer la qualité, la cohérence et la fraîcheur des données. Mettre en place les optimisations SQL (indexation, refactor, vues, partitionnement si nécessaire). Documenter les travaux réalisés et transmettre les bonnes pratiques. Livrables attendus Nouveau modèle tabulaire propre, performant et stable Refonte ou nettoyage des tables SQL sources Mesures DAX revues et fiabilisées Optimisations performances (SQL + DAX + modèle) Documentation technique Plan d’amélioration continue si nécessaire Environnement technique MS SQL Server SSAS Tabular / VertiPaq DAX Modélisation BI MS + Visualisation PowerBI Entrepot de données : Talend
Freelance

Mission freelance
DATA MANAGER

Publiée le
Data cleaning
Data governance
Data quality

3 ans
400-500 €
Lille, Hauts-de-France
Télétravail partiel
Gouvernance des données Définir les standards de gestion et gouvernance des données. Assurer la mise en conformité avec les réglementations (RGPD, CCPA). Qualité et sécurité Mettre en place des contrôles automatisés et surveiller la qualité des données. Sécuriser les accès et protéger les données sensibles. Exploitation et partage Standardiser les processus d’accès aux données. Accompagner les équipes métiers dans leur exploitation des données. Éthique et conformité Vérifier la conformité des analyses et modèles. Sensibiliser les équipes à l’éthique des données. Compétences Gouvernance : Standards, gestion des métadonnées. Sécurité : Chiffrement, contrôle des accès. Architecture : Structuration des modèles de données en couche Business, Solution et Exposition, Collaboration : Formation, animation de workshops Expérience utilisateur : Storytelling, recueils feedback Indicateurs de performance Taux de conformité aux standards. Qualité des données et réduction des erreurs. Performance des processus de gouvernance. Sécurisation et protection des données.
Freelance

Mission freelance
DATA ARCHITECT (GCP)

Publiée le
Apache Airflow
BigQuery
CI/CD

6 mois
580-720 €
Île-de-France, France
Télétravail partiel
Dans le cadre du renforcement de sa Data Platform , l’un de nos clients grands comptes recherche un Architecte Data confirmé à senior pour accompagner ses équipes Data et garantir la cohérence, la performance et la scalabilité de l’architecture globale. Architecte Data – Environnement Cloud GCP Votre rôle Intégré(e) aux équipes Data (Product Owners, Data Engineers, Data Scientists…), vous interviendrez en accompagnement transverse sur l’architecture de la plateforme Data et des dispositifs associés. Vos principales responsabilités : Définir et garantir la cohérence de la stack technique Data Assurer le respect des normes et standards d’architecture Mettre en place et sécuriser les contrats d’interface entre équipes Auditer l’architecture existante et proposer des axes d’amélioration Réaliser une veille technologique et contribuer à l’introduction de nouvelles solutions Participer aux tests et à l’intégration de nouvelles technologies 🛠️ Developer Experience & FinOps Contribution à l’écriture de modules Terraform / Terragrunt Accompagnement des équipes sur l’ Infrastructure as Code et la CI/CD Définition des standards de développement et de déploiement Mise en place du suivi budgétaire par équipe (FinOps) Implémentation des outils de monitoring, alertes et seuils Identification et priorisation des optimisations de coûts Compétences recherchées 3 ans minimum d’expérience en tant qu’ Architecte Data Solide expertise en architecture Data & Cloud Excellente maîtrise des bonnes pratiques d’architecture Expérience en sécurisation des applications Cloud Environnement Google Cloud Platform (GCP) Maîtrise de BigQuery , Cloud Composer (Airflow) , Dataplex Langages Python et SQL Expérience avec Spark Expérience avec dbt Maîtrise de Terraform et Terragrunt
Freelance
CDI

Offre d'emploi
Data analyst

Publiée le
Microsoft Power BI
Microsoft SSIS
SQL

12 mois
40k-44k €
370-400 €
Toulouse, Occitanie
Télétravail partiel
Nous mettons à disposition de différentes équipes des dashboards Power BI. Nous sommes autonomes sur toute la chaîne de liaison, incluant : -Récupération des besoins -Récupération de la donnée -Modélisation -Intégration de la donnée à l'entrepôt de données -Dashboarding -Livraison -Administration du service Power BI -Support et formation des utilisateurs aux dashboards Nous cherchons quelqu'un d'organisé, rigoureux, logique et doté d'un bon sens de communication (écoute et restitution) pour intégrer le pôle BI de 4 personnes. Votre travail consistera à : -Concevoir et développer les rapports attendus sur Power BI -Intégrer de nouvelles données dans notre entrepôt de données -Concevoir et développer des bases de données agrégées -Récupérer les nouveaux besoins -Intégrer ces données -Suivre les tâches dans Jira -Assurer le support sur les dashboards et répondre aux interrogations des utilisateurs Les rapports sont des dashboards à destination des équipes supports informatique : -Cycle de vie des incidents -Flux d'incidents entre les différentes équipes -Source de données : ITSM, Service Now
3776 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous