L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 3 206 résultats.
Mission freelance
Responsable des opérations / Supply chain
Mon Consultant Indépendant
Publiée le
Supply Chain
3 mois
790-820 €
Paris, France
Dans le cadre de la structuration de ses opérations, une scale-up spécialisée dans la location de matériel électronique recherche un Responsable des Opérations pour une mission de transition à temps plein. Périmètre de la mission : - Pilotage des opérations de bout en bout dans une dynamique d' excellence opérationnelle : achats, logistique, maintenance, revalorisation - Management de l'équipe opérationnelle interne et du logisticien externalisé - Mise en place et animation des rituels opérationnels quotidiens (KPIs, checklists, dashboards) et monitoring des SLA - Identification et automatisation des traitements manuels via des demandes de développement en interne Profil recherché : - Manager des opérations avec une expérience de 10 à 15 ans en logistique / supply chain / opérations - A l'aise dans des environnements scale-up ou forte croissance - Culture digitale et bonne maitrise des outils (ERP développé en interne, Tableau, IA, Slack) - Capacité à automatiser et rédiger des spécifications fonctionnelles pour des équipes dev. - Maitrise de l'anglais
Offre d'emploi
Data Scientist & Expert IA H/F
█ █ █ █ █ █ █
Publiée le
DevOps
Python
Pytorch
42k-55k €
Nantes, Pays de la Loire
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Mission freelance
Data Engineer Azure
Cherry Pick
Publiée le
Azure
Azure Data Factory
Python
12 mois
500-550 €
Paris, France
En quelques mots Cherry Pick est à la recherche d'un "Data Engineer" pour un client dans le secteur de l'assurance Description 📊 Le Contexte : La Data au service de l'Investissement Vous rejoignez le Datahub d'un acteur majeur de l'épargne, une plateforme critique au cœur du système d'information. Ce hub centralise et normalise l'ensemble des données du groupe pour alimenter des processus business à fort impact : calcul des commissions , génération de documents réglementaires, marketing prédictif et pilotage financier. L'enjeu est de transformer une masse de données brutes en informations fiables et exploitables pour l'ensemble de l'écosystème (partenaires, clients, directions métiers). 🎯 Vos Missions : Ingénierie & Industrialisation Intégré(e) à l'équipe Data, vous êtes le garant de la robustesse des flux de données. Design & Delivery : Concevoir, développer et maintenir des pipelines d’intégration complexes via Azure Data Factory (ADF) . Cycle de vie de la donnée : Assurer l'ingestion, la transformation, la normalisation et la mise à disposition des données pour les services consommateurs. Expertise SQL : Réaliser des agrégations et des transformations avancées, avec un souci constant de performance et de qualité. Infrastructure as Code (IaC) : Participer au déploiement et à la gestion des infrastructures via Terraform . Collaboration Métier : Agir en tant que partenaire des équipes finance et marketing pour traduire leurs besoins en solutions techniques robustes. Qualité & CI/CD : Contribuer à l'automatisation des tests et des déploiements (Azure DevOps, SonarCloud).
Mission freelance
PM / PMO Data & Digital Transformation
Gentis Recruitment SAS
Publiée le
AWS Cloud
Data Warehouse
ETL (Extract-transform-load)
12 mois
Paris, France
Contexte La Direction Data et Digital d'un grand groupe du luxe, travaille à structurer ses plateformes et ses projets data dans un contexte international et omnicanal. Les initiatives couvrent : développement e-commerce et omnicanal structuration de données métiers et analytique industrialisation des flux data adoption de bonnes pratiques de pilotage, qualité de données et gouvernance Ils disposent d’équipes data, digitales et technologiques intégrées, alliant innovation, qualité de service et excellence opérationnelle . Mission principale : Supporter le Programme Data et Digital dans : la coordination des initiatives transverses le suivi de la roadmap data & digital la production des reportings projets le pilotage des dépendances entre streams le suivi des risques, des jalons, des budgets l’animation des comités de pilotage l’optimisation des process PMO Ce rôle implique d’être l’interface entre : DSI / Data Office / métier / product owners / équipes techniques . La dimension technique est un atout (compréhension des flux data, reporting, plateformes cloud, outils de gouvernance) mais ce rôle n’est pas axé développement ou ingénierie. Le PMO travaille avec des data engineers, BI, devops, architectes et responsables métier. Technologies & Environnement (contextuel) Un environnement technologique moderne comprenant : outils de gestion de projet : Jira, Confluence, Slack technologies de développement backend : Node.js, PHP/Symfony (hors data) devops / cloud : Docker, Kubernetes, Terraform, AWS compétences data : Python, SQL, outils de data science Pour un PM / PMO, la compréhension de ces environnements permet d’être pertinent dans les arbitrages et le pilotage des initiatives, notamment lorsque les équipes data travaillent avec des technologies cloud ou des plateformes analytiques.
Mission freelance
Analytics Engineer – Migration DataBoost (SAP BO → Power BI)
SKILLWISE
Publiée le
Azure Data Factory
Azure DevOps
Databricks
3 mois
230-680 €
Paris, France
Dans le cadre du projet DataBoost , nous recherchons un Analytics Engineer pour participer à la migration des rapports SAP Business Objects vers Power BI . Ce projet vise à décommissionner SAP BO en industrialisant l’intégration des données dans une architecture lakehouse moderne (Bronze → Silver → Gold), et à construire un référentiel analytics centralisé pour l’ensemble des datamarts. Vos missions consisteront à : Concevoir et développer des pipelines d’ingestion de données via Azure Data Factory (POC avec Airflow). Développer des pipelines d’intégration de données en PySpark (Spark Declarative Pipeline). Transformer et optimiser les flux de données en SQL avec le framework DBT . Développer de nouveaux indicateurs de qualité de données sur DBT. Garantir la qualité du code et le respect des normes de développement. Implémenter des tests unitaires pour assurer la fiabilité des solutions. Maintenir les outils de monitoring pour suivre les performances. Ce poste est idéal pour un professionnel souhaitant contribuer à une transformation majeure des outils BI et travailler sur une architecture data moderne .
Mission freelance
Directeur de Programme – Migration Data & Analytics Cloud
Signe +
Publiée le
Snowflake
12 mois
840 €
Paris, France
Contexte Dans le cadre d’un programme stratégique de transformation, le client souhaite piloter la migration complète de son écosystème Analytics vers des solutions cloud modernes. L’objectif est de moderniser des plateformes data vieillissantes et d’améliorer la scalabilité, la performance et la gouvernance des environnements Analytics. Périmètre Migration SAP HANA et Sybase IQ vers le Cloud Cibles potentielles : Snowflake, Microsoft Azure ou autres plateformes cloud modernes Transformation globale des architectures Data / BI / ETL Refonte de la roadmap Data Platform à l’échelle de l’entreprise Responsabilités Pilotage global du programme de migration Data Encadrement de 5 à 6 Chefs de Projet Structuration de la gouvernance programme Définition et suivi de la roadmap Gestion des dépendances, risques et budgets Coordination des équipes IT, Data et Métiers Communication auprès des sponsors et instances de direction Compétences techniques attendues Expérience confirmée en migration de bases de données lourdes (HANA, Sybase IQ) Maîtrise des architectures Analytics modernes (Snowflake, Azure, Data Platform Cloud) Compréhension des environnements BI / ETL / Data Warehouse Vision globale des impacts métiers (Finance, Industrie, R&D, Supply Chain…) Compétences managériales Expérience de direction de programme stratégique Capacité à piloter plusieurs streams en parallèle Forte maîtrise de la gouvernance, des arbitrages et de la gestion budgétaire
Mission freelance
Data domain lead
Codezys
Publiée le
Python
SQL
6 mois
450-550 €
Aubervilliers, Île-de-France
Aligner et renforcer les capacités des équipes IS&T, Data & Digital en coordination avec les parties prenantes du groupe. Accélérer, industrialiser et déployer des services numériques et de la valorisation des données, en s'appuyant sur des modèles de livraison basés sur les services, expertises métiers et logiciels. Développer, maintenir et soutenir des offres technologiques, data et digital pour créer de la valeur, en interne comme en externe. Chaque département doit se concentrer sur ses compétences clés tout en créant des synergies et en optimisant les interactions. Rôle du département DATA : Valoriser le potentiel des données en en faisant un actif stratégique pour renforcer la prise de décision basée sur les données. Renforcer la chaîne de valeur Data, en appliquant une stratégie de source unique de vérité, simplifier l’écosystème data et favoriser une approche centrée sur les données dans la stratégie applicative. Devenir un leader en Ecological AI en co-concevant un portefeuille de solutions Data. Équipe Data Transformation : Créer et dispenser des formations sur la data aux différents segments du personnel data. Réaliser des projets data avec les départements et Business Units (BU), notamment en automatisant les processus de reporting (projet KISS). Mettre en place une organisation Data à l’échelle du groupe et des BU pour améliorer la gouvernance et le reporting, en animant une communauté de responsables de la transformation data. Objectifs et livrables : En tant que responsable du domaine Data, vous gérez des missions de transformation, construisez des cas d’usage en analytics, supportez les initiatives d’automatisation et de changement, et garantissez l’alignement stratégique des produits data. Responsabilités clés : Vision et stratégie produit : Définir la vision et la feuille de route des produits data, agir comme point de contact unique pour les besoins métiers et aligner les solutions sur les objectifs opérationnels. Mise en œuvre & standards : Développer des solutions data (pipelines, datamarts, visualisations) conformes aux standards architecturaux, avec une expertise en modélisation sémantique et gestion des Master Data. Analyse & insights : Identifier des tendances via l’analyse de données, créer des dashboards et rapports stratégiques, soutenir les analystes citoyens en identifiant des opportunités à forte valeur ajoutée. Transformation et autonomisation : Promouvoir la maturité data par la formation (ex. Data Passport), faire évoluer la culture data et animer une communauté de Data Owners. Partenariats et adoption : Gérer attentes et besoins des parties prenantes, promouvoir et faciliter l’adoption des solutions data par les BU, en soutenant leur connexion à la plateforme.
Mission freelance
Data Engineer Azure Data Factory - CosmosDB
Atlas Connect
Publiée le
Azure
Azure Data Factory
Azure DevOps
12 mois
490-550 €
Île-de-France, France
Vos missions En tant que Data Engineer , vous serez amené(e) à : Concevoir, développer et maintenir des pipelines d’intégration de données sous Azure Data Factory Assurer la gestion complète des flux de données : ingestion, transformation, normalisation et mise à disposition pour les différents services du SI Réaliser des transformations et agrégations complexes en SQL , dans une logique de qualité, de performance et d’industrialisation Collaborer étroitement avec les équipes métiers afin de comprendre leurs besoins et proposer des solutions techniques adaptées intégrées au Datahub Contribuer à l’ amélioration continue des processus Data : automatisation, fiabilisation, optimisation et bonnes pratiques Participer à la fiabilité et à la qualité du code et des déploiements dans un environnement industrialisé ⚙️ Stack technique Cloud : Azure (hébergement, stockage, orchestration) Data : Azure Data Factory Bases de données : Azure SQL, Cosmos DB Langages : SQL (avancé), Python (Azure Functions) Infrastructure : Terraform (Infrastructure as Code) Qualité & sécurité : SonarCloud, Snyk CI/CD & DevOps : Azure DevOps
Mission freelance
Chef de Projet Data Migration Workday
SAP-HIRE
Publiée le
Workday
10 mois
500-610 €
Lyon, Auvergne-Rhône-Alpes
Nous recherchons pour un de nos clients lyonnais, pour un projet de migration sur Workday, un Chef de Projet. En tant que Chef de projet vous serez en charge de piloter la migration ainsi que la partie architecture solution. Par ailleurs, vous aurez pour rôle d’orchestrer le plan de bascule. Le démarrage de la mission est prévue dès que possible et ce jusqu'à fin 12/2026. La connaissance de Workday Finance est impérative, ainsi qu'un bon niveau d'anglais dans un contexte international. Workday Finance (4/5 ans d'expérience minimum) Data migration (2/3 ans d'expérience minimum) Chef de Projet (3 ans d'expérience minimum)
Offre d'emploi
Business Analyst Référentiels
VISIAN
Publiée le
Data governance
Master Data Management (MDM)
1 an
40k-45k €
400-620 €
Paris, France
Description du poste Une filiale spécialisée dans le financement de biens d'équipement ou de biens immobiliers à destination des entreprises recherche un business analyst pour la mise en œuvre de référentiels. Son activité est répartie sur plusieurs pays, et sur plusieurs types de financement : crédit, crédit-bail mobilier et immobilier, location, wholesale, LLD avec gestion de parc, revolving, etc. Le projet de modernisation du système d'information sur l'activité Leasing porte un chantier de relocalisation de plusieurs référentiels du système opérationnel actuel vers une plateforme MDM (EBX orchestra) : Tiers, Réseau partenaire, Produits financiers, Produits commerciaux, Conventions et Organisation interne. Missions Intégration à la squad « Référentiels » Compréhension et analyse des besoins liés à l'usage de ces référentiels, identification des données associées Conception des modèles conceptuels et physiques Rédaction des spécifications fonctionnelles et User stories Animation de la relation avec les intervenants métier, dev et tests pour assurer une bonne communication entre elles et leur compréhension mutuelle Participation aux tests, et accompagnement du métier dans la réalisation des tests utilisateurs Vérification de l'adéquation de la solution avec le besoin du Métier Participation à la formation des utilisateurs, à la production et à la fourniture de documentation, accompagnement de la conduite du changement
Mission freelance
Ingénieur Data senior
JobiStart
Publiée le
AWS Cloud
Python
1 an
400-550 €
Île-de-France, France
Intervenir sur des programmes stratégiques Data et Intelligence Artificielle au sein de la DSI, sur un socle Cloud orienté Data Intelligence Apporter une expertise Data et Machine Learning Engineering pour concevoir, déployer et exploiter des solutions analytiques et IA à l’échelle Mettre en place des chaînes complètes de gestion de la donnée, depuis l’ingestion jusqu’à l’exposition des usages data et IA Développer et automatiser des flux de données distribués en s’appuyant sur les services Cloud AWS Construire et maintenir des pipelines robustes intégrant orchestration, traitement et stockage des données Participer à la structuration et à l’industrialisation des environnements MLOps et des cycles de vie des modèles ML et IA générative Déployer, superviser et automatiser les plateformes de Machine Learning (SageMaker) et les mécanismes de monitoring associés Réaliser des traitements analytiques, transformations de données et optimisations sur des plateformes de type data warehouse cloud Mettre en œuvre des processus CI/CD et des déploiements automatisés via des outils DevOps Développer des briques techniques Data/IA exploitables par les équipes internes (pipelines, services, composants applicatifs) Participer aux phases de conception, d’architecture, de tests, d’intégration et de mise en production des solutions Alimenter et maintenir les environnements nécessaires aux produits data, analytiques et applicatifs Accompagner les équipes Data Science et techniques dans la clarification des besoins Data/IA Faciliter l’industrialisation et la mise à disposition rapide des cas d’usage Produire la documentation technique et contribuer au respect des standards d’architecture, sécurité et gouvernance
Offre d'emploi
DATA ENGINEER SNOWFLAKE / DATABRICKS
UCASE CONSULTING
Publiée le
Databricks
Python
Snowflake
6 mois
40k-45k €
400-550 €
Paris, France
Contexte Dans le cadre du renforcement de son équipe data, notre client recherche un Data Engineer très technique , passionné par les technologies data modernes. Focus 100 % technique , avec un fort esprit geek / builder . Missions principales En tant que Data Engineer, tu interviendras sur des projets data à forte valeur technique : Concevoir, développer et maintenir des pipelines de données robustes et performants Travailler sur des plateformes Snowflake et/ou Databricks Développer des traitements data en Python (niveau avancé attendu) Optimiser et écrire des requêtes SQL complexes Participer aux choix d’architecture et aux bonnes pratiques data Garantir la qualité, la fiabilité et la performance des flux de données Collaborer avec des profils techniques au sein de l’équipe data Profil recherché Nous recherchons avant tout un passionné de data et de technologie , avec une forte appétence pour les environnements techniques exigeants. Compétences techniques indispensables : Très bon niveau en Python (clean code, performance, bonnes pratiques) Excellent niveau en SQL Expérience significative sur Snowflake et/ou Databricks Solide culture Data Engineering À l’aise avec les environnements cloud et les architectures data modernes Bon niveau d'anglais Soft skills : Profil geek , curieux et passionné par la data Forte autonomie technique Goût pour le code bien fait et les défis techniques Capacité à échanger avec des équipes techniques exigeantes
Offre d'emploi
AI/ML Product Engineer
Codezys
Publiée le
Data science
Deep Learning
IA Générative
12 mois
Aubervilliers, Île-de-France
Support aux unités opérationnelles dans la conception, le développement et l’industrialisation de solutions d’intelligence artificielle (IA) à travers tous les segments de l’énergie (bâtiments, sites industriels, réseaux, production). En s’appuyant sur une expertise approfondie du domaine de l’énergie et de solides compétences en AI/ML, le but est de transformer les problématiques opérationnelles en produits IA prêts pour la production, évolutifs et performants. L’objectif est de se concentrer sur des cas d’usage à fort impact, susceptibles de générer des résultats mesurables en termes de performance énergétique et de décarbonation, tout en créant des composants ML/AI robustes, explicables et réutilisables, intégrés à la plateforme de données du Groupe et déployables dans plusieurs unités opérationnelles. Objectifs et livrables Concevoir, développer et déployer des solutions IA/ML évolutives pour optimiser la performance énergétique et accélérer la décarbonation dans toutes les unités d’énergie. Transformer les défis opérationnels liés à l’énergie en produits IA prêts pour la production, en collaborant étroitement avec les équipes de Data Science et IT. Construire et maintenir une bibliothèque réutilisable de composantes IA explicables, intégrées à la plateforme de données du Groupe pour un déploiement cross-BU. Piloter la livraison complète des solutions, de la phase de proof of concept (POC) à la mise en production, en garantissant la faisabilité technique, la qualité des données et un impact métier mesurable. Favoriser le partage des connaissances et la réplication des solutions grâce à une documentation complète, des modèles et des guides de déploiement. Faciliter la collaboration inter-fonctionnelle entre les unités opérationnelles, la Data Science, l’IT et les fonctions centrales pour prioriser et exécuter les cas à fort impact.
Mission freelance
Developpeur orienté Data expérimenter (SSIS + SQL) Montpellier
WorldWide People
Publiée le
Microsoft SSIS
6 mois
320-350 €
Montpellier, Occitanie
Developpeur orienté Data expérimenter (SSIS + SQL) Montpellier Recherche un profil expérimenté - SSIS + SQL Construire un package SSIS pour migrer les données déjà présente de Apollo vers SoPred Construire un package SSIS pour extraire les données SIDv2 vers SoPred Réécrire l'ensemble des procédures stockés des Tables Socle pour se sourcer sur les tables extraites par SSIS. Developpeur orienté Data expérimenter (SSIS + SQL) Montpellier Recherche un profil expérimenté - SSIS + SQL Construire un package SSIS pour migrer les données déjà présente de Apollo vers SoPred Construire un package SSIS pour extraire les données SIDv2 vers SoPred Réécrire l'ensemble des procédures stockés des Tables Socle pour se sourcer sur les tables extraites par SSIS.
Offre d'emploi
Data Engineer confirmé H/F
SMARTPOINT
Publiée le
.NET
Azure
Microsoft Power BI
12 mois
50k-60k €
Île-de-France, France
Développement et optimisation de pipelines d’ingestion multi‑sources (API, fichiers, bases, cloud). Mise en place et maintenance des pipelines CI/CD , automatisations et gestion des artefacts. Développement d’outils et scripts internes (.NET, PowerShell, Python) et contribution au framework d’alimentation. Modélisation et optimisation sur Snowflake , SQL Server et Azure SQL. Création de modèles Power BI (DAX, M) et support technique niveau 3. Monitoring des flux , revue de code, analyse d’incidents critiques et la gestion des modèles de sécurité. Vous jouerez un rôle de référent technique auprès des développeurs et des métiers, avec une forte exigence en cybersécurité, documentation, qualité et alignement sur les standards de la plateforme.
Mission freelance
Data Scientist Senior / Expert IA
Celexio
Publiée le
Agent IA
Python
3 mois
400-660 €
Seine-Saint-Denis, France
Nous recherchons un(e) Data Scientist Senior passionné(e) par l'innovation pour accompagner une structure en pleine évolution technique. Votre rôle sera d'apporter un regard neuf et critique sur les outils et processus IA déjà en place. En véritable moteur de veille technologique, vous serez le garant de l'intégration des dernières avancées (IA Générative, Agents) pour transformer les usages de l'entreprise. Missions Audit et Diagnostic : Réaliser un état des lieux des projets actuels et identifier les opportunités d'optimisation. Accompagnement Technique : Travailler en binôme sur des sujets variés (réalignement de données, génération de contenus, data produit). Innovation & Veille : Challenger les outils existants et proposer des solutions basées sur les dernières technos (Agents IA, etc.). Développement : Conception et mise en œuvre de branchements et scripts complexes en Python. Transversalité : Intervenir en support sur l'ensemble des problématiques Data/IA de l'organisation.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
3206 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois