Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 206 résultats.
Freelance

Mission freelance
Lead Data Scientist

Signe +
Publiée le
Big Data

12 mois
580-810 €
Lyon, Auvergne-Rhône-Alpes
Mission principale Leader technique et fonctionnel chargé de concevoir, déployer et industrialiser des solutions AI/ML utilisant des algorithmes avancés Identifier les opportunités d’amélioration data et piloter leur mise en œuvre dans des environnements cross-fonctionnels Encadrer et faire monter en compétences une équipe de Data Scientists et Data Analysts Garantir le cycle de vie complet des modèles (développement, déploiement, monitoring, amélioration continue) Collaborer étroitement avec les équipes métiers pour transformer les besoins business en solutions data Expérience requise 8 à 10+ ans d’expérience en Data Science Expérience confirmée en développement de code déployable et mise en production de modèles Expérience en développement logiciel production-ready et en environnement agile Expérience de management d’équipe Data Expérience en environnement healthcare ou manufacturing appréciée Compétences techniques Maîtrise des langages Data Science : Python, R, C++ Connaissance des bases de données SQL / NoSQL / Graph / Time series Expertise en AI/ML : Supervised & Unsupervised Learning Deep Learning LLMs Reinforcement Learning Federated Learning Time series forecasting Bayesian statistics et optimisation Expérience cloud et HPC : AWS, Azure, Spark CI/CD, orchestration et industrialisation des modèles Data visualization & storytelling (Tableau, Power BI, Streamlit) Expérience APIs enterprise et big data mining Connaissance des réglementations Data & AI Compétences comportementales Leadership et management d’équipe Communication écrite et orale excellente Capacité à aligner plusieurs équipes et parties prenantes Esprit analytique et résolution de problèmes Autonomie, proactivité et esprit d’équipe Formation Master ou PhD en mathématiques, informatique, ingénierie, statistiques ou domaine quantitatif équivalent
Freelance

Mission freelance
Proxy Product Manager

QUALIS ESN
Publiée le
ServiceNow

6 mois
400-410 €
Aubervilliers, Île-de-France
Dans le cadre du développement et du déploiement mondial d'une solution digitale portée par une Business Unit nous recherchons un(e) Proxy Product Manager. Notre solution, FACTOR, est un produit opérationnel majeur composé d'une application mobile (Factor Mobile) et d'une interface web (Factor Web). La solution est déployée à grande échelle : plus de 3000 utilisateurs répartis sur 550 sites Veolia à travers le monde. Vous serez le point de contact privilégié entre les besoins métiers internationaux (Key Users, Business Units) et leur implémentation. Vous travaillerez en contact fréquent avec le Product Owner de la BU Veolia qui développe le produit, et vous assurerez également l'évolution du produit en lien avec son écosystème d'applications connectées (notamment les connecteurs avec GMAO et outils métier). Objectifs et livrables Vous avez pour responsabilité de maximiser la valeur du produit développé. Vos missions se divisent en 4 grands axes : 1. Stratégie, Cadrage et Backlog (BUILD) Collecter les demandes d'évolution des utilisateurs clés à travers le monde. Gérer et prioriser le backlog d'Epics en fonction de la valeur métier et du ROI attendu. Détailler les parcours utilisateurs (User Journeys) pour valider les besoins avec les parties prenantes, et traduire ces parcours en Epics/fonctionnalités pour les équipes de réalisation. Gérer le flux de développement des epics via le Workflow JIRA et coordonner les interfaces (UI/UX) au quotidien via Trello . Piloter les synergies et les mutualisations de déploiement avec les autres outils de l'écosystème (GMAO, outils métiers). 2. Pilotage de la Valeur et Satisfaction Client • Suivre et communiquer les KPIs d'usage et de valeur pour mesurer la performance du produit et sa contribution aux objectifs de l'entreprise. • Analyser les données d'utilisation pour adapter et améliorer le produit de manière proactive. 3. Animation des Rituels Agiles et Communication Préparer et participer aux Comités Opérationnels (ComOp) et suivre l'avancement de vos sujets via Smartsheet . Préparer et participer aux Revues de Sprint bi-mensuelles avant la mise en intégration, valider les fonctionnalités développées par rapport aux critères d'acceptation. Animer les points mensuels avec les Key Users (KU) des Business Units internationales pour les accompagner au déploiement et récolter leurs feedbacks. 4. Support, Cybersécurité et Documentation (RUN) Superviser et traiter les tickets de support (Niveau 2 et 3) via ServiceNow (SNOW) en collaboration avec l'équipe de réalisation pour résoudre les incidents et intégrer les demandes d'évolution. S'assurer de la conformité du produit et des règles de cybersécurité Veolia (suivi du plan d'action et remédiations suite aux Pentests). Participer à la rédaction et au maintien de la documentation technique et utilisateur. Help the Product Sales & communication manager on the creation of communication materials Update the release notes regularly 5. Traning support & dashboarding Dispenser ponctuellement des formations utilisateurs lors des phases de prévente et de déploiement, en collaboration avec le responsable des ventes et de la communication produit, afin de garantir une adoption optimale du produit. Suivi, mise en place et déploiement de modèles de tableaux de bord DataStudio avec l'aide du Data Engineer/Analyst Vous travaillerez étroitement avec les membres de l'équipe sous la responsabilité du product manager : apprenti UX/UI Data Engineer / Analyst Product Sales and Communication Manager Product Owner Developeurs experts métiers key users partour dans le monde divers services transverse à Veolia : cybersecurité, Service management, équipe data, communication, La mission se déroulera a Aubervilliers. Une présence regulière sur site est requise bien que des jours de télétravail soient possibles. Compétences demandées
Freelance

Mission freelance
POT8981 - Un Proxy Product Manager sur Aubervilliers

Almatek
Publiée le
Méthode Agile

6 mois
Aubervilliers, Île-de-France
Almatek recherche pour l'un de ses clients, un Proxy Product Manager sur Aubervilliers. Objectifs et livrables Vous avez pour responsabilité de maximiser la valeur du produit développé. Vos missions se divisent en 4 grands axes : 1. Stratégie, Cadrage et Backlog (BUILD) • Collecter les demandes d'évolution des utilisateurs clés à travers le monde. • Gérer et prioriser le backlog d'Epics en fonction de la valeur métier et du ROI attendu. • Détailler les parcours utilisateurs (User Journeys) pour valider les besoins avec les parties prenantes, et traduire ces parcours en Epics/fonctionnalités pour les équipes de réalisation. • Gérer le flux de développement des epics via le Workflow JIRA et coordonner les interfaces (UI/UX) au quotidien via Trello. • Piloter les synergies et les mutualisations de déploiement avec les autres outils de l'écosystème (GMAO, outils métiers). 2. Pilotage de la Valeur et Satisfaction Client • Suivre et communiquer les KPIs d'usage et de valeur pour mesurer la performance du produit et sa contribution aux objectifs de l'entreprise. • Analyser les données d'utilisation pour adapter et améliorer le produit de manière proactive. 3. Animation des Rituels Agiles et Communication • Préparer et participer aux Comités Opérationnels (ComOp) et suivre l'avancement de vos sujets via Smartsheet. • Préparer et participer aux Revues de Sprint bi-mensuelles avant la mise en intégration, valider les fonctionnalités développées par rapport aux critères d'acceptation. • Animer les points mensuels avec les Key Users (KU) des Business Units internationales pour les accompagner au déploiement et récolter leurs feedbacks. 4. Support, Cybersécurité et Documentation (RUN) • Superviser et traiter les tickets de support (Niveau 2 et 3) via ServiceNow (SNOW) en collaboration avec l'équipe de réalisation pour résoudre les incidents et intégrer les demandes d'évolution. • S'assurer de la conformité du produit et des règles de cybersécurité Veolia (suivi du plan d'action et remédiations suite aux Pentests). • Participer à la rédaction et au maintien de la documentation technique et utilisateur. • Help the Product Sales & communication manager on the creation of communication materials Update the release notes regularly 5. Traning support & dashboarding • Dispenser ponctuellement des formations utilisateurs lors des phases de prévente et de déploiement, en collaboration avec le responsable des ventes et de la communication produit, afin de garantir une adoption optimale du produit. • Suivi, mise en place et déploiement de modèles de tableaux de bord DataStudio avec l'aide du Data Engineer/Analyst Vous travaillerez étroitement avec les membres de l'équipe sous la responsabilité du product manager : • apprenti UX/UI • Data Engineer / Analyst • Product Sales and Communication Manager • Product Owner • Developeurs • experts métiers • key users partour dans le monde • divers services transverse à Veolia : cybersecurité, Service management, équipe data, communication,
Freelance
CDI

Offre d'emploi
Proxy Product Manager

R&S TELECOM
Publiée le
Microsoft Access

12 mois
40k-48k €
400-480 €
Île-de-France, France
Objectifs et livrables Vous avez pour responsabilité de maximiser la valeur du produit développé. Vos missions se divisent en 4 grands axes : Stratégie, Cadrage et Backlog (BUILD) Collecter les demandes d'évolution des utilisateurs clés à travers le monde. Gérer et prioriser le backlog d'Epics en fonction de la valeur métier et du ROI attendu. Détailler les parcours utilisateurs (User Journeys) pour valider les besoins avec les parties prenantes, et traduire ces parcours en Epics/fonctionnalités pour les équipes de réalisation. Gérer le flux de développement des epics via le Workflow JIRA et coordonner les interfaces (UI/UX) au quotidien via Trello . Piloter les synergies et les mutualisations de déploiement avec les autres outils de l'écosystème (GMAO, outils métiers). Pilotage de la Valeur et Satisfaction Client Suivre et communiquer les KPIs d'usage et de valeur pour mesurer la performance du produit et sa contribution aux objectifs de l'entreprise. Analyser les données d'utilisation pour adapter et améliorer le produit de manière proactive. Animation des Rituels Agiles et Communication Préparer et participer aux Comités Opérationnels (ComOp) et suivre l'avancement de vos sujets via Smartsheet . Préparer et participer aux Revues de Sprint bi-mensuelles avant la mise en intégration, valider les fonctionnalités développées par rapport aux critères d'acceptation. Animer les points mensuels avec les Key Users (KU) des Business Units internationales pour les accompagner au déploiement et récolter leurs feedbacks. Support, Cybersécurité et Documentation (RUN) Superviser et traiter les tickets de support (Niveau 2 et 3) via ServiceNow (SNOW) en collaboration avec l'équipe de réalisation pour résoudre les incidents et intégrer les demandes d'évolution. S'assurer de la conformité du produit et des règles de cybersécurité (suivi du plan d'action et remédiations suite aux Pentests). Participer à la rédaction et au maintien de la documentation technique et utilisateur. Help the Product Sales & communication manager on the creation of communication materials. Update the release notes regularly. Training support & dashboarding Dispenser ponctuellement des formations utilisateurs lors des phases de prévente et de déploiement, en collaboration avec le responsable des ventes et de la communication produit, afin de garantir une adoption optimale du produit. Suivi, mise en place et déploiement de modèles de tableaux de bord DataStudio avec l'aide du Data Engineer/Analyst. Vous travaillerez étroitement avec les membres de l'équipe sous la responsabilité du product manager : apprenti UX/UI Data Engineer / Analyst Product Sales and Communication Manager Product Owner Développeurs experts métiers key users partout dans le monde divers services transverses : cybersécurité, Service management, équipe data, communication. Compétences demandées CompétencesNiveau de compétence Understanding of user needs and behaviorsExpertSkill in prioritizing product backlog itemsExpertAbility to define and communicate a clear product visionExpertNegotiation and conflict resolution abilitiesAvancéFlexibility to adjust to changing market conditions and requirementsConfirméExperience in product positioning and messagingConfirméCustomer-centric approach with a focus on satisfaction and relationship buildingConfirméKnowledge of business metrics and PIsExpertUnderstanding of product lifecycle managementExpertExcellent communication and presentation skills, both verbal and writtenExpertAgile and Scrum KnowledgeExpertStrong communication skills to interact with various stakeholdersConfirméExperience on mobile development contextConfirméStrategic thinking to align product goals with business objectivesConfirméAbility to make tough decisions based on value and ROIExpertAbility to translate user requirements into product featuresExpertFluent level of English (reading, writing, speaking and understanding various local accents all over the world)ExpertEnglishExpertBasic understanding of technical concepts and limitationsConfirméAbility to translate technical features into business benefitsConfirmé
Freelance

Mission freelance
DATA ENGINEER FABRIC/AZURE DATA FACTORY (H/F)

ALLEGIS GROUP
Publiée le
Azure Data Factory
Microsoft Fabric

6 mois
Hauts-de-France, France
TEKsystems recherche pour le compte de son client un(e) : DATA ENGINEER FABRIC Missions principales : Implémentation des composants Microsoft Fabric liés aux cas d’usage prioritaires Conception et industrialisation de pipelines d’ingestion/traitement (ETL/ELT), APIs et modèles de données avec Microsoft Fabric Observabilité, data quality, tests, CI/CD et documentation technique Optimisation coûts/performance, sécurité et conformité Collaboration étroite avec Data Analysts et équipes métiers Compétences attendues : Microsoft Fabric Python, SQL ; orchestration, versioning et CI/CD Intégration de données multi-sources (ERP/HR/Produits etc), API, batch/stream Plateformes et architectures data modernes (data fabric/data lakehouse, cloud Azure) Gouvernance des données, catalogage, métadonnées et lineage
Freelance

Mission freelance
Business analyst Asset management H/F

Mon Consultant Indépendant
Publiée le
Business Analysis

6 mois
560-590 €
Paris, France
MERCI DE NE PAS POSTULER SI : - Vous n'avez jamais travaillé en Asset management - Vous ne maîtriser pas SQL et d'autres solutions de requêtes L’équipe Data recherche un Business Analyst pour accompagner la phase d’implémentation du projet de plateforme Data. La mission consiste à soutenir l’équipe en travaillant à la préparation, à la structuration et à la mise en œuvre du projet de migration des données. La mission consistera également à aider l’équipe sur d’autres projets évolutifs afin de répondre aux besoins des clients internes. Des connaissances fonctionnelles des métiers de l’asset management, des flux de données et votre expérience en tant que gestionnaire de projet sont nécessaires pour cette mission. Compétences techniques : Connaissances de l’environnement réglementaire de la gestion d’actifs Français, européens et UK. Une connaissance de la réglementation bancaire et de l’assurance est un plus. Français et Anglais courants Bonne compréhension des enjeux de qualité de données en contexte réglementaire Maitrise des outils Pack Office, VBA, SQL, Python, Neoxam Data Hub, Tableau Desktop, Data Bricks est un plus. Forte capacité à documenter précisément les process, contrôles et anomalies Expérience en optimisation de processus et mise en place de control framework Experience : Expérience dans un rôle de Business/Data Analyst, idéalement dans l’Asset Management ou au sein d’un cabinet de conseil Expérience de gestion de projet dans un environnement complexe (par le nombre d’interlocuteurs, la variété des sujets à traiter, le calendrier serré à respecter).
Freelance

Mission freelance
Web Analyst (H/F)

WINSIDE Technology
Publiée le
Google Analytics
Google Data Studio
Google Tag Manager

1 an
Lille, Hauts-de-France
Mission principale : Au sein des équipes Digital & Data, le Web Analyst est responsable de la mesure de la performance digitale, de l’analyse des parcours clients et de l’exploitation des données pour optimiser l’expérience utilisateur et les résultats business. Il/elle joue un rôle clé dans l’amélioration continue du site et de l’ensemble de l’écosystème digital. Responsabilités : 1. Analyse & mesure de la performance Définir, maintenir et optimiser la webanalyse (datamodel, plans de taggage, KPIs). Suivre les performances du site : trafic, conversion, parcours, taux de rétention, rebond, etc. Analyser les comportements utilisateur pour identifier les freins, opportunités et segments clés. Développer des tableaux de bord pour les équipes Produit, E‑commerce, Marketing. 2. Pilotage & optimisation Recommander des améliorations UX/UI basées sur la donnée. Accompagner les équipes Produit dans les choix d’optimisation (A/B tests, personnalisation). Participer à la définition des objectifs business : acquisition, conversion, fidélisation. 3. Gestion du tagging & de la qualité de la donnée Construire et maintenir les plans de marquage (GTM ou équivalent). Contrôler la qualité des données, diagnostiquer les anomalies et assurer leur fiabilité. Collaborer avec les équipes Data Engineering pour une exploitation cohérente et propre des données. 4. Collaboration transversale Travailler en étroite collaboration avec les équipes E‑commerce, CRM, Marketing, UX et Produit. Présenter les analyses et insights de manière claire, orientée business. Sensibiliser les équipes internes à la culture data. Compétences techniques attendues : Outils de webanalyse Google Analytics (GA4) ou autre solution équivalente. Google Tag Manager (ou TMS similaire : Tealium, Tag Commander). Data & visualisation Outils BI : Data Studio / Tableau / Power BI. Bonne maîtrise d’Excel. Connaissance SQL est un plus. Expérience en optimisation A/B testing : AB Tasty, Kameleoon, Optimizely. Méthodologies CRO (Conversion Rate Optimization).
Freelance

Mission freelance
Salesforce Marketing Cloud Campaign Specialist (H/F)

ALLEGIS GROUP
Publiée le
Salesforce Sales Cloud

1 an
100-500 €
Lille, Hauts-de-France
TekSystems recherche pour l’un de ses clients dans le secteur du retail, u n(e) Salesforce Marketing Cloud Campaign Specialist & Email Developer. Vous jouerez un rôle clé dans la conception, l’exécution et l’optimisation des campagnes marketing, tout en apportant votre expertise technique en développement email. Vos missions: Stratégie & Exécution des campagnes: Exécuter des campagnes automatisées via SFMC (Salesforce Marketing Cloud) : création, mise en œuvre, réalisation de tests A/B et montée en échelle pour atteindre les objectifs business. Mettre en place des campagnes multicanales afin de garantir une expérience client cohérente. Réaliser les ciblages via des requêtes SQL pour définir des segments d’audience précis. Développement Email & Expertise Technique Développer, coder et dépanner des emails HTML responsives, compatibles avec une large variété de clients mails et d’appareils. Utiliser AMPscript et/ou d’autres langages de script pertinents (ex. Guide Template Language) dans SFMC pour activer du contenu dynamique, de la personnalisation et des logiques de segmentation complexes. Veiller à ce que la mise en page, le design et le contenu des emails soient optimisés et respectent les meilleures pratiques en matière de livrabilité et d’accessibilité. Collaborer avec l’équipe design pour transformer des maquettes en templates email fonctionnels de haute qualité. Analyse & Optimisation Analyser et optimiser les campagnes automatisées en utilisant des données et des indicateurs tels que : taux de conversion, taux d’engagement, CLTV (Customer Lifetime Value)… et utiliser ces insights pour améliorer les performances. Suivre les tendances du secteur : standards de développement email, nouveautés SFMC, meilleures pratiques de délivrabilité… et les utiliser pour optimiser les campagnes Collaboration Travailler en étroite collaboration avec les squads (équipe design, data analyst, intégrateur HTML, squad leader) afin de garantir que les campagnes sont alignées avec les objectifs business et les besoins clients.
Freelance

Mission freelance
INGÉNIEUR DATA – DATABRICKS & AWS - DEMARRAGE LUNDI

LINKWAY
Publiée le
Amazon S3
AWS Cloudwatch
AWS Glue

9 mois
450-550 €
Paris, France
MISSION GLOBALE : Rattaché à la direction Data/Analytics, vous concevez, industrialisez et opérez des pipelines à l’échelle sur Databricks intégrés à l’écosystème AWS pour accélérer les cas d’usage data du secteur de l’énergie. Vous mettez en œuvre des traitements batch et streaming avec Spark , Delta Lake et Delta Live Tables , structurez des zones Bronze/Silver/Gold et garantissez qualité, sécurité et gouvernance via Unity Catalog, IAM et Lake Formation . Vous orchestrez l’ingestion depuis S3 , bases et API/IoT, optimisez coûts et performances ( FinOps ) et mettez en place CI/CD , tests et observabilité . En étroite collaboration avec les Data Scientists/Analysts, vous industrialisez des modèles et fonctionnalités MLOps avec MLflow pour des usages tels que prévision consommation/production , optimisation réseau , maintenance prédictive IoT et reporting quasi-temps réel . Vous contribuez aux standards d’ingénierie, à la documentation, au mentoring et à la fiabilité opérationnelle de la plateforme. TÂCHES ET RESPONSABILITÉS PRINCIPALES : • Concevoir, développer et opérer des pipelines sur Databricks (batch et streaming) • Modéliser les données Delta Lake et structurer les zones Bronze/Silver/Gold • Intégrer l’écosystème AWS : S3, Glue, EMR, Lambda, Step Functions, Lake Formation • Assurer qualité, sécurité et gouvernance avec Unity Catalog et IAM • Mettre en place CI/CD, tests et observabilité : optimiser coûts et performances • Orchestrer les workflows (Databricks Workflows, Airflow, Step Functions/ADF) • Industrialiser MLOps avec MLflow en lien avec les Data Scientists • Optimiser les jobs Spark (partitionnement, Z-Ordering, AQE, caching) • Gérer environnements, secrets, artefacts et conformité sécurité • Collaborer avec métiers et data teams pour cadrer et livrer les use cases énergie LIVRABLES CLÉS : • Pipelines Databricks prêts production : traitements batch/streaming robustes et monitorés • Modèle de données Delta Lake : zones Bronze/Silver/Gold documentées et versionnées • Intégrations AWS opérationnelles : S3, Glue Catalog, EMR/Lambda, Lake Formation/IAM • Cadre CI/CD et tests : pipelines de déploiement, validations data et qualité automatisées • Observabilité et FinOps : métriques, alerting, SLO et optimisation des coûts • Chaînes d’orchestration fiables : Databricks Workflows/Airflow/Step Functions prêtes • Capacités MLOps avec MLflow : traçabilité, registry modèles et déploiements contrôlés • Documentation et standards : runbooks, guides d’architecture et bonnes pratiques
Offre premium
Freelance

Mission freelance
Développeur Front BI

Comet
Publiée le
Microsoft Power BI
Sap BO
SQL

60 jours
400-640 €
Île-de-France, France
Compétences techniques : Power BI - Expert - Impératif SQL - Confirmé - Important SAP Business Object - Confirmé - Appréciable Description détaillée : Nous recherchons un Data Analyst BI (H/F) pour participer au déploiement de la solution Power BI dans un contexte de centralisation de la Data au coeur des enjeux business, plus particulièrement pour remplacer puis décommissionner la solution de reporting SAP Business Object. Au sein de l’équipe BI Front, sous la responsabilité du Tech Lead BI, vous aurez pour mission principale de participer à la mise en place et à la maintenance des jeux de données et rapports Power BI pour les différents métiers clients de la Direction des Technologies. Ces projets se feront en étroite collaboration avec le Chef de Projet Databoost, responsable fonctionnel, et l’équipe Back, en charge de la mise à disposition des données. Vous ferez partie de l'équipe BI au sein du pôle Corporate, et évoluerez au sein de la squad Databoost, créée spécialement pour ce besoin de décommissionnement de SAP BO. VOTRE TERRAIN DE JEU # Connaissances techniques : -Outils : Power BI (Tabular Editor, Dax Studio), Fabric, Business Object, Power Plateform, SSMS, Azure Databricks -Langages : SQL, DAX, M -CI/CD : Git, Azure Devops -Développement en environnement Agile Vos missions principales seront les suivantes : -Collaborer avec le chef de projet et les métiers pour comprendre leurs besoins en matière de données et développer des solutions appropriées. -Faire le lien avec l’équipe Data et les PO pour formaliser les spécifications techniques -Concevoir et développer des jeux de données et rapports Power BI -Être force de proposition sur la représentation des données -Assurer la maintenance corrective et les évolutions des assets, en mettant en place les bonnes pratiques et normes de développement -Maintenir et enrichir la documentation technique des projets -Accompagner les utilisateurs dans leur montée en compétence Match : Vous êtes un excellent communicant, capable de transmettre des informations complexes de manière claire et concise dans un contexte fonctionnel riche. Votre expérience vous permet de comprendre facilement les besoins, pour concevoir et implémenter des solutions BI à forte valeur ajoutée, tout en assurant leur pérennité et évolutivité. Vous disposez de solides connaissances sur Power BI et les outils externes qui permettent d’améliorer la qualité de vos développements. Vous avez une vraie appétence pour le design de rapport et avez la capacité de proposer des choses innovantes et de faire émerger des besoins chez les métiers. Vous êtes capable de motiver vos choix de manière stratégique (via des insights, des KPIs etc) et vous êtes orienté business. Vous avez idéalement au moins 8 ans d’expérience sur un poste équivalent. Définition du profil À la demande du Métier, il analyse, paramètre et code les composants logiciels applicatifs dans le respect des évolutions souhaitées, des normes et des procédures orientées Front BI.
CDI
Freelance

Offre d'emploi
Data Engineer (3+ ans d'exp)

WINSIDE Technology
Publiée le
API
DBT
Google Cloud Platform (GCP)

1 an
43k-57k €
360-500 €
Lille, Hauts-de-France
Bonjour et merci d'avoir cliqué sur cette offre 😊 Nous recherchons un.e Data Engineer pour une grande entreprise française sur Lille ! 🚀 Ce poste est fait pour toi si : tu as 3 ans d'expérience professionnelle à minima en tant que Data Engineer. tu as 2 ans d'expérience professionnelle à minima en dbt, Snowflake ET Semarchy. Missions : Concevoir et développer des pipelines pour l’ingestion et la transformation des données. Assurer la qualité, la cohérence et la sécurité des données dans les systèmes. Optimiser les performances des bases de données et des flux de données. Collaborer avec les Data Scientists, Analystes et équipes métiers pour comprendre les besoins et fournir des solutions adaptées. Mettre en place des outils de monitoring et de gouvernance des données. Garantir la conformité aux normes RGPD et aux politiques internes de sécurité. Les petits plus du candidat idéale : Connaissances IPAAS Familiarité avec les outils de workflow (Airflow, PubSub). Connaissance développement IA (Python, RAG...) Connaissance GCP (Cloud Provider, nous n'avons pas de Big Query) Démarrage : rapide. TT : 1 jour par semaine. Durée : longue. Localisation : métropole lilloise. 👉 Tu as envie d’un nouveau défi, entouré(e), valorisé(e), écouté(e) ? Postule et parlons-en. Même si ce n’est pas pour cette mission, on trouvera peut-être celle qui te correspond parfaitement. Les étapes à venir après avoir postulé : nous étudierons ta candidature avec attention. si elle nous intéresse, tu recevras un appel pour un premier échange de préqualification. On t’enverra un mail si on n’arrivera pas à te joindre. Si elle ne nous intéressera pas (ça sera certainement pour une autre mission 😉), on t’enverra un mail. Merci de ton attention et à très vite pour une aventure épanouissante chez Winside 🙂 ---------- Winside, en bref ? Winside Technology est un pure player Tech, basé à Paris, Lyon, Lille, Bordeaux, Nantes et au Maroc. Crée en 2020, l’entreprise compte plus de 250 consultants, accompagne plus de 50 clients grands comptes et a réalisé 30M€ de chiffre d’affaires en 2024. Notre ADN repose sur l’expertise, la qualité, la proximité et l’esprit d’équipe. Au-delà des missions, nous cultivons une vraie communauté : événements techniques, moments conviviaux, partage de connaissances et ambition collective. Ce que tu trouveras chez Winside en CDI… Une communauté d’experts diversifiés ( Craft, Core, Risk & Security etc) Une entreprise en pleine croissance, qui valorise l’initiative et la créativité. Un parcours de formation personnalisé et de vraies perspectives d’évolution. Une vie d’entreprise rythmée par des événements techniques et conviviaux. Des avantages concrets : primes vacances, mutuelle prise en charge à 100 %, frais mobilité, système de cooptation qui impacte ta rémunération sur le long terme. Tu te reconnais ? Alors, tu es fait.e pour nous rejoindre ! Viens échanger avec nous 😉
Freelance

Mission freelance
Data Engineer Azure / Databricks

Signe +
Publiée le
Snowflake

12 mois
360-440 €
Clermont-Ferrand, Auvergne-Rhône-Alpes
Contexte Dans le cadre de la structuration de la plateforme data, nous recherchons un Data Engineer pour concevoir, développer et industrialiser les pipelines de données au sein d’une architecture moderne de type Lakehouse sur Azure. Le rôle est orienté build & delivery, avec une forte dimension technique. Missions principales Concevoir et développer des pipelines ELT robustes et scalables Intégrer, transformer et fiabiliser des données issues de multiples sources Développer des traitements distribués en PySpark sur Databricks Orchestrer les flux via Azure Data Factory Optimiser les performances, la qualité et la maintenabilité des jobs Mettre en place des contrôles de data quality, monitoring et alerting Participer à la modélisation des datasets (modèle dimensionnel / star schema) Documenter les flux (lineage, métadonnées, bonnes pratiques) Collaborer avec les équipes BI / Data Analyst / métiers (Power BI) Stack technique Databricks (Spark / PySpark) Azure Data Factory SQL avancé Python Power BI (consommation et compréhension des besoins BI) Azure Data Lake / Lakehouse Compétences requises (must-have) Très bon niveau SQL Python / PySpark confirmé Expérience concrète sur Databricks Expérience Azure Data Factory Conception de pipelines ELT en production Modélisation dimensionnelle Bonne culture performance & fiabilité data Compétences appréciées (nice-to-have) Data quality / data governance / lineage Data Vault Azure Logic Apps Infrastructure as Code (Terraform, CI/CD) Expérience Snowflake ou autres plateformes cloud data Bonne compréhension des enjeux BI / Power BI Profil recherché 3 à 7+ ans d’expérience en Data Engineering À l’aise en environnement cloud Azure Capacité à coder proprement et à industrialiser Esprit produit / orienté valeur métier Autonome, force de proposition
Freelance

Mission freelance
Développeur Python devops AWS AZURE Anglais 480 e par jour

BI SOLUTIONS
Publiée le
AWS Cloud
Python

3 ans
400-480 €
Île-de-France, France
Développeur Python devops AWS AZURE Anglais 480 e par jour Data analyste ET ANALYTICS Platform AWS AZURE PYTHON Anglais 500 e par jour Évolution des infrastructures cloud via l’Infrastructure as Code Gestion d’un cluster kubernetes Développement de micro-services en Python Conception et maintenance de chaînes de déploiement automatisé Assurer le bon fonctionnement opérationnel de la Data & Analytics Platform Enrichissement de la documentation à l’attention des utilisateurs Expérience significative sur le cloud AWS et/ou Azure, notamment sur les services de données (Gen2 et ou S3). Développement d’application web. Connaissance des pratiques du software craftsmanship. Bonne connaissance de la méthodologie Agile. Familiarité avec les mécanismes de traitement et de valorisation des données. Python, Terraform GitHub, GitHub Action Azure : AKS, Data Lake Gen2, Data Factory AWS : EKS, S3, ECS, VPC, NSG, Lambda, … Databricks : Unity Catalog, Policy, Cluster, PySpark Pratiques : Scrum Notions : DevSecOps, Data Engineering, Data Management Langues : Anglais et Français 480 e par jour
Freelance

Mission freelance
Data Scientist

Orcan Intelligence
Publiée le
Large Language Model (LLM)
MLOps
Python

5 mois
500-650 €
Paris, France
Nous recherchons un/e Data Scientist pour rejoindre une équipe dynamique en Région parisienne (onsite 1x par semaine). Vous participerez à la conception et à la mise en œuvre de solutions de data science et d’apprentissage automatique à fort impact, contribuant directement à la création de valeur pour l’entreprise. Missions principales Concevoir et implémenter des solutions de data science de bout en bout pour résoudre des problématiques métier. Extraire, nettoyer et analyser de grands volumes de données, notamment à l’aide de Teradata Vantage et SQL . Construire et déployer des modèles de machine learning en Python . Exploiter des feature stores pour le développement et la mise en production des modèles. Explorer et appliquer des approches en IA générative (LLM, transformers) selon les cas d’usage. Définir des stratégies de data science alignées avec les objectifs métier et la feuille de route data de long terme. Communiquer méthodologies, résultats et recommandations à des publics variés (techniques et non techniques). Préparer et présenter des analyses et recommandations claires à différents niveaux (direction, opérationnel, technique). Collaborer avec les data engineers, analystes et experts métier pour intégrer les solutions en production. Contribuer à l’amélioration continue des outils, processus et bonnes pratiques en data science.
206 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous