Trouvez votre prochaine mission ou futur job IT.
Mission freelance
DEVELOPPEUR SSIS CONFIRME
Poste : Développeur(se) ETL / Data Engineer expérimenté(e) Localisation : Projets en France et à l’international (environnement multiculturel) Missions principales : Structurer, modéliser et intégrer les données (ETL, Data Warehouse). Optimiser et maintenir des entrepôts de données complexes. Intégrer de nouveaux périmètres de données. Collaborer étroitement avec les Data Analysts et Data Scientists. Environnement technique : Microsoft SQL Server, SSIS / Data Tools, Power BI. SQL confirmé (obligatoire), Python souhaité. Modélisation en étoile (Star Schema). Profil recherché : Bac+5 (école d’ingénieur ou université). Minimum 5 ans d’expérience en Data Engineering (on-premise et/ou cloud). Maîtrise du développement ETL / Data Warehouse. Langues : Français & Anglais (niveau C1 obligatoire). Espagnol/Portugais = atout. Soft skills : Esprit analytique, rigueur, bonne communication, travail en équipe. Intérêt pour des projets internationaux et multiculturels.
Offre d'emploi
Dev SecOps AWS H/F
Principales missions : Administration & support : Administrer les composants Dataiku DSS, CloudBeaver et leurs environnements AWS Assurer le suivi, la supervision, les sauvegardes et les montées de version Accompagner les équipes Data (engineers, scientists, analysts) sur l'industrialisation et les bonnes pratiques Gérer les incidents et participer au RUN Evolution & architecture : Moderniser les composants legacy vers des architectures cloud-native (Paas/serverless) Participer à la mise en place de paterns d'acquisition et de traitement (micro-batch, streaming, event-driven) Intégrer les pratiques DevOps/FinOps : IaC, CI/CD, automatisation. Réaliser des PoC, audits techniques et analyses de performance.
Mission freelance
Analytics Engineer Senior - Workday Finance (localisation Lille)
Contexte du poste L’Analytics Engineer est chargé de délivrer des datasets modélisés pour un domaine métier afin d'accélérer les cas d’usage. Il en assure la qualité , la disponibilité , le suivi et l’ accessibilité , pour permettre aux utilisateurs d’exploiter efficacement les données (Self Service Analytics, analyses, modèles, dashboards). Missions principales 1. Délivrer les bonnes données, à temps Assurer le rafraîchissement fréquent et fiable des données pour soutenir la prise de décision. Garantir la stabilité et la fiabilité des datasets exposés. Corriger rapidement les données corrompues. Anticiper et planifier l’évolution des datasets. Déployer les évolutions avec un délai court mais soutenable. 2. User Centric Connaître les utilisateurs et comprendre leurs usages métiers. Collaborer avec les PM Analytics, Data Analysts, Data Scientists et BI Engineers. Automatiser puis industrialiser les datasets nécessaires aux use cases. Suivre et mesurer l’utilisation réelle des datasets. Définir et communiquer le niveau de confiance dans les données. Informer sur l’état et les éventuelles corruptions des datasets. 3. Playmaker / Team player Participer au recrutement et à l’onboarding des nouveaux membres. Contribuer à la communauté Data (partage d’expérience, ateliers, revues de code, pair programming). Collaborer avec les équipes Core Data Products pour fiabiliser les pipelines. Être force d’entraide et de transmission auprès des autres Analytics Engineers. 4. Better Way Améliorer en continu les pratiques de delivery data. Faire évoluer la stack et les outils. Être proactif sur l’amélioration des processus. Contribuer à la réduction de l’impact écologique et économique des solutions déployées. Compétences techniques : Data modeling dbt SQL Tests and expectations Git Airflow Python Spark Data Architecture Databricks Redshift Indicateurs de performance Fiabilité et fraîcheur des données exposées Temps de correction des anomalies Fréquence des déploiements et time to market des datasets Satisfaction et autonomie des utilisateurs Contribution à la communauté Data et aux rituels d’équipe
Mission freelance
PRODUCT OWNER DATA BI (Pilotage opérationnel & Vision de transformation BI)
CONTEXTE Dans le cadre de la transformation data de l’entreprise, l’équipe BI & Analytics est en cours de réflexion sur l’adaptation et la modernisation de son offre de service BI avec l’adoption potentielle de nouvelles solutions d’ici à fin d’année 2025. Actuellement, les outils sont SAS Guide, SAS VIYA, BO et Qlik sense. Dans sa transformation, l’entreprise a fait le choix d’un data hub GCP. Recherche Product Owner BI (Pilotage opérationnel & Vision de transformation BI) MISSION Dans le cadre d’un remplacement de 6 mois, nous recherchons un Product owner BI expérimenté capable d’assurer le pilotage produit en garantissant la livraison continue des cas d’usage fonctionnels et poursuivant la transformation des outils et usages BI (vision cible, montée en compétences, expérimentation d’outils). L’équipe se compose de 3 personnes au support outils BI, 3 Tech Leads, 3 Data Analystes et 1 Responsable d’équipe aussi SM. La mission reposera sur le : • Pilotage produit des besoins BI (backlog, cas d’usage, priorisation, validation produit) • Vision stratégique BI (choix d’outils BI, plan de transformation, montée en compétences) Périmètre de la mission 1. Pilotage produit & backlog BI • Recueillir, analyser et formaliser les besoins métier en lien avec les directions utilisatrices • Prioriser les cas d’usage BI selon leur valeur, urgence et faisabilité • Rédiger et maintenir un backlog BI clair et structuré (user stories, critères d’acceptation, jeux de test) • Suivre l’avancement des développements et valider les livrables avec les utilisateurs et BL 2. Animation agile & coordination fonctionnelld • Préparer et co-animer les rituels agiles avec le Scrum Master (affinements, plannings, revues) • Travailler au quotidien avec les développeurs, Tech Leads et Data Analystes • Porter la voix du métier et des business line au sein de l’équipe 3. Qualité fonctionnelle et validation métier • Garantir la cohérence et la qualité des tableaux de bord, rapports et datamarts livrés • Valider les livrables BI avec les utilisateurs finaux • Documenter les solutions de manière claire et accessible 4. Vision stratégique & transformation BI • Apporter son expérience aux équipes data et à la hiérarchie sur une vision stratégique et transformation de la BI • Identifier les cas d’usage pertinents pour tester de nouveaux outils BI en coordination avec les métiers et Business Line • Piloter les POCs : cadrage, expérimentation, retour d’expérience • Construire un plan de montée en compétences pour l’équipe (formations, coaching, accompagnement) • Contribuer à la stratégie de gouvernance et de self-service BI 5. Interface métier & conduite du changement • Animer les ateliers de cadrage fonctionnel avec les métiers • Présenter les livrables de façon claire, orientée valeur • Être ambassadeur de la transformation BI auprès des directions utilisatrices • Suivre les retours utilisateurs et les indicateurs d’adoption
Mission freelance
Business Analyst senior/Expert Data – Asset Management
Nous recherchons un Business Analyst Data expérimenté pour accompagner un Asset Manager dans la structuration et l’évolution de son écosystème Data. Vos missions : Recueillir et formaliser les besoins Data des équipes métier (Front, Risk, Reporting, Compliance). Contribuer à la conception du modèle de données et à la qualité / gouvernance des données. Participer à la mise en place d’outils de data management et data lineage. Collaborer avec les équipes IT, Data Engineers et Métier sur la roadmap Data
Mission freelance
Administrer DBA/Architect Snowflake
🎯 Mission Principale Expert technique Snowflake au sein de l'équipe Architecture & Data Engineering, vous êtes responsable de la maintenance et évolution de la Data Platform qui sert l'ensemble des équipes du groupe (Analytics, Data Science & IA, CRM, Pub, Audience, Finance, Streaming). 🔧 Responsabilités Clés Architecture & Stratégie Définition et revue d'architecture du Data Warehouse/Data Platform Développement et maintenance de la stratégie RBAC Formalisation et planification de la roadmap produit (3, 6, 12 mois) Modernisation des paradigmes d'ingestion, transformation et exposition de données Performance & Optimisation Revues de performances SQL et infrastructure Suivi de coûts par application Mise en place de solutions de monitoring et d'alerting Revues de code SQL Support & Accompagnement Support quotidien sur la plateforme Snowflake Référent technique pour les Data Engineers et Data Analysts Accompagnement des équipes sur la faisabilité des projets Facilitateur entre équipes Data, AdTech et métier ⚙️ Stack Technique Compétences Impératives Snowflake - Expert SQL Avancé - Expert Architecture Data Cloud - Expert Technologies Utilisées Python RBAC Terraform Azure (cloud) Azure DevOps / JIRA / Confluence Snowflake Clean Room (plus) 🌍 Environnement de Travail Méthodologie : Agile Scrum Culture : DevSecOps Équipe : 15 personnes Langues : Français courant (impératif), Anglais professionnel ✨ Profil Recherché Qualités Personnelles Bon relationnel et capacité d'adaptation Excellente communication orale et écrite Esprit de veille technologique Aptitude au travail en équipe Compétences Transversales Maîtrise des méthodes Agiles Culture DevOps confirmée Gestion de projet technique Capacité à garantir la pérennité des développements 🎪 Enjeux du Poste Plateforme critique : Infrastructure data stratégique pour le groupe Innovation continue : Exploitation des dernières fonctionnalités Snowflake Optimisation : Maîtrise des coûts et performances Transversalité : Interface entre multiples équipes métier
Mission freelance
Data Manager
TEKsystems echerche pour le compte de son client : Un(e) Data Manager: Un chef d’orchestre de la donnée dans une organisation. Il ne code pas forcément au quotidien, mais il comprend les enjeux techniques et stratégiques liés à la data. Dans ton cas, il devra :🎯 Missions principales Structurer et piloter la gouvernance des données : garantir la qualité, la sécurité, et la traçabilité des données. Coordonner les équipes data : data ingénieurs, analystes, et architects. Définir les modèles de données : en lien avec les besoins métiers et les outils comme Snowflake. Mettre en place les premiers pipelines de données : pour alimenter les dashboards Tableau et les apps Streamlit. Traduire les besoins métiers en solutions data : notamment dans le cadre du CRM et des outils comme JIRA.
Mission freelance
Testeur QA Data
Testeur confirmé avec des compétences de Data Analyste En tant que QA Data, vous ferez partie du pôle Qualité Data sera d'assurer la préparation, l'exécution et le suivi de la recette technico fonctionnelle tout en contribuant à l'amélioration de la qualité de données. Participer aux ateliers/rituels agiles Réaliser la stratégie de test Identifier et réceptionner les environnements de test Analyser et évaluer les cas d'usage/User Story Rédiger les plans de test, identifier les prérequis et spécifier les jeux de données Exécuter les cas de tests Créer et suivre les anomalies avec les différentes parties prenantes Maintien du référentiel de test Réaliser le PV de recette Une expérience/compétence dans le domaine de la Data est nécéssaire Vous serez amené à tester : collecte et ingestion des données vérifications de la conformité et cohérence des données dans les différentes zones (brute/raffinée/capitalisation/Factorisation) vérifications des règles de gestion des zones capitalisation et factorisation Vérification de la restitution des données dans les reportings Profil : De formation supérieure en informatique, vous avez une expérience minimum de 3/4 ans sur un rôle de QA orienté Data ou BI. Un profil technico fonctionnel est demandé pour traiter les sujets d'ingestion des données, les tests d'API via Postman, les tests d'intégration 2 à 2 et les tests de bout en bout. Compétences techniques SQL - Confirmé - Impératif Azure event hub - Confirmé - Important Postman - Confirmé - Important" Méthodes & outils nécéssaires Outils de gestion des tests/anomalies : Jira , Xray . Chaînes CI/CD : Microsoft Azure . Plateforme : Databricks . Tests API : Postman . Restitution : Power BI . Profil attendu : technico-fonctionnel , à l’aise sur la collecte et ingestion de données, tests de flux et tests de surface en production.
Mission freelance
Ingénierie et Pilotage de Projets de Transformation Data (Assurance)
Ingénierie et Pilotage de Projets de Transformation Data (Assurance) Nous recherchons des consultants (Ingénieur Data, Analyste Fonctionnel Data ou Directeur de Programme Data) pour le compte d’un de nos clients assurance dans le cadre d’un projet de transformation et de modernisation de son écosystème Data. Contexte Notre client, un acteur majeur du secteur de l' assurance , est engagé dans un programme stratégique visant à moderniser son paysage applicatif analytique et à optimiser son infrastructure Data. Ce programme inclut l'intégration de données au sein de son datalakehouse et la refonte d'applications orientées client. Dans ce cadre, nous recherchons plusieurs profils Experts et Seniors pour garantir le succès de cette transformation Data. Rôles et Responsabilités Selon votre expertise, vous interviendrez sur l'une des missions suivantes : Pilotage de Programme Data : Diriger la modernisation d'applications analytiques ou assurer la gestion de projet Agile/Product Management pour des applications client. Ingénierie Data & Développement : Assurer la conception, la maintenance et l'industrialisation des applications web et applications orientées client, y compris le développement spécifique. Analyse Fonctionnelle Data : Prendre en charge l'analyse fonctionnelle des besoins en intégration de données vers le datalakehouse ou pour la maintenance d'applications web. Compétences Clés & Techniques Une expertise de niveau Expert ou Senior est exigée sur les points suivants : Expertise Métier : Solide connaissance du secteur de l'Assurance (ou Banque/Finance) et des problématiques de données associées. Compétences Data : Maîtrise des concepts de Data Integration, Data Lakehouse, et des outils ETL (Informatica IDQ, Data Stage, etc.). Technologies : Cloud & DevOps : AWS Cloud (EKS, ArgoCD), Azure, GIT. Langages & Frameworks : JAVA (8, 11, 17), Springboot, NodeJS, ANGULAR, API, REST, SOAP. Bases de Données : DB2, Oracle, Mainframe, NDBX. Outils Complémentaires : IBM WAS, SAS, Microstrategy, OneBI, Power BI, Cobol, JCL, PL/SQL (selon le poste visé). Anglais : Capacité à travailler dans un environnement international, la maîtrise de l'anglais technique étant un prérequis. Détails de la Mission Localisation : Paris (Île-de-France). Date de Démarrage : ASAP. Durée : 12 mois. Taux Journalier Cible (TJM) : Les TJM cibles varient en fonction du rôle et de l'expertise (e.g., Program Director <850€, Data Engineer <950€, Functional Analyst <450€, etc.).
Offre d'emploi
Développeur Python / Django
Descriptif du poste La prestation se fera au sein d'une équipe IT dédiée. Le prestataire interviendra comme développeur senior sur les différentes applications IT du périmètre : Application de data management : ingestion, stockage, supervision et restitution de time series Application de visualisation de données de marché et des analyses produites Application de calcul de prévision de prix sur le marché de l'électricité Le prestataire devra accompagner les évolutions et assurer la maintenance corrective et évolutive sur ces différentes applications dans les meilleurs délais (time to market) tout en garantissant la qualité des livrables. Mission • Le développement de correctifs et d'évolutions sur l'ensemble du périmètre • Définition de nouvelles architectures et implémentation de nouvelles solutions • La gestion du cycle de développement, de l'infra et des mises en production (DevOps) • Le support technique et accompagnement des utilisateurs (analystes, data scientists...)
Offre d'emploi
Développeur BI Senior (MSBI/GCP)
Contexte: Nous recherchons un Data Analyst / Développeur BI Senior afin de renforcer l’équipe existante. Le profil attendu doit avoir une expertise confirmée dans les environnements GCP et Power BI Online, avec une forte capacité à produire des développements BI robustes, scalables et maintenables. Missions principales: - Réaliser les reportings et tableaux de bord. - Assurer la maîtrise et la modélisation des données. - Concevoir, développer et maintenir des solutions BI performantes, optimisées et réutilisables. - Réaliser des tests fonctionnels et des recettes métiers. - Garantir l’application des bonnes pratiques de développement BI. - Produire la documentation technico-fonctionnelle en fin de sprint. - Conseiller et accompagner les équipes métiers (devoir de conseil). - Collaborer étroitement avec le Product Owner et l’équipe de développement. - Concevoir des maquettes en lien avec le Product Owner. - Participer à l’assistance utilisateurs (formation, transmission de connaissances, support niveau 3). - Débloquer et accompagner les autres développeurs si nécessaire. Environnement technique & compétences attendues Environnement GCP (Google Cloud Platform) : - BigQuery - PySpark - Dataflow - Airflow / DAG - Cloud Storage - Administration de plateforme (IAM, gestion des droits, monitoring, etc.) BI & Data Visualisation : - Power BI Desktop & Online - Modélisation BI - DevOps / CI/CD - Bonnes pratiques BI (scalabilité, performance, maintenabilité). Profil recherché Expérience : minimum 7 ans dans le développement BI et l’exploitation de données. Compétences techniques : maîtrise confirmée de GCP et Power BI Online, avec une bonne pratique des outils de traitement et d’orchestration des données (BigQuery, PySpark, Airflow, Dataflow).
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.