Trouvez votre prochaine offre d’emploi ou de mission freelance Data Lake
Mission freelance
Data engineer Python / Pyspark
Nous recherchons un Data Engineer freelance pour intervenir sur une mission de longue durée (minimum 12 mois) dans le secteur de l’assurance. Vous rejoindrez une direction data structurée et en pleine croissance, au cœur d’une transformation digitale d’envergure. 🎯 Objectifs et contexte de la mission : En tant que Data Engineer , vous intégrerez une équipe d’environ 30 personnes (data engineers, tech leads) organisée en feature teams agiles . Vous contribuerez à la construction du socle technique Big Data et à l'industrialisation des projets data portés par les directions métier (client, marketing, produits...). 🔧 Stack technique & compétences requises : Compétences techniques indispensables : Développement en Python , avec une solide maîtrise de Spark / PySpark Bonne connaissance de l’environnement Microsoft Azure (Data Factory, Data Lake, Databricks, etc.) Expérience sur des outils de visualisation type Power BI Connaissances des bases de données relationnelles et NoSQL Compétences complémentaires (un plus) : Outils de delivery : Azure DevOps , Azure Pipelines , GIT , JIRA Connaissance des principes CI/CD , tests automatisés , clean code Connaissance des méthodes agiles : Scrum , Kanban 📍 Informations pratiques : Type de contrat : Mission freelance uniquement Localisation : Paris (modèle hybride possible) Démarrage : ASAP Durée : 12 mois minimum

Mission freelance
POT8524-Un Expert Power BI Sur le 92 (Malakoff)
Almatek recherche pour l'un de ses clients Un Expert Power BI Sur le 92 (Malakoff). PROFILE POWER BI: -Afin de mener à bien cette mission, le client souhaite préciser le niveau d’expertise nécessaire dans les domaines suivants : -Connaissance en modélisation et restitutions de données -Certification MS PL-300 -Connaissance en datamart/data lake, ETL et Power BI -Anglais souhaité, mais non obligatoire -Connaissance du produit Generix et ou ERP (SAP) serait un plus Prestation attendue du prestataire Console Monitoring -Analyse de l’expression du besoin de notre client interne. -Analyse de l’architecture data fournie par notre architecte -Définition de la spécification technique -Création d’une maquette / visuel non dynamique (type Figma) de la console -Coordination avec les équipes techniques pour la réalisation du Datamart/datalake -Modélisation des données / rapport sur Power BI Livrables : Le Prestataire sera tenu de fournir les livrables suivants : -Si besoin, à déterminer avec le client, dossier d’avant-projet ; -Note de cadrage du projet ; -Compte-rendu et présentation des Kick-Off, COPROJ et COPILs ; -Compte-rendu clôture projet. -Tout type de document technique (ex : mode opératoire / SFD / Blueprint, cahiers de recette …)

Offre d'emploi
Business analyst / IT RISK INTEGRATION
Dans ce cadre la prestation consiste à contribuer à/au(x) : 1. Evolutions liés au framework de risque de contrepartie, et de calcul des appels de marge selon des méthodes propriétaires. 2. La gestion des data models et au suivi de l'architecture fonctionnelle pour la modélisation des objets métiers liées aux produits financiers listés et OTC. 3. Montées de version du calculateur de risque et mise en place de recettes fonctionnelles sur l'ensemble de la chaîne de risque et margining. 4. La mise en place et au suivi des développements offshores liés au calculateur externalisé (solution SaaS) et l'intégration technique internes. 5. Expertise de l'architecture de système datacentrique (SQL ,requêtage sophistiqué, Data Model Design, Workflow & UI Design...) 6. Migration de la source de données d'un data warehouse sos Oracle vers le Data Lake dans le Cloud Azure.

Mission freelance
Data Engineer AWS
Pour le compte de l’un de nos clients grands comptes, nous recherchons un Data Engineers AWS spécialisé dans la qualité de la donnée . Vous jouerez un rôle clé dans la gestion, la fiabilisation et l’exploitation des données, au service des équipes Data (Analystes, Scientists) et en coordination avec le Chief Data Officers. Missions principales : Garantir un accès fiable, sécurisé et qualitatif aux différentes sources de données. Maîtriser et fiabiliser l’usage des données : normalisation, référencement, structuration sémantique, qualification. Collaborer à la définition de la politique de la donnée et à la gestion de son cycle de vie , en conformité avec les réglementations (RGPD, etc.). Intervenir sur les systèmes applicatifs liés à la donnée : Big Data, IoT, Data Lake. Superviser l’intégration de données hétérogènes issues de multiples sources. Assurer la recette des données : contrôle qualité, suppression des doublons, validation, nettoyage. Produire une cartographie des données disponibles et participer à la création de référentiels.

Mission freelance
développeur python GCP
Dans le cadre des projets développés au sein de l'équipe Assets et projets Data, nous recherchons un développeur Python dans l'écosystème GCP (Google) • Mettre en place la collecte et la mise à disposition des données au sein de l’entreprise. • Industrialiser et mettre en production des traitements sur les données (par exemple : mise à disposition de tableaux de bords, intégration de modèles statistiques) en lien avec les équipes métiers et les équipes qui les analysent *** • Maîtriser l'utilisation avancée des données et réaliser des projets décisionnels, datamining, et data management • Assurer le développement et l'industrialisation des applications utilisant une grosse volumétrie • Analyser les besoins clients • Avoir une approche analytique, statistique ou encore en "Machine Learning" Concevoir et réaliser des solutions Big Data (Collecter, transformer, analyser et visualiser des données sur une large volumétrie avec un niveau de performance élevé) *** • Acheminement de la donnée • Mise à disposition de la donnée aux équipes utilisatrices • Mise en production de modèles statistiques Suivi de projet de développement • Développement job spark • Traitement et ingestion de plusieurs formats des données ; • Développement des scripts • Développement et Implémentation des collectes de données, des jobs de traitement et Mapping de données • Développement des moyens de restitution via génération de fichier et ou API & Dashboarding • Collecter toutes les données et les fournir aux clients en tant qu'API ou fichiers. • Développer de pipelines d'ingestion à partir de différentes sources (streaming et batch) ainsi que des spark jobs le prétraitement des données et calcul des indicateurs de performance (KPI). • Développer des API génériques d’ingestion et de traitement de données dans un environnement HDP. • Participer à la conception, mise en place et administration de solutions Big Data. Participation à l’installation, administration et configuration des Hadoop clusters. Mise en place en Spring Boot des services d'extraction de data du système legacy (tera data), la data sera par la suite envoyée au data lake via des topics Kafka. • Normalisation et agrégation des données afin de produire les rapports sous forme de Business View.
Offre d'emploi
Tech Lead Power BI / Azure - 12 mois - Lille
Tech Lead Power BI / Azure - 12 mois - Lille Un de nos importants clients recherche un Tech Lead Power BI / Azure pour une mission de 12 mois sur Lille. Descriptif de l'offre ci-dessous: 📊 Tech Lead Power BI / Azure – Data & BI (H/F) 📍 Localisation : Lille – possibilité de télétravail partiel 🕒 Type de contrat : Mission longue durée / Freelance ou CDI 📅 Disponibilité : Dès que possible Pilotez l’industrialisation des applications Power BI dans un écosystème Azure à grande échelle Dans le cadre du renforcement de sa stratégie Data, la Direction des Systèmes d’Information recherche un Tech Lead Power BI / Azure pour accompagner l’industrialisation et la modernisation des applications BI. Vous interviendrez en tant que référent technique, garant de l’architecture, de la qualité des développements, de la démarche UX/UI, et du transfert de compétences auprès des équipes internes et internationales. 🎯 Vos missions principales 🔧 Architecture & Industrialisation Accompagner les évolutions d’architecture technique autour d’Azure / Power BI Participer à la conception technique des solutions et rédiger les dossiers d’architecture 💡 Développement & Expertise Power BI Concevoir des tableaux de bord complexes via Power BI Maîtriser le langage DAX, les fonctions d’analyse, transformation, nettoyage et enrichissement des données Intégrer des rapports Power BI dans des portails sécurisés ☁️ Environnement Cloud & DevOps Utiliser les outils de la Data Platform Azure (Data Lake, Synapse, etc.) Participer aux processus DevOps via Azure DevOps et Git 🎨 UX / UI & Data Visualisation Appliquer les meilleures pratiques en matière de design UX/UI pour la data Proposer des visualisations efficaces et orientées métier Adapter la data visualisation aux nouveaux usages et standards du marché 🎓 Accompagnement & Formation Former les collaborateurs en France et à l’international sur les bonnes pratiques Power BI Produire la documentation technique et les guides utilisateurs 🛠️ Compétences attendues Compétence Niveau Power BI / DAX Expert – impératif Azure (Cloud & Data Platform) Confirmé – impératif UX/UI appliqué à la data Confirmé – important Azure DevOps / Git Confirmé – souhaité Data Visualisation & Industrialisation Confirmé 🌐 Langues Anglais courant impératif (environnement international) Français courant requis pour la communication locale 👤 Profil recherché Vous avez une expérience significative en BI et dans la gestion de projets techniques en environnement Cloud Vous aimez accompagner, structurer, transmettre Vous êtes à l’aise dans un environnement collaboratif, agile et multi-pays Vous êtes rigoureux(se), autonome et orienté(e) solution ✅ Ce que vous livrerez Dossiers d’architecture clairs Conceptions techniques robustes Tableaux de bord Power BI de haut niveau Documentation et guides utilisateurs Montée en compétences des équipes Si cette mission vous intéresse merci de m'envoyer votre CV et je reviendrai vers vous dès que possible avec les détails.
Mission freelance
Ingénieur/Intégrateur Cloud Azure
Pour l'un de nos clients Grand Compte basé dans le 93 et dans le cadre d'une mission longue durée nous sommes à la recherche d'un Intégrateur/Ingénieur Cloud Azure. Profil recherché : Solide expertise en environnement Azure Cloud Maîtrise de l'infrastructure Big Data : Databricks (Unity Catalog, Génie), Azure Data Factory, Azure Data Lake Storage Gen2 Expérience dans la collecte, transformation et stockage des données en environnement Cloud Capacité à développer des scripts de traitement de données (brutes et enrichies) – Python, PySpark, SQL Compétences en gouvernance des données : traçabilité, sécurité (authentification, autorisation) Connaissances solides en cybersécurité Maîtrise des outils suivants : Terraform pour la gestion d'infrastructure Azure Key Vault pour la gestion des secrets GitLab pour la gestion du code Jenkins pour l’intégration continue Datadog pour la supervision PowerAutomate pour l’automatisation Blobfuse2 pour le montage entre VM Azure et Azure Blob Storage Power BI pour la visualisation de données SharePoint pour le dépôt documentaire Bonne connaissance des protocoles de communication : API REST, SFTP, HTTPS Sensibilité au cycle de vie des données (ILM / DLM) Approche DevOps et méthodologie agile Missions attendues: Apporter une expertise technique et méthodologique en cybersécurité et infrastructures Cloud (Azure) Concevoir, déployer et maintenir des infrastructures Cloud Azure sécurisées, performantes et optimisées financièrement Mettre en œuvre les processus de collecte, transformation et stockage de données dans le Cyberlake Améliorer en continu les flux de données alimentant le Cyberlake Participer à l’analyse et à la compréhension des besoins métiers en matière de stockage, reporting et analyse de données Contribuer à la conception et à l’architecture des solutions data & sécurité Développer et maintenir les scripts de traitement de données (brutes et enrichies) Concevoir des exports de données, tableaux de bord et reportings à destination des métiers Documenter, maintenir et partager les spécifications techniques des solutions déployées Participer aux démarches DevOps (intégration continue, automatisation, déploiement) Assurer l'intégration continue et la qualité des livrables dans un environnement CI/CD Travailler en étroite collaboration avec les chefs de projet, architectes, data scientists, éditeurs et équipes internes (Datalake) Collaborer avec les équipes MOA/MOE pour garantir l’alignement des solutions techniques avec les besoins fonctionnels Proposer des optimisations techniques et financières sur les ressources utilisées Produire les éléments nécessaires à la facturation client (traçabilité, métriques) Gérer et traiter les incidents techniques en lien avec les flux et traitements de données
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Trajet domicile travail en voiture de fonction c'est usage perso ??
- Masquer infos entreprise Pappers, Google etc
- Reconversion professionnelle cyber
- Vous êtes sans missions ? Manifestez vous et echangez vos expériences
- Reconversion professionnelle dans la cybersécurité
- Mes dashboards finissent au placard ? Besoin de vos retours