Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 300 résultats.
Mission freelance
247066/Expert DBT
WorldWide People
Publiée le
DBT
3 mois
Vélizy-Villacoublay, Île-de-France
Expert DBT Dans le cadre de notre initiative de modernisation et de standardisation de nos processus de transformation des données au sein du groupe, nous recherchons un Data Engineer expérimenté spécialisé dans la dbt (data build tool). L'ingénierie des données soutiendra la mise en œuvre d'une plateforme DBT, garantissant les meilleures pratiques et permettant des pipelines de données robustes et évolutifs. Anglais fluent Objectifs et livrables Actions : Proposer les meilleures pratiques et directives pour l'outil de gestion des données DBT, du développement au déploiement : définition et mise en œuvre des normes avec le responsable technique ELT Soutien lors de la mise en œuvre du projet : qualification et transformation Prise en charge de l'optimisation et de la configuration des outils de gestion des données Dbt (support technique) Co-définir l'architecture, la stratégie et le modèle ELT, en collaboration avec des experts techniques de l'entité. Capture du besoin : définir la faisabilité technique et la charge de travail associée Conception des connecteurs/emplois avec le chef de technologie DBT Développement des emplois DBT, déploiement, tests d'acceptation et rédaction de documentation Audit d'emploi Préparer et animer une session de formation / transfert de connaissances Participer à la stratégie et à la gouvernance d'intégration des données Définir les prérequis techniques et les modèles Étudier l'analyse des lacunes pour les cas d'utilisation de la migration (de la solution existante vers la Dbt) Participer au pilote Inner Source avec l'entité du groupe Rédaction de spécifications techniques Participer à la communication : présentation, communauté WW ELT Fournir les meilleures pratiques pour maintenir le système en conditions opérationnelles optimales. Co-définir la définition de la stratégie de kogging et la gestion d'événements Compétences demandées Compétences Niveau de compétence DBT Confirmé Data build tool Confirmé
Mission freelance
Tech Lead Data GCP Expert F/H
SMARTPOINT
Publiée le
Apache Kafka
CI/CD
Docker
12 mois
550-600 €
La Défense, Île-de-France
Missions principales : • Participer aux analyses, études d’impacts et cadrage techniques • Concevoir des solutions en respectant l’architecture data et les bonnes pratiques de développement • Réaliser le développement des data products et assurer la maintenance évolutive et corrective des data products existants • Effectuer des contrôles croisés entre développeurs ou des relectures de code afin d’assurer la qualité des développements réalisés par l’équipe • Rédiger la documentation technique des data products • Apporter une expertise de troisième niveau dans les incidents de production, et si besoin la réalisation de solution de contournements, ou de correctifs de manière à assurer une qualité de fonctionnement optimale • Accompagner les Data Engineers sur les bonnes pratiques, les choix d’architecture et dans leur travail au quotidien • Effectuer les audits et les contrôles des développements réalisés : Sécurité, Maintenabilité, Robustesse et Performance • Reporter l’activité à la Squad et travailler dans une démarche d’efficacité collective Livrables principaux : • Etudes d’impact technique • Faire des propositions techniques • Réaliser du code applicatif à l’état de l’art sur notre Data Platform GCP • Rédiger les documentations techniques liés à ta solution, incluant le modèle de données, les procédures, l’ordonnancements • Schéma de solution des flux, modèle de données • Fournir des chiffrages détaillés des futures réalisations • Relecture de code technique • Rédaction de SFD, STD, Manuel d’installation Compétences techniques : • Langages de programmation : Python, SQL, Scripts Shell • Services de streaming data : Kafka • Services d’ingestion des données : Kafka Connect, SFTP • Services de stockage : GCP BigQuery, Cloud Storage, Kafka, Sharepoint • Processing : Scripts Python, Data Build Tool (DBT), GCP Dataflow • Restitution : Looker (Dashboards, Explores de données), Fichiers de reporting (CSV, Excel) • Outils de collaboration et de CI/CD : GitLab • Utilisation de plateformes pour le développement et le déploiement : Docker, Kubernetes, Kustomize, Helm Charts, Terraform • Testing : Tests avec DBT, Tests de non-régression, collaboration avec la QA. • Outils IA et d’automatisation : Gemini Code Assist, Antigravity, n8n, Gitlab Duo • Manipulation des formats de fichiers : CSV, JSON, Avro, XML Compétences transverses : • Proactivité et prise d’initiative • Autonomie et rigueur • Capacité à communiquer, à travailler en équipe et excellent relationnel • Capacité d’adaptation aux changements • Curiosité, veille technologie sur le data engineering et sur l’AI / ML • Capacité à aborder des problèmes complexes de manière structurée • Aptitude à concevoir des solutions innovantes • Capacité d’écoute, d’analyse et de synthèse • Maitrise de l’agilité Une pratique opérationnelle de l’anglais est également nécessaire pour la rédaction de la documentation et la participation à certaines cérémonies. Une expérience similaire significative dans le domaine de la banque de détail est un plus.
Mission freelance
DevOps Engineer Senior
Aneo
Publiée le
AWS Cloud
Kubernetes
Python
7 mois
500-680 €
Paris, France
Le projet Le client (finance) utilise AWS depuis quelques années, d’abord sur une stack HPC (librairie permettant de distribuer sur AWS Batch l’exécution d’un DAG), puis avec une stack SageMaker (expérience interactive via l’utilisation de Studio JupyterLab / MLFlow). Ce projet, comme les précédents, prend la forme d’un MAP (Migration Acceleration Program), approche structurée par AWS (Assess - Mobilize - Migrate). La phase Assess a identifié une typologie d’usages (embarassingly parallel map, cross-partition shuffling / window-heavy computation, dataset-level summaries, ML/tensor-preparation, interactive exploration) et 3 technologies-clés : 1) Ray/Daft 2) Spark (via EMR) et 3) Iceberg, comme couche de stockage/accès aux données. La phase de Mobilize doit permettre : ● De valider la capacité de ces outils à adresser les enjeux de feature engineering avec les contraintes ci-dessus exprimées , et une expérience chercheur aussi aisée que possible. ● D’envisager leur exploitation dans un mode “plateforme” / industrialisé ; les aspect self-service, observabilité technique et finops, sont clés. Exprimée aujourd’hui comme un side-topic, l’exploitation unifiée des technologies ci-dessus sur un socle Kubernetes (sur EKS) pourrait devenir un sujet central de la phase Mobilize. Cette phase de mobilize doit durer 7 mois et sera réalisée par une équipe de 3 personnes: Un software engineer, un devOps (vous) et un data Engineer. Ce qu’il vous faudra démontrer: ● Mise en œuvre de stacks data : Expérience pratique de mise en œuvre d’EMR ainsi que de clusters hors service managé EMR (donc, sur EC2, Batch, ou EKS). Expérience sur Kubernetes ● Architectures lakehouse modernes : expérience pratique avec Iceberg : recul sur l’interopérabilité multi-moteurs (Spark/PyIceberg), gestion des permissions. ● Infrastructure AWS & IaC : Solide maîtrise du déploiement de plateformes de données de qualité production sur AWS en utilisant Terraform. ● Observabilité & FinOps : Expérience dans la mise en œuvre du tagging d'allocation des coûts, la construction de tableaux de bord CloudWatch pour 1) le suivi des jobs et des coûts, et la conception de mécanismes d'application de quotas/budgets pour les plateformes de recherche multi-tenants et 2) le suivi des performances des applications Data. Compétences techniques -> Bonne maitrise et expérience de EKS -> Maitrise du cloud AWS (services EMR, S3, Daft serait un plus) et notamment des aspects IAM (gestion multi-comptes) -> Avoir déjà touché a du Iceberg est un plus -> Maitrise de Terraform -> Anglais courant obligatoire Localisation Paris, présence sur site obligatoire à minima 3j/semaine
Mission freelance
Senior Software Engineer – Cloud Native / Fullstack (Node.js / React) H/F
Inventiv IT
Publiée le
API
AWS Cloud
CI/CD
6 mois
480-600 €
Île-de-France, France
🔹 Conception & Delivery Concevoir, développer et exploiter des solutions logicielles performantes Garantir la scalabilité, la maintenabilité et la fiabilité des systèmes Contribuer aux choix d’architecture et à la vision technique globale 🔹 Exécution & Ownership Traduire les besoins métiers en solutions techniques concrètes Collaborer étroitement avec Product Managers et Data Engineers Porter les décisions techniques et assurer leur mise en œuvre Contribuer aux sujets transverses améliorant la performance collective 🔹 Excellence Technique Développer et maintenir des applications modernes cloud-native Appliquer des standards élevés en engineering, tests et documentation Promouvoir les bonnes pratiques (clean code, CI/CD, code review) 🔹 Collaboration Participer activement aux revues de code Contribuer au mentorat et au partage de connaissances Communiquer efficacement avec des interlocuteurs techniques et non techniques Stack Technique Backend : JavaScript / TypeScript (Node.js) Frontend : React (ou framework équivalent) Architecture : Microservices, design d’API Cloud : AWS, GCP ou Azure DevOps : CI/CD, principes DevOps modernes Infrastructure as Code : Terraform, AWS CDK ou équivalent Sécurité : bonnes pratiques sécurité cloud
Mission freelance
Proxy Product Manager
QUALIS ESN
Publiée le
ServiceNow
6 mois
400-410 €
Aubervilliers, Île-de-France
Dans le cadre du développement et du déploiement mondial d'une solution digitale portée par une Business Unit nous recherchons un(e) Proxy Product Manager. Notre solution, FACTOR, est un produit opérationnel majeur composé d'une application mobile (Factor Mobile) et d'une interface web (Factor Web). La solution est déployée à grande échelle : plus de 3000 utilisateurs répartis sur 550 sites Veolia à travers le monde. Vous serez le point de contact privilégié entre les besoins métiers internationaux (Key Users, Business Units) et leur implémentation. Vous travaillerez en contact fréquent avec le Product Owner de la BU Veolia qui développe le produit, et vous assurerez également l'évolution du produit en lien avec son écosystème d'applications connectées (notamment les connecteurs avec GMAO et outils métier). Objectifs et livrables Vous avez pour responsabilité de maximiser la valeur du produit développé. Vos missions se divisent en 4 grands axes : 1. Stratégie, Cadrage et Backlog (BUILD) Collecter les demandes d'évolution des utilisateurs clés à travers le monde. Gérer et prioriser le backlog d'Epics en fonction de la valeur métier et du ROI attendu. Détailler les parcours utilisateurs (User Journeys) pour valider les besoins avec les parties prenantes, et traduire ces parcours en Epics/fonctionnalités pour les équipes de réalisation. Gérer le flux de développement des epics via le Workflow JIRA et coordonner les interfaces (UI/UX) au quotidien via Trello . Piloter les synergies et les mutualisations de déploiement avec les autres outils de l'écosystème (GMAO, outils métiers). 2. Pilotage de la Valeur et Satisfaction Client • Suivre et communiquer les KPIs d'usage et de valeur pour mesurer la performance du produit et sa contribution aux objectifs de l'entreprise. • Analyser les données d'utilisation pour adapter et améliorer le produit de manière proactive. 3. Animation des Rituels Agiles et Communication Préparer et participer aux Comités Opérationnels (ComOp) et suivre l'avancement de vos sujets via Smartsheet . Préparer et participer aux Revues de Sprint bi-mensuelles avant la mise en intégration, valider les fonctionnalités développées par rapport aux critères d'acceptation. Animer les points mensuels avec les Key Users (KU) des Business Units internationales pour les accompagner au déploiement et récolter leurs feedbacks. 4. Support, Cybersécurité et Documentation (RUN) Superviser et traiter les tickets de support (Niveau 2 et 3) via ServiceNow (SNOW) en collaboration avec l'équipe de réalisation pour résoudre les incidents et intégrer les demandes d'évolution. S'assurer de la conformité du produit et des règles de cybersécurité Veolia (suivi du plan d'action et remédiations suite aux Pentests). Participer à la rédaction et au maintien de la documentation technique et utilisateur. Help the Product Sales & communication manager on the creation of communication materials Update the release notes regularly 5. Traning support & dashboarding Dispenser ponctuellement des formations utilisateurs lors des phases de prévente et de déploiement, en collaboration avec le responsable des ventes et de la communication produit, afin de garantir une adoption optimale du produit. Suivi, mise en place et déploiement de modèles de tableaux de bord DataStudio avec l'aide du Data Engineer/Analyst Vous travaillerez étroitement avec les membres de l'équipe sous la responsabilité du product manager : apprenti UX/UI Data Engineer / Analyst Product Sales and Communication Manager Product Owner Developeurs experts métiers key users partour dans le monde divers services transverse à Veolia : cybersecurité, Service management, équipe data, communication, La mission se déroulera a Aubervilliers. Une présence regulière sur site est requise bien que des jours de télétravail soient possibles. Compétences demandées
Mission freelance
LEAD MACHINE LEARNING MLOPS
Atlas Connect
Publiée le
Agent IA
API
API REST
6 mois
600-680 €
Paris, France
Mission Garantir l’excellence technologique du pôle IA en définissant les standards d’architecture et de développement, en sécurisant la mise en production de solutions d’intelligence artificielle complexes et en accompagnant la montée en compétence des équipes techniques. Le Tech Lead ML joue un rôle clé dans la conception, la robustesse et la scalabilité des produits IA tout en contribuant aux décisions stratégiques liées à la roadmap technologique. Responsabilités principalesArchitecture & Engineering IA Définir et maintenir les standards d’architecture ML/IA dans des environnements multi-cloud . Concevoir et valider les pipelines ML / IA end-to-end (data → training → évaluation → déploiement → monitoring). Mettre en place les bonnes pratiques de MLOps et industrialisation des modèles . Choix technologiques Superviser les choix d’outils et frameworks : frameworks ML solutions cloud (Google Cloud, Microsoft Azure) outils MLOps Garantir la cohérence technologique de l’écosystème IA. Qualité technique & gouvernance Auditer et challenger la qualité technique des produits IA : performance robustesse sécurité coûts (FinOps) maintenabilité Mettre en place des standards de gouvernance des modèles et des données . Leadership technique Jouer un rôle d’ expert et de mentor auprès des équipes Data Science et Data Engineering. Accompagner la montée en compétence technique des équipes. Définir et diffuser les bonnes pratiques de développement . Contribution stratégique Participer aux phases de cadrage et de conception des produits IA . Contribuer à la définition de la roadmap produit IA . Collaborer étroitement avec : le Product Owner IA les Data Scientists les Data Engineers les équipes software. Innovation & veille Assurer une veille technologique active sur les innovations IA : IA générative MLOps architectures data outils et frameworks émergents.
Mission freelance
Architecte Azure Sophia Antipolis
WorldWide People
Publiée le
Azure
6 mois
400-450 €
Sophia Antipolis, Provence-Alpes-Côte d'Azur
Architecte Azure Sophia Antipolis Définir les architectures cibles (IaaS, PaaS, serverless) et les référentiels (landing zones, reference architectures). Concevoir et valider les solutions de stockage Azure : Blob Storage, ADLS Gen2, Files, Disks, tiers de stockage, réplications et stratégies lifecycle. Piloter les migrations cloud (assessment, stratégie migration, cutover, plan de rollback). Mettre en place et promouvoir l’Infrastructure as Code (ARM, Bicep, Terraform) et les pipelines CI/CD (Azure DevOps, GitHub Actions). Architecturer et opérer des environnements containerisés (AKS), registries (ACR) et orchestration de microservices. Garantir la sécurité, la conformité et la gouvernance : Azure AD, RBAC, Key Vault, chiffrement, Azure Policy, Blueprints, gestion des secrets. Implémenter l’observabilité : Azure Monitor, Log Analytics, Application Insights, alerting et runbooks. Optimiser les coûts cloud (finops) : sizing, autoscaling, réservations, storage tiers, reporting coûts. Accompagner et coacher les équipes DevOps, ingénierie et data sur bonnes pratiques Azure et transferts de compétences. Collaborer avec sécurité, réseau (ExpressRoute, VPN), DBA, data engineers et support pour les dépendances infra. Rédiger des architectures, décisions techniques (ADR), modèles de sécurité et guides d’exploitation.
Mission freelance
POT8981 - Un Proxy Product Manager sur Aubervilliers
Almatek
Publiée le
Méthode Agile
6 mois
Aubervilliers, Île-de-France
Almatek recherche pour l'un de ses clients, un Proxy Product Manager sur Aubervilliers. Objectifs et livrables Vous avez pour responsabilité de maximiser la valeur du produit développé. Vos missions se divisent en 4 grands axes : 1. Stratégie, Cadrage et Backlog (BUILD) • Collecter les demandes d'évolution des utilisateurs clés à travers le monde. • Gérer et prioriser le backlog d'Epics en fonction de la valeur métier et du ROI attendu. • Détailler les parcours utilisateurs (User Journeys) pour valider les besoins avec les parties prenantes, et traduire ces parcours en Epics/fonctionnalités pour les équipes de réalisation. • Gérer le flux de développement des epics via le Workflow JIRA et coordonner les interfaces (UI/UX) au quotidien via Trello. • Piloter les synergies et les mutualisations de déploiement avec les autres outils de l'écosystème (GMAO, outils métiers). 2. Pilotage de la Valeur et Satisfaction Client • Suivre et communiquer les KPIs d'usage et de valeur pour mesurer la performance du produit et sa contribution aux objectifs de l'entreprise. • Analyser les données d'utilisation pour adapter et améliorer le produit de manière proactive. 3. Animation des Rituels Agiles et Communication • Préparer et participer aux Comités Opérationnels (ComOp) et suivre l'avancement de vos sujets via Smartsheet. • Préparer et participer aux Revues de Sprint bi-mensuelles avant la mise en intégration, valider les fonctionnalités développées par rapport aux critères d'acceptation. • Animer les points mensuels avec les Key Users (KU) des Business Units internationales pour les accompagner au déploiement et récolter leurs feedbacks. 4. Support, Cybersécurité et Documentation (RUN) • Superviser et traiter les tickets de support (Niveau 2 et 3) via ServiceNow (SNOW) en collaboration avec l'équipe de réalisation pour résoudre les incidents et intégrer les demandes d'évolution. • S'assurer de la conformité du produit et des règles de cybersécurité Veolia (suivi du plan d'action et remédiations suite aux Pentests). • Participer à la rédaction et au maintien de la documentation technique et utilisateur. • Help the Product Sales & communication manager on the creation of communication materials Update the release notes regularly 5. Traning support & dashboarding • Dispenser ponctuellement des formations utilisateurs lors des phases de prévente et de déploiement, en collaboration avec le responsable des ventes et de la communication produit, afin de garantir une adoption optimale du produit. • Suivi, mise en place et déploiement de modèles de tableaux de bord DataStudio avec l'aide du Data Engineer/Analyst Vous travaillerez étroitement avec les membres de l'équipe sous la responsabilité du product manager : • apprenti UX/UI • Data Engineer / Analyst • Product Sales and Communication Manager • Product Owner • Developeurs • experts métiers • key users partour dans le monde • divers services transverse à Veolia : cybersecurité, Service management, équipe data, communication,
Mission freelance
Directeur de Projet/ Chef de Projet
Codezys
Publiée le
CRM
Gestion de projet
6 mois
450-510 €
Marly, Hauts-de-France
Nous recherchons une expertise en gestion de projets data transversaux au sein de systèmes d'information complexes. Forts de 22 années d'expérience, nous sollicitons un profil disposant d'une compréhension approfondie des enjeux stratégiques liés à la donnée, tels que la gestion des données de référence (MDM), les référentiels consolidés, ainsi que les migrations de bases de données. Une maîtrise avancée des concepts de Data Gouvernance et de Data Mesh est essentielle pour mener à bien ce projet. Nous apprécions particulièrement une vision globale à 360°, intégrant une compréhension claire des enjeux d'architecture data et des interactions entre les équipes techniques et métiers. Le candidat doit également démontrer sa capacité à piloter des équipes multidisciplinaires, incluant des data engineers, des data analysts et des développeurs, tout en ayant une appétence pour les projets de transformation et de convergence des systèmes d'information. Cela concerne notamment la modernisation, la standardisation et l'optimisation des infrastructures data. Objectifs et livrables Nos objectifs principaux sont les suivants : Élaborer et déployer des stratégies efficaces pour la gestion des données de référence (MDM) et des référentiels. Concevoir et réaliser des projets de migration de bases de données et de systèmes d'information. Mettre en œuvre des pratiques de Data Gouvernance solides et déployer le concept de Data Mesh. Coordonner et diriger des équipes pluridisciplinaires afin d'assurer la réussite des projets. Moderniser et standardiser les architectures systèmes pour améliorer leur efficacité et leur performance globale.
Offre d'emploi
Proxy Product Manager
R&S TELECOM
Publiée le
Microsoft Access
12 mois
40k-48k €
400-480 €
Île-de-France, France
Objectifs et livrables Vous avez pour responsabilité de maximiser la valeur du produit développé. Vos missions se divisent en 4 grands axes : Stratégie, Cadrage et Backlog (BUILD) Collecter les demandes d'évolution des utilisateurs clés à travers le monde. Gérer et prioriser le backlog d'Epics en fonction de la valeur métier et du ROI attendu. Détailler les parcours utilisateurs (User Journeys) pour valider les besoins avec les parties prenantes, et traduire ces parcours en Epics/fonctionnalités pour les équipes de réalisation. Gérer le flux de développement des epics via le Workflow JIRA et coordonner les interfaces (UI/UX) au quotidien via Trello . Piloter les synergies et les mutualisations de déploiement avec les autres outils de l'écosystème (GMAO, outils métiers). Pilotage de la Valeur et Satisfaction Client Suivre et communiquer les KPIs d'usage et de valeur pour mesurer la performance du produit et sa contribution aux objectifs de l'entreprise. Analyser les données d'utilisation pour adapter et améliorer le produit de manière proactive. Animation des Rituels Agiles et Communication Préparer et participer aux Comités Opérationnels (ComOp) et suivre l'avancement de vos sujets via Smartsheet . Préparer et participer aux Revues de Sprint bi-mensuelles avant la mise en intégration, valider les fonctionnalités développées par rapport aux critères d'acceptation. Animer les points mensuels avec les Key Users (KU) des Business Units internationales pour les accompagner au déploiement et récolter leurs feedbacks. Support, Cybersécurité et Documentation (RUN) Superviser et traiter les tickets de support (Niveau 2 et 3) via ServiceNow (SNOW) en collaboration avec l'équipe de réalisation pour résoudre les incidents et intégrer les demandes d'évolution. S'assurer de la conformité du produit et des règles de cybersécurité (suivi du plan d'action et remédiations suite aux Pentests). Participer à la rédaction et au maintien de la documentation technique et utilisateur. Help the Product Sales & communication manager on the creation of communication materials. Update the release notes regularly. Training support & dashboarding Dispenser ponctuellement des formations utilisateurs lors des phases de prévente et de déploiement, en collaboration avec le responsable des ventes et de la communication produit, afin de garantir une adoption optimale du produit. Suivi, mise en place et déploiement de modèles de tableaux de bord DataStudio avec l'aide du Data Engineer/Analyst. Vous travaillerez étroitement avec les membres de l'équipe sous la responsabilité du product manager : apprenti UX/UI Data Engineer / Analyst Product Sales and Communication Manager Product Owner Développeurs experts métiers key users partout dans le monde divers services transverses : cybersécurité, Service management, équipe data, communication. Compétences demandées CompétencesNiveau de compétence Understanding of user needs and behaviorsExpertSkill in prioritizing product backlog itemsExpertAbility to define and communicate a clear product visionExpertNegotiation and conflict resolution abilitiesAvancéFlexibility to adjust to changing market conditions and requirementsConfirméExperience in product positioning and messagingConfirméCustomer-centric approach with a focus on satisfaction and relationship buildingConfirméKnowledge of business metrics and PIsExpertUnderstanding of product lifecycle managementExpertExcellent communication and presentation skills, both verbal and writtenExpertAgile and Scrum KnowledgeExpertStrong communication skills to interact with various stakeholdersConfirméExperience on mobile development contextConfirméStrategic thinking to align product goals with business objectivesConfirméAbility to make tough decisions based on value and ROIExpertAbility to translate user requirements into product featuresExpertFluent level of English (reading, writing, speaking and understanding various local accents all over the world)ExpertEnglishExpertBasic understanding of technical concepts and limitationsConfirméAbility to translate technical features into business benefitsConfirmé
Mission freelance
Data Architecte AWS / Iceberg
Atlas Connect
Publiée le
Apache Airflow
Apache Spark
API
12 mois
590-600 €
Île-de-France, France
Data Engineer Senior afin d’accompagner la conception, l’industrialisation et l’évolution de ses solutions data. Le prestataire interviendra sur les sujets d’architecture, de modélisation, d’optimisation des pipelines et contribuera activement à la stratégie Lakehouse de l’entreprise. Missions principales Concevoir, développer et optimiser des pipelines de données à grande échelle. Mettre en œuvre des flux batch , streaming et ingestion via API . Structurer les transformations selon un modèle Médaillon (Bronze / Silver / Gold). Développer et industrialiser les pipelines via DBT , Spark et Iceberg . Contribuer à l’évolution de l’architecture Lakehouse de l’entreprise. Déployer et maintenir les pipelines dans un environnement cloud (AWS ou équivalent). Orchestrer les workflows ETL/ELT via Airflow . Mettre en œuvre l’ Infrastructure as Code ( Terraform ). Exécuter les traitements dans des environnements conteneurisés ( Docker , Kubernetes ). Garantir la disponibilité, la supervision et l’observabilité des traitements. Participer à la gestion des incidents et à l’amélioration continue. Définir et mettre en œuvre les règles de qualité des données (tests, validation, contrôles automatisés). Documenter les architectures, pipelines et règles métier. Garantir la conformité des flux, notamment dans le cadre RGPD .
Mission freelance
Tech Lead Databricks ( H/F)
ALLEGIS GROUP
Publiée le
Apache Kafka
Databricks
Scala
6 mois
150-620 €
Paris, France
Teksystems recherche pour un de ses client grand compte un Tech Lead Databricks ( H/F) . Missions principales1. Ingestion & Traitement de Données Concevoir et mettre en œuvre des pipelines d’ingestion de données en temps réel via Kafka . Assurer le traitement, la préparation, la qualité et la structuration des données sur la plateforme Databricks Data Intelligence Platform . Développer et optimiser les jobs de transformation avec Spark (Scala, PySpark si nécessaire). 2. Modélisation & Architecture Concevoir et maintenir des modèles de données robustes , scalables et alignés avec les besoins métiers. Définir une architecture technique viable, performante et pérenne , en lien avec les standards Data de l’entreprise. Encadrer les choix technologiques et identifier les solutions les plus adaptées aux cas d’usage. 3. Leadership Technique & Coordination Animer les ateliers techniques avec l’équipe Data (squad, data engineers, data analysts…). Assurer la gestion des risques techniques , anticiper les points de blocage et sécuriser la roadmap. Fournir un guidage technologique basé sur une expertise éprouvée des projets DATA. Accompagner la squad dans les bonnes pratiques de développement, de CI/CD et de gouvernance Data. 4. Méthodologie & Qualité Travailler dans un cadre Agile (Scrum / Kanban), avec participation active à la planification, aux revues et aux rétrospectives. Garantir la qualité des livrables : documentation, code propre, tests, performance.
Mission freelance
Data Product Manager
DEVIK CONSULTING
Publiée le
Analyse
Data visualisation
ERP
1 an
500-750 €
Paris, France
Description Pour le compte de notre client grand compte, nous recherchons un Data Product Manager afin de piloter le projet migration client sur le volet Data & Visualisation L’objectif étant de construire un nouveau modèle de BDD et reporting basé sur S/4HANA ainsi que d’évaluer les impacte sur les systèmes legacy. Tâches principales Organiser l’étude et collecter les éléments auprès de l’ensemble des parties prenantes Comprendre les ambitions, enjeux et objectifs métiers Organiser et animer des ateliers avec les équipes métiers Collecter l’ensemble des besoins métiers nécessaires à l’étude Documenter l’architecture fonctionnelle Réaliser la modélisation des données / concevoir les couches métiers (Silver layer) Coordonner les contributeurs Data as a Service (Architecte technique, Data Engineers, BI Engineers) Documenter la valeur de la solution Préparer le budget et le planning build/run Formaliser les propositions finales de passage en projet (« Go to project ») Compétences demandées Analyse de données : Expert ERP : Expert Data Modeling : Expert Power BI : Confirmé SAP : Expert Communication : Expert SQL : Expert Data : Expert Langues Français : Courant Anglais : Courant Requis Lieu : Paris
Mission freelance
DATA SCIENTIST - sénior
Geniem
Publiée le
Data science
Dataiku
Machine Learning
6 mois
Lille, Hauts-de-France
Pour compléter une équipe transverse : Data Engineer, Data Scientist, Data Analyst et MLOps Elle assure également le lien avec la Global Tech & Data Platform . Cette plateforme construit et maintient les produits liés à nos infrastructures et notre transformation vers le Cloud GCP, assurant ainsi l’efficacité opérationnelle sur lesquelles reposent nos plateformes métiers. Votre mission : En lien avec notre philosophie Data In Product, vous êtes responsable de : La création de solutions et applications ML/IA de pointes, pour mise en production, La modélisation et l’industrialisation de modèles produits au service des BUs de la plateforme, L’élaboration d’un cadre de bonnes pratiques au sein de la guilde Data du domaine, L’accompagnement et l’acculturation des métiers sur les bonnes pratiques de l’exploitation de la data. Vous êtes vous-même sensible à l’approche Data Driven de nos produits, L’intégration des applications ML dans nos produits, en lien avec les équipes métiers, La mise en place de modèles statistiques pour résoudre les problématiques identifiées, La collecte de données, la construction de Data Marts et le déploiement de modèles (end-to-end PoC), La connaissance des métriques de base, et les principes d’évaluation de la qualité des modèles obtenus, et leur relation avec les indicateurs de performances Métier, La veille technologique pour orienter et être force de proposition sur l’animation de la backlog du Data Socle COMPÉTENCES REQUISES/ Technique : Python, SQL, GCP (BigQuery, GCS, ...), Pipeline MLOps, Linux, Modélisation de données Méthodologique : Agilité, Github Langues : Français, Anglais
Offre d'emploi
Responsable Data Platform
Recrut Info
Publiée le
Amazon Redshift
AWS Cloud
Data governance
55k-65k €
Marseille, Provence-Alpes-Côte d'Azur
Rattaché·e au CTO, vous encadrerez un Data Engineer et prendrez la responsabilité de la plateforme data et des initiatives d’ingénierie data. Dans un contexte cloud-first (AWS) et de structuration de la stratégie data, votre rôle consistera à définir l’architecture cible, organiser les flux de données et piloter la mise en œuvre des solutions permettant de soutenir les enjeux métiers et business. À ce titre, vos principales missions seront les suivantes : - Définir et piloter l’architecture data cible (Data Lake, Data Warehouse, flux batch et temps réel). - Aligner les initiatives data avec les priorités business et métier, et structurer la roadmap associée. - Concevoir et faire évoluer la plateforme data et les solutions techniques sous-jacentes dans un environnement cloud AWS. - Définir les standards d’ingestion, de transformation et demodélisation des données (dbt pour la transformation notamment). - Mettre en place les mécanismes d’exposition des données via APIs ou services internes/externes. - Structurer les pratiques de gouvernance de données, data quality et data lifecycle. - Superviser les plateformes permettant le déploiement des cas d’usage Data Science et IA. - Piloter les partenaires et prestataires intervenant sur les projets data et garantir la qualité des livrables. - Assurer le suivi des coûts de la plateforme data et optimiser l’usage des ressources cloud (FinOps). - Contribuer aux réflexions autour de l’évolution de l’écosystème data, notamment sur les solutions d’intégration (ex. iPaaS). Le poste combine vision d’architecture, capacité technique et pilotage, avec une part d’exécution technique mais une orientation progressive vers le pilotage et la structuration. Environnement technique : Python (requis), AWS (souhaité), Make (souhaité), RedShift (souhaité), PostgreSQL (souhaité), GitHub Actions (souhaité), SQL (requis), NOSQL (requis), Amazon S3 (souhaité), AWS Lambda (souhaité), Amazon ECS (souhaité), R (souhaité),
Offre d'emploi
TECH LEAD DATA GCP
UCASE CONSULTING
Publiée le
Docker
Google Cloud Platform (GCP)
Python
6 mois
40k-45k €
400-550 €
Paris, France
Je recherche pour un de mes clients un Tech Lead Data : Dans ce cadre, la nouvelle squad data aura la charge de : • La migration et le déploiement en production de traitements de données sur GCP (workflows) • La copie d’historique de données depuis le data warehouse on-prem vers GCP BigQuery • La mise en place d’un orchestrateur pour les traitements de données sur GCP • La mise en place d’une solution de data lineage au niveau colonne de données. • L’automisation de processus de data engineering par l’IA ou une plateforme d’automatisation (e.g. n8n). La composante développement sera importante, jusqu’à 80% du temps et dépendra de la taille de la squad et de la charge de développement. Description de la prestation Missions principales : • Participer aux analyses, études d’impacts et cadrage techniques • Concevoir des solutions en respectant l’architecture data et les bonnes pratiques de développement • Réaliser le développement des data products et assurer la maintenance évolutive et corrective des data products existants • Effectuer des contrôles croisés entre développeurs ou des relectures de code afin d’assurer la qualité des développements réalisés par l’équipe • Rédiger la documentation technique des data products • Apporter une expertise de troisième niveau dans les incidents de production, et si besoin la réalisation de solution de contournements, ou de correctifs de manière à assurer une qualité de fonctionnement optimale • Accompagner les Data Engineers sur les bonnes pratiques, les choix d’architecture et dans leur travail au quotidien • Effectuer les audits et les contrôles des développements réalisés : Sécurité, Maintenabilité, Robustesse et Performance • Reporter l’activité à la Squad et travailler dans une démarche d’efficacité collective Livrables principaux : • Etudes d’impact technique • Faire des propositions techniques • Réaliser du code applicatif à l’état de l’art sur notre Data Platform GCP • Rédiger les documentations techniques liés à ta solution, incluant le modèle de données, les procédures, l’ordonnancements • Schéma de solution des flux, modèle de données • Fournir des chiffrages détaillés des futures réalisations • Relecture de code technique • Rédaction de SFD, STD, Manuel d’installation Compétences techniques : • Langages de programmation : Python, SQL, Scripts Shell • Services de streaming data : Kafka • Services d’ingestion des données : Kafka Connect, SFTP • Services de stockage : GCP BigQuery, Cloud Storage, Kafka, Sharepoint • Processing : Scripts Python, Data Build Tool (DBT), GCP Dataflow • Restitution : Looker (Dashboards, Explores de données), Fichiers de reporting (CSV, Excel) • Outils de collaboration et de CI/CD : GitLab •Utilisation de plateformes pour le développement et le déploiement : Docker, Kubernetes, Kustomize, Helm Charts, Terraform • Testing : Tests avec DBT, Tests de non-régression, collaboration avec la QA. • Outils IA et d’automatisation : Gemini Code Assist, Antigravity, n8n, Gitlab Duo • Manipulation des formats de fichiers : CSV, JSON, Avro, XML Compétences transverses : • Proactivité et prise d’initiative • Autonomie et rigueur • Capacité à communiquer, à travailler en équipe et excellent relationnel • Capacité d’adaptation aux changements • Curiosité, veille technologie sur le data engineering et sur l’AI / ML • Capacité à aborder des problèmes complexes de manière structurée • Aptitude à concevoir des solutions innovantes • Capacité d’écoute, d’analyse et de synthèse • Maitrise de l’agilité
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
300 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois