L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 3 198 résultats.
Mission freelance
Data Engineer Scala/Spark.
Publiée le
Azure
Databricks
Datadog
1 mois
450-520 €
Saint-Denis, Île-de-France
Télétravail partiel
Client : Entreprise de transport Poste : Architecte technique Senior DSM Expérience : Plus de 8 ans TJM d’achat max : 5 15€ Localisation : Banlieue parisienne Deadline réponse : 09/12 Démarrage : 01/01/2025 Durée : Mission très longue DESCRIPTION DE LA MISSION Objectifs La prestation, objet du présent cahier des charges, est une prestation à temps plein de Data Engineer Senior Scala/Spark. Vous interviendrez en tant que contributeur individuel sur l’étude, le chiffrage, la réalisation et l’exploitation de tâches liées à la constitution de traitements Data complexes. Les projets sont menés en équipe de 2 à 6 Data Engineers, accompagnés d’opérateurs, d’architectes et encadrés par un chef de projet. Description détaillée des tâches qui constituent la mission Dans le cadre de cette prestation, il est notamment demandé de réaliser les livrables décrits ci-dessous. S'agissant d'un projet mené en méthodologie agile, le découpage des livrables est réalisé par sprints. Le contenu de chaque sprint est variable mais toujours constitué sur la base d’US (User Stories). Les livrables liés aux US sont donc variables mais suivent généralement une recette commune liée à la Definition of Done du projet. Ces livrables sont réalisés par l'équipe projet, sans responsabilité de production individuelle. Les sprints s’échelonnent généralement sur 2 semaines. Contenu général des sprints : Développement des US et tests associés ; Documentation du projet, mapping des données, modélisation des pipelines, documents d’exploitation ; Mise en place du CI/CD sur l’usine logicielle ; Mise en place du monitoring ;
Mission freelance
CLOUD analyst - Azure AWS Finops
Publiée le
Azure
Cloud
FinOps
24 mois
450-900 €
Paris, France
Télétravail 100%
PROPULSE IT recherche un cloud analyst pour une mission en région parisienne ou en Full remote. La mission a lieu dans une équipe technique mondiale qui opère de manière agile au sein d'une organisation produit dynamique. Plongez-vous dans un environnement collaboratif où l'innovation prospère, et vos contributions joueront un rôle direct dans l'élaboration du chemin de nos produits de pointe. En tant qu'acteur clé de notre configuration agile, vous aurez l'opportunité d'améliorer l'efficacité, de favoriser créativité et jouent un rôle central dans notre processus de développement de produits. Faites partie d'une équipe qui embrasse l'adaptabilité et valorise l'amélioration continue, garantissant que nous restons à la pointe des avancées technologiques mondiales. L'analyste Cloud travaillera au sein de l'équipe Cloud Office, incluse dans la gestion des services. Ce sera une démarche transversale rôle au sein de l'ensemble de l'équipe technique, collaboration avec des collègues et des membres d'autres équipes. L'analyste cloud fournira un support transversal pour maintenir l'infrastructure et les services cloud afin d'offrir la meilleure valeur à tous les salariés. Il/elle aide Cloud Officer à aligner les solutions cloud avec les objectifs et buts de l'entreprise et superviser les opérations cloud d'un point de vue technique pour fournir la meilleure valeur sur les services cloud. o Soutenir le Cloud Officer dans la vision du paysage cloud en fournissant des contributions et des analyses o Diriger l'extension de la pratique FINOPS au sein du client en travaillant en étroite collaboration avec des coéquipiers des différents produits et équipes en charge des opérations quotidiennes o Concevoir et mettre en œuvre une analyse appropriée sur l'utilisation, la qualité, les performances et la valeur générée des services Cloud. o Collaborer au programme de perfectionnement pour les services cloud en fournissant une formation et une sensibilisation aux services avancés o Collaborer à la conception et à la gestion des services Cloud et d'infrastructure et assurer leur sécurité, leur disponibilité, et fiabilité o Assurer la livraison et la mise en œuvre des solutions techniques convenues o Participer à la mise en œuvre des processus, normes, directives et contrôles d'assistance informatique o Surveiller et rendre compte du respect, de la performance et coordonner ou intervenir chaque fois que nécessaire VOS DOMAINES DE CONNAISSANCES ET D'EXPERTISE COMPÉTENCES FONCTIONNELLES VOTRE ÉQUIPE Ligne hiérarchique (directe/indirecte) : Cloud Officer sur une base régulière et permanente. Intervenants internes clés : Directeur de la gestion des services, Toute autre équipe produit consommant des services cloud, notamment (Cloud & Infra, Données technologiques mondiales) Acteurs externes clés : Fournisseurs de services Cloud (Microsoft, AWS,...
Offre d'emploi
Data Engineer Microsoft Fabric (Azure Cloud) - Bruxelles
Publiée le
BI
Data Lake
Microsoft Fabric
9 mois
40k-45k €
540-650 €
Bruxelles, Bruxelles-Capitale, Belgique
Télétravail partiel
Dans le cadre de la modernisation de l'entrepôt de données de notre client , nous recherchons un Data Engineer expérimenté pour accompagner la migration vers Microsoft Azure et l’adoption de Microsoft Fabric et Power BI . Mission : Concevoir et développer des flux ETL dans Microsoft Fabric (Dataflows Gen2, Pipelines, Notebooks PySpark). Modéliser les données pour le BI selon Kimball / Snowflake (tables de faits, dimensions, agrégats). Assurer la qualité, fiabilité et performance des flux de données et mettre en place le monitoring. Automatiser les déploiements via CI/CD (Azure DevOps ou GitHub). Collaborer avec l’équipe ICT pour assurer la cohérence et la gouvernance des systèmes.
Offre d'emploi
Data Engineer AWS / Spark / Scala /Python
Publiée le
Apache Spark
PySpark
Scala
1 an
40k-56k €
400-600 €
Paris, France
Télétravail partiel
Bonjour ☺️ Nous recherchons un DATA ENGINEER orienté sur les technologies SPARK / SCALA / PYTHON/ AWS pour le compte de notre client ! Mission : Maintenir la plateforme en conditions opérationnelles : Garantir la disponibilité des données et des services de la plateforme, Assurer la communication avec les utilisateurs de la plateforme, Répondre aux demandes de données (données ad hoc, analyses d’anomalies), Développer les correctifs et évolutions nécessaires, Contribuer à la qualité des données et à l’industrialisation de leur exploitation. Concevoir et développer des services et pipelines de données fiables et performants : Mettre en place des flux de données (acquisition, transformation, export), Concevoir et modéliser les données, Développer et optimiser les pipelines de transformation, Réaliser les tests unitaires et d’intégration, Garantir la qualité des développements via les revues de code, Ordonnancer et gérer les dépendances entre traitements, Déployer sur l’ensemble des environnements, Enrichir et maintenir la documentation de la plateforme. Profil recherché : Minimum 5 ans d'expériences dans un contexte de grande volumétrie de données, Capacité à collaborer avec une pluralité d'interlocuteurs en même temps, Excellent esprit d’équipe, Capacité d'adaptation, Maitrise impérative de : Spark Scala, Python et SQL, Expérience significative sur AWS. Apprécié : Connaissance de Dataiku, Méthodologie Scrum/Safe, Airflow N'hésitez pas à envoyer votre CV !
Mission freelance
Expert Cybersécurité – GenAI / Azure
Publiée le
AI
Azure
Cybersécurité
3 ans
400-800 €
Fontenay-sous-Bois, Île-de-France
Télétravail partiel
Nous recherchons un Expert Cybersécurité spécialisé GenAI afin d’accompagner une direction sécurité sur les sujets IA, Cloud et protection des données. Assurer la cybersécurité des projets et plateformes GenAI Définir les règles de sécurité autour des technologies : Microsoft 365, Azure, Copilot, Power Platform, Azure ML Produire les dossiers de sécurité : risques, contre-mesures, blueprints, recommandations Accompagner les équipes projets et centres de compétences (architecture, normes, standards) Réaliser des revues de sécurité du code et des livrables techniques Définir des KPI de gouvernance AI et des tableaux de pilotage des risques
Mission freelance
Cloud, Network and Datacenter Solution Consultant(H/F)
Publiée le
Azure
Big Data
3 mois
240-650 €
Puteaux, Île-de-France
Anglais courant obligatoire Fournir une expertise avancée sur les solutions de datacenters directs, hybrides et cloud, ainsi que sur les infrastructures associées, grâce à un support d’ingénierie solide et une direction technique claire. Le rôle garantit que les plateformes technologiques respectent les exigences réglementaires, assurent la sécurité des données, optimisent l’efficacité opérationnelle et permettent une innovation évolutive et des services fiables pour soutenir l’entreprise et ses clients. C’est une excellente opportunité de travailler sur des besoins locaux tout en faisant partie d’une équipe mondiale, au service de l’ensemble de l’organisation. Nous recherchons une personne disposant de solides compétences techniques, organisée, rigoureuse et motivée par un environnement exigeant. Le rôle Évaluer l’infrastructure informatique existante et recommander des stratégies cloud et datacenter conformes aux réglementations du secteur financier (ex. : FCA, PRA, GDPR). Concevoir, architecturer et mettre en œuvre des solutions alignées sur la stratégie technologique régionale tout en répondant aux besoins métiers. Collaborer avec l’équipe de direction sur les feuilles de route et les initiatives stratégiques. Conseiller sur l’optimisation des coûts, la gestion des risques et la résilience des systèmes financiers critiques. Architecturer des solutions sécurisées et évolutives sur les plateformes cloud publiques (Azure) et au sein des datacenters on-premise. Collaborer avec les équipes transverses pour gérer dépendances, priorités, intégrations et impacts du changement sur les personnes, processus et technologies. Travailler avec les équipes techniques (Architectes, Plateformes, Cyber, Cloud Ops, etc.) pour créer des solutions équilibrant besoins métiers et exigences de cybersécurité, en conformité avec les standards et l’appétence au risque de l’entreprise. Mettre en œuvre des stratégies de cloud hybride pour supporter les charges sensibles et les obligations réglementaires. Diriger les migrations d’applications centrales vers les environnements cloud. Contribuer à la création de documents de processus, guides, procédures, outils et modèles favorisant l’efficacité et l’adoption du cloud. Veiller au respect des cadres de conformité financière (ISO 27001, PCI DSS, SOC 2). Mettre en place des contrôles de sécurité avancés, le chiffrement et la gestion des identités pour les données financières sensibles. Supporter les audits et fournir la documentation nécessaire pour les rapports réglementaires. Surveiller les performances et la disponibilité des systèmes critiques. Optimiser l’infrastructure pour garantir haute disponibilité, reprise après sinistre et continuité d’activité. Collaborer avec les équipes risques, conformité et sécurité pour aligner la technologie sur les standards de gouvernance. Compétences requises Diplôme universitaire, idéalement dans un domaine lié au business, à l’IT ou à la sécurité. Expérience avérée en architecture cloud et solutions datacenter dans le secteur financier. Expertise en Microsoft Azure, Hyper-V et forte connaissance des modèles hybrides. Compréhension des réglementations et cadres de conformité financière. Solides connaissances en réseaux, virtualisation et stockage. Certifications telles que Azure Solutions Architect Expert ou équivalent. Minimum 10 ans d’expérience dans les domaines mentionnés. Leadership avéré. Excellentes capacités d’analyse et souci du détail. Qualités de communication exceptionnelles, à l’écrit comme à l’oral (français et anglais indispensables). Capacité à communiquer clairement auprès de différents types d’audiences. Expérience en conseil technologique. Résilience et adaptabilité. Excellentes compétences d’écoute. Compétences souhaitées Expérience avec les systèmes de transaction financière et les traitements de données volumineux. Très bonne maîtrise de l’écosystème technologique Microsoft Azure. Expérience des méthodologies d’architecture. Connaissances en sécurité applicative Azure et déploiements associés. Familiarité avec le DevOps et l’Infrastructure as Code. Standardisation des bonnes pratiques, processus et procédures de sécurité Azure. Capacité à prioriser plusieurs demandes et à communiquer clairement ces priorités aux équipes et au management. Capacité à gérer les demandes complexes, instaurer des relations de confiance sur le long terme avec les parties prenantes internes et gérer les attentes métier.
Offre premium
Offre d'emploi
Lead tech front Angular (.Net / Azure backend)
Publiée le
Angular
API REST
Design system
48k-60k €
Paris, France
Télétravail partiel
Contexte & rôle Au sein de l’équipe Produit (engineering + product), nous recherchons un·e Lead Tech Front Angular avec de solides compétences full stack pour jouer un rôle central dans l’évolution de notre plateforme SaaS. Vous serez la/le référent·e technique front sur notre stack Angular, tout en contribuant aux sujets backend (C#/.NET, API, SQL) en collaboration avec le reste de l’équipe. Vous interviendrez sur la conception, l’architecture et la qualité du front, et accompagnerez les développeurs dans la montée en compétence et l’adoption des bonnes pratiques. Rattaché·e à l’Engineering Manager, vous travaillerez en étroite collaboration avec les Product Managers, UX/UI Designers et les autres développeurs de l’équipe produit. Vos missions principales Leadership technique & architecture Front Définir et porter la vision technique front de la plateforme (Angular, RxJS, architecture modulaire, design system, performance). Concevoir des interfaces riches et ergonomiques pour les différents modules de la solution (gestion des contrats, missions, facturation, portails clients/fournisseurs, CV-thèques, etc.). Mettre en place et faire évoluer les bonnes pratiques de développement front : tests unitaires, revues de code, patterns de state management, accessibilité, performance. Développement & contribution full stack Développer des fonctionnalités front Angular (SPA/PWA) de bout en bout, de la conception à la mise en production. Contribuer au backend (C#/.NET, Web API, SQL Server) pour exposer et consommer des API performantes et robustes. Participer à l’optimisation des performances sur l’ensemble de la chaîne (front, API, base de données). Qualité, sécurité & industrialisation Garantir un code propre, maintenable et bien testé (tests unitaires front & back, éventuellement tests d’intégration/E2E). Participer à l’amélioration continue de la CI/CD, du monitoring et des pratiques d’observabilité. Prendre en compte les enjeux de sécurité, de conformité et de fiabilité propres à une plateforme B2B (facturation, archivage, données sensibles). Collaboration produit & mentoring Travailler avec les Product Managers et l’UX pour challenger les besoins, estimer les user stories et co-construire la roadmap. Mentorer les développeurs front / full stack : pair programming, participation active aux revues de code, partage de bonnes pratiques. Contribuer à la diffusion d’une culture d’ingénierie exigeante (qualité, data-driven, expérience utilisateur, documentation). Environnement technique Front : Angular, RxJS, TypeScript, HTML5, CSS3, PWA, Syncfusion. Back : .NET / C#, Web API, Entity Framework, architecture orientée services. Base de données : SQL Server (et autres bases SQL au besoin). Cloud & Data : Microsoft Azure (App Services, SQL, services data).
Mission freelance
Data Engineer H/F
Publiée le
Azure
3 ans
Île-de-France, France
Description : Livrables : • Concevoir et mettre en œuvre des solutions data pour soutenir les objectifs business. • Analyser et interpréter des données complexes afin d’en extraire des informations exploitables. • Collaborer avec des équipes inter fonctionnelles pour identifier et résoudre les défis liés aux données. • Développer et maintenir des pipelines de données, des modèles et des outils de reporting. • Garantir la qualité, l’intégrité et la sécurité des données tout au long de leur cycle de vie. • Fournir une expertise technique et des conseils aux parties prenantes pour soutenir les prises de décisions fondées sur les données. Expertise : • Diplôme de niveau Bachelor ou Master en informatique, data science ou domaine connexe. • Plus de 5 ans d’expérience en data engineering, data analytics ou rôle similaire. • Expérience avérée dans la livraison de solutions data dans un environnement dynamique. • Maîtrise des technologies et architectures data modernes, telles que les plateformes cloud, les frameworks big data et les solutions de data warehousing. • Expertise en langages de programmation tels que Python, SQL et Spark. • Maîtrise de la modélisation de données, des processus ETL et des techniques de transformation de données. • Expertise des plateformes cloud orientées data (ex. : AWS, Azure, Google Cloud). • Maîtrise des outils de visualisation et de reporting (ex. : Power BI, Tableau). • Connaissance approfondie des bonnes pratiques en matière de sécurité, gouvernance et conformité des données.
Offre d'emploi
DATA ENGINEER SPARK / SCALA / PYSPARK / DATABRICKS / AZURE
Publiée le
Apache Spark
Azure
Databricks
3 ans
36k-60k €
400-550 €
Paris, France
Télétravail partiel
Bonjour 👽, Pour le compte de notre client, nous recherchons un data engineer Spark / Scala / Pyspark / Databricks / Azure. Missions principales : Participer au développement des User Stories (US) et réalisation des tests associés. Produire et maintenir la documentation projet : mapping des données, modélisation des pipelines, documents d’exploitation. Mettre en place et maintenir le CI/CD sur l’usine logicielle. Assurer la mise en place du monitoring . Collaborer étroitement avec l’équipe projet ; pas de responsabilité de production individuelle. Travailler dans un environnement agile avec priorisation et gestion multi-projets. Compétences techniques indispensables : Maîtrise de Scala et Spark (batch principalement). Optimisation des jobs Spark et traitement de volumétries importantes / complexes . Bonnes pratiques de développement Scala et build Maven. Expérience en environnement cloud , idéalement Azure . Compétences techniques appréciées : Écosystème Databricks Azure Functions et Azure Data Factory Monitoring sous Datadog Déploiement avec Ansible Compétences transverses : Aisance relationnelle et esprit d’équipe Autonomie, rigueur et esprit d’analyse Capacité de synthèse et force de proposition Sens des priorités et respect des délais Appétence client et compréhension métier / fonctionnelle Mentoring et partage de connaissances
Offre d'emploi
Data Engineer - SPARK/SCALA
Publiée le
Apache Airflow
Apache Spark
PySpark
12 mois
40k-48k €
400-470 €
Montreuil, Île-de-France
Télétravail partiel
Nous sommes à la recherche d’un Développeur Big Data Java/Scala – Projet Migration DataHub V2 Objectif de la mission : Assurer un service de développement Big Data dans un environnement distribué à forte volumétrie. Accompagnement sur les phases de conception, développement, industrialisation et maintien des traitements. Stack et compétences techniques requises : Apache Spark (maîtrise attendue) Scala (langage principal sur la squad) SQL (avancé) Java (notions de base à confirmées) Kafka (bonnes bases sur les événements, topics) Apache Airflow (idéalement une première expérience) Écosystème Hadoop : HDFS, Hive, Yarn (bonnes bases requises) Cloud (une première expérience Cloud valorisée, idéalement GCP ou AWS) CI/CD : Jenkins, Gitflow, notions de DevOps Méthodologie Agile : backlog, rituels, communication proactive Responsabilités principales : Étude et conception technique des batchs Développement Spark/Scala pour traitement de données volumineuses Récupération, transformation, enrichissement, restitution Création de batchs de publication Kafka Participation à la maintenance de la chaîne CI/CD Collaboration étroite avec les Business Analysts pour garantir qualité et lisibilité des libellés Gestion autonome de certains sujets (reporting, suivi, coordination) Profil recherché : Confirmé (3 à 6 ans d’expérience sur des environnements similaires) Proactif, rigoureux, à l’aise dans les contextes techniques exigeants Capacité à interagir avec des interlocuteurs techniques et fonctionnels Démarrage : ASAP Durée : mission longue (visibilité +12 mois)
Mission freelance
Expert Cloud Azure
Publiée le
Automatisation
Azure
Cloud
12 mois
600-680 €
Saint-Denis, Île-de-France
Nous recherchons un Expert Cloud Azure confirmé pour accompagner la mise en œuvre et l’optimisation des infrastructures cloud. Vous serez intégré à l’équipe infrastructure/cloud et interviendrez en étroite collaboration avec les architectes, développeurs et responsables métiers. Mission : Architecte Cloud Azure Réaliser le provisionning des nouvelles ressources. Automatiser le provisionning . Optimiser les ressources cloud en termes de coûts, de performance et de résilience . Challenger les architectures applicatives et les fonctions azure utilisées. Implémenter les bonnes pratiques de sécurité et de gouvernance ( RBAC , Azure Policies, Azure Blueprints…). Automatiser les déploiements via des outils comme Terraform , ARM Templates ou Bicep Assurer une veille technologique constante sur l’écosystème Azure Assurer le MCO Azure Support N3
Mission freelance
DevOps Cloud
Publiée le
Azure
CI/CD
6 mois
Hauts-de-Seine, France
Télétravail partiel
Ce projet vise à développer une plateforme de maintenance prédictive connectée à une Data Platform et à un portail client. - Contribue sur son périmètre au déploiement du cas d’usage dans un environnement Cloud AWS : - Définit le Design détaillé des produits et services techniques de la Plateforme AWS Groupe - Implémente / Configure les produits et services techniques de la Plateforme AWS - Conçoit et développe les scripts d’automatisation (Terraform) - Produit la documentation technique du produit - Participe aux actions de Support/Maintenance du produit - Support Projet - Organise l’onboarding d’équipe Projet sur le produit - Fournit un support à l’implémentation de pipelines DevOps (CI/CD) - Fournit un support technique aux tâches de techniques liés à la gestion du produit - Veille Technologique/Innovation - Promeut les bonnes pratiques DevOps Cloud
Mission freelance
Expert Cybersécurité – GenAI / Azure
Publiée le
AI
Azure
Cybersécurité
3 ans
400-840 €
Fontenay-sous-Bois, Île-de-France
Télétravail partiel
Nous recherchons un Expert Cybersécurité spécialisé GenAI afin d’accompagner une direction sécurité sur les sujets IA, Cloud et protection des données. Assurer la cybersécurité des projets et plateformes GenAI Définir les règles de sécurité autour des technologies : Microsoft 365, Azure, Copilot, Power Platform, Azure ML Produire les dossiers de sécurité : risques, contre-mesures, blueprints, recommandations Accompagner les équipes projets et centres de compétences (architecture, normes, standards) Réaliser des revues de sécurité du code et des livrables techniques Définir des KPI de gouvernance AI et des tableaux de pilotage des risques
Mission freelance
développeur Cloud & IA
Publiée le
Azure
Azure Data Factory
Azure DevOps Services
6 mois
Les Ulis, Île-de-France
Télétravail partiel
Profil recherché : Senior disponible en début d’année, avec une charge estimée autour de 3/5 lors des trois premiers mois, sans exigence immédiate de plein temps. Spécialisation : Développeur senior spécialisé en IA Générative (Gen AI), notamment sur la stack GEn AI. Responsabilités Clés Développement Expert & Maintien : Créer des agents intelligents autonomes utilisant l’approche Agentic AI, capables d’utiliser des outils externes ou de collaborer avec d’autres agents via des API, MCP ou autres services. Développer des applications pour la consommation des agents et algorithmes, avec des interfaces spécifiques pour les utilisateurs finaux. Mettre en place des pipelines robustes pour alimenter les LLM/Agents avec Azure, Snowflake et Databricks (RAG, Fine-Tuning). Assurer le support en production, la supervision des modèles/agents et la résolution des problèmes techniques. Compétences clés IA générative (Gen AI) : Bonne maîtrise des modèles génératifs (GPT, diffusion, etc.), capacité à exploiter des LLM via API ou fine-tuning pour la génération de texte, code ou images, tout en comprenant leurs limitations et biais. Architecture et orchestration : Aptitude à architecturer des solutions combinant plusieurs composants d’IA et Cloud, gestion de l’orchestration d’agents, partage d’état via MCP, et enjeux de performance et coût pour des systèmes multi-agents. Architecture de solution & POC : Concevoir des POCs pour les usages en Gen AI et systèmes agentiques, en explorant et validant des architectures. Prendre des responsabilités architecturales en validant les choix techniques (stack d’agents, orchestration, modèles LLM, cloud Azure) pour assurer scalabilité, sécurité et performance. Conseiller sur l’optimisation des services Azure pour l’IA Générative, en termes de coût, performance et résilience.
Mission freelance
Ingénieur Data / BI
Publiée le
Azure Data Factory
Databricks
Scala
12 ans
400-560 €
Île-de-France, France
Télétravail partiel
Les livrables sont : Code Source Documentation KPI qualité Compétences techniques Databricks - Expert - Impératif Spark SQL - Expert - Impératif Azure Data Factory - Confirmé - Important Scala - Confirmé - Souhaitable Description détaillée Contexte : Le projet Data PUB est le datamart TV qui vise à centraliser et fiabiliser les données nécessaires au pilotage et à l’analyse de l’activité publicitaire TV linéaire. Le datamart se source principalement d’OptiPub, base de référence regroupant les informations issues des différentes applications métiers de la régie publicitaire. Côté restitution, Ouranos fonctionne principalement avec une logique de self-BI : nous mettons à disposition des métiers un univers BusinessObjects et/ou un dataset Power BI standardisé, que les utilisateurs exploitent pour construire leurs propres tableaux de bord et analyses. La finalité est de fournir un socle de données unique et cohérent permettant aux équipes métier d’accéder rapidement à des informations fiables sur l’activité pub TV et de gagner en autonomie dans le reporting. Environnement technique : Azure Data Factory, Databricks, Spark Scala, SQL, Azure DevOps et Power BI. Missions : - Concevoir et développer des pipelines d’ingestion de données via Azure Data Factory. - Développer et optimiser des flux de transformation de données en Spark SQL. - Maintenir des pipelines de traitement de données en Scala (faible part) - Maintenir et développer de nouveaux indicateur de qualité de données - Participer au refactoring du code existant pour améliorer sa performance et sa maintenabilité - Garantir la qualité du code et veiller au respect des normes de développement au sein de l’équipe. - Implémenter des tests unitaires et assurer la fiabilité des solutions. - Maintenir les solutions de monitoring de l’application Digital. Profil recherché : - Profil orienté Analytics Engineer - Maîtrise avérée de Spark SQL - Bonne connaissance en modélisation BI - Expérience confirmée sur l’écosystème Microsoft Azure (Data Factory, Databricks, Azure DevOps). - Bonne connaissance de Git et des pratiques DevOps. - Sens de la communication, force de proposition et capacité à travailler en équipe. - Rigoureux, attaché aux bonnes pratiques de développement et à la qualité du code. Ingenieur Data 5-8 ans Définition du profil Il est garant du bon fonctionnement et de la disponibilité des données dont il a la responsabilité. Il assure la prévention des dysfonctionnements des données et contribue à la bonne utilisation de celles-ci
Mission freelance
Développeur AWS Data et spark
Publiée le
API
AWS Cloud
AWS Glue
1 an
540-580 €
Maisons-Alfort, Île-de-France
Télétravail partiel
Dans le cadre d’un programme stratégique de pilotage financier, nous recherchons un Ingénieur Logiciel Data Cloud AWS confirmé (+7 ans d’expérience) pour rejoindre une équipe de développement et d’ingénierie orientée données et services cloud. Vous interviendrez sur la conception, l’implémentation et l’amélioration continue des services AWS nécessaires au traitement, à l’analyse et à la planification financière. Le contexte est exigeant : réglementaire, sécurité, performance, optimisation des coûts et démarche DevOps/DORA. Vous intégrerez une équipe de 9 personnes, dont un pôle cloud/data AWS déjà en place. Vos missions : Concevoir, développer et faire évoluer les services applicatifs AWS (Glue Spark, Lambda, Step Functions, Athena, S3, IAM). Intégrer les services aux différents écosystèmes techniques (plateforme Data, MDM, ZDP, Data Link, Anaplan). Proposer des optimisations, améliorer les architectures existantes, renforcer la robustesse et la performance. Prendre en compte les exigences métiers, réglementaires, sécuritaires et environnementales. Participer à une démarche d’amélioration continue (Lean, DevOps, DORA). Documenter les architectures, formaliser les conceptions, assurer un bon niveau de qualité. Implémenter les bonnes pratiques TDD / BDD. Collaborer en équipe dans un environnement cloud industriel avancé.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
3198 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois