Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 2 286 résultats.
Freelance

Mission freelance
Tech Lead DevOps

emagine Consulting SARL
Publiée le
Ansible
AWS Cloud
CI/CD

36 mois
La Défense, Île-de-France
Contexte Dans le cadre d’un projet à forte dimension technique, nous recherchons un Tech Lead DevOps pour intervenir sur la conception, la mise en place et l’optimisation de chaînes de construction, de test et de déploiement automatisées multi-environnements. Missions principales Concevoir et développer des outils de déploiement automatisé Mettre en place et maintenir des pipelines CI/CD multi-environnements Intégrer des outils de logs, monitoring, tests de performance et de résilience Participer au support des mises en production et de la production Contribuer au durcissement et à la sécurisation des infrastructures Optimiser les processus d’intégration continue Analyser et résoudre les problématiques de performance et de scalabilité Travailler en étroite collaboration avec les équipes Dev, QA et Production Livrables Pipelines CI/CD multi-environnements Dossiers d’intégration des solutions Comptes rendus de tests d’intégration Backlog projet et plan d’exécution sous Jira
Freelance

Mission freelance
Cloud Engineer | Architecte - (H/F)

Atlas Connect
Publiée le
AWS Cloud
Azure
Docker

12 mois
500-600 €
Île-de-France, France
Dans le cadre de projets de transformation digitale et de modernisation des infrastructures, nous recherchons un Cloud Engineer / Architecte pour concevoir, déployer et sécuriser des solutions cloud au sein d’un environnement hybride et multi-cloud. Le consultant interviendra à la fois sur la conception d’architectures cibles et sur la mise en œuvre opérationnelle des solutions, en lien direct avec les équipes systèmes, réseaux, sécurité et développement. Missions Concevoir et mettre en place des architectures cloud (AWS, Azure, GCP). Définir les bonnes pratiques en termes de sécurité, haute disponibilité, scalabilité et optimisation des coûts . Déployer et administrer les environnements IaaS, PaaS et solutions managées (Kubernetes, bases de données, stockage). Automatiser le déploiement via l’ Infrastructure as Code (Terraform, Ansible, CloudFormation, Bicep). Participer aux projets de migration vers le cloud et à l’intégration d’architectures hybrides. Mettre en place le monitoring, la supervision et l’alerting des environnements. Collaborer avec les équipes DevOps, Réseaux & Sécurité pour garantir la cohérence des infrastructures. Assurer une veille technologique sur les services cloud et les tendances du marché.
CDI
Freelance

Offre d'emploi
Ingénieur DevOps (H/F)

Aleysia
Publiée le
Ansible
AWS Cloud
Azure

12 mois
Lyon, Auvergne-Rhône-Alpes
Les bonnes pratiques DevOps n’ont plus de secret pour toi et tu souhaites mettre à profit ton expertise dans des projets innovants ? C’est sans doute toi qu’on attend pour compléter notre équipe en intégrant ce poste d’ Ingénieur DevOps ! 🚀 Ton challenge si tu l’acceptes : Accompagner les équipes de développement et d'infrastructure dans l'implémentation des pratiques DevOps Concevoir et maintenir les pipelines CI/CD Automatiser le déploiement et certaines procédures afin d'optimiser la gestion des infrastructures Assurer le bon fonctionnement, la disponibilité ainsi que la sécurité des systèmes et des applications Contribuer aux décisions d'architecture et faire preuve d'une expertise auprès de nos clients Gérer les incidents et problèmes liés aux environnements de production
Freelance

Mission freelance
Développeur Java AWS H/F

ODHCOM - FREELANCEREPUBLIK
Publiée le
AWS Cloud
Java
Kotlin

6 mois
400-500 €
Paris, France
Contexte L'entité a besoin d’un développeur expérimenté venant compléter l’équipe agile. Cette équipe conçoit et développe en itérations de 2 semaines sa solution, elle pilote sa mise en service et assure sa disponibilité opérationnelle pour ses clients. Cette solution prend la forme d'un composant logiciel, développé sur un socle Java moderne (Java 21, Kotlin, Spring Boot, JPA / Hibernate), exposé au travers de web services ou d'une librairie intégrée par nos clients sur linux ou android. Aucun composante front n'est à prévoir, une spécialité back est attendue. Description Dans un contexte d'équipe agile (et d'applications à fort trafic), le développeur Backend conçoit, développe, déploie et maintient les fonctionnalités afin de répondre aux exigences fonctionnelles exprimées dans le cadre de la conception de solutions ou d'applications Livrables • Développer des solutions backend de qualité : étude, conception et réalisation des projets de build, en collaboration avec l’équipe • Mise en place de tests automatisés (TU et TI) • Dans le cadre des principes devops, gestion de l’usine logicielle, de l’observabilité, de la livraison et du run des solutions • Analyse et corrections d’incidents • Evolutions techniques • Participation active aux instances de l’équipe et à la vie de l’équipe, dans un cadre agile, attitude volontaire et proactive • Au sein d’un écosystème de projets variés, être force de proposition et au cœur de l’amélioration continue
Freelance
CDI

Offre d'emploi
Développeur .NET

ICSIS
Publiée le
.NET
.NET CORE
.NET Framework

3 ans
30k-40k €
350-450 €
Lille, Hauts-de-France
La mission consiste à : - Analyse de l’existant - Rédaction de Spécifications Techniques Détaillées et de fiches de tests - Développement de solutions logicielles autour du .NET en conformité avec les normes en place - Prise en charge de tickets d’incidents de Production - Assistance à la recette métier et traitement des retours - Assistance au responsable de pôle sur les analyses et chiffrages de nouvelles évolutions et/ou projets - Collaboration à l’amélioration continue - Participation à la capitalisation documentaire des applications et également à la capitalisation des connaissances au sein de l’équipe Compétences demandées : - Maitrise du .NET Framework, .NET Core+, SQL et des langages Web (HTML, CSS, Javascript/Jquery) - Connaissance des techniques de gestion de source (idéalement via GIT et Git Flow) - Maitrise CI/CD sous Azure Devops (configuration des pipelines…..) - SSIS - De bonnes notions d’architecture technique, une connaissance de l’environnement AWS serait un plus - Excellents savoir-être : rigueur, esprit analytique et de synthèse, communication... - Méthode Agile - Anglais un +
Freelance

Mission freelance
Data Platform Engineer

Cherry Pick
Publiée le
AWS Cloud
Python

12 mois
600-650 €
Paris, France
Objectifs Votre mission est de responsabiliser et de faire monter en compétence notre communauté de plus de 50 data engineers et data scientists. Agissant comme le lien essentiel entre les feature teams et les ingénieurs de la plateforme, vous serez le garant de l’adoption et de l’évolution de notre plateforme data en fournissant un support technique opérationnel, en partageant les bonnes pratiques et en animant des initiatives de partage de connaissances. Grâce à un engagement proactif, un support direct et une collecte continue de feedback, vous favoriserez un environnement collaboratif, innovant et à fort impact — garantissant que notre plateforme s’adapte en permanence et délivre une valeur maximale à ses utilisateurs. Missions principales 1. Support technique : Accompagner les data engineers et data scientists dans leurs problématiques techniques en fournissant des solutions opérationnelles, des conseils, des bonnes pratiques et un support via des interactions directes au sein de leurs équipes. S’assurer que la dette technique est identifiée, comprise et gérée via des plans d’actions, et participer aux tâches sous-jacentes. Fournir des outils pour aider à gérer cette dette (tests, automatisation, agents IA, …). Collaborer avec les équipes data platform et support afin de garantir que les problèmes au sein des pipelines data et de la plateforme data sont identifiés et résolus, améliorant ainsi l’expérience développeur globale. 2. Évangélisation : Promouvoir l’adoption de la plateforme data par une utilisation quotidienne, en démontrant sa valeur auprès des utilisateurs existants. Partager avec la communauté de pratique et les équipes internes les tendances du marché, outils et technologies liés aux plateformes data. 3. Montée en compétences des équipes : Évaluer le niveau actuel des équipes sur les outils et pratiques de la Data Platform et l’améliorer via des formations, des exercices et la résolution de problématiques réelles. Promouvoir et animer une communauté de pratique afin de construire des parcours de formation d’amélioration, des ateliers internes et des webinaires mettant en valeur les capacités de notre Data Platform. Créer du contenu technique tel que des articles de blog, tutoriels, projets exemples et documentation afin d’aider les développeurs à comprendre et utiliser efficacement notre plateforme. 4. Boucle de feedback : Collecter activement les retours de la communauté des développeurs afin de fournir des analyses et suggestions d’amélioration produit aux équipes d’ingénierie de la plateforme. Fournir des tests pertinents pour les actifs techniques produits par les ingénieurs de la Data Platform et s’assurer qu’ils correspondent aux usages actuels des feature teams. Représenter les data engineers et data scientists au sein de l’entreprise, en veillant à ce que leurs besoins et défis soient compris et pris en compte. Qualifications / Compétences requises Maîtrise du développement Python et de la conception d’applications scalables et de haute qualité. Expérience avec des frameworks de traitement de données tels que Pandas ou Spark. Expérience pratique dans le développement et la maintenance de pipelines data de bout en bout. Expertise approfondie sur AWS, complétée par des certifications ou une expérience équivalente. Expérience des frameworks d’Infrastructure as Code (idéalement AWS CDK en Python). Connaissance des pratiques DevOps et des pipelines CI/CD afin d’améliorer les processus de déploiement. Excellentes compétences en communication et en présentation, capables d’expliquer des concepts techniques complexes à des publics variés. Forte appétence pour l’animation de communautés de développeurs et la création d’un impact positif. Bon niveau d’anglais, la documentation étant rédigée en anglais et une partie des utilisateurs de la Data Platform ne parlant pas français. Atouts supplémentaires : Expérience en développement produit agile et en méthodologie Scrum. Expérience de migration de pipelines data vers le cloud. Compréhension des bonnes pratiques de sécurité et de conformité dans des environnements cloud. Environnement technologique : AWS : S3, EMR, Glue, Athena, Lake Formation, Cloud Formation, CDK, Lambda, Fargate, … Data engineering : Airflow, Parquet, Apache Iceberg DevOps : Jenkins, SonarQube, Conda Logiciels : Python, Ruff
Freelance

Mission freelance
Data Engineer Azure Synapse / Databricks / dbt

CHOURAK CONSULTING
Publiée le
Azure
Azure DevOps
Azure Synapse

3 mois
400-500 €
Lyon, Auvergne-Rhône-Alpes
Nous recherchons un Data Engineer Azure/Databricks expérimenté pour renforcer une équipe Data internationale, dans un environnement technique moderne et structuré. 🎯 Contexte de la mission : La plateforme Data est actuellement basée sur Azure Synapse (Dedicated SQL Pool) , Databricks et dbt , avec des processus CI/CD gérés via Azure DevOps . La mission s’inscrit dans une logique d’industrialisation, de bonnes pratiques et de qualité documentaire. Le client est train d'abandonner Synapse pour migrer sur Databricks. ⚙️ Vos missions principales : Concevoir, développer et maintenir des pipelines de données performants sur Azure. Intervenir sur les traitements Data Engineering en SQL et Python . Contribuer à la modélisation et à l’exposition des données pour Power BI (DAX). Appliquer et promouvoir les bonnes pratiques Data Engineering (qualité, performance, sécurité). Documenter les architectures, flux et développements. Collaborer avec une équipe internationale (échanges majoritairement en anglais).
Freelance

Mission freelance
Data Engineer AWS / Snowflake

Gentis Recruitment SAS
Publiée le
AWS Cloud
CI/CD
Snowflake

12 mois
Paris, France
Contexte Dans le cadre du renforcement de ses plateformes data, un grand groupe industriel recherche un Data Engineer senior pour intervenir sur des sujets d’industrialisation, de fiabilisation et de montée en charge de ses pipelines data. Objectifs de la mission Concevoir, développer et maintenir des pipelines de données robustes et scalables Industrialiser les traitements data dans un environnement cloud AWS Exploiter et optimiser une plateforme Snowflake Mettre en place et améliorer les chaînes CI/CD liées aux usages data Garantir la qualité, la performance et la sécurité des flux de données Environnement technique (cœur) Cloud : AWS Data Warehouse : Snowflake Langages : Python, SQL Orchestration / ingestion : Airflow, services AWS (Glue, Lambda, S3, etc.) CI/CD : Git, pipelines automatisés Enjeux forts d’industrialisation et de bonnes pratiques DataOps Profil recherché Data Engineer confirmé / senior Expérience significative sur AWS et Snowflake À l’aise avec les environnements industrialisés et les contraintes de production Capacité à travailler avec des équipes data, IT et métiers
Freelance

Mission freelance
Data Engineer AWS / GenAI

Cherry Pick
Publiée le
Amazon S3
Apache Airflow
Apache Spark

12 mois
450-550 €
Paris, France
Dans le cadre du plan de transformation DATA de notre Client, notre client développe des applications et plateformes DATA pour rendre nos métiers (pilotage, marketing, commerce, etc.) autonomes dans l’analyse de leurs données et KPI. Les infrastructures et projets incluent : AWS, GitLab, Terraform, DBT, Snowflake, Python, Scala, Spark, PowerBI, AI/GenAI Architectures Big Data sophistiquées pour ingérer plus de 100 par jour (Datalake, Event-Driven, Streaming, etc.) Exemples de projets : Chatbot AI Socle vidéo, navigation et calcul des audiences Recommandation de programmes via IA Feature Store et modernisation des flux financiers Plateformes CRM et partage de données partenaires Kubernetes et applications de data self-service Missions En tant que Data Engineer , vous serez en charge de : Concevoir, développer et maintenir des pipelines de données scalables et performants (ingestion, traitement et stockage de données massives). Développer des architectures Big Data sur AWS (S3, EMR, Lambda, Kinesis, Batch…), Snowflake et Spark. Développer en Scala et Python pour le traitement massif des données. Automatiser les workflows et orchestrer les pipelines avec Airflow et DBT . Concevoir et exposer des APIs customer-facing performantes. Optimiser les performances et garantir la scalabilité pour gérer un volume important d’utilisateurs. Collaborer avec les équipes Data Science, Produit et DevOps pour une intégration fluide.
Freelance
CDI

Offre d'emploi
Devops/SRE AWS

VISIAN
Publiée le
Artifactory
AWS Cloud
Docker

2 ans
40k-66k €
400-650 €
Paris, France
Bonjour, Dans le cadre de ses projets clients, Visian est à la recherche d'un Devops/SRE AWS. Objectif de la mission : Assurer la fiabilité, la disponibilité et la performance des infrastructures et services. le Devops/SRE. est capable de prendre en charge des tâches de contribution planifiées autour de son domaine de responsabilité, mais aussi d’être sollicité sur des problèmes de production nécessitant des investigations approfondies sur des domaines transverses. Une bonne connaissance du produit, de l’infrastructure et du développement, ainsi qu’une grande qualité d’autonomie sont des qualités majeures de cet ingénieur. Description des activités possibles : - Mise à disposition et maintenance des environnements de développement et de qualité. - Design et implémentation des chaînes de CI / CD et des workflows de développement, à destination des environnements non-prod (dev / QA) - Conception et maîtrise du processus de release de l’application. - Mise en place des outils d’observabilité sur le produit. - Pilotage de la rédaction des documents d’architecture et d’exploitation. - Contribution à la gestion des incidents et au support niveau 3 (escalation). - Revue des spécifications produit et technique sous le prisme du domaine de responsabilité du poste.
Freelance

Mission freelance
Référent Technique – Dataiku & Braincube

Streamlink
Publiée le
AI
API
AWS Cloud

6 mois
400-600 €
Malakoff, Île-de-France
Langues : Français, Anglais (obligatoire – échanges avec l’Inde) Séniorité : Senior (environnements data/ML/Cloud) Plateforme Dataiku en environnement hybride : Cloud AWS + On Premise pour données C3 Services : Design Node, Automation Node, API Node, Deployer Node Intégration écosystème Data, stockage pérenne, déport compute EKS / Snowflake Plateforme Braincube : Déploiement Cloud AWS sur EKS Architecture assurée par l’éditeur Braincube Le client responsable du service, de la sécurité et du pilotage Sécurité & Gouvernance : RBAC, SSO/IAM, journalisation, conformité RGPD Standards cybersécurité de client Documentation & Outils : VS Code, Git, frameworks internes Confluence/SharePoint Data Factory Gestion agile via Teams & backlog Environnements : Dev / Pré-production / Production Processus d’industrialisation et de validation définis Prestation Attendue : Pilotage & gestion du service Maintien des standards, gestion des licences, suivi des usages via KPIs Gestion incidents, demandes, changements ; communication interne & client Définition et suivi des SLAs Optimisation de la performance opérationnelle Architecture & Expertise technique Rôle de référent technique & architectural pour la plateforme Data Groupe (Snowflake, Dataiku, Braincube) Garantie de la résilience du service, gestion des obsolescences Contrôle du niveau de sécurité Roadmap & gouvernance Construction de la roadmap d’évolution Pilotage du plan de charge Coordination France/Inde (prestataires, éditeur, interne) Communication & coordination Communication en cas d’incident, évolution ou maintenance Interface avec DSIC (GCIS, Delivery cas d’usage, etc.) Support & accompagnement Accompagnement des équipes dans l’exploitation Dataiku/Braincube Contribution à la montée en compétence des équipes
Freelance
CDI

Offre d'emploi
EXPERT Snowflake

EMMA-IT
Publiée le
AWS Cloud
Google Cloud Platform (GCP)
Snowflake

1 an
Île-de-France, France
Bonjour, Nous recherchons un Lead Data Platform EXPERT Snowflake, pour intervenir chez l’un de nos clients « grand compte » DESCRIPTIF DE LA MISSION ; •Accompagner les équipes métiers dans leurs travaux d’identification et expression de leurs besoins en données et d'indicateurs décisionnels, •Capacité à concevoir des solutions innovantes et fiables nécessitant l’utilisation de technologies dites "Modern DataOps" et IA agentique pour répondre aux nouveaux cas d’usages métiers exprimés et à gérer les projets Data de bout en bout, •Piloter l'équipe de Data Engineers pour assurer la mise en oeuvre •Développer, tester, optimiser et gouverner les flux de traitement et d’ingestion de données au sein de notre Data Platform, •Avoir la capacité de créer rapidement de nouveaux Datamarts de zéro s'appuyant sur notre socle de données existant pour des usages spécifiques, •Contribuer à la mise à disposition et au partage de la donnée au travers d’outils et de processus d'export simples, rapides à mettre en œuvre et monitorables, •Déployer et optimiser au quotidien des pipelines de données (On Premise ou dans le Cloud), •Assurer la stabilité et la gouvernance technique de la plateforme Data, des applications déployées et de certaines de nos plateformes SaaS de données attenantes. Environnement technique utilisé: Snowflake, dbt Core, Linux, Cloud AWS (AWS EC2, AWS S3, AWS Serverless), Cloud CGP (Big Query, GA4), SQL, Python, Airflow, Docker, Terraform, Git, Gitlab & Gitlab CI VOUS JUSTIFIEZ DE ; · Vous êtes titulaire d’un Bac +5 en informatique, avec au minimum 7 ans d'expérience professionnelle · Vous avez de 3 à 5 ans d'expérience sur la plateforme SaaS Snowflake · Vous êtes à l'aise avec le Cloud public AWS et GCP, ses principaux services et ses méthodes de déploiements · Vous possédez des compétences avancées autour des langages et technologies suivants : SQL, Python, Airflow, Prefect, Linux, Docker, Snowflake Cortex et Snowflake Intelligence · Vous connaissez au moins un framework de développement de Web Services REST (Django, Flask, FastAPI pour Python ou éventuellement Express pour NodeJS) et l'outil Postman n'a pas de secrets pour vous · Vous connaissez bien les outils de visualisation de données (Tableau Cloud ou PowerBI) · Vous avez une bonne maîtrise de l’optimisation des déploiements et des processus d'intégration/déploiements continus (CI/CD) via des technologies du marché (comme Docker, Gitlab CI, Jenkins ou équivalent) · Vous détenez des connaissances autour des processus de gestion de la configuration et d'Infrastructure as Code (Terraform, Pulumi, Cloud Formation ou CDK AWS) et des outils d’orchestration de flux de données (comme Airflow ou Prefect) · Vous êtes à l'aise avec les outils de type agents CLI (Claude Code, Codex CLI ou OpenCode) et leur méthodologie de spécifications associée pour développer et déployer des applications autour de la data pilotées en autonomie par l'IA. · Vous connaissez bien les outils Jira et Confluence LES PLUS ; · Toute connaissance du business Retail/Fashion est un plus · Toute connaissance ou compétence sur la mise en place de projets IA agentiques de type RAG ou "Text to SQL" est un plus · Toute connaissance des outils/plateformes BW/4HANA, SAP Analytics Cloud ou PowerBI est un plus · Toute connaissance des outils d'observabilité (comme Sifflet) ou d'agrégation de données de campagnes media (Supermetrics) est un plus · Toute connaissance du déploiement et de l'orchestration de containers avec Kubernetes est un plus Si cette mission correspond à vos attentes et que votre profil correspond à ce besoin, N’hésitez pas à nous adresser votre date de disponibilité, votre CV au format Word et vos prétentions financières par ce biais. Dans l’attente d’un futur échange et d’une future collaboration, L’équipe EMMA-IT.
Freelance

Mission freelance
CONSULTANT TECHNQUE BI DATA EXPERT SSIS SQL SERVEUR AZURE DEVOPS

PROPULSE IT
Publiée le
Azure
BI
DevOps

24 mois
300-600 €
Nanterre, Île-de-France
CONSULTANT BI DATA EXPERT SSIS SQL SERVEUR AZURE DEVOPS Expérience ciblée : PLUS DE 10 ANS Compétences impératives - Compétences techniques : Conception / Modélisation BI (Flux & modèles de données) Expériences significatives sur la mise en place complète de projets BI Data ETL (conception, modélisation, réalisation) et sur le RUN en environnement Full Microsoft (SSIS, SQL Server : Modélisation, procédures stockées, optimisation SQL, etc.). Connaissance et mise en œuvre de la suite Microsoft AZURE DEVOPS (Git, Board Agile, Pipeline de déploiement CI/CD). Anglais professionnel courant - Compétences organisationnelles Expérience significative sur l'implémentation de projets BI d'intégration de données (datawarehouse & datamarts) Avoir la capacité de mener des mini-projets en autonomie tout en étant accompagné par un(e) maitrise d'ouvrage et/ou le métier. Capacité à s'organiser, à s'adapter sur les priorités, à synthétiser l'état d'avancement de ses activités et à remonter les alertes si besoin. - Compétence(s) appréciée(s) : Outils de reporting BI : TABLEAU, IBM Cognos, Power BI Habitué aux relations avec des partenaires offshore Certifications sur la suite MSBI - Descriptif détaillé de la mission : Assurer le RUN des applications existantes (ETL, Bases de données, support niveau 3) Comprendre les enjeux métier, problématiques à résoudre et opportunités à concrétiser. Echanger et challenger les besoins métiers avec les équipes AMOA BI en tenant compte des contraintes techniques. Proposer, concevoir et spécifier des solutions techniques viables, évolutives et tenant compte de l'existant. Rédaction des documents techniques (spécification techniques, document d'exploitation…etc). Conseiller, proposer des axes d'amélioration, alerter si besoin. - Environnement technique de la mission : Socle Data : SSIS, SQLServer (2016), procédures stockées, Azure DevOps (Git, Board Agile, Pipeline de déploiement CI/CD) Reporting : COGNOS BI 10.2 et 11 & Tableau Date début de mission : ASAP Durée estimée de la mission : longue - 3 mois (renouvelables)
Freelance

Mission freelance
Devops Cloud

STHREE SAS pour COMPUTER FUTURES
Publiée le
AWS Cloud
DevOps
Google Cloud Platform (GCP)

6 mois
400-430 €
Yvelines, France
Bonjour, Je suis à la recherche Devops Cloud: Missions principales : Ø Assurer le support technique N3 pour les développeurs. Ø Analyser, diagnostiquer et éradiquer les incidents. Ø Traiter les aspects techniques et fonctionnels sur tous les environnements (Intégration → Production). Ø Contribuer au support RUN des projets, incluant les astreintes HNO. Ø Poursuivre les actions d’automatisation et de fiabilisation des processus. Ø Concevoir des solutions techniques adaptées aux besoins. Ø Rédiger ou contribuer aux documents de conception générale et détaillée. Analyser les traitements pour réaliser des études détaillées ou des études d’impact
Freelance

Mission freelance
Data Engineer Senior - Data Warehouse

Cherry Pick
Publiée le
Audit
Azure
Azure Data Factory

6 mois
600-680 €
Île-de-France, France
Dans un contexte de transformation, la fiabilité de la donnée est devenue un enjeu critique pour le pilotage financier et opérationnel. Contexte & Enjeux Un socle de Data Warehouse a été initié suite à la refonte du SI, mais celui-ci reste aujourd’hui : incomplet, instable (bugs, latences importantes), avec des problématiques de qualité et de disponibilité de la donnée. Le reporting Power BI est géré en interne. 👉 La mission ne concerne pas la data visualisation , mais bien la construction d’un Data Warehouse robuste, industrialisé et exploitable . Nous recherchons un Data Engineer senior / consultant expérimenté capable de reprendre l’existant, de comprendre les enjeux métiers (notamment contrôle de gestion) et de livrer un socle data fiable dans des délais courts. Missions1. Audit & Diagnostic Analyse de l’existant (modèle de données, flux, performances, qualité) Identification des causes de lenteur, bugs et données manquantes Évaluation de la cohérence entre besoins métiers et implémentation technique 2. Modélisation & Refonte du Data Warehouse Reprise et optimisation de la modélisation DWH Structuration d’un réceptacle de données cohérent et évolutif Intégration des flux issus des nouveaux outils : Cegid XRP Microsoft Dynamics Ammon 3. Ingénierie de données (ETL / ELT) Refactorisation et complétion des pipelines existants Mise en place de l’historisation des données Amélioration des performances et de la fiabilité des traitements 4. Qualité, Traçabilité & Documentation Mise en place de contrôles de qualité automatisés Gestion de la traçabilité et des règles de gestion Documentation du socle data pour sécuriser et pérenniser l’existant 5. Interface Métier Compréhension fine des besoins des opérationnels (indicateurs, chiffres, règles de gestion) Traduction des besoins métier en spécifications techniques Capacité à challenger les demandes pour garantir la cohérence globale du modèle
Freelance

Mission freelance
DÉVELOPPEUR C# .NET / Blazor (Asset Management)

Management Square
Publiée le
.NET
Azure
Blazor

1 an
450-550 €
Paris, France
Contexte de la mission Vous intervenez au sein de l’équipe Referential , et plus particulièrement sur un nouveau projet de référentiel unique. Le socle applicatif évolue vers Azure et l’application doit être migrée d’une plateforme On-Premise vers des serveurs Azure . Dans le cadre de cette évolution technologique, la connexion avec un nouveau fournisseur de données doit être mise en place, incluant l’ensemble des flux d’alimentation des référentiels (instruments, émetteurs, données extra-financières, etc.). Vous collaborez de manière transverse avec les équipes IT et Métiers . Missions principales Développer les nouveaux composants spécifiés Assurer la cohérence technique des différents modules du projet et garantir les bonnes pratiques (qualité du code, tests unitaires, modèles de données, standards de développement) Spécifier, en collaboration avec le Business Analyst, les besoins liés à l’intégration de la nouvelle source de données Rédiger les spécifications techniques et documents associés (revue d’architecture, dossier d’exploitation, etc.) Planifier les travaux et alerter sur les risques et points de blocage Estimer les charges afin d’anticiper la disponibilité des équipes Collaborer avec les équipes Infrastructures pour définir et suivre la mise en place de l’environnement Azure Tester et déployer l’application sur Azure et assurer les corrections nécessaires Accompagner les phases de validation métier (UAT et Production) et garantir la qualité des livrables Réaliser les tests sur les outils et modules développés et être garant de la qualité des solutions livrées
2286 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous