Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 596 résultats.
CDI

Offre d'emploi
Architecte data engineering - Industrie H/F

Publiée le

35k-45k €
Saint-Égrève, Auvergne-Rhône-Alpes
Télétravail partiel
Contexte du projet : Viveris intervient auprès de ses clients dans le cadre de la mise en oeuvre et de l'évolution de plateformes Data à fort enjeu stratégique. Dans ce cadre, nous recherchons un Data Architect qui interviendra en interface avec les directions métiers, les équipes de transformation et d'ingénierie. L'objectif de ce poste consiste à définir, cadrer et accompagner l'architecture Data des projets, depuis l'identification des besoins jusqu'à la mise en oeuvre des solutions, en garantissant l'alignement avec la politique Data et les standards technologiques du Groupe. Responsabilités : Réaliser les études de cadrage de l'architecture Data en s'appuyant sur une expertise des technologies clés de la plateforme Data (stockage, traitement, restitution, exploration, référentiels, ML / IA). Définir et mettre en oeuvre les architectures Data en maîtrisant les formalismes de modélisation (BPMN, modèles conceptuels et logiques de données). Projeter, décliner et accompagner la politique générale de la donnée sur son périmètre (directions métiers, entités). Intervenir dès l'identification des besoins métiers afin d'accompagner les équipes projets et de développement dans la déclinaison des patterns d'architecture Data. Maintenir la roadmap des services Data et accompagner les projets dans la mise en oeuvre de leurs produits selon les meilleures pratiques. Collaborer avec les architectes d'entreprise et techniques afin d'assurer la cohérence globale et l'alignement avec les standards technologiques (Cloud, conteneurisation, API Management).
Freelance

Mission freelance
Consultant Data / Qlik Sense - Reporting BI

Publiée le
BI
BigQuery
Qlik Sense

3 mois
Lille, Hauts-de-France
Télétravail partiel
Nous recherchons un Consultant Data spécialisé Qlik Sense pour accompagner un client dans la production et l’évolution de reportings décisionnels , au plus proche des besoins métiers. 🎯 Contexte de la mission : La mission consiste à renforcer l’équipe BI afin de concevoir, développer et maintenir des applications QlikSense dans un environnement orienté usage métier et performance. ⚙️ Missions principales : Recueillir et analyser les besoins métiers en lien avec les directions concernées. Concevoir et développer des applications Qlik Sense (dashboards, rapports dynamiques, KPI interactifs). Modéliser et intégrer les données depuis différentes sources ( PostgreSQL, API, BigQuery, fichiers d’extraction… ). Optimiser et maintenir les solutions existantes (performance, ergonomie, lisibilité). Accompagner et former les utilisateurs dans l’adoption des outils Qlik. Être force de proposition sur les évolutions fonctionnelles , les pratiques de data visualisation et d’analyse.
Freelance

Mission freelance
Business Analyst Sénior - Risk Data

Publiée le
Business Analyst

3 ans
400-500 €
Marseille, Provence-Alpes-Côte d'Azur
Télétravail partiel
Groupe international spécialisé dans le financement B2B (équipements et immobilier) recherche un(e) Business Analyst pour rejoindre une organisation IT en mode Agile (Squad/Tribe) , dans un contexte octroi / étude de risque . Dans le cadre d’une roadmap 2026 , la mission porte sur des évolutions liées à la collecte et la structuration des données de connaissance client (KYC) et de données fournisseurs , autour de deux applications internes de type référentiel et plateforme d’acquisition . Mission Intégration d’une squad en charge des sujets Risk Data / référentiels Participation aux cérémonies Agile (Sprint Planning, Daily, Review, Rétro…) Identification et coordination des parties prenantes métier / IT / tests Analyse et formalisation des besoins avec le Product Owner Rédaction de l’expression de besoin et validation métier Rédaction des user stories et des critères d’acceptation Réalisation de mapping de données et contribution à la mise en place d’ APIs Participation aux tests et accompagnement du métier sur la recette / UAT Vérification de la conformité de la solution livrée vs besoin métier Contribution à la documentation, formation utilisateurs et conduite du changement Profil recherché Expérience en tant que Business Analyst / Analyste fonctionnel / AMOA Bonne maîtrise des environnements Agile / Scrum À l’aise sur les sujets data / mapping / référentiels / APIs Expérience en recette / tests utilisateurs (UAT) Bon relationnel et capacité à faire le lien entre métier et équipes techniques
CDI

Offre d'emploi
Data Engineer - CDI

Publiée le
Azure
Databricks
DBT

Paris, France
Télétravail partiel
L'ENTREPRISE La fabrique Vingtcinq accompagne depuis 2010, les ETI et grands comptes de l’industrie et du service dans leur transformation digitale (Applications web, digitalisation des processus interne, data engineering, .. ). Vingtcinq est aujourd'hui reconnue non seulement pour la qualité d'exécution de ses développements , mais aussi pour le cadre de travail offert à ses collaborateurs . Le bien-être de notre équipe est une priorité , et chacun contribue activement à la vie de l'entreprise et à son développement . Forte de son expertise dans le développement d'outils digitaux, Vingtcinq aspire désormais à se démarquer dans le domaine de la data . Cette nouvelle Business Unit, en pleine expansion, se structure grâce à l'esprit entrepreneurial de ses membres. Pour soutenir cette croissance, nous recherchons des esprits audacieux pour rejoindre cette aventure et faire rayonner Vingtcinq sur ce nouveau secteur, pour cela, nous recherchons un(e) data engineer pour renforcer notre équipe . Tu travailleras en étroite collaboration avec l’équipe Data pour répondre aux enjeux de nos clients et développer l’offre Vingtcinq. LA MISSION Mission Principale : Data Ingestion & Transformation (70%) Créer, maintenir et optimiser des pipelines de traitement des données (ETL/ELT) pour collecter, charger, stocker, nettoyer et transformer les données brutes provenant de différentes sources (bases de données, API, fichiers, etc.). Automatiser l'intégration / l’ingestion de données (data warehouses, data lakes et lakehouses) Administrer et configurer des systèmes de stockage de données (datalake, datawarehouse ou lakehouse)(Assurer la scalabilité et la résilience des systèmes de données Travailler avec des outils et technologies pour la gestion des données à grande échelle. Optimiser la performance des base de données Garantir la qualité et l'intégrité des données Surveiller et optimiser des flux de données Mission secondaire : Visualization & technical guidance (30%) Travailler avec l’équipe Business/PM pour enrichir le brief et créer la traduction technique appropriée, être à l'aise pour parler à l'équipe business Conseils pour la résolution de problèmes : En tant qu'ingénieur de données expérimenté, fournir des conseils sur la bonne méthodologie d'implémentation technique des outils internes en accord avec l’équipe Data office Maintenir les tableaux de bord existants (améliorations) Soutenir l'effort de documentation des données en collaboration avec les responsables des données. COMPÉTENCES REQUISES Maîtrise de l’environnement Azure Environnement Cloud & Data : Azure Data Factory (ingestion, orchestration), Azure Databricks (traitements Spark), Azure Data Lake Storage Gen2 Bases de données & modélisation : Azure SQL Database, Modélisation analytique (schéma en étoile, faits/dimensions) Programmation : SQL avancé, Python (Spark, pandas), Scala (apprécié) Sécurité & gouvernance : Azure AD / IAM, Gestion des accès et des données sensibles, Data Catalog (Purview ou équivalent) Industrialisation & supervision : CI/CD : Azure DevOps ou GitHub Actions, Monitoring : Azure Monitor, Log Analytics Business Intelligence : Power BI LE PROFIL RECHERCHÉ Formation Bac+5 ou équivalent vous justifiez d’une expérience de 3 à 5 ans en tant que Data Engineer . Tu es autonome, proactif et as un excellent sens de la communication . Tu es apte à analyser les problèmes de données et à concevoir des solutions techniques adaptées . Tu recherches une structure à taille humaine , avec un fort esprit d’équipe Niveau d’ anglais avancé attendu LES PLUS DE L'OFFRE Nous avons le goût de la qualité et du travail bien fait Nous t’accompagnerons dans ta montée en compétences Chez VingtCinq, nous accordons une importance particulière à l’esprit d’équipe et au bien être de nos collaborateurs LE PROCESSUS DE RECRUTEMENT Entretien avec le DG de VingtCinq Test technique Entretien avec le Directeur Technique
Freelance
CDI

Offre d'emploi
Développeur CONFIRME Big Data Hadoop/PySpark/Python - 3 à 6 ans

Publiée le
Apache Hive
Apache Spark
Hadoop

3 ans
38k-43k €
300-400 €
Paris, France
Télétravail partiel
🏭 Secteurs stratégiques : Banque d’investissement PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Le département a lancé un programme stratégique, qui comporte plusieurs projets d'harmonisation des processus et outils. L'un de ces streams a pour vocation de constituer un datalake sur une stack Hadoop, afin de servir les besoins en data et reporting. Ce datalake a également pour vocation de devenir la brique centrale de l'architecture du SI . Nous recherchons un profil Hadoop / PySpark qui sera en charge, en lien avec l'équipe de production applicative / devops, de mettre en œuvre techniquement les évolutions du datalake. Passionné par les données, capable de s’adapter à un environnement dynamique et en constante évolution, le prestataire doit faire preuve d'autonomie, d'initiative et d'une forte capacité d'analyse pour résoudre des problèmes complexes. 🤝Principales missions : Les tâches suivantes seront confiés au consultant : • Mettre en œuvre de nouvelles ingestions de données, data prep/transformation • Maintenir et faire évoluer nos outils de gestion des pipeline de données (Pyspark + shell scripting) • Adresser à l'équipe devops les demandes relatives aux évolutions de la plateforme • Eventuellement mettre en œuvre une couche d'APIs afin d'exposer nos données
Freelance

Mission freelance
Data Engineer AWS / GenAI

Publiée le
Amazon S3
Apache Airflow
Apache Spark

12 mois
450-550 €
Paris, France
Télétravail partiel
Dans le cadre du plan de transformation DATA de notre Client, notre client développe des applications et plateformes DATA pour rendre nos métiers (pilotage, marketing, commerce, etc.) autonomes dans l’analyse de leurs données et KPI. Les infrastructures et projets incluent : AWS, GitLab, Terraform, DBT, Snowflake, Python, Scala, Spark, PowerBI, AI/GenAI Architectures Big Data sophistiquées pour ingérer plus de 100 par jour (Datalake, Event-Driven, Streaming, etc.) Exemples de projets : Chatbot AI Socle vidéo, navigation et calcul des audiences Recommandation de programmes via IA Feature Store et modernisation des flux financiers Plateformes CRM et partage de données partenaires Kubernetes et applications de data self-service Missions En tant que Data Engineer , vous serez en charge de : Concevoir, développer et maintenir des pipelines de données scalables et performants (ingestion, traitement et stockage de données massives). Développer des architectures Big Data sur AWS (S3, EMR, Lambda, Kinesis, Batch…), Snowflake et Spark. Développer en Scala et Python pour le traitement massif des données. Automatiser les workflows et orchestrer les pipelines avec Airflow et DBT . Concevoir et exposer des APIs customer-facing performantes. Optimiser les performances et garantir la scalabilité pour gérer un volume important d’utilisateurs. Collaborer avec les équipes Data Science, Produit et DevOps pour une intégration fluide.
Freelance

Mission freelance
Data Engineer cloud Google (GCP)

Publiée le
API
Google Cloud Platform (GCP)
Python

18 mois
100-500 €
Paris, France
Télétravail partiel
CONTEXTE : Notre stack technique est principalement constitué de Python, Spark, SQL, BigQuery, Dataplex pour la qualité des données, Airflow pour l’orchestration des traitements et Terraform ainsi que Terragrunt pour l’industrialisation. La stack inclut aussi d’autres services de la Google Cloud Platform. mission de l’ équipe 1. Déployer les datasets normés sur un ou plusieurs des data domain 2. Accompagner les utilisateurs des datasets normés dans leurs usages 3. Mettre en place le contrôle qualité sur ces datasets MISSIONS : Dans un premier temps, la prestation consiste à : • Concevoir et réaliser les contrôles qualité sur les données de la plateforme Data, en exploitant Dataplex Universal Catalog • Industrialiser ces contrôles grâce à Terraform et Terragrunt • Concevoir et réaliser les indicateurs nécessaires au pilotage de la qualité des données • Concevoir et réaliser la remontée de ces indicateurs dans notre data catalog Collibra En marge de l’objectif de livraison de livraison précédent et en interaction avec les membres de l’équipe, la suite de la mission consiste à : • Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l’équipe • Participer aux initiatives de gouvernance des données en développant les contrôles de qualité des données • Construire et maintenir de pipelines data robustes et scalables • Accompagner les membres de l’équipe dans l’exploitation et le requêtage des données • Organiser et structurer le stockage des données • Mettre en place et maintenir des infrastructures scalables capable de répondre aux besoins et à l’accroissement rapide du volume de données • Construire et maintenir les workflows de la CI/CD • Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur • Assurer l’évolutivité, la sécurité, la stabilité des environnements • Participer aux différentes instances des data ingénieurs • Contribuer et veiller à la mise à jour de la documentation • Faire de la veille technologique active dans le domaine Expertises demandées pour la réalisation de la prestation : • Au moins 5 ans d’expérience en tant que Data Ingénieur dans un environnement data • Compétences solides en data : structures de données, code, architecture • Expériences dans la conception et la réalisation de pipelines data • Expériences dans un environnement du cloud Google (GCP) • Expériences intégrant BigQuery et Dataplex Universal Catalog • Expériences intégrant les langages Python et SQL • Expériences intégrant Spark • Expériences intégrant des flux avec l’API Collibra • Expériences intégrant Terraform et Terragrunt • Expériences intégrant Gitlab et Gitlab CI/CD • Expériences intégrant les méthodologies Agile : Scrum ou Kanban • Capacité à vulgariser et à communiquer sur des aspects purement techniques • Junior : moins de 3 ans d’expérience significative dans le type d’expertise demandé • Confirmé : 3 à 5 ans d’expérience significative dans le type d’expertise demandé • Sénior : plus de 5 ans d’expérience significative dans le type d’expertise demandé
Offre premium
CDI

Offre d'emploi
Lead tech front Angular (.Net / Azure backend)

Publiée le
Angular
API REST
Design system

48k-60k €
Paris, France
Télétravail partiel
Contexte & rôle Au sein de l’équipe Produit (engineering + product), nous recherchons un·e Lead Tech Front Angular avec de solides compétences full stack pour jouer un rôle central dans l’évolution de notre plateforme SaaS. Vous serez la/le référent·e technique front sur notre stack Angular, tout en contribuant aux sujets backend (C#/.NET, API, SQL) en collaboration avec le reste de l’équipe. Vous interviendrez sur la conception, l’architecture et la qualité du front, et accompagnerez les développeurs dans la montée en compétence et l’adoption des bonnes pratiques. Rattaché·e à l’Engineering Manager, vous travaillerez en étroite collaboration avec les Product Managers, UX/UI Designers et les autres développeurs de l’équipe produit. Vos missions principales Leadership technique & architecture Front Définir et porter la vision technique front de la plateforme (Angular, RxJS, architecture modulaire, design system, performance). Concevoir des interfaces riches et ergonomiques pour les différents modules de la solution (gestion des contrats, missions, facturation, portails clients/fournisseurs, CV-thèques, etc.). Mettre en place et faire évoluer les bonnes pratiques de développement front : tests unitaires, revues de code, patterns de state management, accessibilité, performance. Développement & contribution full stack Développer des fonctionnalités front Angular (SPA/PWA) de bout en bout, de la conception à la mise en production. Contribuer au backend (C#/.NET, Web API, SQL Server) pour exposer et consommer des API performantes et robustes. Participer à l’optimisation des performances sur l’ensemble de la chaîne (front, API, base de données). Qualité, sécurité & industrialisation Garantir un code propre, maintenable et bien testé (tests unitaires front & back, éventuellement tests d’intégration/E2E). Participer à l’amélioration continue de la CI/CD, du monitoring et des pratiques d’observabilité. Prendre en compte les enjeux de sécurité, de conformité et de fiabilité propres à une plateforme B2B (facturation, archivage, données sensibles). Collaboration produit & mentoring Travailler avec les Product Managers et l’UX pour challenger les besoins, estimer les user stories et co-construire la roadmap. Mentorer les développeurs front / full stack : pair programming, participation active aux revues de code, partage de bonnes pratiques. Contribuer à la diffusion d’une culture d’ingénierie exigeante (qualité, data-driven, expérience utilisateur, documentation). Environnement technique Front : Angular, RxJS, TypeScript, HTML5, CSS3, PWA, Syncfusion. Back : .NET / C#, Web API, Entity Framework, architecture orientée services. Base de données : SQL Server (et autres bases SQL au besoin). Cloud & Data : Microsoft Azure (App Services, SQL, services data).
Freelance
CDI

Offre d'emploi
Data Scientist / ML Engineer IA Générative (Data & IA) -(F/H)

Publiée le
Data science
Docker
IA Générative

3 ans
40k-45k €
400-550 €
Île-de-France, France
Télétravail partiel
Dans le cadre d’une mission pour l’un de nos clients, acteur majeur du secteur bancaire, nous recherchons un Data Scientist / ML Engineer spécialisé en IA Générative et Agentic AI pour intégrer l’équipe Data & IA . Vous interviendrez sur la conception, l’entraînement et le déploiement de solutions d’IA avancées visant à optimiser des processus métier critiques : analyse de documents, support aux traders, automatisation de workflows, conformité réglementaire et reporting. Missions principales 1. Modélisation & Machine Learning Développer des modèles de Machine Learning avancés en Python pour des cas d’usage bancaires : fraude, scoring, gestion et anticipation des risques. Préparer, nettoyer et transformer des données structurées et non structurées (logs, documents réglementaires, rapports, données métiers). 2. Large Language Models (LLM) Fine-tuning et intégration de LLM industriels (GPT-4/5, LLaMA, Mistral…). Conception et implémentation de pipelines RAG (Retrieval-Augmented Generation) pour un accès contextualisé aux données internes (politiques internes, réglementations, Knowledge Base). Mise en œuvre de prompting avancé et d’architectures adaptées aux besoins CIB . 3. Agentic AI Prototyper et déployer des agents autonomes capables d’interagir avec : APIs internes Workflows Services bancaires (ex. assistant trader, extraction d’informations réglementaires). Orchestration de tâches complexes via des frameworks tels que : LangChain, LangGraph, AutoGPT . 4. Production & Industrialisation Packager et déployer les modèles en production : Docker API REST / GraphQL Environnements cloud privé ou hybride Collaboration avec les équipes MLOps, Cloud et Sécurité pour garantir : Scalabilité Monitoring & observabilité Respect des contraintes réglementaires. 5.Gouvernance & Compliance IA Garantir l’application des règles internes d’ Ethics & Compliance liées à l’IA. Mise en place de tests de : Robustesse Biais Traçabilité et explicabilité des modèles. Profil recherché Formation supérieure en Data Science, IA ou Informatique Solide expérience en Machine Learning et IA Générative Excellente maîtrise de Python Bonne connaissance des environnements bancaires / financiers appréciée Capacité à travailler sur des sujets à forte valeur métier et forte exigence réglementaire
Freelance

Mission freelance
Data Engineer Big Data – Datalake Hadoop / Spark (on-premise)

Publiée le
Apache Hive
Big Data
CI/CD

2 ans
400-480 €
Île-de-France, France
Télétravail partiel
Dans un contexte Data & BI à forts enjeux, vous intervenez au sein d’une équipe Big Data & API , rattachée à une squad Financing & Risk , en charge du développement et de l’exploitation d’un datalake utilisé comme plateforme data centrale par les équipes IT et métiers. En tant que Data Engineer , vous jouez un rôle clé dans la gestion, l’évolution et la fiabilité de cette plateforme. Vos principales missions sont les suivantes : Assurer la gestion de la production du datalake (suivi, incidents, stabilité des traitements) Prendre en charge la dette technique et contribuer à l’amélioration continue de la plateforme Analyser l’architecture existante et proposer des évolutions techniques pertinentes Réaliser les développements Big Data liés aux projets en cours et à venir Participer à l’industrialisation et aux déploiements via les chaînes CI/CD Vous évoluez dans un environnement technique Big Data on-premise , au sein d’une équipe travaillant en interaction avec des équipes IT et métiers, sur des sujets à forte valeur ajoutée.
Freelance

Mission freelance
Client Master Data Lead F/H

Publiée le
API
Data governance
Data management

12 mois
600-650 €
La Défense, Île-de-France
Télétravail partiel
Contexte : Dans le cadre de la transformation Data du Groupe , pilotée par le Group Data Office, un référentiel Client Groupe a été mis en place afin de garantir la cohérence, l’interopérabilité et la fiabilité des données clients à l’échelle de l’ensemble des entités. Dans un contexte de forte croissance via des opérations de fusions-acquisitions , chaque entité dispose aujourd’hui de ses propres systèmes d’information et bases clients. L’enjeu stratégique est désormais de déployer et intégrer ce référentiel Client Groupe sur l’ensemble des entités afin de soutenir les processus transverses et les usages analytiques. Nous recherchons un(e) Client Master Data Lead pour piloter cette démarche de déploiement et d’intégration. Missions En tant que Client Master Data Lead , vous serez en charge de : Définir et piloter la stratégie de déploiement du référentiel Client au sein des différentes entités du Groupe Assurer le rôle de coordinateur central entre le Group Data Office, les équipes IT et les équipes métiers Garantir l’alignement sur les modèles de données clients , les règles de gouvernance et les interfaces techniques Piloter la planification, les priorités et la communication auprès des parties prenantes Mettre en place un reporting structuré (KPI, tableaux de bord, suivi des risques) à destination de la Direction Data Groupe et du Comité Exécutif Responsabilités principales1. Stratégie & Gouvernance Définir la roadmap de déploiement (par entité, par domaine, par lots) Contribuer à la définition du Target Operating Model de la gestion des données clients Identifier les risques, dépendances et enjeux de conduite du changement Mettre en place les indicateurs de suivi et de performance du programme 2. Coordination & Pilotage Être le point de contact unique entre l’équipe référentiel et les équipes locales IT/métiers Coordonner les projets d’intégration (mapping, migration, synchronisation des données) Animer les comités de pilotage et groupes de travail Assurer le suivi des décisions, actions et livrables 3. Conduite du changement Promouvoir l’adoption et la valeur du référentiel Client Accompagner les métiers dans l’adaptation de leurs processus Contribuer aux supports de formation, communication et reporting Localisation 📍 Paris – La Défense (hybride, 2 jours de télétravail par semaine) Rattachement Rattaché(e) au Head of Group Data Office , avec des interactions fortes avec les équipes IT, Data Governance, Data Stewards et Architecture.
Freelance

Mission freelance
Data Science/MLOps

Publiée le
Data analysis
IA Générative
Machine Learning

3 mois
Lille, Hauts-de-France
Télétravail partiel
Ton rôle : concevoir, industrialiser et fiabiliser des solutions IA en production, tout en instaurant des standards d’ingénierie logicielle (tests, CI/CD, MLOps/LLMOps, sécurité). Responsabilités principales Concevoir et déployer des features IA Construire des pipelines de traitement de données Industrialiser et monitorer les applications / services (latence, coût, taux de réponse, satisfaction utilisateur). Industrialiser l’IA via MLOps/LLMOps : suivi d’expériences, déploiement, monitoring, observabilité. Garantir la qualité des données, la conformité (GDPR) et la sécurité des solutions. Compétences techniques attendues IA générative, LLM, RAG, Prompt optimisation, Agents & orchestration Machine learning / Deep learning Traitement de données non structurées: PDF/Images Ingénierie & industrialisation Langages : Python avancé, SQL. APIs : conception et intégration Data pipelines : orchestration, streaming, feature stores. MLOps/LLMOps : CI/CD, Docker/Kubernetes, suivi des modèles, monitoring/observabilité, tests offline/online. Sécurité & conformité : gouvernance des données, IAM/secrets, mitigation des risques LLM (hallucinations, prompt injection, data leakage). Bonnes pratiques de dev Structuration des projets, templates, documentation vivante. Stratégie de tests Standards de code, revue d’architecture et diffusion des bonnes pratiques. Profil recherché 4+ ans d’expérience en Data Science/MLOps
Freelance

Mission freelance
Développement .NET / Azure - Référentiels Data

Publiée le

12 mois
500 €
France
Télétravail partiel
Ingénieur Développement .NET / Azure - Référentiels Data (Asset Management) 📍 Paris (hybride) | 🕒 12 mois renouvelables | 🎯 Senior | 💬 FR & EN | 🚀 Start : 26/01/2026 Le pitch Rejoignez l'équipe Référentiels d'un acteur majeur de la gestion d'actifs (client anonyme ) pour bâtir un référentiel unique et migrer une application On‑Prem vers Azure , tout en intégrant une nouvelle source de données (instruments, émetteurs, extra‑financier/ESG). Rôle clé au carrefour IT x Métier . Vos missions Développer de nouveaux composants .NET et garantir la cohérence technique (clean code, tests, modèles de données). Rédiger les spécifications techniques (API/archi/exploitation) en lien avec le BA. Planifier/estimer les travaux, gérer risques & blocages . Concevoir & suivre les environnements Azure , tester & déployer jusqu'en UAT/PROD avec un haut niveau de qualité. Votre profil Bac+5, 5+ ans en dev, exp confirmée sur Azure et API REST ; maîtrise ETL/Batch/Services et modèles de données . Sens de la qualité (Sonar ; tests auto = +), Agile/Scrum , DevOps . Français & anglais opérationnels ; idéalement finance/asset management & référentiels data. Stack Must‑have : .NET 8 , C# , Blazor (WASM/Server), Visual Studio , Git , Azure DevOps , REST API , SQL Server , EF Core . Nice‑to‑have : HTML5/CSS3 , Azure Data Factory , Postman , API Management , Syncfusion , SonarCloud .
Freelance
CDI
CDD

Offre d'emploi
Administrateur Bases de Données SQL Server – Confirmé (H/F)

Publiée le
Microsoft SQL Server
Microsoft Windows
Powershell

1 an
Paris, France
Contexte Le département Bases de Données Distribuées de la Direction Infrastructure renforce ses équipes et recherche un Ingénieur DevOps / Administrateur de bases de données SQL Server confirmé pour intervenir sur des environnements critiques de production. La mission s’inscrit dans un contexte infrastructure, haute disponibilité et automatisation , avec des exigences élevées en matière de performance, sécurité et continuité de service . Objectif de la mission Administrer, exploiter et faire évoluer les environnements SQL Server , tout en contribuant à l’automatisation et à l’industrialisation des pratiques via des outils DevOps. Missions principalesAdministration & exploitation SQL Server Installer, configurer et maintenir les moteurs SQL Server et les clusters Windows . Administrer les environnements Always On (haute disponibilité). Gérer l’exploitation quotidienne : Support utilisateurs Gestion des incidents Suivi du PCA / PRA Optimiser les performances SQL Server . Gérer la sécurité , les accès et les licences . Automatisation & DevOps Développer et maintenir des scripts d’automatisation en PowerShell , DSC et .NET . Contribuer au développement et à l’utilisation d’ API . Utiliser et intégrer les outils DevOps : Git, Artifactory, Jenkins, Ansible . Exploitation & supervision Mettre en œuvre et exploiter les sauvegardes et restaurations . Participer à la supervision des plateformes (outils type Zabbix ). Assurer une astreinte régulière (environ 1 semaine toutes les 7 semaines). Qualité & amélioration continue Participer aux études d’évolution des infrastructures. Proposer des axes d’amélioration des performances et de la fiabilité . Assurer une veille technologique continue. Environnement technique SGBD : SQL Server Haute disponibilité : Always On Systèmes : Windows, clusters Windows Automatisation / DevOps : PowerShell, DSC, .NET, Git, Jenkins, Artifactory, Ansible Virtualisation : VMware Supervision : Zabbix (ou équivalent) Composants complémentaires : SSAS Compétences techniques Impératives : SQL Server – Expert Always On – Expert Systèmes Windows – Confirmé PowerShell – Expert Appréciées : DSC / .NET Développement d’API Outils DevOps SSAS VMware Supervision (Zabbix ou équivalent) Compétences linguistiques Français courant (impératif) Anglais professionnel (impératif)
Freelance
CDI

Offre d'emploi
Mission Freelance - Architecte d’Intégration Senior – Data et API – La Défense - Long terme

Publiée le
API
MuleSoft
Talend

3 ans
Île-de-France, France
Télétravail partiel
Bonjour Pour l’un de mes clients je recherche un(e) Architecte d’Intégration senior Contexte de la mission Accompagnement des projets IT autour des solutions d’intégration de données et d’API Intervention dans des environnements complexes avec des équipes IT et métiers Missions principales Apporter une expertise technique aux projets et aux équipes Industrialiser les patterns d’intégration Définir et recommander des solutions applicatives adaptées Optimiser les solutions existantes et proposer des améliorations Supporter les équipes décentralisées sur les projets et les évolutions Participer à la gouvernance et aux instances du centre de compétence Contribuer aux études de faisabilité et aux POC Définir les architectures d’intégration Mettre en place des flux batch temps réel et streaming Compétences et qualifications Expérience solide en architecture de solutions data Expertise sur un ETL type Talend ou une plateforme API type Mulesoft Bonne maîtrise de la sécurité des données et des architectures micro services Très bonne communication et capacité à travailler avec plusieurs équipes Français et anglais requis Localisation et conditions La Défense Présence sur site minimum 3 jours par semaine (important) Profil recherché et mots clés Architecte d’Intégration senior Vision globale des flux et des SI À l’aise dans des environnements complexes Talend ou Mulesoft ou une autre plateforme data intégration Architecture data API Micro services Sécurité des données Si vous êtes intéressé(e) et que votre profil correspond merci d’envoyer votre CV à jour Je reviendrai vers vous rapidement pour échanger
Freelance

Mission freelance
INGENIEUR DATA BI - CLOUD AZURE

Publiée le
Azure
BI
Cloud

24 mois
200-400 €
Paris, France
Télétravail partiel
Pour l'un de nos clients, nous recherchons un(e) Ingénieur DATA BI & Cloud Azure pour renforcer leurs équipes IT. Votre poste et vos missions Membre de l'équipe IT & Digital, vous intervenez au cœur des différents projets de développement du Groupe sur un périmètre international. Dans le respect de la stratégie IT établie par le DSI, votre mission consiste à : Mise en place d'une vraie démarche data-driven au niveau technique - Apporter votre expertise technique et vos idées lors de la mise en place de projets concernant les développement données / BI - Force de proposition sur des nouvelles architectures et solutions d'intégration des données - Connaissances des principes big data et IoT - Connaissances avancées en datawarehouse et modèles de gouvernance des données - Connaissances des API Data pour le temps réel
596 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous