L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 5 061 résultats.
Mission freelance
Consultant Architecte BI / Data – Boulogne-Billancourt (92)
Mon Consultant Indépendant
Publiée le
Azure
Azure Synapse
Data Lake
1 mois
350-400 €
Boulogne-Billancourt, Île-de-France
Consultant Architecte BI / Data – ERP M3 / Azure 📍 Boulogne-Billancourt (92) 🏢 Présentiel (5j / semaine) ⏱ 6 mois renouvelables – temps plein 💰 TJM : 550 € HT 🚀 Démarrage ASAP Objectif :Structurer une architecture décisionnelle robuste et fiabiliser les plateformes BI dans un environnement complexe. Mission : Définition et mise en œuvre de l’architecture BI / data Stabilisation et optimisation des environnements existants Intégration des flux ERP Movex / M3 , SQL Server, Netezza Déploiement data sur Azure (Synapse, Data Lake) Structuration du reporting ( Power BI, MicroStrategy ) À savoir Présence sur site requise. Mission technique et structurante, avec attendu fort sur delivery et stabilisation rapide.
Offre d'emploi
Développer Data Engineer Databricks Spark Azure Python
IT CONSULTANTS
Publiée le
Apache Spark
Azure
Databricks
8 mois
Île-de-France, France
Dans le cadre de notre besoin, nous recherchons un Data Engineer confirmé / sénior disposant d’une forte expertise sur Azure, Databricks, Spark, SQL et Python. Vous intégrerez l’une de nos squads, responsable de la migration de traitements existants depuis une plateforme on premise vers notre plateforme Data Cloud Azure / Databricks. Le profil recherché devra impérativement démontrer une forte motivation pour intervenir sur des projets de migration et être force de proposition, notamment pour identifier et mettre en œuvre des leviers d’accélération afin d’optimiser le delivery. Mission : • Analyse des traitements existants dans le cadre de projets de migration • Conception et construction de pipelines de données pour transformer, enrichir et traiter les données au sein du Data Lake • Développement de notebooks Databricks pour des traitements avancés de données • Mise en œuvre de solutions de Cloud Data Warehousing (optimisation des traitements et tuning des requêtes SQL) • Rédaction de la documentation technique (Dossiers d’Analyse Technique, release delivery notes, etc.) • Réalisation de revues de code dans une logique de qualité et de bonnes pratiques • Conception et exécution de tests unitaires • Livraison des développements dans un environnement DevOps intégrant des processus CI/CD et les outils associés Compétences techniques requises • Expérience Data minimum 5 ans • Azure minimum 3 ans • Databricks minimum 5 ans • Spark minimum 5 ans • Python minimum 5 ans • SQL minimum 5 ans • Maitrise de CI/CD, Azure DevOps Minimum 3 ans • Connaissance des outils Agile (JIRA) et ayant déjà travaillé en mode Agile minimum 1 an Aptitudes personnelles • Force de proposition, rigueur, réactivité, bon relationnel. Test technique • Un test technique sera réalisé lors de l’entretien
Offre d'emploi
Développer Data Engineer Databricks Spark Azure Python
IT CONSULTANTS
Publiée le
Apache Spark
Azure
Databricks
8 mois
Île-de-France, France
Dans le cadre de notre besoin, nous recherchons un Data Engineer confirmé / sénior disposant d’une forte expertise sur Azure, Databricks, Spark, SQL et Python. Vous intégrerez l’une de nos squads, responsable de la migration de traitements existants depuis une plateforme on premise vers notre plateforme Data Cloud Azure / Databricks. Le profil recherché devra impérativement démontrer une forte motivation pour intervenir sur des projets de migration et être force de proposition, notamment pour identifier et mettre en œuvre des leviers d’accélération afin d’optimiser le delivery. Mission : • Analyse des traitements existants dans le cadre de projets de migration • Conception et construction de pipelines de données pour transformer, enrichir et traiter les données au sein du Data Lake • Développement de notebooks Databricks pour des traitements avancés de données • Mise en œuvre de solutions de Cloud Data Warehousing (optimisation des traitements et tuning des requêtes SQL) • Rédaction de la documentation technique (Dossiers d’Analyse Technique, release delivery notes, etc.) • Réalisation de revues de code dans une logique de qualité et de bonnes pratiques • Conception et exécution de tests unitaires • Livraison des développements dans un environnement DevOps intégrant des processus CI/CD et les outils associés Compétences techniques requises • Expérience Data minimum 5 ans • Azure minimum 3 ans • Databricks minimum 5 ans • Spark minimum 5 ans • Python minimum 5 ans • SQL minimum 5 ans • Maitrise de CI/CD, Azure DevOps Minimum 3 ans • Connaissance des outils Agile (JIRA) et ayant déjà travaillé en mode Agile minimum 1 an Aptitudes personnelles • Force de proposition, rigueur, réactivité, bon relationnel. Test technique • Un test technique sera réalisé lors de l’entretien
Offre d'emploi
Data & Platform Engineer – Microsoft Fabric
AEROW
Publiée le
Apache Spark
Azure
Azure Data Factory
1 an
40k-64k €
400-600 €
Gosselies, Hainaut, Belgique
2 JOURS NON NEGOCIABLES SUR SITE CLIENT A GOSSELIES (BEL) Dans le cadre du renforcement de sa Factory Data , CLIENT recherche un Data & Platform Engineer pour intervenir sur la gestion, l’évolution et l’industrialisation de sa plateforme data basée sur Microsoft Fabric . Le consultant rejoindra l’équipe Plateforme Data et interviendra à la fois sur les aspects Data Engineering (80%) et Platform Engineering Fabric (20%) . 🛠️ Data Engineer – 80% Développement des flux d’ingestion via Fabric Data Factory (et connaissance Azure Data Factory ) Développement des flux de transformation via Fabric Notebooks (Spark / PySpark) Optimisation des requêtes et des transformations (performance & coûts Azure) Modélisation du Lakehouse Conception et implémentation de l’ architecture médaillon (Silver / Gold) Rédaction du design technique Définition et exécution des tests unitaires (automatisables) Estimation des charges lors du cadrage des demandes Rédaction de la documentation technique Contribution aux guidelines et à l’amélioration continue Support, maintenance et gestion d’incidents en production ⚙️ Platform Engineer – 20% Administration et évolution de la plateforme Microsoft Fabric (workspaces, capacités, paramètres tenant, intégrations Azure) Suivi actif de la roadmap Microsoft Fabric (preview / GA) Gestion et optimisation des capacités Fabric (performance, priorisation, dimensionnement, coûts) Mise en place et évolution de l’ Infrastructure as Code (IaC) Monitoring et optimisation des coûts d’infrastructure Collaboration avec les équipes Infrastructure, Sécurité, IAM, FinOps Support plateforme, analyse d’incidents et fiabilisation du service
Offre premium
Mission freelance
Business Analyst expérimenté à Vannes
Deodis
Publiée le
Data Engineering
JIRA
36 ans
400-460 €
Vannes, Bretagne
Le projet vise à accompagner le Pôle Produit Risques dans la gestion d'évolutions majeures de produits, notamment dans le cadre d'enjeux réglementaires importants pour 2026. Le Business Analyst sera intégré à une des squads pour travailler en étroite collaboration avec le Product Owner et les équipes IT. Les livrables attendus incluent : Animation d'ateliers de cadrage et rédaction des compte-rendus. Formalisation des besoins utilisateurs dans la backlog Produit (rédaction de récits, organisation d'ateliers d'affinage). Réalisation d'analyses des risques métier (ARM) en lien avec les métiers et les IT. Maintien à jour de la documentation produit métier et fonctionnelle. Support aux pôles utilisateurs pour les supports de conduite du changement. Définition, maintien et application des plans de tests produits. Profil Le profil recherché est celui d'un Business Analyste expérimenté avec une bonne communication et un fort esprit d'équipe, capable de travailler sur des projets importants et challengeant en termes de délais. Les compétences et expériences requises sont : Expérience de l'agilité. Expérience de projets DATA (Puits de données, SID, modélisations et conception d'objets métiers). Expérience de projets "réglementaires" sur les domaines Financiers et Risques (Réformes Bâloises, BCBS239, IFRS9,...). Connaissances environnement DATA (ETL, langage SQL, AB Initio). Maîtrise des outils bureautiques (Excel, Powerpoint). Maîtrise de JIRA Software. Les qualités personnelles attendues sont : Rigoureux, Organisé et pragmatique. Autonome, curieux, volontaire, disponible, et forte capacité d'adaptation. Esprit collectif. Bonne communication (Clarté et synthèse). La mission se déroule à Vannes et nécessite une présence sur site a minima 3 jours par semaine (lundi, mardi et jeudi).
Offre d'emploi
Testeur Data confirmé
SARIEL
Publiée le
Azure
Databricks
Google Cloud Platform (GCP)
12 mois
40k-53k €
320-420 €
Châtillon, Île-de-France
Bonjour, Nous recherchons pour notre client basé en région parisienne (dans le 92) un testeur Data confirmé (4-10 ans d’expérience). Objectif Global : Testeur confirmé avec compétences Data Analyste Contrainte forte du projet Remplacement d'un prestataire en fin de mission Compétences techniques Méthodologie de tests - Confirmé - Important Test technico fonctionnels/tests d'intégration - Confirmé - Important DataBricks ou GCP ou big Query- Confirmé - Important Environnement azure microsoft - Confirmé - Important Connaissances linguistiques Français Courant (Impératif) Description détaillée Au sein de la Direction des Systèmes d’Informations Mutualisés, vous rejoindrez le Train DATA, en charge des projets BI et Data pour notre client. En tant que QA doté de compétences en analyse de données, vous intégrerez le pôle Qualité Data et serez rattaché à la squad. Votre rôle consistera à préparer et exécuter les cas de tests, constituer les jeux de données nécessaires, assurer le suivi des défauts identifiés et contribuer à l’amélioration continue de la qualité des données. Le Data Lab fonctionne en organisation agile et réunit des équipes pluridisciplinaires favorisant la collaboration et l’autonomie. Vous travaillerez avec des rituels agiles, cadrés, trimestriels et des cycles de réalisation de 3 semaines (sprint planning, affinage, sprint review et daily meeting). Vos missions : - Participer aux ateliers/rituels agiles - Réaliser la stratégie de test - Identifier et réceptionner les environnements de test - Analyser et évaluer les cas d'usage/User Story - Rédiger les plans de test, identifier les prérequis et spécifier les jeux de données - Exécuter les cas de tests - Créer et suivre les défauts avec les différentes parties prenantes - Maintien du référentiel de test - Réaliser le PV de recette - Présentation des sujets en CAB pour passage en production - Une expérience/compétence dans le retail serait un plus. En plus du test fonctionnel, vous serez amené à effectuer des tests d’intégration 2 à 2, des tests de bout en bout ainsi que des tests de surface dans un contexte Data. J’accorde une importance particulière à l’amélioration continue, un principe clé de l’agilité, afin de progresser en permanence et de gagner en efficacité. Savoir Faire : - Expérience minimum de 4 ans en tant que QA avec des compétences de data analyste - Profil technico fonctionnel - SQL Server - JIRA/XRAY - Environnement Microsoft azure - DataBricks ou GCP ou big Query - Utilisation de l'IA dans les tests (Génie Code) - Outils de reporting Power BI, Microstratégy Savoir Etre : - Collaboratif - Entraide - Force de proposition - Implication/Engagement - Amélioration Continue - Communication fluide - Qualité organisationnelle Définition du profil ORGANISATION ET CONCEPTION DES TESTS Contribue à l'élaboration de la stratégie de tests avec le Test Lead, en lien avec les Chefs de Projets et/ou Responsables d'applications Analyse les exigences utilisateurs et les spécifications fonctionnelles ou techniques fournies par le Responsable d'application Estime les charges DÉROULEMENT ET REALISATION DES TESTS En fonction de la stratégie établie, rédige les plans de tests, identifie les prérequis et spécifie les jeux de données (données de tests, résultats attendus) qu'il fait valider par le CP et/ou Responsable d'Application Réceptionne son environnement de tests et s'assure de sa conformité en termes de versions applicatives Exécute les tests manuellement ou en utilisant des outils d'exécution automatique des tests Consigne les résultats de tests et remonte les anomalies au Chef de Projet et/ou Responsable d'application Met à jour le référentiel de tests Peut coordonner une équipe d'analystes de test en tant que référent SYNTHESE DES TESTS Réalise un bilan des tests effectués Date de démarrage 08/06/2026 Lieu de réalisation CHATILLON (92) Déplacement à prévoir non Le projet nécessite des astreintes Non Nombre de jours souhaitables sur site 3 jours par semaine Dans le cas où vous êtes intéressé par ce poste, pourriez-vous SVP m'envoyer votre CV au format Word en indiquant votre disponibilité ainsi que vos prétentions salariales ou votre tarification journalière si vous êtes indépendant ?
Mission freelance
Data Engineer - Azure
CONCRETIO SERVICES
Publiée le
Databricks
PySpark
12 mois
300-400 €
Nouvelle-Aquitaine, France
Contexte Rejoignez une équipe agile SAFe pour concevoir et industrialiser des pipelines Data et ML robustes sur un environnement Azure moderne. Vous serez au cœur de la transformation des prototypes data scientists en solutions de production. Vos missions Pipelines Data & ML Développement de pipelines Batch sous Azure Databricks Utilisation avancée de PySpark, Delta Lake, MLFlow, Workflows Optimisation des performances : partitionnement, gestion mémoire, exploitation GPU Mise en place de mécanismes de reprise d'erreur, de traçabilité et de monitoring Collaboration avec les data scientists pour industrialiser leurs modèles Développement logiciel Conception de packages Python robustes et maintenables Respect des standards : qualité de code, tests unitaires, CI/CD, documentation Développement d'APIs via Azure Functions et/ou Azure Container Apps Contribution projet & RUN Participation aux phases projet : faisabilité, architecture, conception, réalisation, MEP Activités d'amélioration continue et participation aux rituels agiles
Offre d'emploi
DATA ENGINEER CONFIRME / SENIOR (H.F)
NSI France
Publiée le
Azure
Cloud
Data Engineering
6 mois
Île-de-France, France
Contexte Dans le cadre de projets de transformation et de modernisation des systèmes d'information chez de grands acteurs de la distribution et de la grande consommation, nous recherchons un Data Engineer confirmé / sénior pour intervenir sur une migration de plateforme Data vers le Cloud. Vous intégrerez une squad Agile dédiée, au sein d'une organisation Data Factory, dont la mission est de concevoir et déployer des produits Analytics innovants à destination des fonctions support, des équipes logistiques et des points de vente. Vos missions En tant que Data Engineer, vous interviendrez sur tout ou partie des missions suivantes : Analyse des traitements existants dans le cadre de projets de migration on-premise vers le Cloud Conception et construction de pipelines de données pour transformer, enrichir et traiter les données au sein d'un Data Lake Développement de notebooks Databricks pour des traitements avancés de données Mise en œuvre de solutions de Cloud Data Warehousing (optimisation des traitements et tuning des requêtes SQL) Rédaction de la documentation technique (dossiers d'analyse, release notes, etc.) Réalisation de revues de code dans une logique de qualité et de bonnes pratiques Conception et exécution de tests unitaires Livraison des développements dans un environnement DevOps intégrant des processus CI/CD Environnement technique Azure / Databricks / Spark Python / SQL CI/CD, Azure DevOps Outils Agile (JIRA)
Mission freelance
Data Engineer / Software Engineer Data (H/F)
Nicholson SAS
Publiée le
Azure
Databricks
Machine Learning
7 mois
Niort, Nouvelle-Aquitaine
Le contexte Nous recherchons un Data Engineer (ou Software Engineer avec une forte spécialisation Data) pour renforcer une équipe agile en charge de l'industrialisation de projets Data et ML. La mission se déroule dans un environnement technique Azure et s'appuie sur une méthodologie SAFe . Vos missions principales Votre rôle consiste à transformer des prototypes en solutions industrielles fiables et performantes. Vous intervenez sur : Pipelines de données : Conception et développement de flux Batch sous Azure Databricks . Vous gérez l'utilisation de PySpark, Delta Lake et MLFlow. Optimisation technique : Travail sur la performance des traitements (partitionnement, gestion mémoire, exploitation GPU) et mise en place du monitoring (reprise d'erreur, traçabilité). Développement logiciel : Création de packages Python réutilisables. Vous garantissez la qualité via des tests unitaires, de la documentation et l'intégration dans les pipelines CI/CD. API & Services : Développement d'API via Azure Functions ou Azure Container Apps. Collaboration métier : Travail quotidien avec les Data Scientists pour industrialiser leurs modèles (notamment sur des algorithmes de bagging et boosting). Cycle de vie projet : Participation complète de l'étude de faisabilité à la mise en production, incluant le suivi en RUN et l'amélioration continue. Détails de la mission Localisation : Niort (présence obligatoire sur site 3 jours par semaine). Démarrage : 04/05/2026. Durée : Jusqu'au 31/12/2026 (visibilité fin d'année). Tarif : Selon profil et expérience.
Mission freelance
Tech Lead Data & Viz
Management Square
Publiée le
Data modelling
Microsoft Power BI
Snowflake
1 an
530-570 €
Île-de-France, France
Nous recherchons un Tech Lead Data (Snowflake/dbt) & Power BI pour piloter la delivery technique de produits data et solutions BI : définition des standards, revue de code, CI/CD, qualité, performance et gouvernance (incl. RLS). Vous serez responsable de la chaîne Snowflake → dbt → modèle sémantique → Power BI, de l’industrialisation et du run (incidents/post‑mortems), tout en mentorant l’équipe. Tech Lead Data & Viz pour l'équipe DAAS Expertise Snowflake/Azure Data Factory Aide au cadrage technique sur les initiatives et projets du périmètres. Expertise Power BI sur le périmètre Regions : best practices à rédiger, template, etc
Offre d'emploi
🔎 Data Engineer Senior – Apache NIFI / Databricks (H/F)
UCASE CONSULTING
Publiée le
Apache NiFi
Azure
Databricks
1 an
40k-45k €
400-550 €
Île-de-France, France
Bonjour à tous 😀 🚀 Contexte de mission Nous recherchons un Data ingénieur - Référent technique Nifi et Data , vous intervenez au sein d’une équipe Data & IA sur des environnements critiques à forte volumétrie. L’objectif : concevoir, optimiser et sécuriser les flux de données dans un contexte de production exigeant, avec des enjeux forts de continuité de service . 🎯 Vos missions Développer et maintenir des pipelines de données (Apache NIFI / Databricks) Optimiser les flux existants (performance, fiabilité, scalabilité) Assurer le RUN et le support (HNO / 24-7) Mettre en place et améliorer les processus CI/CD Superviser les traitements (monitoring, alerting) Participer aux études techniques et POC Produire la documentation et les reportings d’incidents Être force de proposition sur l’ amélioration de l’architecture data ✅ Must Have Expertise Apache NIFI Très bonne maîtrise de Databricks Expérience solide sur Azure Bon niveau en Python & Spark Expérience en environnement de production critique (RUN / incidents) Connaissance CI/CD (Git / GitLab) Expérience en monitoring (type DataDog) Bonne maîtrise des bases de données (PostgreSQL) Expérience en Agile / Scrum ➕ Nice to Have Connaissance AKS (Kubernetes) Expérience avec Zookeeper Background sur des projets data à forte volumétrie Culture DevOps / automatisation avancée
Offre d'emploi
Chef de Programme Data & IA – Product Owner Socle Data & IA
VISIAN
Publiée le
Azure
Azure Data Factory
Data quality
1 an
40k-45k €
400-610 €
Île-de-France, France
Contexte de la mission Dans le cadre de la modernisation d’un socle Data & IA et de la mise en place d’un modèle de décentralisation gouvernée, le Chef de Programme Data & IA intervient en tant que référent transverse sur la plateforme Data & IA. Il est garant de la cohérence entre les enjeux de modernisation technique, d’adoption métier et de gouvernance de la donnée, dans un environnement Data Platform à forte ambition IA. Missions principales 1. Pilotage du programme Data & IA Définir et piloter la roadmap du socle Data & IA Prioriser les initiatives métiers et techniques Participer aux arbitrages d’investissements et au séquencement des chantiers Assurer la cohérence avec le modèle de décentralisation et la stratégie IA 2. Rôle de Product Owner plateforme Recueillir et prioriser les besoins des utilisateurs (métiers, équipes Data & IA, etc.) Piloter le backlog de la plateforme Structurer les releases et le capacity planning Suivre les KPIs de performance (qualité, adoption, stabilité, time-to-market) 3. Chantiers structurants Migration vers une architecture Data Lakehouse (type Databricks / Unity Catalog) Mise en place de la Data Quality industrialisée Déploiement de la Data Observability end-to-end Modernisation de l’offre de service de la plateforme Data 4. Coordination Data & IA Assurer l’interopérabilité entre Data, ML et IA générative Structurer la collaboration entre équipes DataOps et MLOps Préparer la plateforme aux usages IA avancés (exposition Data Products, APIs, etc.) 5. Animation et structuration Clarifier les rôles et responsabilités (RACI) Améliorer les pratiques agiles et les rituels de pilotage Accompagner la montée en maturité des équipes
Mission freelance
Expert Data Quality - Azure & IA
STHREE SAS
Publiée le
6 mois
75001, Paris, Île-de-France
🚀 Expert Data Quality / Architecte Data - Azure & IA 📍 Paris | 💼 Mission longue | 🌍 FR / EN 🎯 Contexte Nous recherchons un expert Data Quality senior pour intervenir sur une plateforme data Azure à fort enjeu métier (finance / asset management) . L'objectif : structurer, automatiser et industrialiser la qualité des données , tout en exploitant les nouvelles capacités de l'IA . 🧩 Votre mission Vous interviendrez comme référent Data Quality / Architecte , avec une vision bout‑en‑bout : 🔍 Auditer l'existant et définir une stratégie Data Quality cible ✅ Concevoir et déployer des règles de qualité (complétude, cohérence, unicité, fraîcheur…) ⚙️ Automatiser les contrôles, rejets fonctionnels, alertes et workflows 📊 Mettre en place le monitoring, le reporting et les KPI de qualité 🤖 Intégrer l' IA pour : générer des règles de qualité détecter anomalies et dépassements de seuil faciliter les contrôles en langage naturel 🧑🤝🧑 Travailler avec les équipes IT et métiers et assurer le transfert de compétences 🛠️ Environnement technique Microsoft Azure Data Platform (Data Lake, Data Factory, Synapse, Purview) PySpark / SQL Power BI (exposition des KPI qualité) Data Governance & Data Quality frameworks 👤 Profil recherché 🎓 Bac+5 (école d'ingénieur ou équivalent) 🧠 7 à 12 ans d'expérience en qualité des données / data management 🏦 Expérience en finance / banque / asset management appréciée 🏗️ Profil Lead / Architecte , autonome et structurant 🌍 Français et anglais professionnels 🌟 Pourquoi cette mission ? Enjeux data critiques et visibles au plus haut niveau Plateforme Azure moderne Forte ambition autour de l'IA appliquée à la Data Rôle clé avec impact stratégique 📩 Intéressé(e) ? Envoyez‑nous votre profil ou échangeons rapidement.
Offre d'emploi
Développeur BI / .NET (SSIS, SSAS, Azure)
Management Square
Publiée le
.NET
Azure
Azure Data Factory
1 an
50k-55k €
500-550 €
Paris, France
Contexte de la mission Dans le cadre de la modernisation d’un outil interne de pilotage de données financières (type cube décisionnel), une organisation recherche un consultant BI expérimenté pour accompagner la transformation technique et fonctionnelle de cette plateforme. L’outil permet le suivi d’indicateurs clés liés à l’activité (notamment des données financières et opérationnelles) et est utilisé par plusieurs départements métiers. Objectifs de la mission Le consultant interviendra sur plusieurs axes : Migration d’une architecture décisionnelle existante vers des technologies plus modernes Transition vers une plateforme cloud (Microsoft Azure) Enrichissement fonctionnel de l’outil Mise en place de mécanismes d’alerte automatisés Support opérationnel et maintenance évolutive Responsabilités principales 1. Modernisation de l’architecture Migration d’un modèle SSAS multidimensionnel vers un modèle tabulaire Optimisation des performances et des modèles de données Adaptation et migration des flux d’intégration de données (SSIS) Refonte et migration des rapports (SSRS) Déploiement de la solution sur Azure (Analysis Services, Data Factory, SQL Database, etc.) Intégration de nouvelles sources de données via API 2. Évolutions fonctionnelles Développement de nouveaux indicateurs et KPI Amélioration des règles de gestion et des calculs existants Intégration de nouvelles sources de données Extension du modèle de données 3. Mise en place d’un système d’alerting Définition des événements déclencheurs (seuils, anomalies, etc.) Développement de mécanismes d’alertes automatisées (emails, dashboards…) Intégration fluide avec l’écosystème existant 4. Support et maintenance Support applicatif de niveau 2/3 Analyse et résolution des incidents Collaboration avec les utilisateurs métiers Garantie de la stabilité et de la performance de la solution
Mission freelance
Expert / Lead tech IA & Data
CAT-AMANIA
Publiée le
Agent IA
Azure Data Factory
VBA
3 ans
Lyon, Auvergne-Rhône-Alpes
- S’approprier l’écosystème CDOC, comprendre les risques et les enjeux liés à la refonte de CDOC - Comprendre la trajectoire cible de CDOC (exposition applicative IA, APIs, découplage) - Recenser et qualifier les cas d’usage IA autour des documents CDOC en collaboration avec les parties prenantes - Identifier et comprendre les mises en œuvre existant de l’IA - Travailler dans le respect des process et méthode de travail de CATS (performance, coût et qualité IA, sécurité et gouvernance) - Travailler avec les architectes CATS et CAGIP pour définir l’architecture cible - Animer les ateliers de cadrage techniques IA - Documenter l’ensemble des choix et arbitrages techniques Document de cadrage de l'architecture cible, définissant les choix techniques (chunking, embedding, vectorisation), la gouvernance, la sécurité et le cycle de vie documentaire, afin de garantir une solution cohérente, maîtrisée et industrialisable, prête à être mise en œuvre. sécurisé et partagé permettant d’exposer les documents CDOC aux usages d’Intelligence Artificielle.
Mission freelance
Backend .NET Developer - Data & Integration
Halian
Publiée le
.NET
Azure
12 mois
400-800 €
Paris, France
Une organisation internationale renforce son équipe IT Delivery dans le cadre d’un programme de transformation multi‑phases visant à moderniser et optimiser les flux de données et les applications existantes. L’objectif est d’améliorer le traitement des données, la fiabilité des solutions et leur intégration avec les plateformes cœur du système d’information. Le poste s’inscrit dans un environnement Agile, en collaboration étroite avec des interlocuteurs fonctionnels et techniques. Responsabilités Développer et maintenir les composants backend et les workflows de données à partir des spécifications fonctionnelles Participer à la modernisation et au remplacement des flux de données existants vers une architecture cible Concevoir et mettre en œuvre des APIs et des solutions d’intégration de données Garantir la qualité du code en appliquant les bonnes pratiques (clean code, design patterns) Collaborer avec les business analysts et les autres développeurs dans un cadre Agile Contribuer aux phases de tests, à la documentation et à l’amélioration continue des solutions
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Nouveau volet social dans la déclaration d'impôts sur le revenu
- Passer de micro à SASU avec des factures en attente : comment récupérer son reliquat ARE ?
- Simulateur urssaf pour nouvelle regle avec cipav et EURL introuvable ?
- Offre fictifs et offre non sérieuses
- Retour d'expérience démission-reconversion
- Vue CV
5061 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois