Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 111 résultats.
Freelance

Mission freelance
Agile Release train Manager

Codezys
Publiée le
Gestion des risques
Scrum

12 mois
Aubervilliers, Île-de-France
Le Data Office a adopté une méthodologie Agile à l’échelle, inspirée de SAFe, pour améliorer la prévisibilité, la qualité des livraisons et la création de valeur au sein du Groupe. Une communauté mondiale de Data Leaders favorise l’alignement stratégique entre les Business Units, la collaboration, le partage de bonnes pratiques et l’amélioration continue, notamment via des retours d’expérience (RETEX) post-projets. Le poste a pour objectif de renforcer la coordination, la performance et la dynamique collective autour des initiatives data en combinant : Pilotage Agile Release Train (ART) Animation d’innovation Gestion de communauté Objectifs & Livrables 1) Pilotage Agile Release Train (ART) Animation du Capacity Planning : préparation, orchestration des événements de planification, alignement des squads sur la stratégie et les engagements clés. Gestion des dépendances et des risques : identification des points de blocage, levée d’obstacles, anticipation et mitigation des risques. Amélioration continue : organisation de sessions Inspect & Adapt pour optimiser efficacité, qualité et maturité Agile. Coaching Agile & outillage : accompagnement des squads dans l’adoption des principes Lean-Agile, avec éventuellement un rôle de Scrum Master. Optimisation du flow : suivi des indicateurs (vélocité, prédictibilité, régularité) pour assurer un flux constant de valeur. 2) Innovation & Intelligence collective Organisation de hackathons : gestion complète (identification des problématiques, mobilisation, prototypage MVP) pour accélérer l’innovation transversale. Animation d’ateliers d’intelligence collective : facilitation avec des méthodes comme Design Thinking ou 1-2-4-All pour résoudre des problématiques complexes. 3) Community Management (communauté Data Leaders) Curations de contenu : synthèse de cas d’usage, RETEX, bonnes pratiques, récit pour la newsletter “Talking about Data”. Animation & engagement : conception et pilotage d’un calendrier annuel d’événements pour fédérer, inspirer et aligner la communauté. Mise en réseau : facilitation des échanges entre pairs et développement d’un écosystème autonome de partage d’expertise data.
Freelance

Mission freelance
Consultant(e) Fonctionnel(le) / Business Analyst – Plateformes de Trading H/F

ADSearch
Publiée le
Business Analyst
Cash Management
Data governance

3 mois
La Défense, Île-de-France
Contexte de la mission Dans le cadre de l’évolution des applications IT , la mission consiste à rédiger les spécifications d’implémentation des fonctionnalités identifiées sur les périmètres Cash et Derivatives , en conformité avec la nouvelle méthodologie de documentation . Le/la consultant(e) interviendra au cœur des équipes IT et métiers, dans un environnement Agile , afin de concevoir, formaliser et documenter les services fonctionnels des plateformes de trading. Objectifs de la mission Concevoir et spécifier les services fonctionnels de la plateforme Traduire les besoins métiers en spécifications fonctionnelles claires et exploitables Garantir la cohérence fonctionnelle, applicative et data des solutions proposées Produire une documentation fonctionnelle conforme aux standards et méthodologies en vigueur Responsabilités principales Rédiger les User Stories et participer à leur refinement avec les équipes Agile Réaliser les spécifications fonctionnelles détaillées Définir et documenter les interfaces externes (flux, échanges inter-applicatifs) Produire les documents d’analyse fonctionnelle Définir la configuration fonctionnelle des solutions Documenter le modèle de données / modèle d’information Travailler en étroite collaboration avec les équipes : Métiers Développeurs Architectes QA / Tests Livrables attendus Artefacts Agile sur l’ensemble des sprints : User Stories Critères d’acceptation Documents de spécifications fonctionnelles Spécifications d’interfaces Documents d’analyse fonctionnelle Documentation du modèle d’information / modèle de données Environnement méthodologique et technique Méthodologie : Agile / Scrum Domaines fonctionnels : Cash & Derivatives Systèmes : Optiq, MATRIX, SATURN Contexte : Systèmes de trading et marchés financiers
CDI
Freelance

Offre d'emploi
Data Engineer (H/F)(spécialisation et certification Snowflake exigées)

SERYCE
Publiée le
Agile Scrum
Azure
Data analysis

12 mois
Paris, France
Data Engineer (spécialisation Snowflake) Contexte du poste Au sein de la Direction des Systèmes d’Information, le Data Engineer rejoint l’équipe Data, responsable de la conception, de la mise en œuvre et de la maintenance des solutions d’exploitation et de valorisation des données. Dans un contexte de modernisation du SI et de structuration des usages data, l’entreprise déploie la plateforme Snowflake , solution cloud de référence pour unifier le stockage, le traitement et le partage des données. Missions principales Le Data Engineer interviendra sur l’ensemble de la chaîne de traitement de la donnée : 1. Conception et développement Concevoir, développer et orchestrer les flux de données sur Snowflake (Snowpipe, Streams, Tasks, Snowflake Pipelines). Définir et maintenir les modèles de données (zones Raw, Staging, Core, Data Marts). Développer des pipelines d’ingestion et de transformation de données (batch, near real-time). Garantir la qualité, la performance et la fiabilité des traitements. 2. Intégration et industrialisation Optimiser les coûts, la gouvernance et les performances de la plateforme Snowflake. Documenter les architectures, flux, schémas et traitements. Participer à l’industrialisation des processus Data Engineering (DataOps). 3. Gouvernance et sécurité des données Collaborer avec le Head of Data et le Data Architect pour concevoir une plateforme data conforme aux standards. Mettre en œuvre les bonnes pratiques de sécurité (RBAC, gestion des rôles et privilèges), de catalogage et de gestion des métadonnées. Contribuer à l’amélioration continue des normes de gouvernance data. 4. Support et amélioration continue Assurer le support technique des environnements Snowflake. Identifier les axes d’amélioration et accompagner les évolutions de la plateforme data. Former et accompagner les utilisateurs métiers, analystes et équipes BI.
Freelance

Mission freelance
Data Engineer cloud Google (GCP)

KEONI CONSULTING
Publiée le
API
Google Cloud Platform (GCP)
Python

18 mois
100-500 €
Paris, France
CONTEXTE : Notre stack technique est principalement constitué de Python, Spark, SQL, BigQuery, Dataplex pour la qualité des données, Airflow pour l’orchestration des traitements et Terraform ainsi que Terragrunt pour l’industrialisation. La stack inclut aussi d’autres services de la Google Cloud Platform. mission de l’ équipe 1. Déployer les datasets normés sur un ou plusieurs des data domain 2. Accompagner les utilisateurs des datasets normés dans leurs usages 3. Mettre en place le contrôle qualité sur ces datasets MISSIONS : Dans un premier temps, la prestation consiste à : • Concevoir et réaliser les contrôles qualité sur les données de la plateforme Data, en exploitant Dataplex Universal Catalog • Industrialiser ces contrôles grâce à Terraform et Terragrunt • Concevoir et réaliser les indicateurs nécessaires au pilotage de la qualité des données • Concevoir et réaliser la remontée de ces indicateurs dans notre data catalog Collibra En marge de l’objectif de livraison de livraison précédent et en interaction avec les membres de l’équipe, la suite de la mission consiste à : • Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l’équipe • Participer aux initiatives de gouvernance des données en développant les contrôles de qualité des données • Construire et maintenir de pipelines data robustes et scalables • Accompagner les membres de l’équipe dans l’exploitation et le requêtage des données • Organiser et structurer le stockage des données • Mettre en place et maintenir des infrastructures scalables capable de répondre aux besoins et à l’accroissement rapide du volume de données • Construire et maintenir les workflows de la CI/CD • Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur • Assurer l’évolutivité, la sécurité, la stabilité des environnements • Participer aux différentes instances des data ingénieurs • Contribuer et veiller à la mise à jour de la documentation • Faire de la veille technologique active dans le domaine Expertises demandées pour la réalisation de la prestation : • Au moins 5 ans d’expérience en tant que Data Ingénieur dans un environnement data • Compétences solides en data : structures de données, code, architecture • Expériences dans la conception et la réalisation de pipelines data • Expériences dans un environnement du cloud Google (GCP) • Expériences intégrant BigQuery et Dataplex Universal Catalog • Expériences intégrant les langages Python et SQL • Expériences intégrant Spark • Expériences intégrant des flux avec l’API Collibra • Expériences intégrant Terraform et Terragrunt • Expériences intégrant Gitlab et Gitlab CI/CD • Expériences intégrant les méthodologies Agile : Scrum ou Kanban • Capacité à vulgariser et à communiquer sur des aspects purement techniques • Junior : moins de 3 ans d’expérience significative dans le type d’expertise demandé • Confirmé : 3 à 5 ans d’expérience significative dans le type d’expertise demandé • Sénior : plus de 5 ans d’expérience significative dans le type d’expertise demandé
Freelance

Mission freelance
Data analyste ET ANALYTICS Platform AWS AZURE PYTHON Anglais 500 e par jour

BI SOLUTIONS
Publiée le
AWS Cloud
Python

3 ans
400-500 €
Île-de-France, France
Data analyste ET ANALYTICS Platform AWS AZURE PYTHON Anglais 500 e par jour Évolution des infrastructures cloud via l’Infrastructure as Code Gestion d’un cluster kubernetes Développement de micro-services en Python Conception et maintenance de chaînes de déploiement automatisé Assurer le bon fonctionnement opérationnel de la Data & Analytics Platform Enrichissement de la documentation à l’attention des utilisateurs Expérience significative sur le cloud AWS et/ou Azure, notamment sur les services de données (Gen2 et ou S3). Développement d’application web. Connaissance des pratiques du software craftsmanship. Bonne connaissance de la méthodologie Agile. Familiarité avec les mécanismes de traitement et de valorisation des données. Python, Terraform GitHub, GitHub Action Azure : AKS, Data Lake Gen2, Data Factory AWS : EKS, S3, ECS, VPC, NSG, Lambda, … Databricks : Unity Catalog, Policy, Cluster, PySpark Pratiques : Scrum Notions : DevSecOps, Data Engineering, Data Management Langues : Anglais et Français 500 e par jour
Freelance

Mission freelance
POT8833 - Un Data Analyste Confirmé sur Mer

Almatek
Publiée le
Java

6 mois
280-400 €
Mer, Centre-Val de Loire
Almatek recherche pour l'un de ses clients Un Data Analyste Confirmé sur Mer. **Contexte :** Le service Modélisation des Données recrute un Data Analyst pour soutenir ses projets et la maintenance liés à la restitution et à l’analyse de données. Ce service gère le Système d'Information Décisionnel, qui repose sur un Datawarehouse alimenté par des traitements ETL et des chaînes Change Data Capture (IBM IDR, Kafka). Ce Datawarehouse est la source de données pour divers outils de reporting et de datavisualisation (Power BI, COGNOS) ainsi que pour la mise en œuvre de cas d’usage IA. **Missions principales :** Le prestataire agira sous la direction du responsable du service Modélisation des Données et ses missions incluront : - Projets de SI Décisionnels : Modélisation de données, conception de rapports, et assistance aux utilisateurs finaux. - Power BI : Point de contact technique pour les utilisateurs finaux et les Publishers de Power BI, réalisation de reportings complexes. - Migration de Dataplatform : Refonte de reporting COGNOS/Power BI vers Superset, refonte de chaînes ETL TALEND vers Dagster, et conception de datamarts. Projet en agilité. Le poste comporte une dimension technique importante ainsi qu’une forte composante relationnelle, nécessitant une analyse des besoins, leur validation, et le suivi en mode projet. Une sensibilité aux problématiques de gouvernance des données est également cruciale. **Compétences requises :** - Organisationnelles : - Suivi de projet en tant que contributeur MOE. - Collaboration avec des équipes sécurité/réseau/etc. - Techniques : - Maîtrise du SQL, de l’indexation et de l’optimisation SQL (4 ans d’expérience minimum). - Power BI Desktop, Power BI Report Server, DAX, RLS (2 ans d’expérience minimum). - Modélisation de données et constitution de datamarts (4 ans d’expérience minimum). - Apache Superset (1 an d’expérience souhaitée). - COGNOS C11 (1 an d’expérience minimum). - Développement Python (2 ans d’expérience minimum). - Connaissance des ETL (SSRS, Talend). - Connaissance de Java. - Savoir-être : - Capacité d’analyse : Comprendre et formuler un besoin, animer des ateliers, et identifier les impacts pour déterminer la meilleure solution. - Excellente capacité rédactionnelle. - Expérience en agilité (Kanban, Scrum). **Connaissances métier :** Une connaissance du monde des Titres et une expérience significative dans le secteur bancaire seraient des atouts supplémentaires, mais ne sont pas obligatoires. Localisation : Mer (proche d'Orleans) + Télétravail
Freelance

Mission freelance
Business Analyst / Scrum Master Senior – Finance & IA

PARTECK INGENIERIE
Publiée le
Agile Scrum

12 mois
400-550 €
Paris, France
Contexte Accompagnement du projet sur des sujets Finance et Intelligence Artificielle. Missions Recueillir et analyser les besoins métiers Traduire les besoins en user stories et backlog priorisé Animer les rituels Agile (Scrum) Faire le lien entre métiers, tech et data Garantir la valeur métier des solutions IA Profil recherché 10+ ans d’expérience en BA et/ou Scrum Solide connaissance des enjeux Finance Expérience de projets IA en production Excellentes capacités de communication Anglais Réelle expérience de projet IA en production
Freelance
CDI

Offre d'emploi
Business Analyst (H/F)

OMICRONE
Publiée le
Business Analysis
Business Analyst
Data analysis

2 ans
40k-45k €
400-520 €
Luxembourg
📢 Opportunité – Business Analyst (H/F) 📍 Luxembourg | 🏭 Secteur : Énergie | ⏳ Mission longue durée Dans le cadre du renforcement de ses équipes projets, un acteur majeur du secteur de l’énergie basé au Luxembourg recherche un Business Analyst expérimenté pour intervenir sur des projets stratégiques à fort impact métier et réglementaire. 🎯 Contexte de la mission Vous interviendrez au cœur des projets de transformation et d’optimisation des systèmes d’information, en lien étroit avec les équipes métiers, IT et les parties prenantes externes. Les projets concernent notamment la gestion des données, les processus métiers, la conformité réglementaire et l’amélioration de la performance opérationnelle. 🧩 Missions principales Recueil, analyse et formalisation des besoins métiers Animation d’ateliers avec les parties prenantes (métiers, IT, partenaires) Rédaction des spécifications fonctionnelles et user stories Traduction des besoins métiers en solutions fonctionnelles adaptées Contribution à la définition des processus cibles et à leur optimisation Suivi des développements et accompagnement des équipes techniques Participation aux phases de tests fonctionnels et de recette Support au déploiement et accompagnement du changement Interaction avec des environnements réglementés (énergie, conformité, reporting) 🧠 Profil recherché Expérience confirmée en tant que Business Analyst (minimum 5 ans souhaités) Solide compréhension des processus métiers complexes Expérience dans des environnements structurés et réglementés (énergie, utilities, industrie, finance appréciée) Très bonnes capacités d’analyse, de synthèse et de communication À l’aise dans des contextes multi-acteurs et internationaux Autonomie, rigueur et sens du service Anglais professionnel requis (environnement international) Le français est un plus 🛠️ Environnement fonctionnel & technique (indicatif) Méthodologies Agile / Scrum Outils de gestion des exigences et de suivi (Jira, Confluence ou équivalents) Systèmes d’information complexes, data-driven Interfaces avec équipes IT, data, architecture et sécurité 💼 Conditions Localisation : Luxembourg Démarrage : selon disponibilité Type : mission de conseil / prestation longue durée
CDI

Offre d'emploi
Lead Product Manager - Front E-commerce

Espritek
Publiée le
Agile Scrum
Produit minimum viable (MVP)

Ivry-sur-Seine, Île-de-France
A NOTER : Passage à 4 jours sur site / 1 jour TT. Le client E-commerce / Retail engage une refonte de son organisation produit Front e-commerce afin de gagner en cohérence, en efficacité et en impact business. Aujourd’hui, plusieurs Product Managers contribuent sur des périmètres transverses (Navigation / CARE), parfois sur une même page web, ce qui dilue la vision produit. Dans ce contexte, nous recherchons un Lead Product Manager Front, capable de porter une vision produit transverse, d’accompagner plusieurs PO et de piloter des enjeux business majeurs. Périmètre : 2 Product Owners à accompagner Forte interaction avec les équipes Back, data, search et métiers 70 % Discovery 30 % Delivery
Freelance
CDI
CDD

Offre d'emploi
Data Engineer Snowflake / AWS / Informatica / Qlik (H/F)

SMARTPOINT
Publiée le
AWS Cloud
Snowflake

1 an
40k-65k €
400-550 €
Île-de-France, France
Data Engineer Snowflake / AWS / Informatica / Qlik (H/F) Contexte Dans le cadre de la croissance de notre pôle Data & Analytics , nous recherchons un Data Engineer pour intervenir sur des plateformes data cloud modernes chez nos clients grands comptes. Vous évoluerez dans des environnements Snowflake, AWS, Informatica et Qlik , au cœur de projets à fort impact métier. Vos missions En tant que Data Engineer / Consultant Data , vous serez amené(e) à : Concevoir et développer des architectures data cloud sur AWS Mettre en place et optimiser des data warehouses Snowflake Développer et maintenir des flux ETL/ELT avec Informatica Participer à la modélisation des données (Data Vault, étoile, snowflake) Alimenter les outils de data visualisation et BI (Qlik Sense / QlikView) Garantir la qualité, la performance et la gouvernance des données Collaborer avec les équipes BI, analytics et métiers Environnement technique Cloud : AWS (S3, Redshift, Lambda, Glue…) Data Warehouse : Snowflake ETL / Intégration : Informatica BI / Dataviz : Qlik Sense, QlikView Langages : SQL (indispensable), Python (apprécié) Méthodologie : Agile / Scrum
CDI

Offre d'emploi
Architecte Data spécialisé Databricks (F/H)

Savane Consulting
Publiée le

80k-90k €
Paris, France
Data Architect spécialisé Databricks (F/H) - CDI - Paris 12 - 80-90K€ Contexte Vous rejoindrez la Data Factory , une structure d'excellence au sein du département "Fabrique Digitale" de notre client. Cette équipe accompagne des projets complexes de transformation data en rassemblant l'ensemble des compétences nécessaires : BI, Big Data, Data Analytics, Dataviz et Data Science. La Data Factory adresse des enjeux stratégiques majeurs : construction de référentiels de données, datawarehouses opérationnels, outillages de simulation et prévisions, datalakes, algorithmes prédictifs et tableaux de bord décisionnels. Vous piloterez le déploiement de la plateforme data groupe qui repose sur des concepts architecturaux innovants dont la notion de Data Mesh et des offres de self-service métier. De nouveaux concepts architecturaux structurent la plateforme. Votre expertise sera mobilisée pour : Fournir une expertise d' Architecte Solution orientée usages métiers, avec une connaissance approfondie des projets data en cloud public Servir de référent technique auprès des squads métiers en mode Agile pendant les phases de build et transition vers le run Challenger les besoins et imposer les bonnes pratiques du cadre de cohérence technique Assurer un relationnel excellent avec les équipes projets et les métiers Vous cumulerez les responsabilités d'un architecte opérationnel et d'un super-tech-lead, avec une implication quotidienne auprès des équipes de développement. Missions : Pilotage technique et accompagnement des projets Fournir l'expertise technique plateforme aux squads projets, du cadrage jusqu'à la mise en service Représenter la plateforme data groupe lors des cérémonies Agile (Go/NoGo, réunions stratégiques) Assister les tech leads dans leurs choix architecturaux et la rédaction des DAT (Document d'Architecture Technique) Identifier et évaluer les risques techniques (fonctionnalités manquantes, impacts planning Onboarding et accompagnement des équipes Réaliser l'onboarding des squads projets pour l'architecture plateforme et les bonnes pratiques Assister aux entretiens de recrutement des tech leads et développeurs métier Coacher les équipes pour optimiser les solutions et mettre en place des méthodologies de monitoring Sensibiliser à la gouvernance des données, en particulier données sensibles et données à caractère personnel Supervision et coordination Superviser les interventions des Data Ingénieurs plateforme (ingestion, exposition de données) Coordonner avec les leads de pratique (Data Management, Dataviz, ML Ingénieur) S'assurer de la validation architecturale de bout en bout avec les autres SI Participer aux phases de VSR (Verification & Service Readiness) Support et exploitation Contribuer au MCO (Maintien en Condition Opérationnelle) en tant que support N3 Participer à la résolution d'incidents en production Réaliser les actes de restauration du service Conduire l'analyse des root causes des dysfonctionnements Documentation et qualité Vérifier la complétude des contrats d'interface fournis par les squads projets Garantir la qualité technique et documentaire des livrables Contribuer à l'amélioration des briques socle et leur cadrage technique Contributions transversales Apporter votre expertise de data engineer et d'architecte opérationnel à la Data Factory Contribuer à des PoC et études ciblées Participer aux cérémonies Scrum Agile Réaliser des démos et présentations auprès des clients Livrables attendus Développements et scripts demandés Documents de cadrage, DAT et rapports d'avancement Macro estimations budgétaires et offres de solution technique Analyses de risques techniques et audits de faisabilité Cahiers de tests et procédures d'installation en production Documents de paramétrage et procédures de maintenance Rapport de fin de mission détaillant la démarche, développements réalisés, difficultés et solutions apportées
Freelance

Mission freelance
PO Testing & Quality Gate - Datadog

Cherry Pick
Publiée le
Agile Scrum
API
API Platform

12 mois
480-550 €
Île-de-France, France
Product Owner Technique – Performance Testing & Quality GateContexte Dans un environnement digital à forte volumétrie et à forts enjeux de fiabilité, nous recherchons un Product Owner Technique spécialisé en tests de performance, tests de charge et qualité applicative . Vous interviendrez au sein d’une plateforme transverse fournissant des outils et services de Performance Engineering aux équipes de développement. L’objectif : garantir la performance, la scalabilité et la non-régression des applications avant mise en production.
CDI

Offre d'emploi
Product Owner / Product Manager CDI (H/F)

█ █ █ █ █ █ █
Publiée le
Akeneo
Scrum

Lille, Hauts-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI

Offre d'emploi
Product Owner Analytics - (H/F)

DAVRICOURT
Publiée le

40k-50k €
Paris, France
Dans le cadre de la réalisation d'un projet en assistance technique, nous recherchons un(e) Data Analyst / Product Owner Data Manufacturing pour l'un de nos clients du secteur agroalimentaire en Île-de-France. À ce titre, vos missions quotidiennes seront les suivantes : - Recueillir et formaliser les besoins métiers liés à la donnée manufacturing ; - Transformer la donnée brute en KPI et dashboards exploitables ; - Construire ou faire évoluer des reportings et produits data ; - Piloter le backlog et travailler dans un environnement agile (Scrum / SAFe) ; - Collaborer avec les équipes métiers et techniques au sein d'un écosystème data & analytics. Et après ? En tant que véritable partie prenante de DAVRICOURT, vous vous verrez proposer des projets techniques et à forte valeur ajoutée par nos équipes.
Freelance

Mission freelance
CRM Campaign Specialist – Salesforce Marketing Cloud

Comet
Publiée le
Cloud
Databricks
Datadog

10 mois
Paris, France
Au sein de la Business Unit Customer Growth de Decathlon, vous interviendrez en tant que CRM Campaign Specialist / Salesforce Marketing Cloud Consultant afin d’accompagner le déploiement et l’optimisation de campagnes marketing automatisées à l’échelle internationale. Intégré(e) à un environnement agile et collaboratif, vous travaillerez en étroite collaboration avec 3 squads pluridisciplinaires (design, data, produit) pour piloter des campagnes multicanales orientées performance et expérience client. Votre rôle couvrira l’ensemble du cycle de vie des campagnes CRM : conception, implémentation technique, exécution, suivi de performance et optimisation continue . Vous interviendrez aussi bien sur les aspects stratégiques (ciblage, parcours client, A/B testing) que sur les aspects techniques avancés (email development, AMPscript, SQL, personnalisation dynamique). La mission s’inscrit dans un contexte international, data-driven, avec une forte exigence sur la qualité des livrables, la scalabilité des campagnes et l’amélioration continue de la performance business.
Freelance

Mission freelance
AI Engineer H/F

ODHCOM - FREELANCEREPUBLIK
Publiée le
Azure
Azure AI
C#

6 mois
Paris, France
🔧 Project Description AI Engineer – Assistant IA métier Le consultant interviendra au sein de l’équipe Produit, en collaboration étroite avec : les équipes Plateformes (DevSecOps, Data Platform, AI Platform), l’équipe Produit (CRM), les équipes métiers. La mission couvre plusieurs axes structurants : refonte de l’architecture afin de permettre un découplage et une abstraction de l’accès aux données ; intégration de nouveaux parcours utilisateurs sur des canaux mobiles et des applications métiers existantes (CRM, Outlook, Teams) ; connexion à de nouvelles sources de données (Outlook, SharePoint, applications métiers) ; extension géographique (Monaco, Luxembourg) et extension métier (Corporate, Asset Management) ; convergence avec Copilot et renforcement des parcours pre-meeting / post-meeting ; mise en place d’un monitoring avancé. 🎯 Mission Objective & Livrables Objectifs de la mission : Industrialiser l’assistant IA. Garantir la scalabilité, la performance, la sécurité et la conformité réglementaire des solutions IA. Étendre les usages, les périmètres métiers et géographiques du produit. 👤 Responsabilités Conception & mise en œuvre IA Participer à la définition des architectures IA en s’appuyant sur Copilot Studio, AI Foundry et Semantic Kernel, en garantissant performance, sécurité et conformité réglementaire. Concevoir, développer et mettre en œuvre des agents IA (copilotes, assistants métier, agents autonomes) répondant aux besoins des équipes produit et métiers. 2) Cadrage des cas d’usage & collaboration sécurité/produit Collaborer avec les équipes produit, architectes et experts sécurité pour cadrer les cas d’usage, affiner les prompts, orchestrer les workflows et fiabiliser les réponses IA. 3) Intégration SI & interopérabilité Intégrer les agents IA au système d’information existant, notamment via Dataverse, Dynamics 365 CE, Power Platform, API Management (APIM) et MCP Server. 4) Exploitation, monitoring & amélioration continue Mettre en place le monitoring des solutions en production. Contribuer à l’amélioration continue des agents (qualité des réponses, performance et coûts). Prendre en charge les anomalies et évolutions mineures pendant les phases de recette et de production. Proposer des optimisations de coûts liées à l’usage des solutions IA. 5) Capitalisation & montée en compétences Contribuer à la documentation technique, au partage de bonnes pratiques et à la montée en compétences des équipes internes sur les usages IA. 6) Gouvernance projet & mode de delivery (Agile) Participer aux cérémonies agiles Scrum. Reporter aux Product Owners sur l’avancement des travaux. Alerter l’équipe en cas de difficultés rencontrées ou de risques de retard. 7) Veille & innovation (écosystème Microsoft) Assurer une veille sur les évolutions de l’écosystème Microsoft et identifier les apports potentiels dans le contexte du projet.
111 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous