L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 401 résultats.
Mission freelance
Consultant(e) SAP FICO - Data Migration S/4 - IDF
Signe +
Publiée le
SAP FICO
3 mois
550-700 €
Le Plessis-Robinson, Île-de-France
Dans le cadre d’un programme de transformation SAP, notre client recherche un Consultant SAP FI/CO pour intervenir sur un projet de migration de données ECC vers S/4HANA. Le consultant intégrera l’équipe technico-fonctionnelle Data Migration et interviendra principalement sur la définition et la formalisation des règles de transformation et de mapping des données Finance et Controlling. Missions Analyser les modèles de données FI/CO entre ECC et S/4HANA . Définir et documenter les règles de transformation, de mapping et de nettoyage des données . Participer aux ateliers avec les équipes métiers Finance, Controlling et gestion de projet . Contribuer à la conception des objets de migration et des templates de reprise de données . Accompagner les équipes Data Migration lors des phases de migration et de tests (Unit Tests, SIT, UAT) . Identifier les écarts, risques et impacts liés à la migration et garantir la cohérence des données dans S/4HANA. 📍 Localisation : 92 🏢 Présence : 3 jours sur site / 2 jours télétravail 📅 Démarrage : ASAP ⏳ Durée : Mission longue (programme stratégique S/4HANA) 💰 TJM : 600-700 € selon expérience 🌍 Langue : Anglais intermédiaire requis
Mission freelance
Développeur Power BI (RH Data) - Expert
ARGANA CONSULTING CORP LLP
Publiée le
Analyse financière
API
Data analysis
2 mois
450-560 €
Île-de-France, France
Responsabilités & Livrables 1. Modélisation & Structuration des Données (Back-End) Ingestion des données : paramétrer les flux trimestriels depuis le SIRH (API, SFTP, exports plats). Data Preparation (Power Query) : nettoyer, transformer et normaliser les données issues des pays (formats de date, doublons, jointures sur Employee ID). Modélisation (DAX) : créer les mesures et indicateurs calculés complexes (taux de complétion, scores moyens pondérés, évolution N vs N-1). 2. Visualisation & Design (Front-End) Création de dashboards interactifs respectant la charte graphique existante. UX Reporting : faciliter la navigation par pays, département ou niveau hiérarchique. Sécurité (RLS) : implémenter la sécurité au niveau des lignes pour limiter l’accès aux données selon le périmètre géographique. 3. Optimisation & Performance Audit de l’existant : identifier les goulots techniques ralentissant les livraisons. Automatisation : minimiser les interventions manuelles lors des mises à jour trimestrielles. 👤 Profil Recherché Expertise Power BI : maîtrise avancée de Power Query (M) et DAX. Expérience Data RH : connaissance des indicateurs de performance (Talent Management) appréciée pour comprendre les enjeux métier. Langue : anglais technique requis (modèle de données et documentation). Soft Skills : Rapidité d’exécution : capacité à livrer des prototypes fonctionnels rapidement (méthode agile). Rigueur : précision cruciale, une erreur de calcul peut avoir un impact important sur les décisions RH.
Mission freelance
BA DATA VIZ TABLEAU
Mon Consultant Indépendant
Publiée le
Microsoft Power BI
12 mois
540-600 €
Paris, France
MERCI DE NE PAS POSTULER SI VOUS NE DISPOSEZ PAS: · Expérience en environnement bancaire · Maîtrise avancée des outils Tableau et Power BI · Excellent niveau de communication orale Notre client est une société de financement qui a lancé un projet de mise en place de l'outil DATAVIZ Tableau . Vous aurez plusieurs responsabilités au sein de l'équipe projet dont notamment : · Participer à la formalisation des formations / modes opératoires et des procédures pour acculturer les utilisateurs sur l’utilisation du Datawarehouse/ · Animer les ateliers de prototypage utilisateurs et/ou avec le prestataire, · Accompagner la réalisation des tableaux de bords « Tableau » en binôme avec un expert technique de la solution Conception des TDB et reportings sur « Tableau software» Formation de « Tableau software » Etre en lead sur la phase de conduite du changement Accompagner la structuration de la recette et la mise en qualité des données Assurer le lien avec les chefs de projet et experts
Mission freelance
Consultant Salesforce – revenue operations / finance (freelance) entreprise tech
Mon Consultant Indépendant
Publiée le
Data analysis
Gestion de projet
Salesforce
6 mois
500-550 €
Paris, France
Consultant Salesforce – Revenue Operations / Finance (Freelance) 📍 Paris / Hybride – Démarrage mi-mai ⏱️ Mission : 3 à 6 mois renouvelables Contexte : Nous accompagnons un éditeur SaaS en forte croissance structurant sa fonction Revenue Operations. L’écosystème data & revenue a été fortement enrichi ces 12 derniers mois, alors que Salesforce repose sur une architecture plus ancienne. Cela génère aujourd’hui des frictions dans les flux de données entre Salesforce et les outils de finance (revenue recognition), avec des enjeux critiques de fiabilité et de granularité des données. Mission : Rattaché à la fonction Revenue Operations, en lien étroit avec un Salesforce Tech Lead et le Lead FP&A, vous interviendrez sur un rôle clé de résolution et d’optimisation : · Analyser les flux de données entre Salesforce et les outils finance · Identifier les points de friction et incohérences (data, process, logique métier) · Comprendre les besoins de granularité du revenu (finance) · Mettre en place des correctifs concrets et pragmatiques (quick wins) · Améliorer la qualité et la fiabilité des données utilisées pour : · revenue recognition · upsell / cross-sell · renouvellement · Clarifier et formaliser les règles métier entre Sales, RevOps et Finance · Intervenir directement dans Salesforce (paramétrage, logique, flows…) Objectif : fiabiliser le “last mile” sans refonte complète du système Profil recherché : · Expérience solide sur Salesforce (admin avancé / consultant fonctionnel) · Bonne compréhension des enjeux revenue / finance (SaaS idéalement) · Capacité à travailler sur des flux de données complexes · À l’aise dans des environnements imparfaits / legacy · Profil hands-on, capable d’exécuter et de corriger rapidement · anglais pro · Esprit analytique / “mathématique” (logique, granularité, cohérence data) Soft skills clés : · Pragmatique · Structuré · Autonome · Capable de naviguer entre équipes techniques et finance Bonus : · Expérience en environnement SaaS · Exposition à des outils de revenue recognition / BI / data (type Alteryx…) · Expérience en RevOps Modalités : · Freelance · Durée : 3 à 6 mois (renouvelable) · Démarrage : mi-mai · Localisation : Paris / Bordeaux / hybride
Offre d'emploi
Consultant.e Data Talend F/H
ADDIXWARE
Publiée le
Qlik
Talend
1 an
39k-43k €
370-410 €
Avignon, Provence-Alpes-Côte d'Azur
Nous recherchons un Consultant Talend expérimenté pour accompagner nos clients dans leurs projets Data : intégration, transformation, qualité et gouvernance des données. Vos missions : - Développer et maintenir des flux d'intégration de données via Talend - Participer aux projets de gouvernance data, de la conception à la mise en production - Intervenir sur la visualisation et le pilotage des données (compétences Qlik appréciées) - Analyser les besoins métiers et proposer des solutions fiables et performantes - Assurer le support, la documentation et la qualité des livrables - Accompagner les équipes internes et favoriser la montée en maturité data
Offre d'emploi
Chef de Projet IT Senior (Programme Data International)
Gentis Recruitment SAS
Publiée le
BI
KPI
Microsoft Excel
12 mois
Paris, France
Contexte de la mission Dans le cadre d’un programme stratégique de transformation des systèmes d’information, un grand groupe international du secteur de l’énergie renforce son équipe IT afin de piloter un programme data transversal à l’échelle internationale. Le projet vise à structurer et industrialiser la gestion des données B2B au sein de plusieurs entités du groupe, en mettant en place des standards communs de gouvernance, de qualité de données et de reporting. L’objectif est de disposer d’une source de données fiable et harmonisée permettant d’améliorer la prise de décision dans plusieurs domaines : ventes, opérations, finance, gestion des risques et conformité carbone. Le programme s’inscrit dans un contexte international impliquant plusieurs pays et nécessite une coordination forte entre équipes métiers, équipes IT et responsables data. Missions principales Le consultant interviendra en tant que Chef de Projet IT Senior et aura pour responsabilités principales : Piloter la mise en place d’indicateurs et de métriques de performance sur plusieurs entités internationales Assurer l’onboarding et la coordination des différentes parties prenantes du programme Garantir le respect des objectifs projet en termes de périmètre, planning, budget et qualité Assurer la coordination entre les équipes IT, les architectes et les équipes métiers Piloter les processus de communication, gestion des risques, gestion des incidents et gestion du changement Superviser la livraison des développements IT conformément à la roadmap définie Produire les reportings et préparer les instances de gouvernance du programme Participer à la structuration de la gouvernance data et à l’alignement entre les différents streams du programme Livrables attendus Plan de suivi du projet Reporting d’activité et indicateurs de performance Tableaux de bord KPI Suivi de l’avancement des développements Documentation de gouvernance et supports pour les comités de pilotage Roadmap et plan de déploiement du projet à l’international Compétences techniques requises Gestion de projet IT (plus de 10 ans d’expérience) Pilotage de programmes internationaux Reporting et mise en place de KPI Plateformes décisionnelles et outils de reporting Modélisation de données Maîtrise avancée des outils bureautiques (Excel notamment) Compétences fonctionnelles Expérience significative dans des projets data ou BI Bonne compréhension des architectures fonctionnelles et des systèmes d’information Expérience de déploiement de projets dans des environnements internationaux Capacité à piloter des transformations impliquant plusieurs entités Compétences comportementales Leadership et capacité à embarquer les équipes Excellente communication écrite et orale Forte capacité d’analyse et de structuration Capacité à travailler dans un environnement complexe et évolutif Aptitude à coordonner des équipes multidisciplinaires Langues Anglais courant indispensable Français apprécié
Offre d'emploi
Chef de Projet WMS/Data
R&S TELECOM
Publiée le
Microsoft Access
12 mois
40k-48k €
400-480 €
Lille, Hauts-de-France
Contexte Dans le cadre de la modernisation de notre système de gestion d’entrepôt, nous engageons un programme d’implémentation du Warehouse Management System (WMS) MAWM (Manhattan WMS SAAS). L’objectif est de construire un core model et de le déployer progressivement dans 50 entrepôts sur 7 ans. Dans ce contexte, nous lançons un appel d’offres afin de trouver un chef de projet data pour intégrer nos équipes. Objectif de la mission En tant que Chef de Projet Data, votre mission est d'assurer le pont entre les besoins métier Data (Supply Chain/Logistique) et l’équipe produit WMS. Vous serez chargé d’orchestrer et contribuer à l’avancement des chantiers reporting, définition des business terms et de gouvernance de la donnée. Vos responsabilités Sous la responsabilité du responsable data, vous piloterez les chantiers suivants : ● Pilotage : Animation de comités projets et d’ateliers avec les équipes métier et techniques. ● Cadrage : Accompagner les équipes data et produit dans la définition des besoins. ● Design Data : Participer à la définition des objets métier et leur cycle de vie. ● Analytics & Business Intelligence : Concevoir et développer des rapports et dashboards stratégiques pour le pilotage opérationnel de l'entrepôt
Offre d'emploi
AI Engineer
UMANTIC
Publiée le
45k-60k €
Pessac, Nouvelle-Aquitaine
# Fiche de Poste — AI Engineer * * * Démarrage souhaité : Dès que possible Localisation : Pessac Niveau de profil : Senior * * * ## Contexte de la mission Dans le cadre du développement de solutions d'intelligence artificielle avancées, notre client — grand groupe du secteur des télécommunications et services numériques — recherche un AI Engineer expérimenté pour concevoir et développer des architectures agentiques basées sur des modèles de langage (LLM). * * * ## Missions et responsabilités * Concevoir et développer des agents IA en s'appuyant sur des frameworks agentiques (LangChain, LangGraph ou équivalents) * Développer et exposer des API et services backend robustes et modulaires * Implémenter des mécanismes de tool calling dans des architectures LLM * Intégrer et exploiter le protocole MCP (Model Context Protocol) * Appliquer les principes d'architecture logicielle moderne (Clean Architecture, modularité, découplage) * Conteneuriser et déployer les services via Docker / Kubernetes * Participer à la documentation technique et aux revues de code * * * ## Compétences requises ### Indispensables Domaine | Compétence ---|--- Langage | Python (maîtrise solide) Backend | FastAPI ou framework équivalent IA / LLM | LangChain, LangGraph ou similaires Architecture LLM | Tool calling, architectures agentiques Architecture logicielle | Modularité, Clean Architecture, découplage Conteneurisation | Docker ### Appréciées Domaine | Compétence ---|--- Orchestration | Kubernetes Protocoles IA | MCP (Model Context Protocol) — montée en compétence rapide acceptée * * * *
Offre d'emploi
Développeur Java Spring / Data / Greenplum / Vtom - Niort
HR DNA
Publiée le
Greenplum
Java
Spring
2 ans
40k-55k €
400-510 €
Niort, Nouvelle-Aquitaine
Nous recherchons actuellement, pour un client du secteur de l'assurance basé à Niort, un développeur Java Spring avec : - des connaissances Data - de l'expérience sur Greenplum - des connaissances en accès API - de l'expérience sur un orchestrateur comme Vtom par exemple 2 jours sur site à Niort par semaine obligatoire. Si vous êtes intéressé, envoyez-moi votre CV par mail Nous recherchons actuellement, pour un client du secteur de l'assurance basé à Niort, un développeur Java Spring avec : - des connaissances Data - de l'expérience sur Greenplum - des connaissances en accès API - de l'expérience sur un orchestrateur comme Vtom par exemple 2 jours sur site à Niort par semaine obligatoire. Si vous êtes intéressé, envoyez-moi votre CV par mail
Mission freelance
Chef de Projet / Lead Sécurité Data & Cloud (GCP) H/F
Inventiv IT
Publiée le
BI
Data governance
Google Cloud Platform (GCP)
6 mois
Niort, Nouvelle-Aquitaine
Contexte de la mission Suite à un audit interne, la mission vise à : Structurer une roadmap sécurité Data Renforcer la protection des données Améliorer le maintien en condition opérationnelle (PRA / PRI) Sécuriser la migration vers le Cloud (GCP) Aligner les pratiques avec les exigences RSSI / PSSI / RGPD Environnement hybride : On Prem + GCP. Objectifs de la mission Structurer et piloter la sécurisation du patrimoine Data Mettre en œuvre les exigences PCI / PRI Data Revoir et fiabiliser les habilitations On Prem & Cloud Renforcer la gouvernance des données sensibles Sécuriser les outils Data / BI / Data Science Contribuer aux exigences RSSI (vulnérabilités, audits, recommandations) Compétences techniques clés Architecture sécurité Cloud (GCP) BigQuery security & Data masking IAM avancé PRA / PRI Data Governance Sécurité applicative Data Environnements Hadoop / Oracle Soft skills Leadership transverse Capacité à dialoguer avec RSSI & CoDir Structuration roadmap Vision stratégique et opérationnelle Responsabilités principales Sécurisation des accès Revue des habilitations On Prem et Cloud Mise en œuvre du principe de moindre privilège Gestion des comptes applicatifs et nominatifs Automatisation des habilitations Cloud Amélioration du processus de revue des droits PRA / PRI Data Structuration PCI / PRI Data Cartographie applicative & technique Identification des criticités Organisation sauvegardes et tests de restauration Priorisation PCI Cloud Gouvernance & protection des données Revue criticité données (RH, Finance, SP, IARD) Anonymisation / pseudonymisation / masking Harmonisation vers masking dynamique BigQuery Auditabilité & conformité RGPD Sécurisation des outils Cartographie des principes SSO Sécurisation outils BI & Data Science Implémentation OAuth2 / SSO Ségrégation projets GCP Coordination sécurité Interface RSSI / DDSI / Data Office Intégration périmètre Data dans outils internes Suivi vulnérabilités Animation comités sécurité Data Environnements techniques Cloud : GCP, BigQuery, DBT, Data Fabrik Cloud On Prem : Hadoop, Hive, Oracle, SAS, Informatica / PowerCenter, NAS Outils Data / BI / Data Science : Dataiku, BO, Tableau, RStudio, Jupyter, IDE Python Référentiels & sécurité : LeanIX, IAM, OAuth2 / SSO
Offre d'emploi
Software Engineer Python - Editeur de logiciel - CDI F/H - Informatique industrielle (H/F)
█ █ █ █ █ █ █
Publiée le
Angular
AngularJS
Ansible
Paris, France
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Mission freelance
Ingénieur Snowflake
STHREE SAS pour COMPUTER FUTURES
Publiée le
DBT
Snowflake
12 mois
110-430 €
Île-de-France, France
Bonjour, Je suis à la recherche d’un Ingénieur Snowflake: Missions principales : Ø Concevoir, développer et maintenir des pipelines de données ELT haute performance en utilisant Snowflake et dbt Ø Modéliser les données aux niveaux conceptuel et technique en fonction des besoins métier Ø Optimiser les requêtes SQL et les modèles dbt afin de garantir des performances optimales Ø Mettre en œuvre et maintenir une infrastructure DataOps pour l’automatisation des déploiements Ø Configurer et gérer la sécurité des données (RBAC, Row-Level Security, Dynamic Data Masking) Ø Assurer une ingestion efficace des données depuis AWS S3 vers Snowflake Ø Orchestrer les flux de données via dbt et créer des DAGs avec une gestion appropriée des tags Ø Implémenter des tests de qualité des données via les tests dbt Ø Gérer les aspects administratifs des bases Snowflake
Offre d'emploi
Senior Engineer Snowflake
VISEO
Publiée le
Cloud
DBT
Snowflake
12 mois
Boulogne-Billancourt, Île-de-France
En tant que Senior Ingénieur Snowflake, vous serez responsable de : Conception & Architecture Concevoir, modéliser et optimiser les architectures Data Warehouse / Data Lakehouse sous Snowflake. Définir la stratégie d’ingestion, de transformation et de stockage des données. Concevoir des pipelines data performants et sécurisés. Développement & Industrialisation Développer des flux de données (ETL/ELT) avec Snowflake, SQL, Python et outils d’intégration (DBT, Fivetran, Airflow…). Optimiser les performances des warehouses, requêtes SQL et processus de calcul. Mettre en place des environnements CI/CD pour les projets data. Sécurité & Gouvernance Implémenter les bonnes pratiques de sécurité : gestion des rôles, RBAC, chiffrement, monitoring, FinOps. Gérer la qualité des données, le catalogage et la gouvernance. Support & Collaboration Collaborer avec les équipes Data, IT, BI et Métier pour comprendre les besoins. Fournir support, documentation et bonnes pratiques. Participer à la veille technologique autour de la Data & du Cloud. Compétences techniques recherchées Indispensables Maîtrise de Snowflake (warehouses, compute, storage, performance, sécurité). Excellente maîtrise du SQL avancé. Expérience sur un cloud public (AWS, Azure ou GCP). Connaissance des architectures Data (DWH, Lakehouse, MPP, data pipelines). Appréciées DBT, Airflow, Fivetran, Matillion ou équivalents. Python pour la manipulation et l’automatisation. Outils BI (Power BI, Tableau, Looker…). Pratiques DevOps : Git, CI/CD, Terraform. Connaissances en IA / Machine Learning (bonus).
Mission freelance
Master Data Management Specialist
Codezys
Publiée le
CRM
Gouvernance
Migration
12 mois
Grand Londres, Royaume-Uni
Objet de l'appel d'offres : Ce projet vise à soutenir la consolidation, le nettoyage et la standardisation des données relatives aux comptes clients provenant de sources legacy multiples. L'objectif ultime est de créer un ensemble de données maître précis et uni, destiné à être migré vers une nouvelle plateforme CRM Salesforce. Cette initiative s'inscrit dans la stratégie du groupe Veolia, alignée sur la vision de devenir une organization largement prête pour l'intelligence artificielle d'ici 2027, dans le cadre du plan GreenUp. Objectifs et livrables Analyse et Profilage des Données : Examiner l'ensemble des données clients existantes, identifier les problématiques de qualité de données, duplications, incohérences et lacunes. Stratégie de Nettoyage des Données : Mettre en œuvre une méthodologie exhaustive de nettoyage, incluant la déduplication, la standardisation, et la validation selon des règles métier prédéfinies. Consolidation des Données : Assister à la fusion des enregistrements clients issus de diverses sources à l'aide d'algorithmes de correspondance et de règles métier pour générer des enregistrements "golden". Préparation à la Migration Salesforce : Structurer les données nettoyées conformément au modèle de données Salesforce et préparer des jeux de données prêts pour la migration. Assurance Qualité : Mettre en place des contrôles de validation, réaliser des audits de qualité de données, et garantir leur exactitude avant la migration. Documentation : Élaborer, suivre et ajuster une documentation détaillée incluant des dictionnaires de données, des règles de transformation, des systèmes de gestion de la qualité et des manuels de migration. Collaboration avec les Parties Prenantes : Collaborer étroitement avec les équipes internes pour résoudre les conflits de données, valider les règles métier, et assurer l'alignement avec les besoins opérationnels. Formation et Transfert de Connaissances : Accompagner les ressources internes concernant les bonnes pratiques de gouvernance de données et la maintenance continue des données. Profil des candidats Les soumissionnaires doivent présenter une expertise avérée dans la gestion de projets de consolidation et de migration de données, avec une expérience significative en environnement CRM, notamment Salesforce, ainsi qu'une forte compréhension des enjeux de gouvernance des données. La capacité à travailler en équipe, à documenter avec précision les processus, et à transférer ses connaissances est également essentielle.
Offre d'emploi
Ingénieur OPS Senior - FLUX CFT, SECURE TRANSPORT, MQSERIES
VISIAN
Publiée le
CFT (Cross File Transfer)
IaaS (Infrastructure-as-a-Service)
1 an
Île-de-France, France
Contexte Le bénéficiaire souhaite une prestation d'ingénierie de Production (rôle IT OPS) pour accompagner un programme de résilience. Le projet est stratégique pour un grand groupe bancaire et s'inscrit sur plusieurs années. En fonction des spécificités, les applications sont actuellement déployées sur deux types d’infrastructure : une infrastructure legacy (machines physiques ou VM) dite "On premise". une infrastructure Cloud dédiée mise en œuvre en partenariat avec un acteur majeur du secteur IT. Il est important de noter les éléments suivants : Le candidat doit avoir une solide expérience à la fois sur la partie technique et sur la partie gestion de projet. Une forte culture infrastructure, système & réseau est indispensable avec une expérience en contribution projets côté OPS. Missions Point d'entrée au sein de l'équipe de Production sur le projet de résilience pour l'ensemble des acteurs. Déploiement d'infrastructure et d'applications vitales dans le cadre de la résilience régionale du Cash Management. Mise en place de la connectivité (Protocoles PESIT, EBICS, FTPS, SFTP / CFT / Secure Transport / MQSeries). Organisation et exécution des tests techniques de résilience inter-sites. Participation aux tests de résilience et performance applicatives. Proposition et réalisation des optimisations si opportunités (automatisation / simplification / standardisation). Documentation rigoureuse (Base de connaissances : Cartographie des flux, Service Now, Confluence, Wiki, Sharepoint, supports classiques) des procédures et dossier d’exploitation. L’ingénieur OPS intervient au sein d'une équipe mode Agile (Scrum), autonome et pluridisciplinaire, composée de ressources IT métiers (les « Dev ») et de ressources OPS, responsabilisées autour d’un ou plusieurs produits. Dans ce cadre, il : Participe à l’ensemble des rituels Agile (Sprint planning, Daily Meeting, Review, Rétro). Communique des exigences infrastructure et exploitation dans le product backlog. Participe à l’évaluation de la complexité des User Stories lors des sprint planning. Implémente les User Stories techniques et d’exploitation du Product Backlog. Réalise durant le sprint de façon autonome les tâches relatives à la production, ou bien coordonne les parties prenantes « Production Mutualisée » extérieures à l'équipe Agile pour laquelle il intervient. Déclare les obstacles (impediments) et les remonte aux bons interlocuteurs. Supporter les bonnes pratiques OPS : Assurer la montée en compétence de l’équipe Agile sur les bonnes pratiques DevOps (Profil confirmé et Senior). Sensibiliser et propager les bonnes pratiques OPS au sein de l’équipe. Faire monter en compétence les membres de son équipe sur les outils d’exploitation mis à disposition dans le cadre DevOps. Promouvoir les solutions standards ou expérimentales répondant aux problématiques de l’équipe ou orienter vers les architectes. Challenger l’équipe sur les solutions proposées en s’appuyant sur son expertise Ops. Contribuer à l'enrichissement du backlog des fonctions OPS : Remonter les feedbacks vers les équipes OPS pour identifier les prochaines fonctionnalités des composants d’infrastructure à développer. Faciliter les déploiements : Participer à la mise en place des Jalons Qualités (Quality Gates). Contribuer à la mise à disposition des ressources d’infrastructure : Anticiper les problématiques de conformité aux règles et standards d’architecture, de sécurité, de délais de livraisons et de mise à l’échelle des solutions proposées. Obtenir et gérer les ressources techniques en tant que référent. Implémenter et surveiller l’utilisation des services de production (OpStore…). Assurer la traçabilité des accès aux machines (OS, Espace de stockage, routeurs …). Tester l’exploitabilité des environnements techniques (backup/restore, accès aux données, performances…). Identifier les points de blocage Ops (flux, sécurité, réseau…) puis alerter et proposer des plans d’action. Contribuer au Maintien en Conditions Opérationnelles (MCO) du Produit : Implémenter la surveillance et la supervision des ressources d’infrastructures. Participer à l’amélioration des outils de surveillance et supervision. Communiquer l’analyse des résultats à l’équipe. Proposer des ajustements concernant les indicateurs de pilotage des produits. Veiller à la disponibilité d’une documentation d’installation et d’exploitation à jour et validée. Contribuer à la gestion des incidents. Contribuer à la gestion des problèmes (Time to fix / Time to repair - Réparation de la cause qui a généré l’incident). Appliquer les principes du continuous operations / exploitation.
Mission freelance
Gen AI Engineer
INVESTIGO
Publiée le
700 £GB
Angleterre, Royaume-Uni
My client, a leading name in FS, are looking for a Gen AI Engineer with hands-on implementation of Gen AI solutions required on a contract basis for 6 months plus extensions, with 2 days per week in London. Our client is looking at a pay rate of £700 per day inside IR35. Role & Responsibilities Working with business and technology stakeholders and contributing hands-on to the delivery of Gen AI-enabled application development across the EMEA region. Key Responsibilities Hands-on implementation of Gen AI solutions based on approved designs and architectural standards Develop, fine-tune and optimise LLMs and Gen AI models for production use Build, maintain and enhance prompt engineering strategies and retrieval-augmented generation (RAG) pipelines Collaborate with architects, cloud teams and business stakeholders to ensure secure, scalable and robust deployments Conduct unit and integration testing, troubleshoot issues and support smooth releases into production Maintain accurate documentation for code, processes and configurations Monitor, analyse and improve model performance post-deployment Partner with Cloud teams to enable secure and maintainable Gen AI solutions aligned with enterprise architecture standards Monitor the evolving AI landscape and identify relevant applications for the organisation Guide development teams through solution implementation, testing and deployment Provide guidance and mentorship to other team members Required Skills Experience delivering architectural or Gen AI solutions within a multi-entity, multi-regional financial services environment Proven experience working with senior stakeholders across business and technology functions Experience architecting and delivering Gen AI solutions across cloud platforms (Microsoft Azure, AWS, OCI, etc.) Strong expertise in developing Gen AI solutions in Python using frameworks such as LangChain, LangGraph, Microsoft Agents SDK or similar Experience with CI/CD pipelines and MLOps practices for AI solutions Hands-on experience in model development and fine-tuning Deep expertise in prompt engineering and RAG solution design Performance monitoring and optimisation of AI models Experience developing and deploying APIs using API Gateway Familiarity with Azure cloud services for LLM deployments including App Service, Azure Functions and Logic Apps Experience with Azure AI and data services including Azure OpenAI, Azure Cognitive Services, Azure AI Search, Azure Cosmos DB, Azure Data Lake, Microsoft Purview, Power Platform and Microsoft Graph Expertise in LLM integration patterns such as MCP and A2A Experience designing solutions integrating on-premise and cloud systems within regulated environments Experience using GitHub Copilot or similar AI-assisted development tools
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
2401 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois