L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 338 résultats.
Mission freelance
DevOps AI Construire des application
Codezys
Publiée le
Azure
Azure Data Factory
Azure DevOps Services
12 mois
Nanterre, Île-de-France
Localisation :92 Démarrage : Mars Jours obligatoires sur site : 1 jours/semaine Expérience : Confirmé TJM: Selon profil Contrainte forte du projet: Agile, GenAI, RGPD, AI Act Les livrables sont: -Composants applicatifs et intégrations -Pipelines d'automatisation et de déploiement -Assurance qualité et documentationDescription détaillée **VOTRE MISSION** * Implémenter et maintenir les composants applicatifs nécessaires aux solutions GenAI : APIs, services backend, interfaces frontend et connecteurs vers les briques IA (agents, RAG, vector DB). * Travailler en binôme avec l’AI Engineer pour intégrer proprement les modèles et pipelines GenAI dans des architectures robustes et industrialisées. * Concevoir des APIs sécurisées et scalables (REST/GraphQL) et assurer l’intégration avec OneAPI, Azure services et les API internes. * Développer en Python et en JavaScript selon les besoins du projet ; produire du code propre, testé et documenté. * Participer à l’industrialisation : conteneurisation (Docker), orchestration sur AKS, déploiement via CI/CD (Azure DevOps / GitHub Actions), IaC (Terraform). * Mettre en place l’observabilité et l’alerte (logs, métriques, traces) pour assurer la fiabilité et suivre les coûts en production. * Assurer la qualité logicielle : tests unitaires/intégration, revue de code, performance et sécurité applicative (RBAC, chiffrement, bonnes pratiques secure-by-design). * Contribuer à la création de briques réutilisables, templates et patterns pour accélérer les futures squads (boilerplates, SDKs, connecteurs). * Collaborer avec le PO, l’AI Engineer, la DSI, la cybersécurité et les équipes opérationnelles pour garantir l’exploitabilité et l’adoption. Il /elle développe et exploite les produits / plateformes Cloud dans le respect du cadre technique/technologique instauré. Activités et tâches - Développe les nouveaux produits, réalise les tests unitaires et rédige la documentation technique - S'inscrit dans la chaine CI/CD - S'intègre dans les pratiques de développement instaurées (revue de code, tests de vulnérabilité, qualité de code) - Identifie les optimisations à réaliser sur les techniques d'automatisation et de déploiement - Sécurise la production readiness des produits (tests d'intégration, scripts d'exploitation, automatisation des actions de support, documentation technique) - Assure l'exploitation des produits / plateformes Cloud et répond aux incidents d'exploitation associés (selon les niveaux de services définis) - Contribue à l'amélioration continue des produits / plateformes Cloud - Apporte une expertise technique aux utilisateurs / clients / consommateurs sur son périmètre de produits/plateformes Cloud - Anime ou participe à la communauté Cloud DevOps
Mission freelance
101070/Test Engineer Nantes : Cloudera Hadoop,Squash TM (Test Management),MS Azure Databricks,Jira
WorldWide People
Publiée le
Azure
Cloudera
12 mois
330-350 €
Nantes, Pays de la Loire
est Engineer Nantes QUALIFICATION : Cloudera Hadoop,Squash TM (Test Management),MS Azure Databricks,Jira Confluence, Mission à temps plein dans le secteur financier, d'une durée de 1an minimum. Elle consiste à tester et intégrer des solutions de données dans le cadre d'un projet de migration d'un lac de données sur site vers une plateforme cloud Azure Databricks. Contexte : - Cette mission s'inscrit dans un projet de migration d'un lac de données sur site (ODLG) vers une plateforme cloud Azure Databricks pour le domaine financier. - Ce domaine comprend une trentaine de sources de données et une trentaine de cas d'utilisation à migrer d'ici mi-2028. - La mission est axée sur les tests et l'intégration, les tests fonctionnels étant gérés par l'AMOA. Responsabilités : - Définir les scénarios de test et rédiger la documentation de test. - Exécuter les tests. - Enregistrer et suivre les anomalies. - Fournir des indicateurs de progression et de qualité. - Proposer des outils d'automatisation ou d'IA pour optimiser les activités de test et garantir la pérennité des tests, le cas échéant. La prestation nécessite les compétences suivantes : - Maîtrise de Microsoft Azure, Databricks et Cloudera pour l'exécution des tests. - Expérience pratique de Jira/Confluence et Squash pour la documentation et le suivi. - Connaissance d'Archimate pour la documentation. - Capacité à travailler de manière autonome et en équipe. - Solides compétences analytiques et de résolution de problèmes. - Excellentes compétences en communication pour documenter et présenter les activités et les résultats des tests.
Mission freelance
Expert IAM Azure
Signe +
Publiée le
Administration linux
IAM
Terraform
6 mois
270-450 €
Toulouse, Occitanie
Description détaillée de la prestation : Le consultant devra soutenir l’équipe OPS IAM dans : • la conception, la construction et le déploiement des services IAM sur Azure, • la migration d’éléments tels que les proxies d’autorisation, les annuaires LDAP et les services de provisioning, • la livraison de guides d’exploitation, d’architectures HLD/LLD, et la réalisation du transfert de connaissances aux équipes internes, • un support éventuel de niveau 3 sur les composants mis en place. Techno : • Maîtrise solide : Linux, Azure, automatisation (Terraform, Ansible, GitHub) • Très bonne connaissance de l’écosystème IAM (OIDC, SAML2, LDAP) • Expertise en PingAccess et OpenLDAP ; connaissance PingFederate / PingOne appréciée • Expérience avérée sur la conception et l’implémentation d’architectures IAM dans Azure • Bonne communication FR/EN et capacité à travailler en équipe
Offre d'emploi
Ingénieur infra cyber sécurité sur Issy Les Moulineaux
EterniTech
Publiée le
AWS Cloud
Azure
Infrastructure
1 an
Issy-les-Moulineaux, Île-de-France
Je recherche pour un de mes clients un Ingénieur infra cyber sécurité sur Issy Les Moulineaux Contexte, description du projet : Au sein de la DSI de la Branche Grand Public et Numérique, la Direction de la Maîtrise des Risques SI est la garante de l’identification et du déploiement des bonnes pratiques en matière de sécurité SI (incluant l’exploitation des outils de cybersécurité, la gestion des identités et des accès, la détection des incidents de sécurité, …), ainsi que de la mise en place des outils de contrôle. Vous serez rattaché à l’équipe « Prévention », équipe à part entière du Centre de sécurité Opérationnelle (CSO), pour contribuer à la mise en œuvre, l’évolution, et l’exploitation quotidienne des outils de cybersécurité. Notamment : • Déployer et opérer les AV/EDR et Scanner de vulnérabilités • Assurer le MCO de ces outils de sécurité • Produire les reporting liés à la gestion des EDR/AV et à la gestion des vulnérabilités • Assurer une veille technologique en matière de méthodes et outils de sécurité • Contribuer au traitement des incidents de sécurité • Assurer l’interfaçage avec le support éditeur pour le traitement des incidents et des évolutions • Définir et implémenter les politiques de scan de vulnérabilités • Comprendre les enjeux et contextualisation des données • Déployer le service de gestion des vulnérabilités et l’implémenter techniquement • Gérer les assets • Gérer les scans (Actif, passif, WAS, AWS, AZURE, Authentifié ou non) • Gérer les rapports d’analyse (Dashboard, Reports) • Structurer l’ordre de correction • Apporter un support aux clients à la prévention et à la remédiation • Exercer une veille technologique pour anticiper les risques et les menaces • Analyser les menaces et les risques dans le contexte • Apporter un appui méthodologique dans les standards actuels de sécurité et qualité • Faire de l’amélioration continue des processus • Assurer la qualité des livraisons de service • Reporter auprès du responsable du service et des clients du service • Rédiger les alertes et incidents de sécurité (tickets ; Jira, ServiceNow) et de rapports d’analyse. Environnement et conditions techniques : • McAfee/Trellix, Eset, Kaspersky, Sophos, Cylance, Sentinel One, Carbon Black, Tehtris… • Qualys, Dynatrace App-Sec, Tenable, CyberWatch, Bitsight, Dependcy Track… • Fortinet, Palo-Alto, Stormshield, Mikrotik… • Nessus, Cyberwatch, Armis, Rapid7… • Linux (Redhat, CentOS, Debian, Windows) • VMware VCD, KVM, OVirt, NSX-T, AWS (déploiement, services, tarification) • Scripting/Développement (bash, perl, python, java) • Supervision (Nagios, ServiceNav, Zabbix, Cloud-watch) • Outils de ticketing (ServiceNow, Jira) Objectifs et Enjeux de la prestation : Apporter un support aux clients internes et projets sur les sujets sécurité des infrastructures ( On-promise et Cloud) : • Assurer un support et une expertise technique sur le choix des contrôles de sécurité adaptés aux besoins BGPN et conformes aux politiques et directives sécurité du client. • Anticiper les besoins des clients et les évolutions de la plateforme. • Apporter l’expertise technique afin de réaliser le déploiement/Accompagner de l’EDR (Tehtris) et l’AV (Trellix) sur l’ensemble du parc serveurs BGPN • Apporter l’expertise technique afin de réaliser qualifier les alertes de vulnérabilités et apporter l’assistance à l’analyse pour l’ensemble du parc serveurs BGPN Compétences Techniques : • Bonne connaissance des EDR/AV (expérience sur un projet de déploiement d’une technologie leader souhaitable) • Bonne connaissance des outils de gestion des vulnérabilités • Bonne connaissance des infrastructures SI globalement • Bonne connaissance des projets applicatifs • Bonne connaissance des pratiques SAFE Livrables : 1. Rédaction des Procédures, modes opératoires, processus, fiches reflexes ... 2. Réalisation des différents reporting (KPI, Dashboard...) Démarrage: 04/05/2026 Durée 01 an
Mission freelance
Azure Data Architect (Maroc)
AVALIANCE
Publiée le
Azure
Azure AI
Azure Data Factory
3 ans
Maroc
Contexte : Définition des besoins assistance au design / rédaction TAD (functional/Non Functional) Accompagner les squads projets dans la mise en place d’architectures data sécurisées et scalables sur Azure Collaborer avec les architectes data, sécurité, entreprise et les DevOps dans chaque squad. Garantir la bonne intégration et l’usage des composants Azure liés à la data. Assurer l’isolation, la sécurisation et le bon routage des accès aux données. Compétences attendues : Expertise Cloud Azure (Infrastructure), notamment : Azure Data Factory Azure Databricks Azure Data Lake Storage Azure Synapse Analytics Connaissances approfondies des problématiques d’architecture sécurisée, d’accès aux données, et de segmentation des environnements. Expérience dans l’intégration Power BI avec des ressources Azure (via Data Gateway, par exemple). Capacité à travailler en environnement agile multi-squad Périmètre technique : Ingestion de données depuis différentes sources (bases relationnelles, fichiers, APIs). Stockage des données dans un Data Lake et modélisation dans un Data Warehouse. Orchestration et transformation via Azure Data Factory et Databricks, intégration potentielle de modèles Machine Learning. Mise en place de pipelines ELT : structuration des données pour les rendre exploitables par les métiers. Restitution des données via Power BI (connexion entre Power BI SaaS et bases PaaS via Data Gateway)
Mission freelance
Consultant DevOps / Cloud – Infra as Code & GenAI (Terraform)
Comet
Publiée le
AWS Cloud
Azure
1 an
400-800 €
Île-de-France, France
Dans le cadre d’un programme stratégique au sein d’un grand groupe international du secteur de l’énergie, nous recherchons un Consultant DevOps expérimenté spécialisé en Infrastructure as Code (Terraform) et en environnements cloud Azure & AWS , avec une forte appétence pour les sujets GenAI et automatisation avancée . Contexte de la mission Vous interviendrez au sein d’une équipe en charge de la définition, industrialisation et maintien des standards d’Infrastructure as Code dans un environnement cloud multi-provider (Azure & AWS). L’objectif est d’ accélérer la production et la maintenance des infrastructures en s’appuyant sur des approches innovantes, notamment via des agents intelligents de génération de code . Missions principales Maintenir et faire évoluer les standards IaC (Terraform) à l’échelle groupe Assurer le support niveau 3 sur les problématiques d’infrastructure Gérer les incidents et problématiques liés aux déploiements, migrations et opérations cloud Concevoir et développer des building blocks réutilisables Garantir les bonnes pratiques DevOps et IaC Développer des agents spécialisés (type GenAI / code assistants) pour automatiser les usages Contribuer à la mise en place d’outils de suivi de performance et KPI (usage GitHub, adoption des composants) Participer à l’optimisation des workflows DevOps et à l’industrialisation globale Environnement technique Cloud : Azure & AWS IaC : Terraform (expertise attendue) CI/CD & versionning : GitHub AI / Dev tooling : GitHub Copilot, Claude, agents IA Approche : DevOps, automatisation, platform engineering
Offre d'emploi
Architecte Cloud (Luxembourg)
EXMC
Publiée le
Azure
Cloud
DevOps
1 an
Luxembourg
• Traduire les exigences métier en conceptions alignées avec le Well-Architected Framework et le Cloud Adoption Framework d’Azure. • Décrire les stratégies de haute disponibilité et de reprise après sinistre, et concevoir des solutions de continuité d’activité. • Concevoir des solutions d’identité, de gouvernance et de supervision. • Concevoir des solutions de calcul (compute) et de réseau. • Concevoir des solutions d’infrastructure. • Concevoir l’architecture applicative et l’intégration des données. • Concevoir des solutions de stockage de données pour des données relationnelles et non relationnelles. • Fournir un support technique durant les phases d’implémentation des projets, y compris les preuves de concept (PoC), pilotes et tests. • Analyser les besoins métier, les traduire en solutions techniques et communiquer des concepts complexes à des publics non techniques. • Définir et maintenir des blueprints d’architecture, des modèles de référence et des design patterns pour les services cloud. • Appliquer les standards architecturaux, les politiques et les cadres de gouvernance. • Développer de l’Infrastructure as Code (IaC) et des pipelines CI/CD pour automatiser le provisionnement et les déploiements. • Piloter des projets de migration et de modernisation vers le cloud. • Assurer les bonnes pratiques de gestion des ressources Azure, de sécurité et de conformité. • Intégrer les bonnes pratiques de sécurité, y compris la gestion des identités, le contrôle d’accès et la protection des données. • Collaborer avec les parties prenantes, les développeurs et les équipes IT pour recueillir les besoins et fournir des orientations architecturales. • Documenter les architectures et fournir des recommandations techniques. • Mettre en œuvre des architectures cloud Azure sécurisées, scalables, résilientes et optimisées en coûts, alignées sur les exigences métier et techniques ainsi que sur les plans , en collaboration avec les développeurs, administrateurs, ingénieurs sécurité et data. • Utiliser des outils comme Azure DevOps et ServiceNow pour suivre les tâches, incidents et changements. • Assurer la conformité aux normes réglementaires (ex : RGPD, ISO) et aux politiques de sécurité internes. • Proposer et mettre en œuvre des solutions innovantes pour améliorer la performance, la sécurité et l’optimisation des coûts. • Explorer et intégrer de nouveaux services Azure et O365 pour renforcer les capacités métier.
Offre d'emploi
Cloud engineer Sénior (530€ MAX)
BEEZEN
Publiée le
Azure
Google Cloud Platform (GCP)
1 an
44k-61k €
400-530 €
Lyon, Auvergne-Rhône-Alpes
3 JOURS SUR SITE Projets Infra France de maintenances, de migrations et de déménagement portant sur les périmètres réseaux, infrastructures legacy (DC historiques), Cloud (Azure, GCP, OCI) ou sur les outils bureautiques France Livrables : ● Cadrage et Note de Cadrage ● Animation Coproj/Copil + compte rendu ● Animation Comité technique + compte rendu ● Suivi projet via outils de gestion de projet (Jira, Gsheet etc.) ● Suivi Budgétaire ● Suivi Plan de Charge ● Suivi des risques ● Document d'architecture des solutions à mettre en oeuvre ● Maîtrise avancée des outils de la Google Suite (Gmail, Sheets, Slides, Google Scripts, Gemini, Looker Studio, Big Query …) ● Diriger des programmes d'envergure nécessitant une maîtrise experte d'un domaine critique pour l'entreprise. ● Solide connaissance des technologies d'infrastructure IT (réseaux, serveurs, stockage, virtualisation, cloud computing, etc.) ● Connaissance des standards et bonnes pratiques ITIL ● Gérer des relations contractuelles complexes avec des partenaires technologiques majeurs et des éditeurs. ● Influencer les décisions stratégiques de l'entreprise grâce à une vision d'expert sur les tendances du marché. ● Valider la cohérence et la pérennité architecturale des solutions déployées au sein du programme spécialisé.
Mission freelance
Ingénieur Analyste Cybersécurité – Expert Auto
Codezys
Publiée le
Automatisation
Azure
Cloud
12 mois
Paris, France
Contexte de la mission Le consultant spécialisé en automatisation DevOps et gestion des événements IT/Sécurité sera chargé d’optimiser l’efficacité des processus opérationnels liés au suivi des incidents et des alertes. Sa mission consistera à concevoir et à déployer des workflows automatisés pour la création et le suivi des tickets, à industrialiser la génération de tableaux de bord et de rapports, tout en assurant une intégration fluide entre les différentes plateformes (ServiceNow, outils de monitoring, outils BI, etc.). Il interviendra dans un environnement technique diversifié comprenant : Outils & plateformes ITSM : ServiceNow, Jira BI / DataViz : Power BI, Grafana, ELK DevOps : GitHub Actions, GitLab, Azure DevOps, Jenkins Développement & scripting Python (prioritaire), PowerShell, Bash, Go API REST / GraphQL Infrastructure & Cloud Azure, AWS, GCP Terraform, Ansible Docker, Kubernetes, OpenShift Systèmes Linux / Windows Objectifs et livrables La mission du consultant portera principalement sur l’automatisation des processus liés à l’IT et à la cybersécurité, avec pour objectifs : Implémenter des automatisations fiables pour la création et le suivi des tickets dans les outils ITSM Développer et industrialiser l’automatisation du reporting et du tableau de bord (KPIs, incidents, SLA) Assurer la connectivité et l’intégration entre les différentes plateformes IT et Cloud afin de fluidifier la gestion des événements Réduire la charge manuelle des opérations récurrentes et chronophages Améliorer la qualité, la rapidité et la fiabilité du suivi des incidents ainsi que des rapports associés Élaborer une roadmap d’automatisation cohérente avec les priorités business et IT Missions principales Conception et développement de solutions d’automatisation Mise en place de pipelines CI/CD et de chaînes d’intégration automatisées Intégration des outils IT et de sécurité Développement de scripts d’automatisation pour le SOC Production de dashboards et de rapports automatisés Amélioration continue des processus opérationnels Accompagnement des équipes dans l’adoption des solutions Livrables attendus Workflows automatisés (création de tickets, gestion d’incidents) Tableaux de bord et reporting automatisés Scripts et pipelines CI/CD documentés Documentation technique et procédures opérationnelles Roadmap pour l’amélioration continue Rapports de suivi de prestation
Mission freelance
Architecte Azure Devops (H/F)
Trust IT
Publiée le
Ansible
Azure
Azure DevOps
3 mois
650-700 €
Nanterre, Île-de-France
Nous recherchons pour un de nos clients un Architecte Cloud Azure qui aura pour mission : 1- Stratégie & Gouvernance Etre force de proposition, Contribuer à définir et garantir la roadmap Cloud Public (Azure) dans une logique multi-cloud. Établir les standards, normes et bonnes pratiques (architecture, sécurité, FinOps, DevOps). Conseiller sur le choix d’hébergement (Cloud Public vs Privé). 2- Architecture & Conception Concevoir des architectures Azure performantes et sécurisées. Réaliser des études techniques détaillées (infrastructure, Network & applicatif). Rédiger les dossiers d’architecture technique et d’exploitation. Définir les processus d’industrialisation et d’automatisation (IaC, CI/CD). 3- Pilotage & Accompagnement Piloter les projets cloud dans le respect des coûts, délais et qualité. Accompagner les équipes projets et assurer le transfert de compétences. Assurer le support de niveau 3 et l’animation d’ateliers techniques. 4- Veille & Innovation Assurer une veille technologique active sur les solutions cloud public. Être force de proposition pour intégrer les innovations pertinentes.
Offre d'emploi
DBA confirmé Mongo DB - PAAS Azure
SYNAPSYS IT
Publiée le
Azure
Mongodb
3 ans
70k-88k €
550-630 €
Colombes, Île-de-France
Nous recrutons un(e) DBA Expert(e) MongoDB –PaaS Azure (H/F) Paris / Île‑de‑France – Télétravail partiel Démarrage : ASAP Le contexte Nous renforçons notre équipe Data & Cloud dans un contexte de modernisation massive et de migration vers des services managés Azure . Nous recherchons un DBA MongoDB confirmé ou expert , capable d’évoluer dans des environnements critiques, distribués et orientés vous aimez les architectures Cloud, l’optimisation de bases NoSQL et les environnements PaaS à grande échelle, cette mission est faite pour vous. Vos responsabilités Administrer et optimiser les environnements MongoDB (replica sets, sharding, indexation, performance). Gérer les bases en mode PaaS Azure : Cosmos DB API Mongo, MongoDB Atlas. Assurer le MCO , la haute disponibilité et le capacity planning. Mettre en place les bonnes pratiques de sécurité : RBAC, chiffrement, Private Endpoints, Key Vault. Superviser les environnements via Azure Monitor / Log Analytics / Atlas Monitoring . Participer aux projets de migration vers Azure et aux évolutions d’architecture Cloud. Automatiser les déploiements (Terraform, Bicep, CI/CD). Documenter, standardiser et accompagner les équipes internes.
Mission freelance
Data Engineer - Azure / Databricks / Power BI
CHOURAK CONSULTING
Publiée le
Azure
Azure Data Factory
CI/CD
3 mois
400-550 €
Île-de-France, France
Nous recherchons un Data Engineer confirmé / senior pour intervenir au sein d’un acteur structuré du secteur des services, sur une plateforme data moderne basée sur Microsoft Azure . 🎯 Contexte de la mission Vous rejoindrez une équipe Data en charge de faire évoluer et industrialiser une plateforme analytique reposant sur Azure & Databricks , avec une forte interaction avec les équipes BI et métiers. ⚙️ Missions principales Concevoir et développer des pipelines de données sur Azure. Mettre en œuvre des traitements et transformations sur Databricks (PySpark / SQL) . Modéliser et structurer les données pour la consommation BI. Collaborer avec les équipes Power BI pour optimiser les datasets. Participer à l’industrialisation (CI/CD, bonnes pratiques, documentation). Contribuer à l’amélioration continue de l’architecture data.
Offre d'emploi
Architecte logiciel à la création d'un portail IA
KEONI CONSULTING
Publiée le
Azure
Copilot
React
18 mois
20k-60k €
100-600 €
Paris, France
CONTEXTE L’équipe Gouvernance et mise en oeuvre de l'IA est en charge : - de gouverner l’utilisation des IA au sein de l’entreprise - de définir une stratégie d’utilisation des IA génératives en fonction des risques ou de contraintes portées par les données sources - d’optimiser les coûts d’utilisation à tout moment dans un contexte Cloud (FINOPS / MLOPS) - de mettre en place une chaîne CI/CD des projets MISSIONS Au sein de l’équipe ""Gouvernance et Mise en oeuvre de l'IA"" composée de 6 personnes, l'architecte logiciel aura pour objectifs d'adapter l'architecture du portail IA et d'aider à la mise en oeuvre des améliorations à apporter au portail IA afin de répondre aux besoins de ses utlilisateurs. A ce titre il sera chargé, en lien avec le chef de projet, de proposer des pistes techniques ou fonctionnelles d'améliorations à partir de la stack technique Open source de RAISE. Il sera en charge de mettre en oeuvre ces pistes et de les documenter afin de permettre ensuite leur maintenance par les concepteurs développeurs de l'équipe. Il sera aussi en charge de prendre en compte les impacts techniques liés aux décisions de la gouvernance IA en réalisant les études d'impacts en cas de modifications structurantes pour le portail IA. Enfin, il sera en charge au sein de l'équipe ""Gouvernance et Mise en oeuvre de l'IA"" et en lien avec les équipes chargées de l'intégration des environnements et de la supervision de la production, de mettre en oeuvre et de maintenir la chaîne CI/CD permettant de délivrer le portail IA. Cette mission pourra impliquer de collaborer avec d'autres compétences d’experts techniques ou fonctionnels, en dehors de l'équipe, en fonction des thématiques traitées. Un excellent relationnel est indispensable afin de savoir prêter assistance à des utilisateurs non technique, notamment en sachant adapter son discours afin de faire comprendre ses idées et être en capacité d'assurer la rédaction de la documentation du portail IA. - De concevoir les évolutions fonctionnelles à apporter à l'architecture technique de la partie Front du portail IA permettant : o un accès sécurisé au catalogue d’assistant IA existant en fonction du profil de l’utilisateur o un parcours d’accueil pour les nouveaux utilisateurs ainsi qu’un accès à des modules de formation de type webinaire o un accès à une FAQ - De concevoir les évolutions fonctionnelles à apporter à l'architecture technique de la partie Back du portail IA permettant : o la création et l'exposition de nouveaux assistants IA par les utilisateurs avec contrôles d'accès o la maintenance et l'évolution des mécanismes de supervision et de suivi de consommation d'IA par les utilisateurs o la maintenance et l'évolution des mécanismes d'exposition des assistants IA en API pour utilisation par les applicatifs métiers - De concevoir les évolutions fonctionnelles à apporter à l'architecture technique des mécanismes de RAG de la plateforme : o en concevant les architectures possibles de pipelines d'ingestions optimisés en fonction du type de documents en entrée et de leur volumétrie o en concevant et aidant à maintenir les mécanismes de la plateforme permettant de tracer la qualité des données ingérées o en concevant et aidant à maintenir les mécanismes de contrôles du profil utilisateur et des droits d’accès aux informations restituées par un assistant ou un agent IA o en participant à la définition des besoins en solutions de bases de connaissances spécialisées, externes ou intégrées au portail IA, en définissant le protocole et les mécanismes d'ingestion des mises à jour au fil de l'eau ou à intervalles réguliers. - Définir ou faire évoluer la chaîne CI/CD permettant de livrer les évolutions du portail IA dans ses quatres environnements (en lien avec les autres équipes en charge de cette problématique à la DSI) o en assurant le paramétrage et la mise en oeuvre de la chaîne sur le cloud AZURE dans une logique DEVOPS o en maintenant à jour la documentation o en sécurisant les mécanismes de tests permettant de valider le déploiement d'une version ou pour garantir le retour arrière en cas de défaut constaté - La conception et la réalisation de prototypes d’assistants IA ""modèle"" préconfigurés en fonction des besoins spécifiques remontés par les ambassadeurs IA et les utilisateurs non techniques - L'assistance technique et la résolution d'incidents en cas de remontée de dysfonctionnements de la plateforme (support niveau 2 & 3) - La mise à jour et l'amélioration de la documentation de la plateforme IA PROFIL Une expérience significative de RAISE, ou de sa stack applicative dans un autre contexte, est un prérequis indispensable au démarrage de la mission (Python, React, Langchain, LangGraph, LangFuse, FastAPI, Celery/Redis, RAGAS, Docling (PDF/OCR), Docker)."
Offre d'emploi
DevOps SRE AZURE (CDI )
KOUKA
Publiée le
Azure
Kubernetes
Site Reliability Engineering (SRE)
40k-64k €
Île-de-France, France
• Maîtrise de la mise en œuvre de pipelines Azure DevOps (YAML, templates). • Expérience avec Kubernetes (AKS) et gestion des déploiements via Helm charts. • Pratique de Datadog (APM, Logs, RUM, dashboards, alerting, runbooks). • Connaissance de SonarQube et de son intégration dans la CI/CD. • Bonnes notions de Windows Servers et environnements hybrides. • Compréhension des principes SRE (SLI/SLO, error budgets, observabilité, postmortems). • Connaissances en développement C#, PHP ou JavaScript appréciées. • Familiarité avec Octopus Deploy est un atout. • Anglais courant indispensable.
Offre d'emploi
QA Automation Python / Azure
KOUKA
Publiée le
Gherkin
Jenkins
Méthode Agile
45k-60k €
Île-de-France, France
Conception et développement de tests automatisés en Python Automatisation des tests API / back-end Mise en place et maintenance des pipelines de tests Intégration des tests dans les pipelines CI/CD (Azure DevOps) Participation à la stratégie de test Contribution à l’amélioration continue de la qualité Collaboration étroite avec les équipes dev, PO, QA, DevOps Python (automation QA) Frameworks de test (ex : Pytest , Behave , Robot Framework ) Tests API ( Postman , REST , JSON , Swagger ) Azure (Azure DevOps, pipelines, environnements cloud) CI/CD SQL apprécié Git
Mission freelance
DATA MESH PLATFORM MANAGER
Codezys
Publiée le
Azure
Cloud
Data governance
12 mois
Courbevoie, Île-de-France
Contexte de la mission Le Groupe met en place une Self-Service Data Platform basée sur les principes du Data Mesh , appelée Group Data Platform (GDP) . La mission vise à concevoir, construire, déployer et exploiter cette plateforme à l’échelle de l’entreprise. Le Data Mesh Platform Manager sera responsable de la mise en œuvre, de l’adoption et du pilotage de la plateforme dans un environnement multi-cloud (AWS/Azure) et hybride, incluant des systèmes on-premise. Objectifs et livrables Construction et delivery de la plateforme Data Mesh : conception de l’architecture, définition des capacités, standards techniques, garantissant scalabilité, performance et sécurité. Livrables : ADR, architecture de référence, roadmap, standards techniques. Architecture cloud et hybride : conception, pilotage des déploiements sur AWS et Azure, intégration des systèmes on-premise, automatisation via Infrastructure as Code. Livrables : blueprint, framework de sécurité, conformité. Delivery et pilotage : gestion du cycle de deliverables, priorisation, suivi de la performance et gestion des incidents. Livrables : roadmap, plan de release, indicateurs de fiabilité. Déploiement dans les domaines métiers : accompagnement des équipes, création de data products, onboarding, résolution des problématiques d’adoption. Livrables : frameworks d’onboarding, playbooks, KPI d’usage, supports de formation. Product management et évolution : recueil des besoins, définition de la vision, mesure de la valeur, améliorations continues. Livrables : vision produit, KPI, feedbacks, roadmap d’évolution. Gouvernance et documentation : documentation des capacités, conformité avec la Data Governance fédérée. Livrables : référentiel, standards, frameworks, playbooks. Communication et reporting : suivi de l’avancement, reporting aux gouvernances, alignement des parties prenantes. Livrables : dashboards, présentations, suivi des décisions. Promotion et évangélisation interne : valorisation de la plateforme, développement de la communauté. Livrables : supports de communication, stratégies d’adoption, démonstrations, cas d’usage.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
1338 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois