L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 4 043 résultats.
Mission freelance
Data Engineer Azure / Databricks
Signe +
Publiée le
Snowflake
12 mois
360-440 €
Clermont-Ferrand, Auvergne-Rhône-Alpes
Contexte Dans le cadre de la structuration de la plateforme data, nous recherchons un Data Engineer pour concevoir, développer et industrialiser les pipelines de données au sein d’une architecture moderne de type Lakehouse sur Azure. Le rôle est orienté build & delivery, avec une forte dimension technique. Missions principales Concevoir et développer des pipelines ELT robustes et scalables Intégrer, transformer et fiabiliser des données issues de multiples sources Développer des traitements distribués en PySpark sur Databricks Orchestrer les flux via Azure Data Factory Optimiser les performances, la qualité et la maintenabilité des jobs Mettre en place des contrôles de data quality, monitoring et alerting Participer à la modélisation des datasets (modèle dimensionnel / star schema) Documenter les flux (lineage, métadonnées, bonnes pratiques) Collaborer avec les équipes BI / Data Analyst / métiers (Power BI) Stack technique Databricks (Spark / PySpark) Azure Data Factory SQL avancé Python Power BI (consommation et compréhension des besoins BI) Azure Data Lake / Lakehouse Compétences requises (must-have) Très bon niveau SQL Python / PySpark confirmé Expérience concrète sur Databricks Expérience Azure Data Factory Conception de pipelines ELT en production Modélisation dimensionnelle Bonne culture performance & fiabilité data Compétences appréciées (nice-to-have) Data quality / data governance / lineage Data Vault Azure Logic Apps Infrastructure as Code (Terraform, CI/CD) Expérience Snowflake ou autres plateformes cloud data Bonne compréhension des enjeux BI / Power BI Profil recherché 3 à 7+ ans d’expérience en Data Engineering À l’aise en environnement cloud Azure Capacité à coder proprement et à industrialiser Esprit produit / orienté valeur métier Autonome, force de proposition
Mission freelance
Expert Sécurité
DEVIK CONSULTING
Publiée le
Azure
Cybersécurité
1 an
500-680 €
Paris, France
Description Pour le compte de notre client grand compte, nous recherchons un Expert Sécurité, qui sera responsable de la cybersécurité des services et plateformes d’Intelligence Artificielle fournis par les équipes Data & Analytics. Il contribuera à la définition de la stratégie de cybersécurité et des politiques associées pour l’ensemble des sujets relatifs aux services et plateformes d’IA. Tâches principales Accompagner les équipes dans l’intégration de la sécurité au sein des projets Accompagner les responsables sécurité métiers sur les sujets liés à Data & Analytics Garantir la conformité continue en matière de sécurité, incluant les plans de remédiation et d’amélioration ainsi que le reporting périodique Renforcer le niveau global de sensibilisation à la sécurité des parties prenantes via des actions de formation et d’awareness Assurer la gestion des incidents de cybersécurité et contribuer à la résolution des incidents majeurs ou situations de crise Piloter la standardisation de la sécurité en définissant et en promouvant des règles et référentiels de sécurité Compétences demandées Cybersécurité : Confirmé Microsoft Azure : Confirmé Data Gouvernance : Avancé Microsoft 365 Copilot : Expert Intelligence Artificielle : Expert Langues Anglais : Courant Français : Courant Lieu : Paris
Mission freelance
Data Engineer Senior – Azure Databricks (Python) (H/F)
HOXTON PARTNERS
Publiée le
Azure
Databricks
Python
6 mois
Paris, France
Dans le cadre d’un projet Data sous environnement Microsoft Azure, nous recherchons un Data Engineer disposant d’une expérience significative sur Azure Databricks (Python). Le consultant interviendra sur la conception, le développement et l’optimisation de traitements data au sein d’une plateforme moderne. Il participera à la mise en place de pipelines de transformation et à l’intégration des flux dans l’écosystème Azure. Les principales responsabilités incluent: Développement de notebooks Azure Databricks en Python / PySpark Conception et optimisation de pipelines de transformation Intégration avec Azure Data Factory Contribution aux sujets de gouvernance via Unity Catalog Participation aux déploiements et bonnes pratiques d’industrialisation (Terraform)
Mission freelance
Testeur & automatisation - Azure devops
PROPULSE IT
Publiée le
Automatisation
Azure
DevOps
24 mois
225-450 €
Le Plessis-Robinson, Île-de-France
Pour l'un de nos clients grand compte situé à la Defense nous recherchons en urgence un profil technique et fonctionnel sur la partie test / recette / automatisation des plans de tests et ayant un niveau confirmé - expérimenté sur la fonction. La maîtrise des principaux services d'Azure Devops et de Sonar sont impératifs pour ce poste long terme. Expérience minimale de 5 ans Confirmé - Impératif : Azure Devops (Pipelines, Test plans, boards, etc) confirmé - Impératif : Expérience en testing fonctionnel et développement de tests automatisés
Mission freelance
Data Engineer Azure Python
Cherry Pick
Publiée le
Azure
Python
SQL
12 mois
600 €
Paris, France
Le Datahub est la plateforme centrale du système d’information d’un acteur majeur de l'épargne. Il centralise, normalise et expose l’ensemble des données pour des usages métiers critiques : calcul des commissions, génération de documents clients, finance, marketing et écosystème partenaires. En tant que Data Engineer (Renfort) , vous rejoignez une équipe de 3 personnes pour accélérer le développement, l’industrialisation et la fiabilisation des pipelines de données dans un environnement en pleine transformation. 🛠️ Stack Technique Cloud & Stockage : Azure (Azure SQL, Cosmos DB). Orchestration & ETL : Azure Data Factory (ADF). Langages : SQL (Expertise requise), Python (Azure Functions). DevOps / IaC : Terraform, Azure DevOps, SonarCloud, Snyk. Évolution : Migration vers Airflow prévue prochainement. 🎯 Vos Missions Développement de Pipelines : Concevoir, maintenir et optimiser les flux d'intégration (ingestion, transformation, normalisation) via Azure Data Factory. Expertise Data : Réaliser des transformations et agrégations de données complexes en SQL, avec un focus sur la performance et la qualité. Industrialisation : Automatiser les processus via Python (Azure Functions) et gérer l'infrastructure via Terraform. Collaboration Métier : Travailler en direct avec les équipes Finance, Marketing et Relation Client pour traduire leurs besoins en solutions techniques robustes. Qualité & Sécurité : Garantir la fiabilité des données et la propreté du code (CI/CD, tests, revues de code). 👤 Profil Recherché Expérience : Data Engineer confirmé (3 à 5 ans d'expérience minimum). Maîtrise SQL : Capacité à gérer des traitements de données volumineux et complexes. Expertise Azure : Expérience solide sur ADF et l'écosystème Cloud Microsoft. Culture Dev : Bonne connaissance de Python et des principes DevOps (Git, CI/CD, Terraform). Soft Skills : Force de proposition, capacité d’adaptation et aisance pour échanger avec des interlocuteurs non techniques. Langue : Anglais professionnel (un vrai plus pour l'environnement international). 💼 Modalités Pratiques Démarrage : Sous 1 mois (disponibilité immédiate ou courte). Durée : Visibilité sur l'année 2026. Lieu : Paris (Locaux haut de gamme). Rythme : 3 jours de présence sur site / 2 jours de télétravail (pas de full remote).
Mission freelance
Ingénieur Cloud Devops H/F
TIBCO
Publiée le
Azure
Cloud
12 mois
600-650 €
Paris, France
Vos attentes * Rejoindre une entreprise à impact pour créer un meilleur demain en prenant soin de l'économie, de l'humain et de la planète ? * Entrer dans une société française qui maitrise son destin * Intégrer une équipe à taille humaine ? * Vous aimez l’autonomie, la création, la prise d’initiative, l’esprit d’équipe ? Mission : 1\. Gestion des pipelines CI/CD : \- Conception et implémentation : Création et maintenance de pipelines CI/CD pour automatiser les processus de compilation, de test et de déploiement des partages de fichiers de stockage. \- Optimisation : Amélioration continue de l'efficacité et de la fiabilité des pipelines. 2\. Infrastructure as Code (IaC) : \- Automatisation : Utilisation d'outils tels que Terraform ou CloudFormation pour gérer l'infrastructure par le code. \- Scalabilité : Garantir une infrastructure capable de s'adapter efficacement à la demande. 3\. Surveillance et journalisation : \- Configuration : Mise en œuvre d'outils de surveillance pour suivre les performances du système. \- Analyse : Analyse des journaux pour identifier et résoudre les problèmes de manière proactive. 4\. Sécurité : \- Bonnes pratiques : Mise en œuvre de mesures de sécurité et de contrôles de conformité au sein des pipelines CI/CD. \- Gestion des incidents : Élaboration et maintenance des plans de gestion des incidents. 5\. Collaboration : \- Équipes transversales : Collaboration étroite avec les équipes de développement, d'assurance qualité et d'exploitation pour garantir des flux de travail fluides. \- Communication : Facilitation des échanges entre les équipes pour une résolution rapide des problèmes. \- Documentation : Création de plans de test ou de documentation de transfert pour permettre aux experts ou aux équipes QA d'utiliser l'automatisation.
Offre d'emploi
Architecte Cloud Azure / SAP Rise
AVA2I
Publiée le
Ansible
Azure
Azure DevOps
3 ans
60k-72k €
500-630 €
Hauts-de-Seine, France
Contexte de la mission Dans le cadre d’un programme stratégique de migration cloud SAP Rise et de la fermeture progressive d’un datacenter on-premise , un grand groupe du BTP renforce son dispositif Cloud Public. La mission s’inscrit dans un contexte Move To Cloud Azure , avec des enjeux forts de sécurité, performance, gouvernance et industrialisation , sur des environnements critiques SAP. L’Architecte Cloud Azure interviendra en référent technique pour accompagner les équipes projet sur la définition des architectures, la migration et le support post-bascule. Objectifs & responsabilités1. Stratégie, gouvernance & sécurité Définition des standards, normes et bonnes pratiques (architecture, sécurité, FinOps, DevOps) Mise en œuvre du Security by Design : IAM, chiffrement, sauvegardes Supervision et monitoring Contribution à la gouvernance Cloud Azure et aux landing zones 2. Accompagnement des projets de migration Conception d’architectures Azure robustes, sécurisées et scalables Expertise sur : SAP Rise S/4HANA Cloud Migration de workloads SAP vers Azure Migration d’infrastructures et d’applications : Lift & Shift, replatforming, refactoring Azure Migrate Gestion des interconnexions : ExpressRoute, WAN, peering VNet, architectures hybrides (vWAN) Anticipation des incidents et support post-migration (N3) 3. Architecture & conception Réalisation des études techniques (infra & applicatif) Rédaction des dossiers d’architecture technique et d’exploitation Définition des processus d’industrialisation : Infrastructure as Code CI/CD 4. Pilotage & accompagnement des équipes Pilotage des projets Cloud (coûts, délais, qualité) Accompagnement des équipes projets et transfert de compétences (shift-left) Animation d’ateliers techniques Coordination multi-équipes et reporting 5. Veille & innovation Veille technologique continue sur les services Azure Proposition d’optimisations et d’innovations Cloud Environnement technique Cloud : Azure (IaaS, PaaS, SAP on Azure) Systèmes : Linux (RedHat, CentOS), Windows DevOps / IaC : Azure DevOps, Terraform, Ansible, Bicep Réseau : ExpressRoute, VNet Peering, architectures hybrides, vWAN Méthodologies : FinOps, DevOps, Infrastructure as Code
Mission freelance
DATA MESH PLATFORM MANAGER
Codezys
Publiée le
Azure
Cloud
Data governance
12 mois
Courbevoie, Île-de-France
Contexte de la mission Le Groupe met en place une Self-Service Data Platform basée sur les principes du Data Mesh , appelée Group Data Platform (GDP) . La mission vise à concevoir, construire, déployer et exploiter cette plateforme à l’échelle de l’entreprise. Le Data Mesh Platform Manager sera responsable de la mise en œuvre, de l’adoption et du pilotage de la plateforme dans un environnement multi-cloud (AWS/Azure) et hybride, incluant des systèmes on-premise. Objectifs et livrables Construction et delivery de la plateforme Data Mesh : conception de l’architecture, définition des capacités, standards techniques, garantissant scalabilité, performance et sécurité. Livrables : ADR, architecture de référence, roadmap, standards techniques. Architecture cloud et hybride : conception, pilotage des déploiements sur AWS et Azure, intégration des systèmes on-premise, automatisation via Infrastructure as Code. Livrables : blueprint, framework de sécurité, conformité. Delivery et pilotage : gestion du cycle de deliverables, priorisation, suivi de la performance et gestion des incidents. Livrables : roadmap, plan de release, indicateurs de fiabilité. Déploiement dans les domaines métiers : accompagnement des équipes, création de data products, onboarding, résolution des problématiques d’adoption. Livrables : frameworks d’onboarding, playbooks, KPI d’usage, supports de formation. Product management et évolution : recueil des besoins, définition de la vision, mesure de la valeur, améliorations continues. Livrables : vision produit, KPI, feedbacks, roadmap d’évolution. Gouvernance et documentation : documentation des capacités, conformité avec la Data Governance fédérée. Livrables : référentiel, standards, frameworks, playbooks. Communication et reporting : suivi de l’avancement, reporting aux gouvernances, alignement des parties prenantes. Livrables : dashboards, présentations, suivi des décisions. Promotion et évangélisation interne : valorisation de la plateforme, développement de la communauté. Livrables : supports de communication, stratégies d’adoption, démonstrations, cas d’usage.
Offre d'emploi
INGÉNIEUR DEVOPS
EterniTech
Publiée le
Azure
GenAI
Méthode Agile
3 mois
Paris, France
Je cherche pour un de mes clients un DEVOPS AI Contrainte forte du projet: Agile, GenAI, RGPD, AI Act Les livrables sont: -Composants applicatifs et intégrations -Pipelines d'automatisation et de déploiement -Assurance qualité et documentation Compétences techniques: -Terraform - Confirmé - Impératif -GenAI - Junior - Important -Azure - Confirmé - Important - Agile - Junior - Souhaitable Connaissances linguistiques: -Français Courant (Impératif) -Anglais Professionnel (Impératif) Description détaillée **VOTRE MISSION** * Implémenter et maintenir les composants applicatifs nécessaires aux solutions GenAI : APIs, services backend, interfaces frontend et connecteurs vers les briques IA (agents, RAG, vector DB). * Travailler en binôme avec l’AI Engineer pour intégrer proprement les modèles et pipelines GenAI dans des architectures robustes et industrialisées. * Concevoir des APIs sécurisées et scalables (REST/GraphQL) et assurer l’intégration avec OneAPI, Azure services et les API internes. * Développer en Python et en JavaScript selon les besoins du projet ; produire du code propre, testé et documenté. * Participer à l’industrialisation : conteneurisation (Docker), orchestration sur AKS, déploiement via CI/CD (Azure DevOps / GitHub Actions), IaC (Terraform). * Mettre en place l’observabilité et l’alerte (logs, métriques, traces) pour assurer la fiabilité et suivre les coûts en production. * Assurer la qualité logicielle : tests unitaires/intégration, revue de code, performance et sécurité applicative (RBAC, chiffrement, bonnes pratiques secure-by-design). * Contribuer à la création de briques réutilisables, templates et patterns pour accélérer les futures squads (boilerplates, SDKs, connecteurs). * Collaborer avec le PO, l’AI Engineer, la DSI, la cybersécurité et les équipes opérationnelles pour garantir l’exploitabilité et l’adoption. **VOTRE PROFIL** * Bac +3 à Bac +5 en informatique, génie logiciel, ou équivalent. * Expérience professionnelle confirmée (minimum 3 ans) en développement logiciel, idéalement en environnements Cloud (Azure). * Solides compétences en programmation Python et JavaScript (Node.js, React) ; bonne pratique des design patterns backend/frontend. * Expérience avec les architectures cloud Azure : AKS, WebApp, storage, services PaaS et bonnes pratiques d’exploitation. * Maîtrise de la conteneurisation et de l’orchestration (Docker, Kubernetes) et des pipelines CI/CD (Azure DevOps, GitHub Actions). * Connaissance d’Infrastructure as Code (Terraform) et des pratiques DevOps. * Compréhension des concepts GenAI (LLMs, RAG, embeddings, vector DB) et capacité à intégrer des composants IA en collaboration avec un AI Engineer ; expérience pratique appréciée mais pas impérative. * Compétences en bases de données SQL/NoSQL et en conception de schémas adaptés aux besoins d’indexation/sémantique. * Rigueur sur la qualité du code : tests, revue, automatisation ; sensibilité aux enjeux de sécurité et de souveraineté des données. * Curiosité technique, capacité d’adaptation (outils et stacks variables selon les besoins), esprit d’équipe et bon relationnel. * Familiarité avec les outils low-code/no-code est un plus. * Anglais professionnel (lu/écrit) ; français courant indispensable. * Disponible pour être en régie sur 2026, et participer activement à la construction et à la standardisation des pratiques d’une AI Factory interne. Définition du profil : DEVOPS ENGINEER INGÉNIEUR DEVOPS Il /elle développe et exploite les produits / plateformes Cloud dans le respect du cadre technique/technologique instauré. Activités et tâches - Développe les nouveaux produits, réalise les tests unitaires et rédige la documentation technique - S'inscrit dans la chaine CI/CD - S'intègre dans les pratiques de développement instaurées (revue de code, tests de vulnérabilité, qualité de code) - Identifie les optimisations à réaliser sur les techniques d'automatisation et de déploiement - Sécurise la production readiness des produits (tests d'intégration, scripts d'exploitation, automatisation des actions de support, documentation technique) - Assure l'exploitation des produits / plateformes Cloud et répond aux incidents d'exploitation associés (selon les niveaux de services définis) - Contribue à l'amélioration continue des produits / plateformes Cloud - Apporte une expertise technique aux utilisateurs / clients / consommateurs sur son périmètre de produits/plateformes Cloud - Anime ou participe à la communauté Cloud DevOps Description du besoin : Mission :DEVOPS Localisation :92 Démarrage : Mars Jours obligatoires sur site : 1 jours/semaine Expérience : Confirmé
Mission freelance
Ingénieur de production expert Azure API Gateway-Azure API Management /CLOUD/MQ Series/Talend (H/F)
Octopus Group
Publiée le
API
Azure
Middleware
6 mois
450-550 €
Ivry-sur-Seine, Île-de-France
Nous recherchons pour le compte de notre client Grand-compte dans le retail, un ingénieur de production ayant une expertise sur Azure API Gateway- plateforming & développement, MQ SERIES et confirmé dans les environnements cloud. vous intégrerez l’équipe Production Back Office – Flux. Vos missions seront : La création et mise en œuvre de la solution APIM (Azure) l'accompagnement et la mise en œuvre des solutions MQSeries, Confluent Cloud Kafka la création et la mise en œuvre d’une plateforme Talend (Cloud)
Offre d'emploi
Architecte Infrastructure Cloud Azure
VISIAN
Publiée le
Architecture
Azure
Cloud
2 ans
50k-100k €
470-750 €
Orly, Île-de-France
Bonjour, dans le cadre de nos projets clients, nous recherchons un Architecte Infrastructure expérimenté, à la fois expert technique et bon communicant, capable de concevoir, piloter et faire évoluer notre infrastructure hybride (Cloud Azure et on-premise), tout en accompagnant les équipes dans les projets et opérations critiques. Missions principales •Concevoir et proposer des architectures robustes et évolutives pour l’infrastructure IT (Azure et on-premise), en cohérence avec les besoins métiers et les contraintes de sécurité et de résilience. •Concevoir un plan d’architecture technique global, permettant d’identifier les dépendances métiers avec les applications critiques et les systèmes d’information critiques. •Piloter la migration et l’évolution vers le Cloud Azure , en lien avec les équipes applicatives et opérationnelles. •Participer à la modernisation des datacenters et infrastructures on-premise , en garantissant performance, sécurité et disponibilité. •Collaborer avec les équipes IT (réseau, sécurité, exploitation, applications) pour définir et mettre en œuvre les standards d’infrastructure . •Conseiller la DSI et les équipes sur les choix technologiques et leur impact opérationnel, budgétaire et sécuritaire. •Participer à la documentation, aux plans de reprise d’activité et aux tests de résilience . •Accompagner les équipes dans la mise en œuvre des projets , avec une attention particulière au transfert de compétences et à la montée en expertise des équipes opérationnelles
Offre d'emploi
Ingénieur DevOps – Plateforme Data H/F
DSI group
Publiée le
Azure Data Factory
Azure DevOps
45k-55k €
Lyon, Auvergne-Rhône-Alpes
Missions principales: Déploiement et automatisation Concevoir, mettre en place et faire évoluer les outils de déploiement continu (CI/CD) pour les applications et traitements de données. Automatiser les processus d’intégration, de livraison et de déploiement des solutions analytiques. Maintenir les pipelines CI/CD et garantir leur fiabilité. Gestion de l’infrastructure Administrer et faire évoluer les infrastructures Linux supportant les plateformes analytiques. Maintenir les composants middleware, bases de données et outils techniques . Anticiper et gérer les problématiques liées à l’obsolescence, la sécurité et les évolutions fonctionnelles . Collaboration avec le SI Collaborer avec les différents acteurs du système d’information : Développeurs Architectes Équipes sécurité Équipes d’exploitation S’assurer de la conformité des solutions avec les standards et l’architecture de l’entreprise . Documentation et bonnes pratiques Rédiger et maintenir la documentation technique et opérationnelle . Formaliser les procédures liées aux déploiements et à l’exploitation. Travail d’équipe Participer aux cérémonies agiles et aux activités de l’équipe . Contribuer à l’amélioration continue des pratiques DevOps. Activités secondaires Étudier les évolutions de la plateforme data dans le cadre de la transformation du SI DATA (Cloud / On-Premise). Participer à la définition des solutions permettant d’assurer la continuité des activités analytiques dans un nouveau contexte DSI . Accompagner les équipes data dans l’adaptation aux nouveaux environnements technologiques.
Mission freelance
Developpeur .NET - Rennes
Tenth Revolution Group
Publiée le
.NET
Azure
Microsoft Dynamics
6 mois
100-400 €
Rennes, Bretagne
Développeur .NET - Rennes Dans le cadre d’un projet de modernisation des flux d’intégration pour l’un de nos clients, nous recherchons un Développeur .NET expérimenté afin d’intervenir sur la refonte de flux existants entre Dataverse et Dynamics 365 Finance & Operations . Démarrage ASAP. Déplacements sur site à Rennes. Durée : quelques mois. Missions Au sein de l’équipe technique, votre mission consistera à : Remplacer des flux existants Power Automate reliant Dataverse et Dynamics 365 F&O . Concevoir et développer des Azure Functions permettant de gérer ces intégrations. Analyser les flux Power Automate existants afin de comprendre la logique métier et technique. Mettre en place des mécanismes d’échange de données robustes entre Dataverse et D365 F&O . Participer aux phases de conception technique et proposer des solutions optimisées dans l’écosystème Azure. Profil recherché Compétences requises : Solide expérience en développement .NET (C#) Expérience avec Microsoft Azure , notamment le développement d’ Azure Functions Bonne compréhension des architectures d’intégration et des APIs Compétences appréciées : Expérience avec la Power Platform , notamment Power Automate Connaissance de Dataverse (lecture / écriture de données) Expérience avec Dynamics 365 Finance & Operations Environnement technique .NET / C# Microsoft Azure Azure Functions Power Platform / Power Automate Dataverse Dynamics 365 Finance & Operations
Mission freelance
Architecte Technique
Sapiens Group
Publiée le
AWS Cloud
Azure
3 mois
400-750 €
Paris, France
Notre client souhaite bénéficier d’un accompagnement pour une prestation d’Architecture Technique afin d’intervenir dans un périmètre global avec pour mission principale de : • Fournir des services de connectivité réseau et d’infrastructure cloud et Onprem. • Concevoir, documenter et améliorer les services IT et leur écosystème associé, en conformité avec les engagements du service IT, les certifications sécurité et les Framework d’architecture. • Mettre en œuvre de nouvelles architectures et systèmes de sécurité • Garantir le respect des règles de sécurité et d’architecture d’entreprise, • Optimiser les services IT depuis leur conception jusqu’à leur livraison • Mettre à jour la documentation Enjeux de la prestation • Comprendre les besoins de l’entreprise pour définir les spécifications des systèmes. • Élaborer des feuilles de route (roadmaps) pour les solutions technologiques. • Évaluer et sélectionner les logiciels ou matériels appropriés et proposer des méthodes d’intégration adaptées. • Concevoir des solutions technologiques fonctionnelles répondant aux exigences de l’entreprise. • Définir la structure des solutions technologiques, en alignement avec les stratégies organisationnelles. • Superviser le développement et la mise en œuvre des programmes liés aux infrastructures cloud et réseau. • Apporter un leadership technique et un soutien aux équipes de développement logiciel et d’ingénierie. Objet de la Prestation Le GIE KLESIA souhaite bénéficier d’un accompagnement pour une prestation d’Architecture Technique afin d’intervenir dans un périmètre global avec pour mission principale de : • Fournir des services de connectivité réseau et d’infrastructure cloud et Onprem. • Concevoir, documenter et améliorer les services IT et leur écosystème associé, en conformité avec les engagements du service IT, les certifications sécurité et les Framework d’architecture. • Mettre en œuvre de nouvelles architectures et systèmes de sécurité • Garantir le respect des règles de sécurité et d’architecture d’entreprise, • Optimiser les services IT depuis leur conception jusqu’à leur livraison • Mettre à jour la documentation Enjeux de la prestation • Comprendre les besoins de l’entreprise pour définir les spécifications des systèmes. • Élaborer des feuilles de route (roadmaps) pour les solutions technologiques. • Évaluer et sélectionner les logiciels ou matériels appropriés et proposer des méthodes d’intégration adaptées. • Concevoir des solutions technologiques fonctionnelles répondant aux exigences de l’entreprise. • Définir la structure des solutions technologiques, en alignement avec les stratégies organisationnelles. • Superviser le développement et la mise en œuvre des programmes liés aux infrastructures cloud et réseau. • Apporter un leadership technique et un soutien aux équipes de développement logiciel et d’ingénierie. Environnement technique • Cloud public : Azure & AWS • Infrastructure as Code : Terraform, Bicep, Ansible, Helm • Supervision & Observabilité : Azure Monitor, Dynatrace, Prometheus, Grafana, ELK • Automatisation & CI/CD : Git, Azure DevOps, Jenkins • Containerisation & Orchestration : Docker, Kubernetes Sécurité Cloud & DevSecOps : IAM, RBAC, Vault, Trivy • Scripting & Outils CLI : Bash, Powershell, Python, Azure CLI, Kubectl • Bases de données : SQL (PostgreSQL, MySQL, SQL Server), NoSQL (Azure DocumentDB, MarkLogic) • Méthodologie & collaboration : Agile, Scrum, DevOps • Enjeux transverses : FinOps, gouvernance technique, urbanisation
Mission freelance
DATA SCIENTIST
Codezys
Publiée le
Azure
Azure AI Foundry
Azure DevOps Services
12 mois
450-500 €
Nanterre, Île-de-France
Description détaillée : VOTRE MISSION Concevoir et industrialiser des solutions d’intelligence artificielle générative (modèles de langage de grande taille, agents intelligents, RAG) en réponse aux besoins identifiés par la cellule AI Catalysts, priorisés par le Product Owner (PO). Intégrer ces composants GenAI au sein de l’écosystème existant (GenAI Core, OneAPI, Azure AI Foundry), tout en respectant les normes de sécurité et de gestion des coûts. Définir et mettre en œuvre les architectures techniques appropriées : sélection des modèles, orchestration des agents, conception des systèmes RAG, gestion des sessions utilisateur. Développer et maintenir le code, principalement en Python, ainsi que les composants réutilisables tels que les librairies de prompts et d’agents. Industrialiser le déploiement des solutions via la conteneurisation (Docker), l’orchestration Kubernetes, les pipelines CI/CD, l’Infrastructure as Code (Terraform), et assurer le suivi opérationnel (monitoring). Appliquer les bonnes pratiques MLOps : suivi des expérimentations, versioning des modèles, tests de régression, validations en environnement pré-production. S’assurer de la qualité, de la performance et de l’observabilité des solutions : mise en place de métriques, tests adversariaux, surveillance des dégradations en production. Collaborer étroitement avec le Product Owner, les ingénieurs logiciels, les AI Catalysts et la DSI afin d’assurer la sécurité et l’adoption des solutions proposées. Participer à la documentation, à la création de templates, ainsi qu’à la formation des équipes internes. Profil recherché : Data Scientist Responsable du développement d’algorithmes en Machine Learning et Intelligence Artificielle, visant à générer de la valeur métier à partir de données (structures, non structurées, vidéos, images, etc.). Capable de comprendre et d’interroger les demandes de l’entreprise pour fournir des solutions optimales. Apporte un support stratégique à la décision, notamment en proposant des innovations, en améliorant les performances et en optimisant le service client. Participe à l’industrialisation des projets de Data Science en collaboration avec les Data Engineers. Assure la maintenance et la documentation des algorithmes industrialisés, conformément aux rôles et responsabilités définis par le projet. Localisation : Paris – Niveau avancé (minimum 9 ans d’expérience dans le domaine) Ce descriptif ne doit pas dépasser 3000 caractères, intégrant l’ensemble des éléments en HTML pour garantir une mise en forme claire et professionnelle.
Mission freelance
Ingénieur DevOps Azure
Codezys
Publiée le
Azure DevOps Services
Docker
Java
12 mois
Lille, Hauts-de-France
Contexte de la mission Développeur DevOps Azure expérimenté pour rejoindre notre équipe de développement. Missions principales : Concevoir et mettre en œuvre des pipelines CI/CD sur Azure DevOps. Gérer et automatiser l'infrastructure avec des outils tels que Terraform et Azure Resource Manager. Mettre en place le déploiements sur les différents environnements. Surveiller et optimiser les performances des applications en production. Collaborer avec les équipes de développement pour améliorer les processus de livraison. Participer à l'amélioration continue des pratiques DevOps au sein de l'équipe. Partager les connaissances avec les autres membres de l'équipe.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Travail asynchrone ou compagnie qui ne regarde pas les heures: Ca existe ?
- Etat du marché 2026: rebond ou stagnation ?
- Deuxieme versement ARCE sans CA
- AdminPilot - outil d'admin par chat pour freelances, vos avis ?
- Barème kilométrique - voiture de prêt
- Facturation électronique 06 : Une FE n’est pas un PDF par mail !!!
4043 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois