Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 337 résultats.
CDI
Freelance
CDD

Offre d'emploi
Développeur .NET / Azure Senior

Publiée le
.NET
ASP.NET
Microsoft SQL Server

2 ans
Paris, France
Télétravail partiel
Mission : Vous participerez au développement et à l’évolution d'une application, hébergée sur Microsoft Azure , en collaboration avec les équipes IT et Business. Votre rôle sera de garantir la qualité technique, la cohérence des modules et le respect des bonnes pratiques. Responsabilités principales : Développer les nouveaux composants de l’application. Assurer la cohérence technique et la qualité du code (tests unitaires, modèles de données, bonnes pratiques). Rédiger les spécifications techniques et documents nécessaires (architecture, exploitation). Planifier les travaux, estimer les charges et identifier les risques. Collaborer avec les équipes infrastructures pour la mise en place de l’environnement Azure. Tester et déployer l’application sur Azure, corriger les anomalies. Accompagner les phases de validation (UAT, PROD) et garantir la qualité des livrables. Réaliser les tests et assurer la qualité des modules développés. Profil recherché : Diplôme Bac+5 (école d’ingénieur ou équivalent). Expérience de 5 ans minimum en développement informatique. Expertise sur Azure , .NET , API REST , et bases de données. Maîtrise des standards de qualité (Sonar, PR review) et des pratiques Agile (SCRUM) et DevOps . Français et anglais : niveau avancé. Autonomie, rigueur, esprit d’équipe et bonnes capacités de communication. Connaissance des marchés financiers ou de la gestion d’actifs (atout). Compétences techniques : Obligatoires : .NET 8+, C#, Core Microsoft SQL Server Blazor WebAssembly REST API Souhaitées : HTML5 / CSS3 Visual Studio 2022 GIT, Azure DevOps, Sonar Cloud Postman
Freelance
CDI

Offre d'emploi
Data engineer MSBI Python Azure (7-8 ans minimum)

Publiée le
Azure Data Factory
Azure DevOps
Microsoft SSIS

3 ans
50k-65k €
500-580 €
Paris, France
Télétravail partiel
🏭 Secteurs stratégiques : Asset management 🗓 Démarrage : ASAP PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 💡 Contexte /Objectifs : Dans le cadre d'un projet au sein d'un client grand compte, nous sommes à la recherche d'un Data engineer avec une expertise sur la suite MSBI. Le profil recherché, Bac + 4/5 idéalement issu d’une école d’ingénieur, aura une expérience au minimum de 7/8 ans. Passionné par le développement, il aura la capacité de travailler en équipe et saura apporter une vraie valeur ajoutée par ses compétences techniques et humaines
Freelance

Mission freelance
Data Engineer Sénior (5 ans d’expérience minimum)

Publiée le
Azure

12 mois
380 €
Clermont-Ferrand, Auvergne-Rhône-Alpes
Télétravail partiel
Description du poste : Nous recherchons un Data Engineer autonome disposant d’au moins 5 ans d’expérience, capable de collecter, analyser et exploiter les données pour améliorer le pilotage des activités et identifier les leviers de création de valeur. Le consultant accompagnera également les équipes métier dans le développement, le déploiement et l’exploitation de solutions data afin d’atteindre leurs objectifs. Missions principales : – Collecter, préparer et structurer les données pertinentes pour les besoins des utilisateurs. – Construire et optimiser des pipelines ETL/ELT robustes et performants. – Analyser les données et produire des visualisations accessibles via les outils décisionnels. – Proposer des recommandations et lignes directrices pour créer de la valeur au sein des activités métier. – Accompagner l’optimisation des offres, services et processus grâce à l’analyse et l’évaluation des données. – Garantir la conformité aux règles d’éthique et de gouvernance du groupe. – Présenter les fonctionnalités des produits data et faciliter leur maintenance. – Réaliser des tests conformément à la stratégie définie. – Maintenir à jour le catalogue des produits data (datasets). – Fournir des kits de formation et des outils pour les utilisateurs. Résultats attendus : – Identification et sélection des données pertinentes pour les besoins opérationnels. – Optimisation du temps, des ressources et des outils dédiés à l’analyse de données. – Production de jeux de données et visualisations compréhensibles et accessibles. – Mise à disposition de recommandations métier génératrices de valeur. – Amélioration des processus, services et offres grâce aux analyses. – Application stricte des règles de gouvernance et d’éthique data. – Tests réalisés et conformes aux exigences. – Catalogue des datasets à jour. – Mise à disposition de supports et kits de formation pour les utilisateurs. Compétences requises en Data Engineering : – Modélisation de données : modèles relationnels, dimensionnels, Data Vault. – ETL / ELT : conception, optimisation et gestion des dépendances. – Gouvernance et qualité de données : data lineage, qualité, catalogage, gestion des métadonnées. – Architecture data : maîtrise des patterns modernes (Data Lakehouse, Data Mesh…). Langages : – SQL avancé – Python avancé – PySpark avancé Outils et technologies : – Dataiku – Power BI – Databricks – Azure Data Factory – Azure Logic Apps
Freelance

Mission freelance
ARCHITECTE TECHNIQUE ON PREMISE & CLOUD AZURE ET GCP

Publiée le
Azure
Cloud

24 mois
325-650 €
Paris, France
Télétravail partiel
Nous recherchons plusieurs Architectes Technique OnPrem & Cloud pour une mission longue chez l'un de nos clients. Niveau expérimenté à senior requis. CONTEXTE DE LA MISSION Au sein de l'équipe Architecture de la Direction des Infrastructures et de la Production du groupe, le consultant contribuera aux activités : - Etudes techniques & Design - Cadrage budgétaire - Définition des best practices d'architecture - Documentation - Accompagnement de la stratégie Move2Cloud - Co-construction des solutions - Accompagnement des équipes d'exploitation et de développement Environnement général - Plateformes E-commerce - Plateformes BackOffice & Logistique - Cloud Public Azure & GCP - Cloud Privé (Infrastructure VMWARE Infogérée) - CDN Akamai, LoadBalancing BigIP F5, Firewalling (Checkpoint & Fortinet) - Bases de données MS SQL Server, PostgreSQL, MySQL, IBM DB2, Oracle - Big Data Hadoop, Terradata, MapR, BigQuery, DataBricks - Conteneurisation Docker & Orchestration AKS - Progiciels SAP, Siebel, HRAccess DESCRIPTION DE LA MISSION - Etude des besoins issus des équipes de développement - Etude de l'évolution des composants de plateformes techniques ou de l'intégration de nouveaux services - Rédaction des documents d'architecture et d'intégration générale et détaillée - Rédaction des supports d'aide à l'exploitation et accompagnement des équipes d'exploitation durant la transition - Contribution à l'évaluation budgétaire des solutions mises en œuvre - Support N3 des équipes d'exploitation Démarrage souhaité : au plus tôt Durée de la mission : Longue Paris
Freelance

Mission freelance
ARCHITECTE GENERALISTE MOVE TO CLOUD AZURE ET GCP

Publiée le
Azure
Cloud

24 mois
325-650 €
Paris, France
Télétravail partiel
Au sein d'une équipe Architecture d'une Direction des Infrastructures et de la Production de l'un de nos clients, nous recherchons un(e) architecte technique généraliste qui contribuera aux activités suivantes : - Etudes techniques & Design - Cadrage budgétaire - Définition des best practices d'architecture - Documentation (DAT) - Accompagnement de la stratégie Move2Cloud - Accompagnement des équipes d'exploitation et de développement Environnement général : - Plateformes E-commerce - Plateformes BackOffice & Logistique - Cloud Public Azure & GCP - Cloud Privé (Infrastructure VMWARE Infogérée) - CDN Akamai, LoadBalancing BigIP F5, Firewalling (Checkpoint & Fortinet) - Bases de données MS SQL Server, PostgreSQL, MySQL, IBM DB2, Oracle - Big Data Hadoop, Terradata, MapR, BigQuery, DataBricks - Conteneurisation Docker & Orchestration AKS - Progiciels SAP, Siebel, HRAccess
Freelance

Mission freelance
Expert Python Lead MLOps AZURE - Spécialiste IA/RAG La Défense (92)

Publiée le
Azure
Python

1 an
750 €
Paris, France
Télétravail partiel
Lead Développeur MLOps Python - Spécialiste IA/RAG Cette mission s'adresse à des profils seniors ayant déjà industrialisé des solutions IA/RAG en production et maîtrisant les enjeux de passage à l'échelle. Profil avec un mindset sales: au-delà de ses compétences techniques, dispose d’un profil capable de s’imposer, de proposer des solutions, de prendre des initiatives, de mener des recherches et de tenir ses engagements. Mission Nous recherchons un Lead MLOPS Python pour industrialiser les développements IA/Data Science avec un focus sur les systèmes RAG (Retrieval-Augmented Generation) et les LLM . Contexte Les Data Scientists développent des solutions expérimentales (modèles, RAG, pipelines IA) que vous devrez transformer en solutions robustes déployables en production à grande échelle. Responsabilités principales Industrialisation des systèmes RAG/LLM : Automatiser le processing de documents volumineux (ex: PDFs 250+ pages) Mettre en place des pipelines de chunking et d'indexation automatiques Gérer la montée en charge des bases de connaissances Implémenter des métriques de monitoring pour détecter les dérives des modèles Architecture & Scalabilité : Concevoir des workflows complexes pour tâches longues (pipelines multi-étapes) Déployer sur infrastructure cloud (Azure/AWS/GCP) Containerisation avec Docker/Kubernetes Mise en place de CI/CD spécialisés pour l'IA Développement & Bonnes Pratiques : Refactorisation du code Data Science selon les standards industriels Injection de dépendances, programmation orientée objet Tests automatisés, clean code, modularité Gestion des dépendances et versioning des modèles MLOps & Monitoring : Supervision des performances des modèles en production Détection du drift et mise en place d'alertes Gestion des réentraînements automatiques Tableaux de bord et métriques business Profil recherchéCompétences techniques obligatoires : Python expert (5 - 10+ ans d'expérience) 1 Expérience concrète avec RAG/LLM en production Cloud computing (Azure/AWS/GCP) - déploiement à l'échelle MLOps : pipelines ML, monitoring, drift detection Architecture logicielle : design patterns, injection de dépendances, OOP DevOps : Docker, Kubernetes, CI/CD Compétences techniques souhaitées : Frameworks : LangChain, Haystack, ChromaDB, Pinecone Bases de données vectorielles Streaming de données (Kafka, Pulsar) Orchestration (Airflow, Prefect) Soft skills : Leadership technique : capacité à guider une équipe de Data Scientists Pédagogie : transmission des bonnes pratiques Autonomie sur des projets complexes Mindset industrialisation : passage du POC à la production Environnement technique Stack : Python, FastAPI, SQLAlchemy, Pydantic IA/ML : PyTorch, Transformers, OpenAI API, Azure OpenAI Cloud : Azure (priorité Orchestration : Kubernetes, Docker, Terraform Monitoring : Prometheus, Grafana, MLflow Méthodologie : Agile, TDD, Code Review Exemple de cas d'usage concret "Un utilisateur upload un PDF de 250 pages. Le système doit automatiquement : Découper le document en chunks optimaux Indexer dans la base vectorielle Permettre des requêtes précises ('dates des événements X') Monitorer la qualité des réponses Alerter en cas de dégradation" Votre rôle : Transformer le script Python du Data Scientist en solution industrielle, scalable et monitorée. Modalités Durée : 6-12 mois (renouvelable) Format : Freelance/Régie Localisation : Hybride (2-3 jours sur site) Démarrage : ASAP Profil du candidat Profil recherchéCompétences techniques obligatoires : Python expert ((5 - 10+ ans d'expérience) Expérience concrète avec RAG/LLM en production Cloud computing (Azure) - déploiement à l'échelle MLOps : pipelines ML, monitoring, drift detection Architecture logicielle : design patterns, injection de dépendances, OOP DevOps : Docker, Kubernetes, CI/CD Compétences techniques souhaitées : Frameworks : LangChain, Haystack, ChromaDB, Pinecone Bases de données vectorielles Streaming de données (Kafka, Pulsar) Orchestration (Airflow, Prefect) Soft skills : Leadership technique : capacité à guider une équipe de Data Scientists Pédagogie : transmission des bonnes pratiques Autonomie sur des projets complexes Mindset industrialisation : passage du POC à la production Environnement technique Stack : Python, FastAPI, SQLAlchemy, Pydantic IA/ML : PyTorch, Transformers, OpenAI API, Azure OpenAI Cloud : Azure Obligatoire Orchestration : Kubernetes, Docker, Terraform Monitoring : Prometheus, Grafana, MLflow Méthodologie : Agile, TDD, Code Review Description de l‘entreprise Pourquoi cette mission est unique Cette opportunité vous permettra de façonner l'avenir de l'IA dans un contexte où vos décisions techniques auront un impact direct sur des millions d'utilisateurs. Vous ne serez pas un simple exécutant, mais un architecte de solutions qui influence la roadmap technologique. Ce qui vous attend : Autonomie technique : Liberté de choix sur les architectures et technologies Visibilité : Présentation de vos réalisations au comité de direction Impact business : Vos optimisations se traduisent directement en gains mesurables Veille technologique : Accès privilégié aux betas Microsoft et APIs exclusives Réseau professionnel : Collaboration avec des experts IA reconnus dans l'écosystème français Vous évoluerez dans un environnement où l' excellence technique rencontre l' innovation business , avec le support d'une équipe qui croit en vos compétences et vous donne les moyens d'exprimer votre talent. Modalités Durée : 12 mois (renouvelable) Format : Freelance/Régie Localisation : Paris La Défense - Hybride (2 jours sur site / 3 jours remote) Démarrage : ASAP Profil du candidat Python expert ((5 - 10+ ans d'expérience) Expérience concrète avec RAG/LLM en production Cloud computing Azure - déploiement à l'échelle MLOps : pipelines ML, monitoring, drift detection Architecture logicielle : design patterns, injection de dépendances, OOP DevOps : Docker, Kubernetes, CI/CD Description de l‘entreprise Modalités Durée : 12 mois (renouvelable) Format : Freelance/Régie Localisation : Paris La Défense - Hybride (2 jours sur site / 3 jours remote) Démarrage : ASAP
Freelance
CDI

Offre d'emploi
DevOps Azure / SAP Cloud / Prod & Applicatif

Publiée le
Azure DevOps

36 mois
40k-55k €
400-550 €
Paris, France
Déployer et administrer les infrastructures SAP Cloud sur Azure (IaaS / PaaS). Automatiser les processus de build, test et déploiement via des pipelines (Azure DevOps, Jenkins, GitLab CI/CD…). Conteneuriser les applications (Docker) et gérer les orchestrateurs (Kubernetes / AKS). Maintenir et améliorer les environnements Java et Groovy utilisés pour les scripts d’intégration et d’automatisation. Assurer la supervision, le monitoring et la sécurité des environnements Cloud. Collaborer avec les équipes de développement SAP, Java et les architectes Cloud. Participer à la mise en œuvre des bonnes pratiques DevOps (IaC, CI/CD, Observabilité). Rédiger la documentation technique et contribuer à la standardisation des processus. Bac +5 en informatique (école d’ingénieur ou université). Expérience confirmée (5 ans minimum) sur un poste DevOps Cloud, idéalement dans un environnement SAP Cloud ou Java. Bonne maîtrise de l’écosystème Azure et des concepts DevOps (CI/CD, IaC, Observabilité, Sécurité). Connaissance des architectures hybrides SAP Cloud / On-Premise appréciée. Sens de la collaboration, rigueur et autonomie. 3 jours sur site par semaine Connaissance / Expérience sur des problématiques E-COMMERCE
Freelance
CDI

Offre d'emploi
INGÉNIEUR(E) DEVOPS -INFRASTRUCTURE AS CODE (IaC)

Publiée le
Azure Kubernetes Service (AKS)
F5
ITIL

3 mois
40k-45k €
400-550 €
Le Havre, Normandie
Télétravail partiel
INGÉNIEUR(E) DEVOPS -INFRASTRUCTURE AS CODE (IaC) ype de mission : Régie Durée : 3 mois (renouvelable) Démarrage souhaité : Immédiat Localisation : Présentiel 3 j/semaine minimum à prévoir sur site client au Havre Contexte : Éditeur de logiciels, environnement cloud hybride Azure/on premisesCONTEXTE DE LA MISSIONDans le cadre de la consolidation de son infrastructure cloud hybride Azure et de sa transformation vers une architecture microservices, notre client recherche un Ingénieur DevOps / IaC spécialisé en automatisation Terraform/Ansible sur environnements Azure pour reprendre, rationaliser et industrialiser l'existant.L'environnement technique repose sur une infrastructure hybride Azure/on premises à dominante Microsoft et Linux (Red Hat, Debian), avec une trajectoire d'évolution vers des architectures conteneurisées sur des distributions Kubernetes cible à statuer (RKE2, K3s, OpenShift). MISSIONS PRINCIPALES1. Reprise et rationalisation IaC (prioritaire) • Auditer les scripts Terraform et Ansible existants sur environnements Azure/on prem, identifier les dettes techniques et risques • Refactoriser en modules Terraform Azure réutilisables (VNet, NSG, VM, AKS, ACR, Key Vault, etc.) et rôles Ansible avec conventions de nommage/versioning • Identifier et automatiser les tâches récurrentes manuelles/semi-annuelles via Azure DevOps Pipelines ou GitHub Actions • Documenter l'ensemble (guides d'usage, runbooks d'exploitation)2. Automatisation cycle de vie des certificats SSL/TLS• Concevoir et mettre en œuvre des pipelines de discovery, renouvellement et déploiement automatisés intégrant Azure Key Vault • Intégrer avec le PKI existant ou ACME le cas échéantImplémenter mécanismes de validation et rollback• Coordination appréciée avec load balancers F5 (LTM/WAF) et pare feu Check Point3. Contribution à la transformation – architecture microservices• Définir et appliquer les bonnes pratiques IaC/DevOps/GitOps sur Azure (stratégies de branches, PR, promotions multi environnements via Azure DevOps ou GitHub)• Mettre en place et administrer un sandbox Kubernetes agnostique (RKE2/K3s/OpenShift) avec intégration Azure (Azure Arc si pertinent)• Outiller l'évaluation des stacks (ingress, CNI/CSI, Azure Monitor, sécurité)• Produire matrices de critères, recommandations et runbooks MCO (Maintien en Condition Opérationnelle) / MCS (Maintien en Condition de Sécurité)COMPÉTENCES TECHNIQUES REQUISESObligatoires• Microsoft Azure : maîtrise des services IaaS/PaaS (VNet, NSG, VM, Storage, Application Gateway/WAF) et expérience fournie en admin Azure• Azure DevOps ou GitHub Actions : pipelines CI/CD, intégration Terraform, gestion des secrets via Key Vault, policy as code• Systèmes Linux (Red Hat/Debian) et Windows Server, virtualisation (proxmox, hyper-v, nutanix) /bare metal• Maîtrise de développement scripts Terraform, Ansible, bash/sh Appréciées• Kubernetes: automatisation distributions agnostiques (RKE2/K3s/OpenShift), Helm/Kustomize, ingress, RBAC, ARGO/CD• Load balancers F5 (LTM/WAF) et pare feu Check Point• Connaissances développement Python• Certification ITIL et Kubernetes (CKA) PROFIL RECHERCHÉIngénieur(e) DevOps / IaC (5–10 ans d'expérience) orienté automatisation sur cloud-hybrid, capable d'auditer et de rationaliser des patrimoines IaC hétérogènes, alliant vision d'architecture cloud, rigueur documentaire et capacité à élever le niveau des équipes internes Windows/Linux. --
Freelance

Mission freelance
Expert Azure Data Factory F/H - 3 mois

Publiée le
Azure Data Factory
ETL (Extract-transform-load)

3 mois
500-600 €
Saint-Denis, Île-de-France
Notre client dans le secteur Assurance recherche un Expert Technique Azure Data Factory H/F Descriptif de la mission: Offre de mission – Expert Technique Azure Data Factory / Data Engineering – Secteur Assurance Contexte de la mission Au sein d’un grand acteur du secteur de l’assurance, l’Expert Technique Azure Data Factory (ADF) intervient dans le cadre de la modernisation des plateformes data et de la migration vers un écosystème cloud Microsoft Azure. Il contribue à la conception, l’industrialisation et l’optimisation des flux de données nécessaires aux usages métier : tarification, souscription, actuariat, gestion des sinistres, reporting réglementaire et analyse de risques. Missions principales 1. Architecture & conception des flux data - Concevoir et optimiser des pipelines Azure Data Factory adaptés aux besoins métier. - Définir l’architecture cible des flux d’intégration et de transformation dans un environnement Assurance. - Participer à la mise en place d’une architecture Data Lakehouse (Azure Data Lake Storage, Delta Lake, Synapse). - Garantir la résilience, la scalabilité et la conformité des traitements. 2. Développement & industrialisation - Développer des pipelines ADF (ingestion, orchestration, transformation). - Implémenter des Data Flows, du mapping et des transformations complexes. - Automatiser les déploiements CI/CD avec Azure DevOps. - Intégrer les solutions avec l’écosystème data : Azure Databricks, Synapse Analytics, SQL, APIs, etc. 3. Optimisation & performance - Optimiser les traitements pour supporter des volumes importants (données contractuelles, sinistres, historiques). - Mettre en place des mécanismes d’alerting, monitoring, retry et gestion d’erreurs. - Conduire des analyses de performance et formuler des recommandations d’améliorations. 4. Gouvernance & sécurité - Contribuer à la mise en place des bonnes pratiques de sécurité et de conformité RGPD. - Gérer les accès via Azure AD, Key Vault, Private Endpoints. - Documenter les flux, les métadonnées et les règles de gestion. 5. Support technique & expertise - Conseiller les équipes Data, AMOA et Métiers Assurance sur les meilleures solutions cloud. - Assurer un rôle de référent sur Azure Data Factory et les briques d’intégration data. - Accompagner les équipes dans leur montée en compétence. Profil / compétences recherchées Compétences techniques obligatoires - Maîtrise approfondie d’Azure Data Factory (pipelines, triggers, integration runtime, Data Flows). - Très bonne connaissance d’Azure Data Lake Storage (ADLS Gen2). - Expertise en Azure SQL, Synapse Analytics, Azure Functions. - Pratique des environnements CI/CD Azure DevOps. - Maîtrise du SQL avancé et de l’optimisation de requêtes. - Connaissance des enjeux du secteur de l’assurance : données contractuelles, sinistres, référentiels, réglementaire. Compétences nice to have - Notions de Databricks / PySpark. - Connaissance des modèles Data Vault / Lakehouse. - Expérience avec Power BI ou des outils de visualisation. - Compréhension des normes Solvabilité II, IFRS 17, des risques et de l’actuariat. Compétences / Qualités indispensables: Maîtrise approfondie d’Azure Data Factory Anglais courant
Freelance

Mission freelance
Développeur .NET 8 | Azure Cloud | Blazor | API REST

Publiée le

12 mois
500 €
75001, Paris, Île-de-France
Lieu : Paris - Présence physique requise 4 jours/semaine Durée : 12 mois (renouvelable) Date de démarrage : 19 janvier 2026 Langues : Français et Anglais (maîtrise requise) Contexte Nous recherchons un Développeur IT Senior pour intervenir sur le projet UniqueRef au sein de l'équipe Referential. Ce projet stratégique consiste à migrer une application OnPrem vers Azure, intégrer un nouveau fournisseur de données et mettre en place des flux d'alimentation pour nos référentiels (instruments, émetteurs, données extra-financières). Vos missions Développer les nouveaux composants et assurer la cohérence technique des modules. Rédiger les spécifications techniques et documents d'architecture (architecture review, dossier d'exploitation). Planifier les travaux, estimer les charges et anticiper les risques. Collaborer avec les équipes infrastructures pour la mise en place de l'environnement Azure. Tester, déployer et accompagner les phases UAT et PROD. Garantir la qualité des livrables et des développements (tests unitaires, Sonar, automatisation). Profil recherché (détails) Formation : Bac+5 (école d'ingénieur ou équivalent). Expérience : Minimum 5 ans en développement informatique. Expertise dans le développement sur Azure et la définition d'architectures applicatives. Expérience confirmée en API REST , ETL, batchs et services. Connaissance des frameworks Microsoft pour accélérer la mise en place de nouvelles fonctionnalités. Maîtrise des modèles et bases de données (SQL Server). Expérience dans la mise en place de la qualité du code (Sonar) et amélioration continue. Une expérience en automatisation des tests est un plus. Familiarité avec les environnements Agile (SCRUM) et les process DevOps . Atout : Expérience en finance de marché ou gestion d'actifs, avec un intérêt pour les problématiques data (produits financiers, référentiels). Compétences techniques (détails) Langages & Frameworks : .NET 8, C#. Blazor WebAssembly / Server App (Front-end). Outils & Environnements : Visual Studio, GIT. Microsoft SQL Server. Azure (déploiement, services, migration). Méthodologies & Qualité : Tests unitaires, automatisation des tests. Sonar pour la qualité du code. Jira ou Azure DevOps pour la gestion Agile (board, test plans). Soft skills Rigueur, pragmatisme, adaptabilité. Esprit d'équipe et communication claire. Résistance au stress.
CDI

Offre d'emploi
Ingénieur Systèmes & Réseaux – IVVQ Habilitable – LILLE H/F

Publiée le
Azure
Cisco
F5

43k-48k €
Lille, Hauts-de-France
Dans le cadre de la montée en charge sur des projets Systèmes et Réseaux N3 nous recherchons des ingénieurs expérimentés . Les profils doivent maîtriser le cycle IVVQ et posséder une double compétence en infrastructure systèmes et réseaux . Vos missions : Participer à l’intégration, la vérification, la validation et la qualification (IVVQ) des solutions déployées chez les clients. Assurer le support de niveau 3 sur des environnements techniques complexes : diagnostic, résolution d’incidents, amélioration continue. Définir et exécuter des plans de tests pour la validation des infrastructures. Rédiger la documentation technique (procédures, fiches d’anomalies, dossiers d’exploitation). Contribuer à l’analyse des incidents et proposer des solutions correctives et préventives. Assurer les échanges techniques avec les clients sur site et à distance. Garantir la continuité de service dans des environnements sensibles ou sécurisés. Compétences techniques requises : Réseaux : Cisco ACI, LoadBalancer F5, pare-feux Palo Alto et Stormshield Systèmes & Virtualisation : Hyper-V, VMware (NSX / NSX-T), Microsoft Azure Scripting : Python Méthodologie : Cycle IVVQ complet (Intégration, Vérification, Validation, Qualification)
Freelance

Mission freelance
Architecte technique infrastructure On premise & Cloud Azure et GCP

Publiée le
Azure
Cloud
Infrastructure

24 mois
350-700 €
Paris, France
Télétravail partiel
o Au sein de l'équipe Architecture de la Direction des Infrastructures et de la Production du groupe, le consultant contribuera aux activités : • Cadrages techniques et budgétaires en collaboration avec les chefs de projet • Définition des best practices d'architecture • Documentation (DAT, HLD…) • Accompagnement de la stratégie Move2Cloud • Accompagnement des équipes d'exploitation et de développement • Veille technologique Environnement général o Plateformes E-commerce o Plateformes BackOffice & Logistique o Cloud Public Azure & GCP o Cloud Privé (Infrastructure VMWARE Infogérée) o CDN Akamai, LoadBalancing BigIP F5, Firewalling (Checkpoint & Fortinet) o Bases de données MS SQL Server, PostgreSQL, MySQL, IBM DB2, Oracle o Big Data Terradata, MapR, BigQuery, DataBricks o Conteneurisation Docker & Orchestration AKS o Progiciels SAP, Siebel, HRAccess DESCRIPTION DE LA MISSION Missions à prévoir et Expérience acquise Etude des besoins issus des équipes de développement : 5 à 10 ans Etude de l'évolution des composants de plateformes techniques ou de l'intégration de nouveaux services : 5 à 10 ans Rédaction des documents d'architecture et d'intégration générale et détaillée : 5 à 10 ans Rédaction des supports d'aide à l'exploitation et accompagnement des équipes d'exploitation durant la transition : 5 à 10 ans Contribution à l'évaluation budgétaire des solutions mises en œuvre : 5 à 10 ans Support N3 des équipes d'exploitation : 5 à 10 ans Une grande majorité des sujets actuellement adressés par l'équipe d'architecture technique concerne les environnements OnPrem.
Freelance

Mission freelance
Ingénieur DevOps Cloud Azure & Data - Confirmé 5 ans xp

Publiée le
Azure
Cloud
Databricks

1 an
Île-de-France, France
Télétravail partiel
Description du contexte Au sein de la Direction Digital et Data, le consultant intégrera le Data Lab , en charge de l’ensemble des projets BI et Data du groupement. La plateforme cible est le Cloud Microsoft Azure . Dans le cadre des projets de transformation, l’Ingénieur DevOps participera au déploiement et à l’industrialisation des solutions data. Polyvalent et à l’aise dans la communication avec les équipes techniques, il devra également contribuer aux sujets de sécurité, aux ateliers, et au suivi des recommandations issues des audits. L’environnement est Agile , et l’équipe composée d’une dizaine de collaborateurs. Missions principales Construire des infrastructures Cloud Public (principalement Azure) Industrialiser les architectures cibles & configurer les équipements (CI/CD) Mettre en place outils & procédures de supervision garantissant la haute disponibilité Participer aux phases de validation technique (mise en production & évolutions) Collaborer étroitement avec les équipes Développement, Sécurité et Projets
Freelance

Mission freelance
Data Engineer H/F

Publiée le
Azure

3 ans
Île-de-France, France
Description : Livrables : • Concevoir et mettre en œuvre des solutions data pour soutenir les objectifs business. • Analyser et interpréter des données complexes afin d’en extraire des informations exploitables. • Collaborer avec des équipes inter fonctionnelles pour identifier et résoudre les défis liés aux données. • Développer et maintenir des pipelines de données, des modèles et des outils de reporting. • Garantir la qualité, l’intégrité et la sécurité des données tout au long de leur cycle de vie. • Fournir une expertise technique et des conseils aux parties prenantes pour soutenir les prises de décisions fondées sur les données. Expertise : • Diplôme de niveau Bachelor ou Master en informatique, data science ou domaine connexe. • Plus de 5 ans d’expérience en data engineering, data analytics ou rôle similaire. • Expérience avérée dans la livraison de solutions data dans un environnement dynamique. • Maîtrise des technologies et architectures data modernes, telles que les plateformes cloud, les frameworks big data et les solutions de data warehousing. • Expertise en langages de programmation tels que Python, SQL et Spark. • Maîtrise de la modélisation de données, des processus ETL et des techniques de transformation de données. • Expertise des plateformes cloud orientées data (ex. : AWS, Azure, Google Cloud). • Maîtrise des outils de visualisation et de reporting (ex. : Power BI, Tableau). • Connaissance approfondie des bonnes pratiques en matière de sécurité, gouvernance et conformité des données.
Freelance

Mission freelance
PRODUCT OWNER TECHNICO-FONCTIONNEL WEB(H/F)

Publiée le
Azure

1 an
La Défense, Île-de-France
Télétravail partiel
1 jour sur site par semaine obligatoire Anglais professionnel obligatoire FICHE MISSION – PRODUCT OWNER TECHNICO-FONCTIONNEL WEB (Plateforme Digitale) (Version anonyme – Consolidée) Objectif global de la mission Concevoir, piloter et faire évoluer une plateforme Web à fort trafic, en développant de nouveaux services digitaux, en améliorant les parcours existants et en garantissant une expérience utilisateur optimale. Contrainte forte du projet Environnement technique Web complet : • Symfony / PHP • React • APIs REST Livrables attendus • Application stricte de la méthode Agile • Gestion complète du Product Backlog • Recette fonctionnelle & suivi de la qualité • Organisation des tests utilisateurs • Spécifications fonctionnelles détaillées • Documentation fonctionnelle consolidée Compétences techniques requises Compétence Niveau Importance Méthodes Agile Confirmé Impératif General Compétence Niveau Importance Symfony / PHP – React – APIs REST Confirmé Impératif SQL Confirmé Important SEO Confirmé Important Connaissances linguistiques • Anglais courant (secondaire) Description détaillée de la mission La mission s’inscrit au sein d’un département digital orienté clients particuliers, entreprises et collectivités, avec une forte ambition : apporter des réponses concrètes aux enjeux environnementaux via des services numériques performants et utiles. Le/la Product Owner interviendra sur une plateforme Web stratégique, avec plus d’1,5 million de visites mensuelles, au sein d’une équipe digitale pluridisciplinaire. 1. Pilotage Produit & Vision • Challenger la solution sur les aspects techniques, fonctionnels et UX • Élaborer, structurer et maintenir la vision produit • Prioriser les besoins métier en intégrant valeur, faisabilité et contraintes techniques • Gérer, maintenir et arbitrer le Product Backlog • Définir les versions et suivre le planning de livraison 2. Développement & Spécifications • Rédiger les User Stories, critères d’acceptation et spécifications détaillées • Participer à la définition des architectures fonctionnelles et techniques de haut niveau • Travailler en étroite collaboration avec les équipes Front, Back, Infra, Support et Cybersécurité 3. Recette & Qualité • Organiser et exécuter la recette fonctionnelle • Valider les développements avant mise en production • Identifier, analyser, reproduire et qualifier les incidents • Organiser les tests utilisateurs et recueillir les feedbacks General • Piloter la maintenance corrective et évolutive en lien avec la TMA • Garantir le respect de la sécurité et du RGPD 4. Amélioration continue • Proposer des évolutions techniques et UX • Optimiser la performance, les parcours et les usages • Analyser les logs applicatifs et impacts fonctionnels • Participer à la croissance des usages digitaux et aux nouveaux service Profil recherché Formation Bac+5 en Informatique, Digital ou Ingénierie. Expérience Minimum 5 ans en tant que : • Product Owner, • AMOA digital, • ou profil hybride technico-fonctionnel Web. Soft Skills • Passion pour le digital & sensibilité environnementale • Forte orientation expérience utilisateur • Excellente communication • Autonomie, rigueur, organisation • Capacité d’arbitrage & de priorisation • Aisance dans un environnement Web complexe Compétences additionnelles • Très bonne compréhension des logs applicatifs • Connaissance SQL (modèles & requêtes simples) • Culture sécurité IT & conformité RGPD • Capacité à concevoir des architectures fonctionnelles cohérentes Outils utilisés Azure DevOps, Trello, Slack, New Relic, GitHub, Postman, SoapUI, O365.
Freelance

Mission freelance
développeur Cloud & IA

Publiée le
Azure
Azure Data Factory
Azure DevOps Services

6 mois
Les Ulis, Île-de-France
Télétravail partiel
Profil recherché : Senior disponible en début d’année, avec une charge estimée autour de 3/5 lors des trois premiers mois, sans exigence immédiate de plein temps. Spécialisation : Développeur senior spécialisé en IA Générative (Gen AI), notamment sur la stack GEn AI. Responsabilités Clés Développement Expert & Maintien : Créer des agents intelligents autonomes utilisant l’approche Agentic AI, capables d’utiliser des outils externes ou de collaborer avec d’autres agents via des API, MCP ou autres services. Développer des applications pour la consommation des agents et algorithmes, avec des interfaces spécifiques pour les utilisateurs finaux. Mettre en place des pipelines robustes pour alimenter les LLM/Agents avec Azure, Snowflake et Databricks (RAG, Fine-Tuning). Assurer le support en production, la supervision des modèles/agents et la résolution des problèmes techniques. Compétences clés IA générative (Gen AI) : Bonne maîtrise des modèles génératifs (GPT, diffusion, etc.), capacité à exploiter des LLM via API ou fine-tuning pour la génération de texte, code ou images, tout en comprenant leurs limitations et biais. Architecture et orchestration : Aptitude à architecturer des solutions combinant plusieurs composants d’IA et Cloud, gestion de l’orchestration d’agents, partage d’état via MCP, et enjeux de performance et coût pour des systèmes multi-agents. Architecture de solution & POC : Concevoir des POCs pour les usages en Gen AI et systèmes agentiques, en explorant et validant des architectures. Prendre des responsabilités architecturales en validant les choix techniques (stack d’agents, orchestration, modèles LLM, cloud Azure) pour assurer scalabilité, sécurité et performance. Conseiller sur l’optimisation des services Azure pour l’IA Générative, en termes de coût, performance et résilience.
337 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous