L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 555 résultats.
Mission freelance
Ingénieur Sécurité Azure / M365 – Expert (SecOps / SOC)
AS INTERNATIONAL
Publiée le
CyberSoc
Cybersécurité
3 mois
La Défense, Île-de-France
Nous recherchons un Ingénieur Sécurité du SI / SOC – niveau Expert pour renforcer la posture de sécurité des environnements Microsoft 365 et Azure d’un grand compte et piloter des actions d’amélioration continue au sein d’une équipe Sécurité Opérationnelle . Missions principales Réaliser des audits & contrôles de conformité / architecture sur Azure & M365 Définir et piloter les plans de remédiation sécurité Mettre en place et suivre des KPI & rapports cyber Coordonner les actions sécurité avec le SOC (détection, règles, incidents) Délivrer des prescriptions de sécurité pour les projets Azure / M365 Valider la sécurité des changements et évolutions du périmètre Contribuer au MCO des outils de sécurité (EDR, vuln, IAM, etc.) Support sécurité aux équipes projet & aux incidents Participation à la gestion des risques SSI & sensibilisation utilisateurs
Mission freelance
SRE - Site Reliability Engineer
Comet
Publiée le
AWS Cloud
Azure
Site Reliability Engineering (SRE)
218 jours
370-830 €
Île-de-France, France
Bonjour à tous les SRE ☁️ / Observabilité 📊 / Cloud & Resilience 🚀 ! Rejoins une équipe innovante qui garantit la fiabilité et la résilience des plateformes digitales critiques utilisées dans le monde entier. L’équipe Site Reliability Engineering accompagne les divisions applicatives pour améliorer la fiabilité, la surveillance et la résilience des produits digitaux. 🔎 Je cherche donc un/-e SRE expérimenté/-e pour participer à un projet ambitieux et technique. 💻 Ce que tu vas faire : Définir et implémenter des mécanismes de monitoring et alerting à tous les niveaux (front, back, ETL, data quality, connectivité) Contribuer à la résilience des applications via backup/restauration, Disaster Recovery Plans et tests associés Implémenter des scénarios de Chaos Engineering sur AWS et Azure Optimiser la gestion des incidents pour réduire le MTTR (détection, notification, analyse) Mettre en place des solutions AIOps pour améliorer observabilité et fiabilité Promouvoir les bonnes pratiques SRE auprès des squads et projets digitaux 🎯 Stack & outils : AWS (Prometheus, Cloudwatch, X-Ray, Firewall), Azure (Monitor, Application Insights, Log Analytics), GCP Observability, Grafana, Chaos Engineering, pipelines CI/CD, automatisation des backups, AIOps 📍 IDF – Paris 2e (Sentier) : 2 jours de télétravail 🏠 Si tu as une solide expérience en SRE, cloud multi-plateformes (AWS, Azure, GCP) et observabilité, et que tu aimes rendre les systèmes robustes et résilients, cette mission est faite pour toi !
Offre d'emploi
Data Engineer - CDI
VingtCinq
Publiée le
Azure
Databricks
DBT
Paris, France
L'ENTREPRISE La fabrique Vingtcinq accompagne depuis 2010, les ETI et grands comptes de l’industrie et du service dans leur transformation digitale (Applications web, digitalisation des processus interne, data engineering, .. ). Vingtcinq est aujourd'hui reconnue non seulement pour la qualité d'exécution de ses développements , mais aussi pour le cadre de travail offert à ses collaborateurs . Le bien-être de notre équipe est une priorité , et chacun contribue activement à la vie de l'entreprise et à son développement . Forte de son expertise dans le développement d'outils digitaux, Vingtcinq aspire désormais à se démarquer dans le domaine de la data . Cette nouvelle Business Unit, en pleine expansion, se structure grâce à l'esprit entrepreneurial de ses membres. Pour soutenir cette croissance, nous recherchons des esprits audacieux pour rejoindre cette aventure et faire rayonner Vingtcinq sur ce nouveau secteur, pour cela, nous recherchons un(e) data engineer pour renforcer notre équipe . Tu travailleras en étroite collaboration avec l’équipe Data pour répondre aux enjeux de nos clients et développer l’offre Vingtcinq. LA MISSION Mission Principale : Data Ingestion & Transformation (70%) Créer, maintenir et optimiser des pipelines de traitement des données (ETL/ELT) pour collecter, charger, stocker, nettoyer et transformer les données brutes provenant de différentes sources (bases de données, API, fichiers, etc.). Automatiser l'intégration / l’ingestion de données (data warehouses, data lakes et lakehouses) Administrer et configurer des systèmes de stockage de données (datalake, datawarehouse ou lakehouse)(Assurer la scalabilité et la résilience des systèmes de données Travailler avec des outils et technologies pour la gestion des données à grande échelle. Optimiser la performance des base de données Garantir la qualité et l'intégrité des données Surveiller et optimiser des flux de données Mission secondaire : Visualization & technical guidance (30%) Travailler avec l’équipe Business/PM pour enrichir le brief et créer la traduction technique appropriée, être à l'aise pour parler à l'équipe business Conseils pour la résolution de problèmes : En tant qu'ingénieur de données expérimenté, fournir des conseils sur la bonne méthodologie d'implémentation technique des outils internes en accord avec l’équipe Data office Maintenir les tableaux de bord existants (améliorations) Soutenir l'effort de documentation des données en collaboration avec les responsables des données. COMPÉTENCES REQUISES Maîtrise de l’environnement Azure Environnement Cloud & Data : Azure Data Factory (ingestion, orchestration), Azure Databricks (traitements Spark), Azure Data Lake Storage Gen2 Bases de données & modélisation : Azure SQL Database, Modélisation analytique (schéma en étoile, faits/dimensions) Programmation : SQL avancé, Python (Spark, pandas), Scala (apprécié) Sécurité & gouvernance : Azure AD / IAM, Gestion des accès et des données sensibles, Data Catalog (Purview ou équivalent) Industrialisation & supervision : CI/CD : Azure DevOps ou GitHub Actions, Monitoring : Azure Monitor, Log Analytics Business Intelligence : Power BI LE PROFIL RECHERCHÉ Formation Bac+5 ou équivalent vous justifiez d’une expérience de 3 à 5 ans en tant que Data Engineer . Tu es autonome, proactif et as un excellent sens de la communication . Tu es apte à analyser les problèmes de données et à concevoir des solutions techniques adaptées . Tu recherches une structure à taille humaine , avec un fort esprit d’équipe Niveau d’ anglais avancé attendu LES PLUS DE L'OFFRE Nous avons le goût de la qualité et du travail bien fait Nous t’accompagnerons dans ta montée en compétences Chez VingtCinq, nous accordons une importance particulière à l’esprit d’équipe et au bien être de nos collaborateurs LE PROCESSUS DE RECRUTEMENT Entretien avec le DG de VingtCinq Test technique Entretien avec le Directeur Technique
Mission freelance
AI Product Owner
Codezys
Publiée le
Azure
Cloud
Data science
12 mois
Lille, Hauts-de-France
Principales missions : Vision & Stratégie Produit IA : Définir la stratégie des solutions IA en collaboration avec les équipes métier, en identifiant les opportunités dans les domaines du Risque, du Paiement, du Digital, etc., et en priorisant les projets selon leur valeur et faisabilité. Gestion du Backlog & Priorisation : Coordonner et prioriser les initiatives en Data Science et IA en traduisant les besoins métier en fonctionnalités, en maintenant le backlog et en arbitrant les priorités pour maximiser l’impact business à chaque sprint. Pilotage du Delivery Agile : Superviser la livraison des projets IA via des méthodologies agile (Scrum/Kanban), organiser les cérémonies, suivre l’avancement, lever les obstacles, et garantir le respect des délais, du budget et de la qualité, tout en communiquant avec les sponsors. Coordination Métiers–Data–IT : Servir d’interface entre les équipes Data Science, IT et métiers, en facilitant la co-construction de solutions adaptées, en intégrant les contraintes techniques et en assurant une mise en œuvre fluide. Crédit & Risque (Scoring) – Use cases « Machine Learning » classiques : Piloter l’évolution des modèles de scoring crédit (octroi, scores comportementaux), en concevant, expérimentant, déployant et en monitorant les modèles en collaboration avec Risque et Validation, en s’assurant qu’ils respectent les normes réglementaires et qu’ils améliorent la stabilité du coût du risque. IA Générative & Agents : Explorer et déployer des cas d’usage liés à l’IA générative, tels que chatbots, assistants cognitifs ou systèmes avec LLM/RAG, pour automatiser l’analyse de documents, soutenir les équipes internes ou enrichir le support client, en définissant objectifs et indicateurs de performance.
Mission freelance
Consultant IA Générative
JobiStart
Publiée le
Agile Scrum
AWS Cloud
Azure
1 an
400-550 €
Île-de-France, France
Industrialiser et exploiter en production une solution d’ IA générative s’appuyant sur des modèles de langage avancés , des mécanismes de recherche augmentée et de gestion de contexte . Concevoir, développer et faire évoluer des assistants IA métiers intégrant des logiques d’ orchestration , de chaînage de services et d’ optimisation des interactions modèle . Déployer des architectures IA scalables et sécurisées , interfacées avec le système d’information via des APIs , des services serverless et des plateformes cloud. Assurer le run applicatif IA : monitoring, gestion des performances, optimisation des coûts, fiabilisation et amélioration continue des solutions en production.
Mission freelance
Développeur Fullstack
Tenth Revolution Group
Publiée le
.NET
Angular
Azure
6 mois
100-520 €
Nouvelle-Aquitaine, France
🚀 Nouvelle mission – Développeur Full Stack .NET / Angular – Nouvelle-Aquitaine (ASAP) Je recherche pour l’un de mes clients un Développeur Full Stack C# (.NET Core – dernières versions) / Angular (versions récentes) pour rejoindre un projet agile à dimension internationale. 📅 Mission : Démarrage ASAP 6 mois renouvelable Localisation : Nouvelle-Aquitaine 🛠️ Stack & environnement : Backend : C# / .NET Core Frontend : Angular (versions récentes) Cloud : Microsoft Azure Base de données : SQL, MongoDB Méthodologie : Agile Scrum 🌍 Contexte international ➡️ Un bon niveau d’anglais à l’oral est indispensable.
Offre d'emploi
Architecte SI
OBJECTWARE
Publiée le
ArchiMate
AWS Cloud
Azure
12 mois
Angers, Pays de la Loire
📌 Poste : Architecte SI (H/F) 📍 Localisation : Angers (2 à 3 jours sur site / semaine) 🕒 Durée : 12 mois (renouvelable) 🚀 Démarrage : Février 2026 🎯 Mode : Freelance ou Portage / Temps plein Nous recherchons un Architecte SI pour renforcer une équipe architecture au sein d’une DSI dans le cadre de la transformation et de l’urbanisation du Système d’Information. L’objectif de la mission est d’accompagner les projets en cours, structurer la démarche d’architecture, définir les cibles SI et contribuer à la cohérence globale du système d’information. 🎯 Missions Contribuer à la conception et évolution du SI Définir les architectures fonctionnelles & techniques cibles Mettre à jour les référentiels d’architecture (standards, normes, vocabulaire) Participer à la cartographie du SI (outils dédiés, Archimate…) Analyser les impacts des solutions sur le SI (interopérabilité, sécurité, performance…) Supporter les projets sur l’ évaluation, conception et choix de solutions Contribuer à la rédaction des dossiers d’architecture Réaliser des benchmarks / études d’opportunité Accompagner la cohérence SI & sécurité (alignement stratégie / PSSI) Participer aux comités & instances d’architecture 🧩 Profil recherché +5 ans d’expérience en architecture SI , architecture solution ou urbanisation SI Maîtrise des concepts d’architecture d’entreprise Bonne compréhension des briques qui composent un SI : Applications / Bases / Réseaux / Virtualisation / IAM / Sécurité Connaissance des pratiques & frameworks (appréciés) : TOGAF, Archimate, ITIL, ISO 27001 Acculturation cloud & environnements hybrides (Azure / AWS / GCP) Très bon rédactionnel & communication Capacité d’analyse, de synthèse et d’arbitrage 🛠 Stack & environnement apprécié (non exhaustif) ArchiMate / UML / BPMN Outils de cartographie SI Cloud : AWS / Azure / GCP DevOps : Kubernetes, Docker, Terraform Sécurité SI Intégration & interopérabilité (API / ESB / IAM) 📍 Modalités 12 mois Temps plein 2–3 jours sur site / semaine
Offre d'emploi
Tech Lead Java/Angular (H/F)
WINSIDE Technology
Publiée le
Angular
AngularJS
Azure
Lille, Hauts-de-France
Winside, en bref ? Winside Technology est un pure player Tech, basé à Paris, Lyon, Lille, Bordeaux, Nantes et au Maroc. Crée en 2020, l’entreprise compte plus de 250 consultants, accompagne plus de 50 clients grands comptes et a réalisé 30M€ de chiffre d’affaires en 2024. Notre ADN repose sur l’expertise, la qualité, la proximité et l’esprit d’équipe. Au-delà des missions, nous cultivons une vraie communauté : événements techniques, moments conviviaux, partage de connaissances et ambition collective. Ce qui t’attend chez nous.. Contexte Tu interviendras au sein d’une équipe IT spécialisée dans le développement et la maintenance d’applications pour le domaine Capital Market IT, sur des activités Equity. La mission consiste à renforcer et faire évoluer le SI autour des référentiels métiers, en implémentant de nouvelles fonctionnalités pour soutenir la croissance des activités, tout en assurant la stabilité, la maintenance et le support de la plateforme. Tes missions … Participer à la conception et au développement d’applications web performantes en Java et Angular. Implémenter des fonctionnalités robustes, évolutives et sécurisées en lien avec les besoins métier. Collaborer étroitement avec les équipes produit, design et QA pour garantir la qualité des livrables. Optimiser le code et les performances des applications pour une expérience utilisateur fluide. Contribuer aux choix techniques et à l’architecture des projets. Assurer la maintenance évolutive et corrective des applications existantes. Participer aux cérémonies Agile (daily, sprint planning, rétrospective…) et aux revues de code. Être force de proposition sur les bonnes pratiques de développement et les innovations technologiques. Exemples de projets : Développement et mise en production de nouvelles fonctionnalités autour des référentiels Equity Optimisation et stabilisation du SI existant pour supporter de nouveaux volumes et activités Implémentation et maintenance de bases de données PostgreSQL et MongoDB Documentation et automatisation des processus pour améliorer la qualité et la productivité Et toi dans tout ça, tu as : Minimum 5 ans d’expérience en développement Java et Angular (hors stage et alternance). Une maîtrise des frameworks Spring/Spring Boot et Angular (v10+). Une bonne connaissance des architectures REST, des bases de données SQL et NoSQL. Une expérience dans des environnements Agile/Scrum. Une capacité à comprendre les enjeux métier et à les traduire en solutions techniques. Un anglais professionnel pour collaborer avec des équipes internationales. Une communication claire et un vrai esprit d’équipe. Ce que tu trouveras chez Winside … Une communauté d’experts diversifiés ( Craft, Core, Risk & Security etc) Une entreprise en pleine croissance, qui valorise l’initiative et la créativité. Un parcours de formation personnalisé et de vraies perspectives d’évolution. Une vie d’entreprise rythmée par des événements techniques et conviviaux. Des avantages concrets : primes vacances, mutuelle prise en charge à 100 %, frais mobilité, système de cooptation qui impacte ta rémunération sur le long terme Un process simple et rapide Un premier échange pour faire connaissance. Un entretien avec Perrine côté RH. Un entretien technique suivi d’un échange avec la direction. Une réponse rapide et voire une proposition d'embauche
Mission freelance
Data engineer H/F
Insitoo Freelances
Publiée le
AWS Cloud
Azure
Databricks
2 ans
450-490 €
Paris, France
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data engineer H/F à Paris, France. Contexte : Nous recherchons un Data Ingénieur capable d’intégrer des modèles d’IA générative pour créer des Agents IA connectés et déployé sur AWS ou Azure. A. Interface graphique permettant de construire les modèles et de définir les paramètres de simulation B. Coeur de calcul et outil de calcul connecté aux données big data de nos bases de données C. Outil de croisement des bases de données D. Logiciel de visualisation des résultats de simulation E. Outil de simulation des scénarios de régénération Les missions attendues par le Data engineer H/F : L’objectif est de concevoir et d’opérer une plateforme permettant : •Le déploiement d’agents conversationnels et d’outils d’analyse de texte en temps réel, •L’intégration de modèles LLM, •L’utilisation d’architectures cloud évolutives, robustes et optimisées en coûts (serverless, conteneurs, stockage S3, compute EC2, etc.). •Le ou la candidate contribuera également à l’orchestration des modèles via API Gateway, à l’exécution d’APIs serverless via Lambda, ainsi qu’à la gestion du cycle de vie des modèles via SageMaker (ou équivalent Azure Machine Learning). Les taches de cette mission sont : •Concevoir, développer et maintenir des scripts python robustes et scalables basées sur AWS ou Azure (API Gateway, Lambda Functions, App Services, etc.). •Développer des workflows IA robustes, incluant inference pipeline, gestion des prompts, monitoring et optimisation. •Travailler avec le développeur front Profil(s) le(s) plus à même de remplir la prestation (compétences requises et souhaitées) : • Diplôme universitaire en informatique, en traitement de Langage ou dans un domaine connexe (ou expérience équivalente) • Solide maîtrise de python •Connaissances en bases de données SQL et NoSQL. •Expérience en conception d’API. •Maîtrise des bonnes pratiques de sécurité Web. •Connaissance des pipelines CI/CD, Git, conteneurisation (Docker, Kubernetes). •Atouts : expérience cloud (AWS, Azure, GCP), microservices, tests automatisés. •Capacité à travailler en autonomie tout en collaborant étroitement avec l’équipe. •Bon sens de la communication et esprit de synthèse. •Curiosité et appétence pour apprendre de nouvelles technologies. •Proactivité dans la résolution de problèmes. Environnement technique : AWS/AZUR/Databricks
Offre d'emploi
Développeur Java/React (Bordeaux)
CAT-AMANIA
Publiée le
API REST
Azure
Azure Kubernetes Service (AKS)
3 mois
40k-45k €
100-350 €
Bordeaux, Nouvelle-Aquitaine
Dans le cadre du développement et de la maintenance de sites partenaires, nous sommes à la recherche d'un Développeur Fullstack (Java/React) pour renforcer une équipe composée de 10 développeurs. En tant que Développeur, et en coordination avec l’équipe, vos missions principales seront : Analyse des besoins des partenaires Développement et intégration des sites partenaires Résolution des incidents Déploiement en production Supervision Tests et validation Projets à fort enjeu, où la performance et la qualité du code sont au cœur des préoccupations.
Mission freelance
Expert Python Lead MLOps AZURE - Spécialiste IA/RAG La Défense (92)
5COM Consulting
Publiée le
Azure
Python
1 an
750 €
Paris, France
Lead Développeur MLOps Python - Spécialiste IA/RAG Cette mission s'adresse à des profils seniors ayant déjà industrialisé des solutions IA/RAG en production et maîtrisant les enjeux de passage à l'échelle. Profil avec un mindset sales: au-delà de ses compétences techniques, dispose d’un profil capable de s’imposer, de proposer des solutions, de prendre des initiatives, de mener des recherches et de tenir ses engagements. Mission Nous recherchons un Lead MLOPS Python pour industrialiser les développements IA/Data Science avec un focus sur les systèmes RAG (Retrieval-Augmented Generation) et les LLM . Contexte Les Data Scientists développent des solutions expérimentales (modèles, RAG, pipelines IA) que vous devrez transformer en solutions robustes déployables en production à grande échelle. Responsabilités principales Industrialisation des systèmes RAG/LLM : Automatiser le processing de documents volumineux (ex: PDFs 250+ pages) Mettre en place des pipelines de chunking et d'indexation automatiques Gérer la montée en charge des bases de connaissances Implémenter des métriques de monitoring pour détecter les dérives des modèles Architecture & Scalabilité : Concevoir des workflows complexes pour tâches longues (pipelines multi-étapes) Déployer sur infrastructure cloud (Azure/AWS/GCP) Containerisation avec Docker/Kubernetes Mise en place de CI/CD spécialisés pour l'IA Développement & Bonnes Pratiques : Refactorisation du code Data Science selon les standards industriels Injection de dépendances, programmation orientée objet Tests automatisés, clean code, modularité Gestion des dépendances et versioning des modèles MLOps & Monitoring : Supervision des performances des modèles en production Détection du drift et mise en place d'alertes Gestion des réentraînements automatiques Tableaux de bord et métriques business Profil recherchéCompétences techniques obligatoires : Python expert (5 - 10+ ans d'expérience) 1 Expérience concrète avec RAG/LLM en production Cloud computing (Azure/AWS/GCP) - déploiement à l'échelle MLOps : pipelines ML, monitoring, drift detection Architecture logicielle : design patterns, injection de dépendances, OOP DevOps : Docker, Kubernetes, CI/CD Compétences techniques souhaitées : Frameworks : LangChain, Haystack, ChromaDB, Pinecone Bases de données vectorielles Streaming de données (Kafka, Pulsar) Orchestration (Airflow, Prefect) Soft skills : Leadership technique : capacité à guider une équipe de Data Scientists Pédagogie : transmission des bonnes pratiques Autonomie sur des projets complexes Mindset industrialisation : passage du POC à la production Environnement technique Stack : Python, FastAPI, SQLAlchemy, Pydantic IA/ML : PyTorch, Transformers, OpenAI API, Azure OpenAI Cloud : Azure (priorité Orchestration : Kubernetes, Docker, Terraform Monitoring : Prometheus, Grafana, MLflow Méthodologie : Agile, TDD, Code Review Exemple de cas d'usage concret "Un utilisateur upload un PDF de 250 pages. Le système doit automatiquement : Découper le document en chunks optimaux Indexer dans la base vectorielle Permettre des requêtes précises ('dates des événements X') Monitorer la qualité des réponses Alerter en cas de dégradation" Votre rôle : Transformer le script Python du Data Scientist en solution industrielle, scalable et monitorée. Modalités Durée : 6-12 mois (renouvelable) Format : Freelance/Régie Localisation : Hybride (2-3 jours sur site) Démarrage : ASAP Profil du candidat Profil recherchéCompétences techniques obligatoires : Python expert ((5 - 10+ ans d'expérience) Expérience concrète avec RAG/LLM en production Cloud computing (Azure) - déploiement à l'échelle MLOps : pipelines ML, monitoring, drift detection Architecture logicielle : design patterns, injection de dépendances, OOP DevOps : Docker, Kubernetes, CI/CD Compétences techniques souhaitées : Frameworks : LangChain, Haystack, ChromaDB, Pinecone Bases de données vectorielles Streaming de données (Kafka, Pulsar) Orchestration (Airflow, Prefect) Soft skills : Leadership technique : capacité à guider une équipe de Data Scientists Pédagogie : transmission des bonnes pratiques Autonomie sur des projets complexes Mindset industrialisation : passage du POC à la production Environnement technique Stack : Python, FastAPI, SQLAlchemy, Pydantic IA/ML : PyTorch, Transformers, OpenAI API, Azure OpenAI Cloud : Azure Obligatoire Orchestration : Kubernetes, Docker, Terraform Monitoring : Prometheus, Grafana, MLflow Méthodologie : Agile, TDD, Code Review Description de l‘entreprise Pourquoi cette mission est unique Cette opportunité vous permettra de façonner l'avenir de l'IA dans un contexte où vos décisions techniques auront un impact direct sur des millions d'utilisateurs. Vous ne serez pas un simple exécutant, mais un architecte de solutions qui influence la roadmap technologique. Ce qui vous attend : Autonomie technique : Liberté de choix sur les architectures et technologies Visibilité : Présentation de vos réalisations au comité de direction Impact business : Vos optimisations se traduisent directement en gains mesurables Veille technologique : Accès privilégié aux betas Microsoft et APIs exclusives Réseau professionnel : Collaboration avec des experts IA reconnus dans l'écosystème français Vous évoluerez dans un environnement où l' excellence technique rencontre l' innovation business , avec le support d'une équipe qui croit en vos compétences et vous donne les moyens d'exprimer votre talent. Modalités Durée : 12 mois (renouvelable) Format : Freelance/Régie Localisation : Paris La Défense - Hybride (2 jours sur site / 3 jours remote) Démarrage : ASAP Profil du candidat Python expert ((5 - 10+ ans d'expérience) Expérience concrète avec RAG/LLM en production Cloud computing Azure - déploiement à l'échelle MLOps : pipelines ML, monitoring, drift detection Architecture logicielle : design patterns, injection de dépendances, OOP DevOps : Docker, Kubernetes, CI/CD Description de l‘entreprise Modalités Durée : 12 mois (renouvelable) Format : Freelance/Régie Localisation : Paris La Défense - Hybride (2 jours sur site / 3 jours remote) Démarrage : ASAP
Offre d'emploi
Un(e) expert(e) SAAS
OMICRONE
Publiée le
Ansible
Architecture
AWS Cloud
2 ans
40k-45k €
400-450 €
Île-de-France, France
Nous recrutons des profils SAAS pour renforcer notre équipe ! Nous recherchons des experts SAAS ayant une expérience solide dans le développement, la gestion, et l’optimisation de solutions en Software-as-a-Service . Vous interviendrez sur des projets innovants, en étroite collaboration avec les équipes produit et technique pour offrir des solutions performantes, évolutives et sécurisées. Compétences requises : Expertise en développement SAAS (architecture, intégration, déploiement) Maîtrise des plateformes cloud (AWS, Azure, Google Cloud) Bonne connaissance des méthodologies Agile et CI/CD Expérience avec des outils comme Kubernetes, Docker, Terraform, Ansible Bonne maîtrise des bases de données (SQL, NoSQL) Rejoignez-nous pour travailler sur des projets à fort impact dans un environnement dynamique et en forte croissance !
Offre d'emploi
Data Engineer Cloud & BI (Finance)
Amontech
Publiée le
Azure
Git
Google Cloud Platform (GCP)
1 an
40k-45k €
400-450 €
Île-de-France, France
Contexte Nous recherchons un(e) Data Engineer pour rejoindre un projet stratégique dans le secteur bancaire. La mission vise à améliorer l’exploitation des données métiers à travers la création et la refonte de dashboards et le développement de solutions analytiques sur le cloud. Missions Comprendre l’environnement et les besoins métiers pour proposer des solutions adaptées S’approprier et optimiser les dashboards existants Collecter, transformer et gérer les données en garantissant leur qualité, intégrité et sécurité Participer à la définition et au suivi des KPI métiers Animer des ateliers et groupes de travail avec les utilisateurs pour collecter les besoins Développer et automatiser les traitements de données Former et accompagner les utilisateurs sur les outils et dashboards Contribuer à l’amélioration de l’expérience utilisateur (UX) et du design des tableaux de bord
Mission freelance
Architecte cloud azure et on prem H/F
LeHibou
Publiée le
Azure
DataCenter Infrastructure Management (DCIM)
1 an
610-730 €
Paris, France
Contexte : Au sein d’une équipe internationale, vous apportez votre expertise sur les infrastructures hybrides (datacenter + cloud Azure) afin de garantir sécurité, conformité réglementaire et performance des plateformes technologiques. Responsabilités principales Évaluer l’infrastructure existante et définir la stratégie cloud/datacenter conforme aux réglementations financières (FCA, PRA, GDPR…). Concevoir et mettre en œuvre des solutions sécurisées, scalables et alignées sur la stratégie technologique régionale. Accompagner les équipes de direction sur la roadmap et les initiatives stratégiques. Optimiser les coûts, réduire les risques et renforcer la résilience des systèmes critiques. Architecturer des environnements hybrides (Azure + on-premise) et piloter les migrations applicatives vers le cloud. Collaborer avec les équipes Architecture, Cyber, Cloud Ops et autres experts pour garantir l’équilibre entre besoins métiers et exigences de cybersécurité. Produire la documentation (process, guides, templates) supportant l’adoption du cloud. Assurer la conformité aux standards (ISO 27001, PCI DSS, SOC 2) et accompagner les audits. Surveiller la performance et la disponibilité des systèmes critiques.
Mission freelance
Architecte Technique Senior – Infrastructures, DevOps & Plateformes B2B Critiques
Gentis Recruitment SAS
Publiée le
.NET
Azure
DevOps
1 an
Paris, France
Contexte de la mission Le client engage une transformation majeure de ses systèmes d’information B2B afin de moderniser ses plateformes de vente et de relation client. Une nouvelle équipe IT dédiée aux systèmes Sales & Customers porte des enjeux structurants pour 2026 : Intégration de briques IA pour automatiser et fiabiliser les processus Conception d’architectures scalables et hautement disponibles (offres 24/7, Flex) Ouverture des plateformes à des partenaires externes (tiers, brokers) Renforcement de la sécurité et maîtrise des coûts d’infrastructure L’environnement est critique, fortement industrialisé et orienté performance. Objectifs de la mission Intervenir comme Architecte Technique Senior hands-on , garant de la cohérence globale du SI, des choix technologiques et des standards d’architecture. Responsabilités principales Architecture & Design Définir les architectures Web, Data et IA Garantir la cohérence des composants SI et des frameworks techniques Porter la vision et les standards d’architecture groupe Accompagner les équipes dans les choix structurants Infrastructures & DevOps Piloter l’uniformisation de l’écosystème DevOps Arbitrer et optimiser les choix Kubernetes / App Services Superviser les environnements Docker / Kubernetes Maîtriser les coûts d’infrastructure (FinOps) Sécurité & Exploitation Assurer une vigilance proactive sur la sécurité Superviser la gestion des alertes critiques Contribuer à la résolution rapide des incidents majeurs Collaboration & Pilotage Interaction étroite avec les équipes produit, développement et métiers Vision transverse SI / business Rôle de référent technique senior Livrables attendus Dossiers d’architecture (schémas, diagrammes, patterns) Rapports d’activité Recommandations techniques et standards
Mission freelance
Ingénieur DevSecOps
Phaidon London- Glocomms
Publiée le
Azure DevOps
Azure Kubernetes Service (AKS)
DevOps
12 mois
450-600 €
Lyon, Auvergne-Rhône-Alpes
Lieu : Lyon (Télétravail avec déplacements ponctuels en France) Type de contrat : Mission de 12 mois + extensions / possibilité de CDI Date de démarrage : Janvier / Février 2026 À propos du poste Nous recherchons un(e) Ingénieur(e) DevSecOps expérimenté(e) pour rejoindre une équipe produit et technologie dynamique, travaillant sur des solutions logicielles innovantes et des projets de transformation cloud. Ce rôle stratégique vise à garantir des opérations cloud sécurisées, automatisées et évolutives dans un environnement agile. Vous collaborerez étroitement avec les équipes de développement et d’infrastructure pour mettre en œuvre les pratiques DevSecOps, automatiser les déploiements et assurer l’excellence opérationnelle sur les plateformes cloud. Responsabilités principales Accompagner les équipes de développement sur les problématiques d’hébergement cloud et proposer des solutions adaptées. Apporter une expertise sur les environnements Microsoft Azure. Automatiser les déploiements cloud via l’Infrastructure as Code (Terraform, Ansible). Maintenir et optimiser la chaîne logicielle pour la livraison continue. Contribuer à la stratégie technique et valider les solutions en cohérence avec les objectifs cloud et infrastructure. Assurer une veille technologique sur les outils, méthodes et pratiques DevSecOps. Environnement technique Cloud : Microsoft Azure (IaaS, PaaS) Automatisation : Terraform, Ansible Langages : Python, PowerShell CI/CD : Azure DevOps, Pipelines Sécurité : SAST, DAST, principes OWASP Profil recherché Expérience : 5+ ans en DevOps, DevSecOps, Cloud ou ingénierie infrastructure. Solide connaissance des services Azure et des bonnes pratiques DevSecOps. Maîtrise des outils d’automatisation et Infrastructure as Code. Familiarité avec les tests de sécurité applicative et les pipelines CI/CD. Excellentes compétences en communication et capacité à collaborer avec des équipes pluridisciplinaires. Esprit proactif, curieux et ouvert.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
1555 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois