L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 223 résultats.
Mission freelance
Lead MLOps Python - Spécialiste IA/RAG
Publiée le
IA
MLOps
Python
3 ans
600 €
La Défense, Île-de-France
Télétravail partiel
Lead Développeur MLOps Python - Spécialiste IA/RAG Cette mission s'adresse à des profils seniors ayant déjà industrialisé des solutions IA/RAG en production et maîtrisant les enjeux de passage à l'échelle. Profil avec un mindset sales: au-delà de ses compétences techniques, dispose d’un profil capable de s’imposer, de proposer des solutions, de prendre des initiatives, de mener des recherches et de tenir ses engagements. Mission Nous recherchons un Lead MLOPS Python pour industrialiser les développements IA/Data Science avec un focus sur les systèmes RAG (Retrieval-Augmented Generation) et les LLM . Contexte Les Data Scientists développent des solutions expérimentales (modèles, RAG, pipelines IA) que vous devrez transformer en solutions robustes déployables en production à grande échelle. Responsabilités principales Industrialisation des systèmes RAG/LLM : Automatiser le processing de documents volumineux (ex: PDFs 250+ pages) Mettre en place des pipelines de chunking et d'indexation automatiques Gérer la montée en charge des bases de connaissances Implémenter des métriques de monitoring pour détecter les dérives des modèles Architecture & Scalabilité : Concevoir des workflows complexes pour tâches longues (pipelines multi-étapes) Déployer sur infrastructure cloud (Azure/AWS/GCP) Containerisation avec Docker/Kubernetes Mise en place de CI/CD spécialisés pour l'IA Développement & Bonnes Pratiques : Refactorisation du code Data Science selon les standards industriels Injection de dépendances, programmation orientée objet Tests automatisés, clean code, modularité Gestion des dépendances et versioning des modèles MLOps & Monitoring : Supervision des performances des modèles en production Détection du drift et mise en place d'alertes Gestion des réentraînements automatiques Tableaux de bord et métriques business Profil recherchéCompétences techniques obligatoires : Python expert (5 - 10+ ans d'expérience) 1 Expérience concrète avec RAG/LLM en production Cloud computing (Azure/AWS/GCP) - déploiement à l'échelle MLOps : pipelines ML, monitoring, drift detection Architecture logicielle : design patterns, injection de dépendances, OOP DevOps : Docker, Kubernetes, CI/CD Compétences techniques souhaitées : Frameworks : LangChain, Haystack, ChromaDB, Pinecone Bases de données vectorielles Streaming de données (Kafka, Pulsar) Orchestration (Airflow, Prefect) Soft skills : Leadership technique : capacité à guider une équipe de Data Scientists Pédagogie : transmission des bonnes pratiques Autonomie sur des projets complexes Mindset industrialisation : passage du POC à la production Environnement technique Stack : Python, FastAPI, SQLAlchemy, Pydantic IA/ML : PyTorch, Transformers, OpenAI API, Azure OpenAI Cloud : Azure (priorité) / AWS / GCP Orchestration : Kubernetes, Docker, Terraform Monitoring : Prometheus, Grafana, MLflow Méthodologie : Agile, TDD, Code Review Exemple de cas d'usage concret "Un utilisateur upload un PDF de 250 pages. Le système doit automatiquement : Découper le document en chunks optimaux Indexer dans la base vectorielle Permettre des requêtes précises ('dates des événements X') Monitorer la qualité des réponses Alerter en cas de dégradation" Votre rôle : Transformer le script Python du Data Scientist en solution industrielle, scalable et monitorée. Modalités Durée : 6-12 mois (renouvelable) Format : Freelance/Régie Localisation : Hybride (2-3 jours sur site) Démarrage : ASAP Profil du candidat Profil recherchéCompétences techniques obligatoires : Python expert ((5 - 10+ ans d'expérience) Expérience concrète avec RAG/LLM en production Cloud computing (Azure) - déploiement à l'échelle MLOps : pipelines ML, monitoring, drift detection Architecture logicielle : design patterns, injection de dépendances, OOP DevOps : Docker, Kubernetes, CI/CD Compétences techniques souhaitées : Frameworks : LangChain, Haystack, ChromaDB, Pinecone Bases de données vectorielles Streaming de données (Kafka, Pulsar) Orchestration (Airflow, Prefect) Soft skills : Leadership technique : capacité à guider une équipe de Data Scientists Pédagogie : transmission des bonnes pratiques Autonomie sur des projets complexes Mindset industrialisation : passage du POC à la production Environnement technique Stack : Python, FastAPI, SQLAlchemy, Pydantic IA/ML : PyTorch, Transformers, OpenAI API, Azure OpenAI Cloud : Azure (priorité) / AWS / GCP Orchestration : Kubernetes, Docker, Terraform Monitoring : Prometheus, Grafana, MLflow Méthodologie : Agile, TDD, Code Review Description de l‘entreprise Pourquoi cette mission est unique Cette opportunité vous permettra de façonner l'avenir de l'IA dans un contexte où vos décisions techniques auront un impact direct sur des millions d'utilisateurs. Vous ne serez pas un simple exécutant, mais un architecte de solutions qui influence la roadmap technologique. Ce qui vous attend : Autonomie technique : Liberté de choix sur les architectures et technologies Visibilité : Présentation de vos réalisations au comité de direction Impact business : Vos optimisations se traduisent directement en gains mesurables Veille technologique : Accès privilégié aux betas Microsoft et APIs exclusives Réseau professionnel : Collaboration avec des experts IA reconnus dans l'écosystème français Vous évoluerez dans un environnement où l' excellence technique rencontre l' innovation business , avec le support d'une équipe qui croit en vos compétences et vous donne les moyens d'exprimer votre talent. Modalités Durée : 12 mois (renouvelable) Format : Freelance/Régie Localisation : Paris La Défense - Hybride (2 jours sur site / 3 jours remote) Démarrage : ASAP
Mission freelance
Consultant expérimentés DBT/Snowflake (+5 ans d'exp) Bordeaux (3 jours TT)/sal
Publiée le
DBT
Snowflake
6 mois
400-420 £GB
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
Consultant expérimentés DBT/Snowflake Bordeaux (3 jours TT) AWS TERRAFORM PANDAS Durée : 6 mois renouvelables Expérience nécessaire : 5 à 10 ans Anglais obligatoire Compétences recherchées : SNOWFLAKE DBT AWS TERRAFORM PANDAS Consultant expérimentés DBT/Snowflake Bordeaux (3 jours TT) Tâches à traiter : Data Pipeline Development Infrastructure Management Data Storage and Management Data Processing Optimization Data Comparison and Validation Monitoring and SLA Management Security and Access Control Documentation and Knowledge Transfer
Offre d'emploi
DevOps/SysOps/LLM/RAG
Publiée le
DevOps
Large Language Model (LLM)
RAG
3 ans
47k-97k €
400-800 €
Île-de-France, France
Périmètre DevOps & SysOps 1. Automatisation & Déploiement Mise en place d’un pipeline CI/CD complet : build, tests, déploiements et releases. Déploiement automatisé de l’API backend et de tous les modules associés. Gestion de l’infrastructure pour garantir une mise en production fiable et répétable. 2. Supervision & Observabilité Mise en œuvre de la surveillance des composants LLM et IA générative (logs, métriques, alertes). Monitoring et reporting des KPIs de performance, d’usage et de qualité. 3. Sécurité & Conformité Configuration et gestion de l’authentification, autorisation et gestion des accès. Respect des exigences sécurité du Groupe BNP et des règles d’accessibilité RGAA . Mise en place de la gestion et rotation des secrets, tokens et credentials. 4. Exploitation & Résilience Rédaction de la documentation technique d’exploitation et d’intégration. Mise en place et automatisation des procédures de sauvegarde et restauration (données, contextes, historiques). Gestion de la scalabilité : montée en charge, load-balancing, optimisation des performances. Définition et application de la politique de gestion des incidents, astreintes et SLA. Expertises fonctionnelles et techniques : Compétences requises Compétences techniques essentielles (synthèse) 1. Cloud & Infrastructure Maîtrise d’un cloud (AWS, Azure, GCP) Infrastructure as Code : Terraform, Ansible Architectures scalables et haute disponibilité 2. Conteneurs & Orchestration Docker Kubernetes / OpenShift (déploiement, scaling, secrets, monitoring) 3. CI/CD & Automatisation Pipelines GitLab CI, GitHub Actions, Jenkins Automatisation build/test/deploy Sécurisation des pipelines 4. Observabilité Logs : ELK, Splunk Monitoring : Prometheus, Grafana, Datadog Suivi spécifique LLM/IA : performance, coûts, dérives 5. Sécurité Authentification/autorisation (OAuth2, OIDC, SAML) Gestion des secrets (Vault, KMS) Sécurité API et conformité RGAA 6. Backend & APIs Compréhension des APIs REST/GraphQL Connaissance de base en Python / Node.js / Java Microservices 7. Bases de données PostgreSQL, MongoDB, Redis Backup/restore, stockage objet 8. Exploitation & Incidents Runbooks, SLA, ITIL Tableaux de bord et KPIs d’usage/performance 9. IA Générative (bonus fortement recommandé) Appels API LLM Gestion des prompts et contextes Notions de RAG et sécurité IA
Mission freelance
Architecte IT transverse Infrastructure / Production
Publiée le
Infrastructure
Production
24 mois
450-900 €
Paris, France
Télétravail partiel
PROPULSE IT recherche un ARCHITECTE INFRASTRUCTURE avec une très bonne expertise de la production. - accompagner des experts techniques et des chefs de projet Infrastructure dans la mise en œuvre de projets Build, qui peuvent couvrir l'ensemble de l'environnement technique du client. - Réfléchir aux préconisations, et challenger les différentes options - Communiquer, et accompagner l'adoption des solutions Connaissances et expériences en Architecture, et de projet production de bout en bout, sur les domaines suivants - les technologies en datacenter : • stockage : EMC, Netapp, • sauvegarde : CommVault • Réseau : CISCO, Checkpoint, Fortinet, F5 - les systèmes d'exploitation serveurs : RedHat Linux et Microsoft Windows - les technologies de virtualisation : VMware, OpenStack, Container Docker - les technologies de bases de données : Oracle, PostgreSQL, MongoDB, SQL Server - les technologies de serveurs d'applications : Weblogic, Tomcat, Apache - les technologies d'orchestration et d'ordonnancement : VRO / VRA, Kubernetes, XOS-Axway - les technologies de Devops : GitLab, Gitub, Ansible, Terraform - les technologies de Provider Cloud : Microsoft Azure, AWS - les technologies de gestion de la sécurité : PKI - les technologies de gestion des identités : LDAP, Active Directory, Bastion - les technologies de supervision et de métrologie : BMC Patrol, Centreon, Nagios
Mission freelance
Expert Technique – SSDLC & Solutions IA
Publiée le
Python
18 mois
100-500 €
Paris, France
Télétravail partiel
CONTEXTE Expérience : 5 ans et plus Métiers Fonctions : Architecture technique, Sécurité, Méthode, Expert technique Spécialités technologiques : Infrastructure, Cloud, QA, API, Automatisation des tests Au sein d’un environnement international, la mission consiste à co-définir, expérimenter et déployer un cadre de développement logiciel sécurisé (SSDLC) intégrant les apports récents de l’intelligence artificielle et de l’automatisation. Le rôle requiert une solide expérience technique, une compréhension fine du cycle de vie logiciel et une capacité à accompagner la transformation des pratiques d’ingénierie logicielle dans un contexte complexe et distribué. MISSIONS Responsabilités principales 1. Co-définition et consolidation du SSDLC - Collaborer avec les équipes sécurité, développement et architecture pour co-construire le futur cadre SSDLC. - Intégrer des outils d’assistance au codage (Copilot, etc.) et des pratiques de sécurité automatisées dans les différentes phases du cycle. - Définir les contrôles de sécurité et mécanismes de validation pour le code généré par IA. - Rédiger la documentation, les playbooks et supports de formation pour faciliter l’adoption du SSDLC.* - Contribuer à l’amélioration continue des processus de développement et de validation. 2. Expérimentation et innovation autour de l’IA et des agents logiciels - Piloter des proof-of-concepts sur les assistants de codage, la génération de code et les workflows agentiques. - Concevoir et exécuter des expérimentations pour mesurer les gains de productivité, l’impact sur la qualité du code et les implications sécurité - Construire des prototypes intégrant l’IA dans tout le cycle de développement (planification, codage, test, déploiement, maintenance). - Analyser les données issues de ces expérimentations et formuler des recommandations stratégiques. - Participer activement à la communauté interne des développeurs IA et au partage de connaissances. 3. Évolution et support des plateformes internes - Faire évoluer l’assistant de code interne en y intégrant des fonctionnalités avancées et des garde-fous de sécurité. - Intégrer les outils dans les IDE et pipelines CI/CD existants pour une adoption fluide. - Contribuer à l’évolution de la plateforme d’orchestration de sécurité : détection de vulnérabilités, automatisation des tests, Intégration IA. - Développer des mécanismes d’évaluation automatisée de la qualité du code et des tableaux de bord d’excellence technique. - Collaborer avec les équipes cloud et sécurité pour aligner les solutions sur les standards internes (AWS, Azure, Kubernetes, OpenShift/RedHat). Expertise souhaitée - Excellente maîtrise du développement web moderne (JavaScript/TypeScript, Python, Node.js, React/Vue/Angular). - Connaissance approfondie de plusieurs langages (Java, Go, C#, etc.) et des architectures microservices et cloud-native. - Maîtrise des pipelines CI/CD, du déploiement sur AWS et Azure, de la containerisation (Kubernetes, OpenShift) et de l’Infrastructure as Code. - Expérience avec les outils de sécurité : SAST/DAST, gestion des dépendances et des secrets, pratiques de codage sécurisé. - Familiarité avec les cadres de sécurité (NIST, OWASP SAMM, ISO 27001) et les outils de productivité développeur. - Connaissance pratique des LLM, frameworks d’agents IA, prompt engineering, et intégration de modèles via API. - Expertise ML appliquée à l’ingénierie logicielle (détection de vulnérabilités, analyse de code, scoring de qualité). - Compétences fonctionnelles et comportementales Une certification QA constitue un atout. Profil recherché - Tech Lead ou Expert Software Engineering avec une solide expérience du développement sécurisé et de l’intégration de l’IA dans les pratiques d’ingénierie. - Familiarité avec les outils d’assistance au développement (Copilot, CodeWhisperer, etc.). - Expérience dans la conception d’applications, le déploiement et la gestion du cycle de vie logiciel complet. - Capacité à interagir avec de multiples parties prenantes, à la croisée du développement, de la recherche et de la sécurité. Compétences Technologies et Outils React C# Angular AWS JS Python CI/CD TypeScript Azure Redhat JavaScript Kubernetes Méthodes / Normes ISO 27001
Mission freelance
Expert Talend / Talend Data Integration Specialist
Publiée le
ETL (Extract-transform-load)
Talend
12 mois
Paris, France
Télétravail partiel
Contexte L’entreprise recherche un expert Talend capable de concevoir, industrialiser et optimiser des flux de données dans un environnement moderne orienté cloud. Le rôle consiste à renforcer l’équipe Data dans un contexte d’industrialisation, de migration ou de modernisation des pipelines existants. Missions Conception et développement Concevoir et développer des pipelines ETL/ELT sous Talend (Open Studio ou Talend Data Integration). Mettre en place des jobs complexes (gestion d’erreurs, reprise, optimisation des performances). Définir et structurer les modèles de données selon les bonnes pratiques. Industrialisation et optimisation Optimiser les performances des jobs existants. Mettre en place les bonnes pratiques de versioning, CI/CD, automatisation des déploiements. Assurer la qualité, la traçabilité et la robustesse des flux. Intégration Cloud / Écosystème Intégrer Talend à un environnement cloud (Azure, AWS ou GCP, selon le client). Exploiter les services de stockage et de traitement du cloud (exemples : Azure Data Lake, AWS S3, BigQuery). Implémenter des orchestrations via Airflow, Talend TAC, ou équivalent. Support et expertise Accompagner les équipes internes dans l'utilisation de Talend. Diagnostiquer et résoudre les incidents sur les chaînes de traitement. Documenter les processus et assurer la mise en production. Compétences techniques attendues Indispensables Talend Data Integration (niveau expert, minimum 5 ans). Maîtrise des jobs complexes : tMap, tFlowToIterate, tJava, tREST, tFileInput/Output, etc. ETL/ELT avancé : transformations, normalisation, gestion des erreurs, optimisation. SQL avancé (PostgreSQL, Oracle, SQL Server ou autre). Connaissances solides en architectures Data (Batch, temps réel, Data Lake, Data Warehouse). Versioning Git. Méthodologies CI/CD (Jenkins, GitLab CI ou équivalent). Souhaitables Connaissances cloud (Azure / AWS / GCP). Orchestration Airflow, Control-M ou équivalent. Talend Administration Center (TAC). Notions en API, microservices, REST. Connaissances en Data Quality / Data Governance (optionnel). Soft skills Capacité d’analyse précise et rigoureuse. Autonomie et fiabilité. Capacité à challenger les besoins métier de manière factuelle. Communication claire avec l’équipe Data. Profil recherché Minimum 5 à 7 ans d’expérience sur Talend. Expérience dans des environnements Data complexes. Capacité à intervenir comme référent ou expert technique.
Mission freelance
Consuntant FinOps / Financial performance
Publiée le
FinOps
9 mois
Auvergne-Rhône-Alpes, France
Télétravail partiel
Client : Grand Groupe Industriel – Lyon Durée : 9 à 12 mois Démarrage : début T1 2026 Mode : 3 jours sur site / 2 jours remote Budget : selon séniorité Description du poste Dans le cadre du renforcement de son équipe Cloud & FinOps, notre client — un grand groupe industriel international — recherche un Consultant FinOps / Financial Performance pour accompagner la gestion, l’optimisation et la gouvernance financière de ses environnements cloud (AWS, Azure, GCP). Votre mission consistera à structurer, piloter et améliorer la performance financière des plateformes cloud & SaaS, en collaboration étroite avec le responsable FinOps, les équipes Cloud Engineering, les Achats et les équipes Métiers. Vos responsabilités principales : 1. Pilotage et analyse financière du Cloud Suivi quotidien et mensuel des dépenses Cloud & SaaS. Analyse détaillée des coûts (AWS, Azure, GCP). Identification des dérives, anomalies et axes d’optimisation. 2. Gouvernance & optimisation FinOps Mise en place des modèles de gestion des coûts : allocation, chargeback/showback. Déploiement et suivi des politiques d’optimisation (réservations, Savings Plans, rightsizing, rationalisation, stockage). Définition des règles de tagging et des bonnes pratiques. Animation des comités FinOps. 3. Prévisions et budgétisation Construction des forecasts trimestriels et annuels. Participation aux travaux budgétaires avec les équipes finance. Anticipation des risques financiers liés aux évolutions de charge et aux nouveaux projets. 4. Reporting & communication Création et mise à jour des dashboards financiers et opérationnels (Power BI, Clic, équivalent). Production de rapports destinés aux équipes techniques, aux directions et aux métiers. Vulgarisation des enjeux financiers du cloud. 5. Support aux projets Cloud Accompagnement à la structuration des coûts dans les nouveaux projets. Revue des architectures sous l’angle performance financière. Interaction avec les fournisseurs cloud pour optimiser les engagements et contrats.
Mission freelance
Consultant expérimentés DBT/Snowflake Bordeaux (3 jours TT)/sal
Publiée le
DBT
Snowflake
6 mois
400-420 £GB
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
Consultant expérimentés DBT/Snowflake Bordeaux (3 jours TT) AWS TERRAFORM PANDAS Durée : 6 mois renouvelables Expérience nécessaire : 5 à 10 ans Anglais obligatoire Compétences recherchées : SNOWFLAKE DBT AWS TERRAFORM PANDAS Consultant expérimentés DBT/Snowflake Bordeaux (3 jours TT) Tâches à traiter : Data Pipeline Development Infrastructure Management Data Storage and Management Data Processing Optimization Data Comparison and Validation Monitoring and SLA Management Security and Access Control Documentation and Knowledge Transfer
Offre d'emploi
Expert AD
Publiée le
Active Directory
Azure Active Directory
Powershell
24 mois
40k-58k €
400-550 €
Courbevoie, Île-de-France
Télétravail partiel
Cahier des Charges – Expert Active Directory Infrastructure & Sécurité 1. Contexte L’équipe Active Directory Control Tower , rattachée au stream Groupe One Access du programme Ensemble , assure la disponibilité et la sécurité globale de la forêt TES. Deux volets : Run : conformité, support incidents, pilotage incidents sécurité. Projets : initiatives liées à l’infrastructure et à la sécurité AD. 2. Objectif de la mission Renforcer l’équipe avec un expert Active Directory disposant d’une expertise avancée en infrastructure et sécurité , capable d’intervenir sur des environnements complexes et hybrides (on-premise + cloud). 3. Périmètre et responsabilités Conception & Gestion AD : multi-domaines/forêts, réplication, rôles FSMO, SYSVOL (DFSR). Support & Troubleshooting L3 : incidents AD, RCA, coordination GSOC. Sécurité & Conformité : durcissement AD, RBAC, JIT/JEA, audit, SIEM. PKI : déploiement et maintenance ADCS, intégration TLS/Smartcard. Cloud & Hybrid Identity : Azure AD (Entra ID), AD Connect, Conditional Access, AWS IAM. Automatisation : scripts PowerShell avancés, Azure Automation.
Mission freelance
Data Engineer (IA/Géospatial) (H/F)
Publiée le
MLOps
Python
6 mois
300-350 €
Toulouse, Occitanie
Télétravail partiel
Notre client, spécialiste du Traitement et Analyse de données, est à la recherche de son futur Data Engineer (IA/Géospatial) (H/F) pour son site de Toulouse, dans le cadre de son activité. Intégré aux équipes du client, vous devrez : * Développer et industrialiser des pipelines et modèles IA exploitant des données géospatiales et météorologiques, dans un environnement cloud-native. ## Compétences techniques attendues * Données météo & satellites Maîtrise des formats (NetCDF, GeoTIFF, HDF5), outils Python (xarray, rasterio…), prétraitement d’images, expérience Sentinel-1/2 et données météo (ARPEGE, AROME, GFS, ERA5). * Data Engineering Pipelines ETL/ELT scalables, orchestration (Airflow, Prefect, Argo), bases de données (PostgreSQL/PostGIS, MongoDB, Snowflake), optimisation des accès. * MLOps & DevOps Déploiement de modèles (CI/CD, monitoring), outils ML/Cloud (MLflow, SageMaker, Docker, Kubernetes, Terraform), AWS/Azure/GCP. * Développement logiciel Python, frameworks web (FastAPI, Django, Flask), bonnes pratiques (tests, docs, versioning).
Mission freelance
Architecte Fonctionnel SI - Solution DATA & RGPD(Assurance)
Publiée le
Agile Scrum
Angular
Apache Kafka
12 mois
680-750 €
Île-de-France, France
Télétravail partiel
Contexte : Dans le cadre de la transformation du groupe assurance, plusieurs projets stratégiques sont en cours : Nouveau Référentiel Client (point unique de vérité sur clients MM individuels et entreprises) Programme CRM Plateforme Data / IA Refonte et évolution des espaces digitaux Autres projets de transformation SI La Direction de l’Architecture (MH TECH) est composée de 3 départements : Stratégie SI et gouvernance d’architecture Architecture SI Architecture Technique Objectif de la mission : Apporter une expertise en architecture de solution et fonctionnelle , contribuer à la définition des architectures applicatives et assurer un rôle de conseil stratégique auprès des équipes projets. Nature et étendue de la prestation : Le consultant sera amené à : Définir l’architecture applicative cible et les états stables de la solution Rédiger les dossiers d’architecture selon la méthodologie du groupe MH Analyser les demandes d’évolutions applicatives et leurs impacts sur la solution globale Contribuer aux dossiers d’arbitrage pour les décisions sur les évolutions Préparer et alimenter les Comités Solution Définir les interfaces et règles d’interfaçage du SI de gestion et son écosystème Conseiller et valider les choix techniques Identifier et suivre les adhérences entre programmes et projets de transformation Accompagner les projets de la phase de cadrage à la mise en production Assurer la cohérence entre livrables majeurs et projets connexes (spécifications, développement, recette, migration, conduite du changement) Modéliser la cartographie du SI gestion sous HOPEX (vision cible et trajectoire) Taille du projet : Projet de taille moyenne ou ensemble de petits projets Livrables attendus : Dossier d’architecture cible et états stables Dossiers d’analyse d’impacts et de valeur des demandes d’évolution Dossiers d’arbitrage Dossiers d’analyse des adhérences entre programmes et projets de transformation SI Analyses fonctionnelles et/ou applicatives sur thèmes transverses critiques Cartographies applicatives et données sous HOPEX Comptes rendus hebdomadaires Compétences attendues :Fonctionnelles : Connaissance du domaine assurance santé / prévoyance / épargne / retraite Expertise en enjeux digitaux et data Maîtrise des pratiques et méthodologies d’architecture SI : TOGAF, ArchiMate, UML, Zachman, SAFE, SCRUM, RUP Capacité à formaliser et communiquer l’architecture aux parties prenantes Techniques : Technologies digitales : SPA, BFF, Front SPA (Angular), JAVA EE 5-17, Spring Boot, microservices, API REST, Kafka, Kubernetes, OpenShift Sécurité et identité : SSO, OIDC, OAuth2, SAML, France Connect Data & IA : solutions Big Data Open Source, Cloud (Snowflake…), MDM, DQM, data virtualisation, LLM, RAG, Agentique Architecture CQRS et patterns associés, Cloud Ready Gouvernance et architecture data : GDPR, DORA, Observabilité LLM, Data Architecture Outil de référence : MEGA Modélisation de données : MERISE, UML
Offre d'emploi
Administrateur système & Ops (H/F)
Publiée le
36k-45k €
Nantes, Pays de la Loire
Administrateur système & Ops (H/F) - Nantes Nous recherchons un(e) Administrateur(trice) Système avec une orientation Ops pour renforcer l'équipe technique de notre client, à Nantes. Tu interviendras sur l'administration et l'évolution de leurs environnements serveurs, tout en participant à l'automatisation, la supervision et l'amélioration continue de leurs infrastructures. Tes missions : Assurer la gestion et le maintien en conditions opérationnelles des systèmes. Gérer et optimiser les environnements cloud et virtualisation (AWS, Azure, VMware, Proxmox, etc.). Mettre en place et maintenir les outils de supervision et monitoring. Participer aux projets d'automatisation et d'infrastructure as code (Ansible, Terraform, CI/CD). Travailler avec les équipes de développement et de support pour améliorer la fiabilité, la performance et la sécurité des systèmes. Contribuer à la gestion des incidents et à la résolution de problèmes. Documenter les procédures et partager les bonnes pratiques.
Offre d'emploi
LEAD DEVOPS APPLICATIF JAVA
Publiée le
CI/CD
DevOps
Java
40k-75k €
Nanterre, Île-de-France
Télétravail partiel
Vous intégrerez une équipe dynamique en charge des pratiques de développement , du DevOps , du Cloud et du Numérique Responsable . L’objectif est de renforcer l’équipe avec plusieurs profils DevOps à forte dominante applicative , capables d’intervenir sur l’ensemble du cycle de vie logiciel — du développement à la mise en production — dans un environnement agile et collaboratif. Votre rôle En tant qu’ Ingénieur DevOps Applicatif , vous participerez à la mise en œuvre et à l’industrialisation des solutions de développement et de déploiement. Vous serez le garant de la qualité, de la performance et de la fiabilité des environnements applicatifs, tout en contribuant à l’évolution des pratiques DevOps au sein de l’équipe. Vous interviendrez sur : Le développement applicatif en Java ; La mise en place et l’automatisation des pipelines CI/CD (GitLab CI, Jenkins, Azure DevOps...) ; Le déploiement et la gestion d’environnements Cloud (Azure, AWS ou GCP) ; L’ automatisation des infrastructures (Docker, Kubernetes, Terraform) ; Le monitoring et l’observabilité (ELK, Prometheus, Grafana) ; La promotion des bonnes pratiques DevOps (Infrastructure as Code, automatisation, tests, qualité de code).
Offre d'emploi
Data Architect / Data Engineer (H/F)
Publiée le
Cloud
1 an
La Défense, Île-de-France
Télétravail partiel
Nous recherchons un profil technique pour accompagner des projets data stratégiques au sein d’un acteur spécialisé dans la transformation et l’architecture des systèmes d’information. Vos missions Concevoir et faire évoluer des architectures data modernes (cloud, data lake, data warehouse, data mesh… selon les projets). Définir les standards et bonnes pratiques d’ingénierie des données. Concevoir, développer et optimiser des pipelines de données robustes et industrialisés. Participer aux choix technologiques et contribuer à la mise en place d’une gouvernance data efficace. Collaborer avec les équipes projet (data engineers, data analysts, product owners…) pour garantir la qualité et la fiabilité de la donnée. Compétences recherchées Maîtrise d’un ou plusieurs environnements cloud : AWS, Azure ou GCP. Expérience avérée en conception d’architectures data (batch, streaming, event-driven…). Solide pratique des langages et écosystèmes data : Python, SQL, Spark, DBT, Kafka, Airflow… Bonne compréhension des modèles de stockage et de traitement (Delta Lake, BigQuery, Snowflake…). Connaissance des bonnes pratiques de CI/CD, observabilité, sécurité et gouvernance data. Profil 3 à 7 ans d’expérience en data engineering ou en architecture data. Capacité d’analyse, rigueur technique et vision d’ensemble des systèmes de données. Aisance en communication et capacité à travailler en équipe sur des projets multidisciplinaires. Ce que nous offrons Participation à des projets à forte valeur ajoutée. Environnement orienté expertise, innovation et montée en compétences. Culture technique stimulante et possibilités d’évolution.
Offre d'emploi
Développeur .NET / C # (H/F)
Publiée le
.NET Framework
ADO.NET
Angular
40k-60k €
France
Télétravail 100%
Au sein d’Atyos, nous évoluons dans un contexte pur Cloud, qui vous permettra de travailler sur des sujets d’automatisation d’environnements et de mise en place de pipeline CI/CD sur la plateforme Cloud AWS Nous attachons beaucoup d’importance à la curiosité et à la veille technologique et nous offrons du temps et des moyens à chacun pour se former et se certifier sur les technologies que nous utilisons ou que nous utiliserons. Dans le cadre du développement de nos activités, nous recherchons un ingénieur logiciel C# / .NET expérimenté ayant une solide expérience dans les environnements Cloud Azure ou AWS. Vous interviendrez sur la conception, le développement et la mise en production d’applications modernes et scalables au sein d’une équipe technique dynamique. Vos missions : - Concevoir, développer et maintenir des applications en C# / .NET (Core / Framework) - Participer à la définition des architectures logicielles et cloud - Déployer et superviser des solutions sur Amazon Web Services (AWS) - Mettre en place des pipelines CI/CD et des pratiques DevOps (Gitlab, GitHub Actions, Azure DevOps, Jenkins, etc.) - Collaborer avec les équipes produits et qualité pour garantir la performance et la fiabilité des solutions - Contribuer à l’amélioration continue du code et des processus de développement
Offre d'emploi
LEAD DEVOPS APPLICATIF JAVA
Publiée le
CI/CD
DevOps
Java
50k-75k €
Paris, France
Télétravail partiel
Vous intégrerez une équipe dynamique en charge des pratiques de développement , du DevOps , du Cloud et du Numérique Responsable . L’objectif est de renforcer l’équipe avec plusieurs profils DevOps à forte dominante applicative , capables d’intervenir sur l’ensemble du cycle de vie logiciel — du développement à la mise en production — dans un environnement agile et collaboratif. Votre rôle En tant qu’ Ingénieur DevOps Applicatif , vous participerez à la mise en œuvre et à l’industrialisation des solutions de développement et de déploiement. Vous serez le garant de la qualité, de la performance et de la fiabilité des environnements applicatifs, tout en contribuant à l’évolution des pratiques DevOps au sein de l’équipe. Vous interviendrez sur : Le développement applicatif en Java ; La mise en place et l’automatisation des pipelines CI/CD (GitLab CI, Jenkins, Azure DevOps...) ; Le déploiement et la gestion d’environnements Cloud (Azure, AWS ou GCP) ; L’ automatisation des infrastructures (Docker, Kubernetes, Terraform) ; Le monitoring et l’observabilité (ELK, Prometheus, Grafana) ; La promotion des bonnes pratiques DevOps (Infrastructure as Code, automatisation, tests, qualité de code).
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Entretiens et tests techniques developpeurs Java Angular junior
- Freelance : peu de retours sur mes candidatures – vos stratégies ?
- Gestion d’entreprise : astuces pour freelances IT
- Traitement fiscal des cotisations sociales payées en 2025 sur CA micro-BNC 2024
- L'EI à l'IS est-elle toujours plus intéressante qu'à l'IR ?
- ESN qui cherche à trop marger
223 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois