Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 768 résultats.
Offre d'emploi
Expert Big Data / Lead Tech Big Data
ONSPARK
Publiée le
Cloudera
Hadoop
4 ans
Paris, France
Contexte OnSpark est un cabinet spécialisé dans la GMAO/EAM et l'intégration SI, en forte croissance (40 collaborateurs, CA 3,3 M€). Dans le cadre de la diversification de son offre vers la Data et l'Intelligence Artificielle, nous recherchons un Expert / Lead Tech Big Data pour accompagner nos clients grands comptes. Vous interviendrez en tant que référent technique au sein d'environnements Big Data on-premise matures (Cloudera CDP), avec de fortes exigences en matière de performance, de sécurité (ISO 27001, RGS) et de qualité. Responsabilités Définir les orientations techniques de la plateforme Big Data Encadrer et accompagner les équipes Data Engineering Optimiser les performances des traitements distribués (Spark, Hadoop) Assurer une veille technologique active et contribuer à la roadmap technique Garantir la sécurité, la fiabilité et l'évolutivité de la plateforme
Offre d'emploi
Responsable du Pôle CRM Microsoft Dynamics
FED SAS
Publiée le
60k-70k €
Charenton-le-Pont, Île-de-France
Je suis Sheeranaze MEHENTAL, Consultante en recrutement au sein de FED IT, cabinet de recrutement spécialisé sur les métiers des systèmes d'information et de la transformation digitale : infrastructure, chefferie de projet, data, cybersécurité, développement et top management. Je recrute pour mon client basé à Charenton-le-Pont H/F dans le cadre d'un CDI un Responsable de Pole CRM Microsoft Dynamics H/F. Analyse et accompagnement des besoins métier : Comprendre et analyser les besoins fonctionnels pour les traduire en solutions techniques adaptées. Assurer un rôle de référent CRM auprès des équipes métier et proposer des recommandations pertinentes. Favoriser l'adoption du CRM auprès des équipes locales et internationales. Formation et accompagnement des utilisateurs : Organiser et animer les sessions de formation pour les nouveaux utilisateurs. Assurer la formation continue sur les fonctionnalités existantes et les évolutions du CRM. Accompagner les utilisateurs dans la prise en main et l'optimisation des outils. Conception et développement : Concevoir, développer, configurer et personnaliser les solutions Dynamics 365 selon les besoins métier. Garantir le respect des standards de l'outil et limiter les développements spécifiques. Participer activement à la réalisation technique des projets, en collaboration avec un partenaire externe si nécessaire. Veille technologique et innovation : Suivre les évolutions de l'écosystème Dynamics 365 et Power Platform. Proposer des améliorations et nouvelles fonctionnalités, notamment sur l'automatisation, le marketing et l'intégration de l'IA.
Mission freelance
Architecte Sécurité Cloud Azure & Active Directory (H/F)
TDS
Publiée le
Active Directory
Azure
Azure Synapse
1 an
550-750 €
Île-de-France, France
Dans le cadre de la transformation digitale mondiale de l’entreprise, vous rejoignez l’équipe Global Information Cyber Security. Vous intervenez au cœur des enjeux de sécurisation du Cloud, en particulier sur l’écosystème Azure et les plateformes Data / IA. Votre rôle est clé pour définir et garantir une architecture sécurisée, scalable et résiliente, en accompagnant les projets stratégiques du Groupe. Vos missions principales En tant qu’Architecte Sécurité Cloud, vous aurez pour responsabilités : D'agir en tant qu’expert en sécurité des données (Data Security Subject Matter Expert) sur l’architecture, la conception et la configuration des solutions Définir des architectures de données sécurisées, scalables et résilientes (Cloud & On-Premise) Réaliser des évaluations de sécurité des architectures et services Azure Contribuer à la définition des bonnes pratiques, de la gouvernance et des processus de sécurité Accompagner les entités métiers et IT dans le déploiement de solutions sécurisées Supporter les régions et Business Units dans la migration vers le Cloud public Évaluer les risques de sécurité et définir les mesures adaptées avant mise en production Analyser les demandes métiers/IT impactant la sécurité et proposer des plans de remédiation Définir les exigences de sécurité pour les projets IT, notamment : Intégration cloud Plateformes Data / IA Identités digitales Examiner les services Azure et formuler des exigences conformes aux standards IS&T Rédiger et déployer politiques, standards et guides de sécurité Piloter des projets de sécurité Cloud : Cadrage des besoins Sélection de solutions Implémentation Négociation fournisseurs Compétences techniques : Solide background technique : réseau, systèmes, bases de données, applications Bonne connaissance des environnements Cloud Azure Connaissance des services Data Azure appréciée : Azure SQL, Synapse, Data Lake, Power BI, etc. Connaissance des plateformes IA Azure appréciée : Azure OpenAI, Databricks, Azure ML, Cognitive Services, etc. Sécurité & gouvernance : Maîtrise des méthodologies d’analyse de risque (ISO 27005, EBIOS…) Connaissance des standards de sécurité de l’information Certifications ou formations Cloud (AZ-500, AZ-30x, SANS SEC545) et sécurité de l’information (ISO 27001, CISSP, CISM) sont appréciées
Mission freelance
101058/Data Scientist Machine Learning, Prompt engineering, MLOPS Nantes (2 jours TT)
WorldWide People
Publiée le
Data science
9 mois
400-450 €
Nantes, Pays de la Loire
Data Scientist IA GEN, Python, Machine Learning, Prompt engineering, MLOPS Nantes (2 jours TT) - Une base solide en Python pour l'exploration des données, l'évaluation d'un modèle ou la construction d'une API python. - Une Connaissance de SQL - De Solides connaissances de Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Une Maîtrise des frameworks ML distribués modernes tels que TensorFlow, PyTorch Activité principales attendues : Machine Learning / Deep Learning • Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche ML/DL • Création et production de modèles d'apprentissage automatique industrialisables • Traitement de données à grande échelle pour la création de jeux de données d'entraînement • Appliquer les bonnes pratiques de MLOps et d'explicabilité des modèles • Présenter les résultats aux parties prenantes et aider au suivi à long terme de la performance du modèle pour démontrer la valeur de l'IA IA Générative • Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche IA Gen • Prompt engineering • Bench via des solutions d'évaluation des modèles d'IA Gen • Optimisation des solutions (paramétrage des modèles) Notre client attend de la candidature que vous proposerez : - qu'elle soit autonome sur l'IA Gen (prompt engineering, context engineering, construction de workflow avec RAG, tool calling, MCP, implémentation de guardrails) - qu'elle dispose d'une expérience significative en Machine/Deep Learning (traitement du langage naturel, traduction automatique, etc.), Vision (vision par ordinateur, reconnaissance, etc.), et sur le cycle de vie des modèles IA (de la conception vers l'industrialisation, puis la supervision en production de sa valeur) Enfin qu'elle ait : - Une base solide en Python pour l'exploration des données, l'évaluation d'un modèle ou la construction d'une API python. - Une Connaissance de SQL - De Solides connaissances de Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Une Maîtrise des frameworks ML distribués modernes tels que TensorFlow, PyTorch
Offre d'emploi
Lead python - Plateforme - Paris - H/F
EASY PARTNER
Publiée le
AWS Cloud
PostgreSQL
Python
80k-100k €
Paris, France
Contexte du poste Entreprise innovante spécialisée dans le développement de solutions digitales à forte valeur ajoutée, elle conçoit et exploite ses propres plateformes technologiques. Dans un contexte de forte croissance et d’évolution de ses produits (notamment via l’intégration de nouvelles technologies), elle renforce ses équipes techniques avec plusieurs recrutements stratégiques. Vous rejoindrez une équipe tech à taille humaine, répartie sur plusieurs sites en France, avec un haut niveau d’exigence technique et une forte culture produit. Missions Principales Ownership & responsabilité technique Prendre en charge un ou plusieurs périmètres techniques critiques (services / repos / produits) Assurer un ownership end-to-end : conception développement mise en production maintenance amélioration continue Être responsable de la qualité, robustesse et pérennité des systèmes Architecture & conception Concevoir des architectures logicielles robustes, scalables et maintenables Faire des choix structurants sur : découpage applicatif design d’API gestion des données Anticiper les besoins futurs (scalabilité, évolutivité) Refactorer et améliorer des systèmes existants (legacy inclus) Systèmes & workflows complexes Comprendre et faire évoluer des systèmes interconnectés : LMS CRM outils internes de production services tiers / APIs Fiabiliser des workflows complexes multi-services Gérer les dépendances et interactions entre différents systèmes Intégration & APIs Intégrer de nouvelles APIs externes (partenaires, financeurs, services tiers) Concevoir et maintenir des APIs internes robustes Gérer les problématiques : authentification gestion des erreurs résilience Production & fiabilité Travailler sur des systèmes déjà en production (pas de greenfield) Identifier et résoudre des problématiques : performance scalabilité fiabilité Participer à la gestion d’incidents techniques Améliorer l’observabilité et la qualité globale des systèmes Référent technique Être référent technique au sein de l’équipe Accompagner les autres développeurs sur : architecture bonnes pratiques design technique Collaborer avec le CTO sur les décisions structurantes Innovation & amélioration continue Participer à l’intégration de solutions basées sur l’IA Proposer des améliorations techniques continues Contribuer à la montée en maturité technique de la stack Stack technique Python (Django) React SQL Git
Offre d'emploi
Expert Data Cloud
ONSPARK
Publiée le
AWS Cloud
Azure
Docker
4 ans
Paris, France
Contexte OnSpark est un cabinet spécialisé dans la GMAO/EAM et l'intégration SI, en forte croissance (40 collaborateurs, CA 3,3 M€). Dans le cadre de la diversification de son offre vers la Data et l'Intelligence Artificielle, nous recherchons un Expert Data Cloud pour accompagner nos clients grands comptes. Vous interviendrez sur des projets de migration et d'exploitation de plateformes data vers le cloud, dans des contextes on-premise en cours de transformation, avec de fortes exigences en matière de sécurité et de conformité. Responsabilités Concevoir et déployer des architectures data sur le cloud Accompagner la migration des workloads data vers le cloud Optimiser les coûts et les performances des environnements cloud Assurer la sécurité et la conformité des données dans le cloud (RGPD, ISO 27001) Collaborer avec les équipes infrastructure, sécurité et data
Mission freelance
101864/Tech Lead Android Nantes
WorldWide People
Publiée le
Android
8 mois
400 €
Nantes, Pays de la Loire
Tech Lead Android Nantes Tech Lead sur des applications mobiles avec un focus sur le développement et le support d'applications Android. Activités confiées : 1/ Conception et développement front-end (apk) : - Participer à la définition de l'architecture applicative. - Participer à l'analyse et à la conception avec l'équipe. - Réaliser les développements dans le respect des normes et standards, y compris l'accessibilité. - Réaliser les tests et contribuer au maintien de la qualité du code. - Rédiger la documentation projet. - Communiquer avec les équipes projets 2/ Garantir la qualité de service - Maintenir l’exigence permanente de qualité due aux utilisateurs - Rechercher de nouvelles actions d’amélioration de la qualité délivrée. - Penser performance, robustesse, résilience, etc. 3/ Support : - Participer à l’élaboration des documents de mise en production. - Participer ponctuellement à l’analyse d’incidents de production et correction. - Participer aux vérifications de bon déploiement en production (analyses logs…). 4/ Conception back-end (centraux) : - Participer à la conception des services centraux associés aux composants locaux développés. - Simuler (bouchons) les services centraux associés aux composants locaux développés. 5/ Développement back-end (centraux): - Développer les services centraux (java / kotlin). 6/ Activités transverses : - Contribuer à la mise en œuvre de l'IA sur les activités de l'équipe (assistance au dev, revue de code, construction de tests unitaires, etc.). - Contribuer aux sprints d’innovation de l’équipe. - Participer à des campagnes de tests, notamment tests de non-régression (VNR) - Participer à des analyses croisées (sur des retours de production notamment) - Aider les développeurs moins expérimentés à progresser (via relecture de code…). L'environnement technique est le suivant : - ANDROID : Apk natives (kotlin, java) essentiellement, apk hybride (fwad) - Services centraux (kotlin, java), webservices (java J2EE) - JIRA, CONFLUENCE, SQUASH (plans de tests) - . (si possible) - Json, soapUI + Postman - GOT (servicenow)
Offre d'emploi
Offre de mission Developpeur Fullstack Sénior equipe MOS sur Maison ALFORT
EterniTech
Publiée le
Angular
Apache Kafka
Copilot
3 mois
Maisons-Alfort, Île-de-France
Je cherche pour un de mes clients un Developpeur Fullstack Sénior equipe MOS sur Maison Alfort Contexte : L’objet de cette consultation est une prestation d’assistance technique pour un développeur Confirmé intervenant sur un périmètre du service de Gestion Assurance Export (GAE) au sein de la Direction des Services Informatiques du client qui mène à bien les projets informatiques. La mission se déroulera au sein des équipes Agiles en charge des applications du SI . Cette prestation d’assistance technique JAVA sera supervisée par le Scrum Master de l’équipe et le responsable du train SAFe TransSquadExpress. La mission s’exercera au sein de l’équipe de projets dédiée à l'Assurance-crédit mais pourra être amenée à évoluer au sein d’autres équipes du même groupe de projets ou sur des sujets complémentaires. Missions : Ci-dessous les principales activités à mener dans le cadre de la mission : • S'assurer que les besoins sont bien couverts dans les engagements du train • S'assurer que les livrables sont dans la cible technique du client • S'assurer de développer dans le cadre du DevSecOps • Promouvoir les pratiques DevSecOps au sein de l'équipe • Prendre en charge les correctifs nécessaires • Assurer la réalisation des tests unitaires et automatisés, des tests End To End • Participer au bon niveau des indicateurs sur l'Excellence opérationnelle de l'application et du périmètre de l'équipe • Participer aux revues des User Stories (US) et aux chiffrages • Corrections des anomalies et suivi de production • S'assurer que les pipelines de déploiement continu sont bien en place et conformes • Automatisation des tests dans le processus de déploiement • Création/correction de pipeline DEVSECOPS, Jenkins file • Utilisation d'outil de supervision d'applications • Participer aux cérémonies du train SAFe • Mettre en pratique l'usage de l'IA générative Compétences métier souhaitables : • La pratique de l'agilité dans une ou plusieurs missions précédentes est obligatoire. • Une formation ou mieux une certification SAFE favorisera la candidature. Liste des technologies : • Langages/Framework: Java v17+ / J2EE / SQL / Spring Boot 3+/ Spring Batch /Spring Data / Angular v14+ • Pratique de Github Copilot est un réel plus • Méthodologie : Agile (Scrum), SAFE • Webservices Rest • Intégration continue : Jenkins, Maven • Déploiement continu : Pipelines CI/CD, DevSecOps • Maîtrise des outils : JIRA (Structure, Big Picture, XRay), Power AMC • Mapping des données : JPA • Base de données : Oracle, PostgreSQL • Concepts à maitriser : Docker / Kubernetes / Kafka • Outils de tests: JUnit, Cucumber, Selenium, Gherkin • Gestion des anomalies et des assistances, Ticketing : ITSM • Gestion de configuration : Git • Pratiques : TDD/BDD • Gestion des appels API
Mission freelance
Software Engineer (H/F) – Python Backend / GenAI / GCP
HOXTON PARTNERS
Publiée le
API REST
GenAI
Google Cloud Platform (GCP)
12 mois
Paris, France
Dans le cadre du renforcement d’une plateforme applicative innovante orientée IA générative, nous recherchons un Software Engineer disposant d’une expertise poussée en développement backend Python et en intégration de services GenAI au sein d’environnements cloud modernes. La mission s’inscrit dans un contexte de développement et d’industrialisation de la couche applicative IA, avec un fort niveau d’exigence sur la qualité logicielle, la scalabilité, la sécurité, la performance et l’intégration dans une architecture existante orientée microservices. Le consultant interviendra sur la conception, le développement et l’évolution de services backend exposés via API, avec un enjeu important autour de l’intégration de composants IA avancés, de la gestion des problématiques synchrones / asynchrones, ainsi que de l’évolution du socle agentique, notamment dans le cadre d’une migration de LangChain vers un framework Google. Responsabilités Concevoir, développer et faire évoluer des microservices backend en Python Exposer des APIs via FastAPI Développer des services robustes en environnement synchrone et asynchrone Concevoir et maintenir des APIs REST performantes et sécurisées Structurer les modèles de données avec Pydantic v2 Intégrer des services IA / GenAI dans l’architecture applicative existante Participer à la conception et à l’orchestration d’architectures microservices Contribuer à la migration et à la rationalisation du framework agentique (transition depuis LangChain vers un framework Google) Intégrer des LLMs via Vertex AI, OpenAI ou Anthropic Mettre en œuvre les bonnes pratiques de sécurité (authentification, validation, filtrage de contenu) Optimiser les performances (haut débit, faible latence) Participer à l’industrialisation des développements (CI/CD, cloud-native)
Mission freelance
QA Data
Cherry Pick
Publiée le
Azure
Databricks
12 mois
340-390 €
Paris, France
Au sein de la Direction des Systèmes d’Informations Mutualisés, vous rejoindrez le Train DATA, en charge des projets BI et Data pour l’ensemble des enseignes et des fonctions d’appui du client En tant que QA doté de compétences en analyse de données, vous intégrerez le pôle Qualité Data et serez rattaché à la squad Équipement de la Maison. Votre rôle consistera à préparer et exécuter les cas de tests, constituer les jeux de données nécessaires, assurer le suivi des défauts identifiés et contribuer à l’amélioration continue de la qualité des données. Le Data Lab fonctionne en organisation agile et réunit des équipes pluridisciplinaires favorisant la collaboration et l’autonomie. Vous travaillerez avec des rituels agiles, cadrés, trimestriels et des cycles de réalisation de 3 semaines (sprint planning, affinage, sprint review et daily meeting). Vos missions : Participer aux ateliers/rituels agiles Réaliser la stratégie de test Identifier et réceptionner les environnements de test Analyser et évaluer les cas d'usage/User Story Rédiger les plans de test, identifier les prérequis et spécifier les jeux de données Exécuter les cas de tests Créer et suivre les défauts avec les différentes parties prenantes Maintien du référentiel de test Réaliser le PV de recette Présentation des sujets en CAB pour passage en production Une expérience/compétence dans le retail serait un plus. En plus du test fonctionnel, vous serez amené à effectuer des tests d’intégration 2 à 2, des tests de bout en bout ainsi que des tests de surface dans un contexte Data. J’accorde une importance particulière à l’amélioration continue, un principe clé de l’agilité, afin de progresser en permanence et de gagner en efficacité. Compétences techniques Méthodologie de tests - Confirmé - Important Test technico fonctionnels/tests d'intégration - Confirmé - Important DataBricks - Confirmé - Important Environnement azure microsoft - Confirmé - Important Savoir Faire : Expérience minimum de 4 ans en tant que QA avec des compétences de data analyste Profil technico fonctionnel SQL Server JIRA/XRAY Environnement Microsoft azure Databricks Utilisation de l'IA dans les tests (Génie Code) Outils de reporting Power BI, Microstratégy Savoir Etre : Collaboratif Entraide Force de proposition Implication/Engagement Amélioration Continue Communication fluide Qualité organisationnelle
Mission freelance
Expert Looker Core (BI & Big Data)
Nicholson SAS
Publiée le
Big Data
BigQuery
Google Cloud Platform (GCP)
4 mois
700-900 €
Paris, France
Nous recherchons un Expert Looker pour accompagner l'un de nos clients majeurs dans le secteur du transport aérien, dans le cadre d'une étude stratégique sur ses outils de Dataviz.📋 Détails de la mission Démarrage : 04/05/2026 Durée : Jusqu'au 31/08/2026 (Visibilité sur Octobre 2026) Localisation : Paris ou Toulouse (Rythme hybride selon politique site) Expertise attendue : +5 ans d’expérience 🎯 Enjeux et Missions Au sein de la plateforme Data & AI Technology , vous interviendrez sur l'évaluation de Looker comme futur standard de Dataviz du Groupe (contexte de migration Cloud). Vos responsabilités : Accompagnement de POCs : Développement et support aux métiers dans la réalisation de leurs preuves de concept. Expertise Conseil : Apporter un regard critique sur l'architecture, la sécurité et l'optimisation FinOps . Formation & Pédagogie : Acculturation des utilisateurs métiers et échanges techniques avec les équipes IT (Ops, Architectes). Évaluation stratégique : Analyser la capacité de l'outil à répondre aux besoins d'analyses Ad-hoc, aux enjeux d'IA (Conversational Analytics) et au remplacement de solutions existantes (SAP BO, Spotfire). 🛠️ Compétences Requises Looker Core (Indispensable) : Maîtrise parfaite de l'outil (Note : Looker Studio est hors scope). Ecosystème GCP : Excellente maîtrise de BigQuery et du SQL . Culture Data : Compréhension des enjeux de migration "Data Move To Cloud". Soft Skills : Excellent relationnel, capacité à vulgariser des sujets complexes et pédagogie. Langues : Anglais courant (contexte international). Bonus : Une maîtrise de Power BI est un plus apprécié. 💰 Conditions financières TJM Paris : 900 € (selon profil) TJM Toulouse : 700 € (selon profil)
Offre d'emploi
Data Scientist (parlant Japonais ou Coréen)
OBJECTWARE
Publiée le
Large Language Model (LLM)
Natural Language Processing (NLP)
RAG
3 ans
40k-86k €
380-610 €
Île-de-France, France
Mission Concevoir et optimiser des systèmes de recherche intelligente basés sur l’IA générative (RAG) pour un SaaS métier, afin d’améliorer l’accès à l’information et la fiabilité des réponses. 🚀 Responsabilités Développer des pipelines RAG (embeddings, vector search, ranking) Optimiser la pertinence des résultats (precision, recall, MRR) Réduire les hallucinations des LLM Concevoir des architectures multi-agents via Semantic Kernel Industrialiser les modèles (API, intégration backend) 🧰 Stack IA : LLM, NLP, RAG, embeddings Cloud : Azure OpenAI Service Data : Azure Cosmos DB Backend : .NET 8, SignalR Front : React 5+ ans en Data Science / ML Expertise NLP / recherche sémantique Expérience en IA générative (RAG, LLM)
Offre d'emploi
Builder Azure / DevSecOps Data
VISIAN
Publiée le
Azure
Azure DevOps
CI/CD
1 an
Paris, France
L’objectif de la mission est de concevoir, bâtir et sécuriser l’architecture cloud Azure d'un prototype Energy Management System (EMS), tout en préparant une industrialisation future sans dette d’architecture. Missions Concevoir et déployer l’architecture Azure du prototype EMS, incluant : Ingestion IoT & streaming temps réel (Azure IoT Hub, Event Hubs, Eventstream Microsoft Fabric RTI) Traitement temps réel & validation qualité (Eventstream processors, KQL Databases, Quality gate asynchrone < 10s) Stockage différencié (RAW, VALIDATED / CERTIFIED, OneLake & intégration Fabric) Observabilité, sécurité et traçabilité (Azure Monitor, Log Analytics, diagnostics, métriques temps réel, audit de bout en bout) Mettre en œuvre des patterns event-driven & streaming adaptés aux workloads IoT / EMS. Construire une plateforme data temps réel et sémantiquement gouvernée avec Microsoft Fabric, RTI & Fabric IQ : Conception des pipelines (ingestion, enrichissement, filtrage, routing, persistance temps réel) Exploitation des KQL Databases pour agrégations temps réel, détection d’anomalies, corrélation d’événements Mise en place d’actions automatiques via Activator (alertes, workflows) Contribution à la modélisation des entités métier, règles de qualité fonctionnelle et états opérationnels Préparation de l’intégration d’agents intelligents sur données temps réel Assurer la mise en œuvre DevSecOps & Infrastructure as Code : Infrastructure en IaC (Terraform ou Bicep) Pipelines CI/CD (GitHub Actions / Azure DevOps) Gestion des environnements (dev / acc / prod), secrets (Key Vault), identités managées, RBAC, policies Azure Intégration des garde-fous sécurité dès le prototype (least privilege, chiffrement, audit, gouvernance Fabric & Purview) Développer la plateforme data : APIs, streams, endpoints temps réel Microservices de traitement événementiel en Python et/ou Node.js / TypeScript Composants de normalisation et validation qualité, règles métier temps réel, intégration de modèles d’IA (Azure ML) Respect des contraintes fortes : latence end-to-end < 10 secondes, fiabilité, idempotence, gestion des erreurs & backpressure Produire un socle simple, robuste et consommable avec environnements reproductibles et documentés Réaliser des démonstrations régulières à destination des parties prenantes métier et techniques Outils & Environnement Cloud & Architecture : Azure IoT Hub, Azure Event Hubs, Microsoft Fabric RTI, Fabric IQ, OneLake Traitement & Stockage : Eventstream processors, KQL Databases (Eventhouse), Azure Functions, Azure Container Apps Observabilité & Sécurité : Azure Monitor, Log Analytics, Key Vault, RBAC, Managed Identity, policies Azure DevSecOps & IaC : Terraform (préféré) ou Bicep, GitHub Actions, Azure DevOps Développement : Python, Node.js, TypeScript Modélisation & Qualité métier : Fabric IQ, règles métier, qualité fonctionnelle et technique Automatisation : Activator (alertes, workflows) IA & Data Science : Azure Machine Learning (optionnel)
Mission freelance
[MDO] Référent Technique webisation Java / Eclipse - Toulouse - 1504
ISUPPLIER
Publiée le
12 mois
350-395 €
Toulouse, Occitanie
Contexte : Dans le cadre d’un projet de webisation d’applications existantes, notre client recherche un Référent Technique basé à Toulouse pour intervenir dès la phase amont de co-conception du MVP. Intégré à un dispositif mixte et en binôme avec un Référent Fonctionnel, il jouera un rôle clé dans l’analyse de l’existant, la définition de l’architecture cible et la préparation des fondations techniques nécessaires à la réussite du projet. Missions principales : Analyser le code existant développé sous Eclipse RCP afin d’identifier les règles métier, les dépendances techniques et les mécanismes spécifiques à transposer dans l’application web. Extraire et formaliser les règles métier existantes en cohérence avec les spécifications fonctionnelles. Identifier les services internes et externes (SOAP / REST) invoqués par l’application actuelle. Détecter les points de complexité technique et proposer les stratégies de traitement adaptées. Définir l’architecture technique cible, incluant les composants, les flux et les interactions entre systèmes. Produire les diagrammes d’architecture (notamment sous Archimate) et la vue technique globale de la solution. Spécifier les appels back-end à intégrer dans le futur front-end web. Concevoir les contrats d’interface REST, notamment dans le cadre de la transformation de services SOAP existants. Préparer l’intégration des API au sein de l’API Manager Gravitee et des bundles associés. Structurer le découpage des composants et définir les namespaces applicatifs. Anticiper les besoins en environnements techniques, outillage, industrialisation et automatisation. Définir les besoins en CI/CD, packaging et déploiement. Identifier et intégrer les exigences non fonctionnelles (performance, sécurité, maintenabilité, exploitabilité). Accompagner l’onboarding des équipes de développement et définir les bonnes pratiques, notamment sur l’usage des outils d’assistance au développement par IA. Compétences requises : Expertise confirmée en développement Java et en architecture applicative. Solide expérience en conception technique et urbanisation de systèmes d’information. Maîtrise des architectures orientées services et des API REST / SOAP. Expérience significative en transformation ou modernisation d’applications legacy. Bonne connaissance des chaînes CI/CD et des pratiques DevOps. Expérience dans l’utilisation d’outils d’assistance au développement, notamment GitHub Copilot. Capacité à formaliser des architectures techniques et à produire une documentation de qualité. Compétences appréciées : Connaissances d’Eclipse RCP. Maîtrise d’Archimate et des outils de modélisation d’architecture. Expérience avec Gravitee API Management. Sensibilité aux enjeux d’industrialisation logicielle et d’automatisation. Expérience dans des environnements de co-conception avec des équipes pluridisciplinaires.
Mission freelance
Chef de Projet / Responsable applicatif
MGT Conseils
Publiée le
Gestion de projet
Run
1 an
500-650 €
Hauts-de-Seine, France
Contexte du poste : Rattaché à la Direction des Applicatifs Métiers et Corporate au sein de la Direction des Systèmes d'Information (DSI), dans un environnement du secteur de l’assurance, le poste de Chef de projet / Responsable applicatif s’inscrit dans un contexte de transformation et d’évolution du périmètre « Assurance - Expertise Construction ». Le candidat interviendra à la fois sur des activités de RUN et sur des projets structurants, avec une forte dimension transverse (archivage, intégration d’outils, industrialisation de solutions innovantes). Il contribuera également à l’industrialisation de cas d’usage autour de l’IA, dans une logique de passage à l’échelle. Vos missions : Assurer le RUN sur le périmètre « Expertise Construction » (environ 20 % de la charge) : suivi des incidents, support utilisateurs, participation aux Copil / Coproj, suivi contractuel et pilotage des évolutions. Piloter et maintenir les applications du périmètre, notamment Avensys (gestion des sinistres), les outils Legacy d’archivage ainsi que les dashboards développés sous Streamlit. Prendre en charge des projets IT de bout en bout : cadrage, planification, coordination, suivi, déploiement et clôture. Contribuer au projet transverse d’archivage des dossiers et des données. Piloter plusieurs projets métiers sur le périmètre « Expertise Construction » (Rizlum, Visio Sight Call / Avensys, facturation électronique, intégration Sinapps (MAIF), Sage X3 / Avensys, optimisation de tournée, etc.) Encadrer l’industrialisation de solutions innovantes issues de POC (IA / passage à l’échelle) : formulaire Avensys, WhatsApp Stelliant, IPV, et autres cas d’usage à venir. Coordonner les différents acteurs (équipes métiers, DSI, prestataires) afin de garantir la bonne exécution des projets. Étudier les impacts et proposer des solutions d’amélioration des processus métier en lien avec les besoins business. Assurer le support fonctionnel auprès des utilisateurs et produire la documentation associée. Piloter le backlog des évolutions applicatives. Gérer les relations avec les prestataires externes et suivre les engagements de service (SLA).
Offre d'emploi
Consultant Sénior en Cyber Conformité (F/H) CDI
Audensiel
Publiée le
DORA
ISO 22301
NIS2
Paris, France
📌 À propos de VONA VONA est un cabinet de conseil spécialisé en cybergouvernance, qui accompagne les directions générales, RSSI, DSI et métiers à structurer, piloter et déployer une gouvernance de la sécurité de l’information créatrice de valeur, alignée sur les objectifs business et les risques prioritaires. Ta mission Dans un contexte de forte croissance, nous renforçons nos compétences en réponse à notre stratégie de développement et aux besoins de nos clients. Tu rejoins VONA en tant qu’expert·e de référence en Conformité — sans rattachement exclusif à une practice. Ton périmètre principal portera sur la conformité réglementaire et normative dans le domaine de la cybersécurité (RGPD, NIS2, DORA, ISO 27001, IA Act...), avec la possibilité d’intervenir sur d’autres volets connexes (gouvernance cyber, gestion des risques, conduite du changement) selon les missions, les priorités clients et ton appétence ! Tu accompagnes nos clients — directions générales, RSSI, DSI et DPO — dans la structuration et le pilotage de leur conformité cyber : Conduire des audits de conformité de bout en bout (plan d’audit, entretiens, rapport de restitution) ; Analyser les exigences réglementaires et normatives applicables et élaborer des plans de mise en conformité priorisés ; Mettre en œuvre la conformité : rédaction de politiques et procédures, réalisation d’AIPD, mise à jour des registres ; Concevoir et piloter des tableaux de bord de conformité et animer les instances de gouvernance ; Sensibiliser et acculturer les équipes métiers et les directions aux enjeux de conformité ; Contribuer à des démarches de certification (ISO 27001, ISO 27701, ISO 22301) en accompagnant les clients de l’état des lieux jusqu’à l’audit de certification.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Mission à 600 km de chez moi - Frais de double résidence
- 3 semaines qu'on ne me donne pas de date de début de mission que dois-je faire
- Exercice décalé et avantage en nature
- Plateforme d'appel d'offres public scam ou non ?
- Facturation auto-entrepreneur
- Passage au réel après dépassement micro : notification URSSAF ?
768 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois