L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 20 résultats.
Mission freelance
Product Owner Data / RPA & IA - Assurance
Publiée le
Agile Scrum
Artificial neural network (ANN)
Azure Data Factory
12 mois
450-530 €
Île-de-France, France
Télétravail partiel
Nous à la recherche d'un "Product Owner Data" pour un client dans le secteur de l'assurance Avec des déplacements à Niort. Description Contexte de la mission Au sein du groupe, la Direction des Systèmes d’Information Métier assure la maintenance et l’évolution du système d’information assurance vie et finance. Dans le cadre de la stratégie de transformation Data 2025–2026, le groupe renforce son équipe de développement Data et recherche un Product Owner Data expérimenté. Rattaché(e) au Centre de Data Management, vous serez un acteur clé du déploiement des cas d’usage Data et de la valorisation de la donnée. Votre rôle consistera à identifier, prioriser et piloter les produits Data (RPA, IA, Data Science, MLOps, DataViz) en lien avec les directions métiers (actuaires, conseillers, gestionnaires, etc.) et les équipes techniques. Vous interviendrez sur l’ensemble du cycle de vie des produits, de la détection des besoins métiers jusqu’à la mise en production, dans une approche orientée valeur et amélioration continue. Objectifs et livrables Placer la valeur au centre des usages Data : challenger les directions métiers sur leurs besoins quotidiens et leurs priorités. Animer les comités Data et les ateliers de cadrage autour des sujets Data Science, IA, RPA et MLOps. Identifier les besoins techniques et fonctionnels en lien avec les domaines Data (RPA | IA | Data Science | MLOps | DataViz). Définir les éléments de valeur (quantitatif, qualitatif, expérience collaborateur) et produire les supports de cadrage associés. Accompagner la rédaction et la priorisation des solutions Data et IA. Définir, suivre et piloter les indicateurs de performance (KPIs) des produits livrés. Contribuer à la construction d’une culture Data IT forte au sein du groupe. Être force de proposition sur les orientations techniques, fonctionnelles et méthodologiques. Profil du candidat Compétences demandées Compétence Niveau de maîtrise RPA / Confirmé ★★★★☆ MLOps / Confirmé ★★★★☆ Tableau / Confirmé ★★★★☆ Dataiku / Confirmé ★★★★☆ Data Science / Confirmé ★★★★☆ Technologies et mots-clés : #UIPA #DATAIKU #DATAVIZ #TABLEAU #SQL #CLOUD #BO #IA #RPA
Mission freelance
Architecte / Expert MongoDB Atlas sur Azure
Publiée le
.NET CORE
Apache Kafka
Architecture ARM
6 mois
530-620 €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
Garantir la mise en œuvre et la maintenance d’une solution MongoDB Atlas hébergée sur Azure robuste, performante et conforme aux exigences réglementaires (PDP, RGPD), tout en répondant aux besoins métiers : disponibilité, traçabilité, sécurité, gouvernance des données et exploitation BI (Grafana, Power BI). Responsabilités principales Architecture et conception Définir l’architecture cible MongoDB Atlas sur Azure (topologie, multi-régions, interconnexion, réseaux, haute disponibilité, sauvegarde et reprise d’activité). Concevoir les schémas documentaires et le modèle de données optimisé selon les cas d’usage applicatifs et les contraintes réglementaires (rétention, anonymisation, traçabilité). Élaborer la stratégie de sauvegarde, restauration et gestion des incidents (playbooks, tests de restauration). Sécurité et conformité Définir et implémenter les mécanismes de sécurité : chiffrement at-rest et in-transit , gestion des clés (BYOK / Azure Key Vault), contrôle d’accès (RBAC, LDAP/AD, IAM), audit et journalisation. Garantir la conformité PDP / RGPD des données et des traitements. Intégration et performance Piloter l’intégration technique avec les pipelines ETL/ELT , les solutions de streaming ( Kafka , Azure Data Factory , Functions , iPaaS , etc.). Optimiser la performance : indexation, sharding, agrégations, profiling, tuning des requêtes et gestion de la charge. Observabilité et supervision Mettre en place les pratiques d’observabilité : alerting, dashboards, métriques et logs centralisés via Grafana , Zabbix , Azure Monitor ou équivalents. Intégrer MongoDB avec les outils de visualisation Grafana et Power BI (connecteurs, sécurité, gouvernance des accès). Projet et documentation Participer aux phases projet : ateliers d’architecture, proof of concept, accompagnement en RUN (SLA, runbooks, transfert de compétences). Rédiger les livrables techniques : architecture cible, schémas de données, règles de sécurité, runbooks, plans de tests et documents d’exploitation. Compétences techniques requises Base de données & Cloud Expertise MongoDB Atlas : déploiement, configuration, sécurité, scaling, sharding, sauvegarde/restore, performance tuning. Très bonne connaissance d’ Azure : VNet, ExpressRoute/VPN, Managed Identities, Azure Key Vault, Azure AD, Storage, Log Analytics. Développement & intégration Maîtrise des drivers MongoDB (Java, Node.js, .NET, Python selon la stack applicative). Connaissance des principes de data modelling NoSQL : embedding vs referencing, patterns de consultation, conception pour volumes variables. Expérience avec les outils d’intégration et ingestion : Azure Data Factory , Kafka , SnapLogic , Functions . Sécurité & conformité Chiffrement, BYOK, IAM, RBAC, audit, conformité PDP/RGPD . Observabilité & reporting Monitoring MongoDB, alerting, dashboards ( Grafana , Zabbix , Azure Monitor ). Intégration MongoDB ↔ Power BI / Grafana (connecteurs, APIs, performances). DevOps Bonnes pratiques Infrastructure as Code : Terraform , ARM , Bicep . CI/CD et tests automatisés pour les déploiements. Notions de DevSecOps appréciées.
Offre d'emploi
Business Analyst - Cognos - Confirmé
Publiée le
Cognos
MySQL
Méthode Agile
35k-40k €
Île-de-France, France
Télétravail partiel
🎯 Objectif de la mission La prestation vise à soutenir le PO dans : La collecte, l’analyse et la formalisation des besoins métiers. La conception de rapports BI et le prototypage de certaines User Stories . La participation active aux phases de tests et de validation du produit. L’encadrement et l’animation d’ateliers fonctionnels avec les parties prenantes. Une solide connaissance Data est requise pour intervenir efficacement sur les aspects d’analyse, de modélisation et de prototypage. 🛠️ Missions principales Rédaction et structuration des User Stories . Rédaction des cas de tests . Animation des workshops de design avec le PO et les équipes métiers. Exécution et formalisation des tests fonctionnels. Gestion de la relation et coordination avec l’équipe de développement. Contribution au pilotage Agile d’un produit de type BI . Analyse de données en SQL , avec montée en compétence attendue sur Dataiku .
Offre d'emploi
DevSecOps MicroSeg
Publiée le
Ansible
Argo CD
GitLab CI
3 ans
Île-de-France, France
Télétravail partiel
Contexte & Objectif de la mission Dans le cadre du renforcement des pratiques DevSecOps et de la mise en œuvre d’une stratégie Zero Trust , le client recherche un ingénieur DevSecOps confirmé pour assurer : la sécurisation des environnements applicatifs et d’infrastructure, la mise en œuvre de solutions d’automatisation , le maintien en condition opérationnelle (MCO) des plateformes, et l’ amélioration continue des processus CI/CD . La mission s’inscrit dans un environnement multi-cloud et hybride (Cloud, Linux, Windows Server) , soumis à des exigences de conformité et de sécurité élevées . Anglais courant (contexte international) Périmètre et Responsabilités Cybersécurité Application des principes Security by Design dans tous les développements et déploiements. Implémentation du modèle Zero Trust via la solution Illumio (micro-segmentation). Suivi de la conformité aux standards internes et réglementations en vigueur. Automatisation et Industrialisation Développement de scripts Python et de playbooks Ansible pour l’automatisation des opérations. Gestion de l’infrastructure as code via ArgoCD et Helm Charts . Conception et optimisation de pipelines CI/CD sous GitLab CI (build, test, déploiement). Exploitation et Support Maintien en condition opérationnelle (MCO) des environnements Linux/Windows/Cloud. Diagnostic et résolution des incidents techniques (support N2/N3). Mise en place et supervision du monitoring via Dynatrace et ELK Stack . Élaboration de reportings et tableaux de bord (PowerBI, Dataiku, Snow). Relation client et communication Reporting régulier sur l’état des environnements et les indicateurs de performance. Collaboration étroite avec les équipes de développement, sécurité et exploitation. Contribution aux comités de suivi et à la documentation technique. Langages & Automatisation Python (confirmé) Bash / PowerShell Ansible (expertise confirmée) Outils & Intégration GitLab CI (CI/CD) Kubernetes (IKS, ROKS) ArgoCD, Helm Charts Plateformes & Environnements Linux (distributions Enterprise) Windows Server (contextes critiques) IBM Cloud : ROKS / IKS Sécurité Illumio (micro-segmentation / Zero Trust) Outils SAST / DAST Conformité et sécurité applicative ( Security by Design ) Supervision & Reporting Dynatrace, ELK Stack Dataiku, PowerBI, Snow, PowerPoint
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Le marché de l'IT est complètement déréglé ! STOP à cette mascarade ! Il faut s'unir et résister !
- Comment j'ai décroché une mission en bypassant l'ESN - et l'outil que j'ai créé
- Création de site Wordpress : BIC ou BNC ?
- SASU a l'IR non présente dans mon memento fiscal
- Passage sasu à eurl: transition mutuelle/prévoyance
- Décider quand on est freelance selon ses chiffres
20 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois