Trouvez votre prochaine mission.

Votre recherche renvoie 408 résultats.
Freelance

Mission freelance
Expert DataOps Aix en Provence ASAP Maitrise Cloudera, Kubernetes et devOps

Publiée le
Cloudera
Kubernetes

6 mois
400-440 £GB
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Télétravail partiel
Expert DataOps Aix en Provence ASAP Maitrise Cloudera, Kubernetes et devOps Mise en place d'outils IA/Data pour les équipes à fortes valeurs ajoutées tout en gardant les nombres au stricte minimum. Mise en place et gestion des pipelines CI/CD en mode GitOps Utilisation des systèmes de monitoring et d'alerting (ex. Victoria Metrics, Grafana). Collaboration étroite avec les équipes de développement et d'opérations. Analyse et optimisation des performances des applications et infrastructures. Rédaction de documentation technique et guides de procédures. Gestion des incidents et mise en œuvre de solutions préventives.
Freelance
CDI

Offre d'emploi
Expertise Fonctionnel Cyber Sécurité & Protection des Données

Publiée le
Agile Scrum
AWS Cloud
Azure

1 an
67k-76k €
660-670 €
Île-de-France, France
Télétravail partiel
Vous interviendrez au sein d’une entité spécialisée dans la cybersécurité des données liées au Cloud, IA, Big Data et Blockchain. Votre rôle sera d’apporter une expertise avancée en sécurité pour accompagner les projets Gen-AI et garantir la conformité des usages des technologies Microsoft et des standards internationaux. Missions principales : Assurer l’assistance sécurité des projets et centres de compétences sur les sujets Gen-AI . Définir et mettre en œuvre des architectures sécurisées pour les technologies Microsoft (Microsoft 365, Azure Cognitive Services, Copilot, Fabric, Power Platform, Azure ML). Produire des dossiers de sécurité : analyses de risques, recommandations, blueprints, normes et standards. Réaliser des revues de code et audits sécurité des composants logiciels. Participer à la définition des KPI de gouvernance , tableaux de bord et roadmap de sécurité AI. Contribuer à la rédaction des politiques d’usage des LLM et guidelines de sécurité. Assurer le reporting et la consolidation des exigences sécurité pour les projets France et International.
Freelance
CDI

Offre d'emploi
DevOps Infrastructure – Spécialisation Agentic AI & LLM (H/F)

Publiée le
AI
Ansible
AWS Cloud

3 ans
61k-67k €
530-640 €
Île-de-France, France
Télétravail partiel
Nous recrutons un profil DevOps expérimenté pour intervenir sur des environnements innovants autour des agents autonomes (Agentic AI) et des modèles de langage (LLM). Vous participerez à la conception, au déploiement et à l’expérimentation de POC avancés visant à améliorer la supervision, l’automatisation et la résolution proactive d’incidents au sein d’infrastructures complexes. Le poste s’inscrit dans une démarche agile, collaborative et orientée industrialisation. Missions Concevoir et gérer des environnements d’expérimentation Kubernetes/Docker, intégrés à des pipelines CI/CD (Jenkins, GitLab CI, ArgoCD). Automatiser la collecte, la préparation et l’exploitation de datasets d’infrastructure (logs, CMDB, monitoring) pour alimenter des agents IA basés sur LLM. Développer et intégrer des pipelines de déploiement d’agents IA (LangChain, AutoGen, équivalents). Mettre en place des scripts/tools d’automatisation (Python, Bash, Go) pour l’orchestration et le monitoring. Garantir la sécurité des développements et déploiements (DevSecOps, SAST/DAST, gestion des accès, RGPD). Produire la documentation technique et les livrables nécessaires à une future industrialisation. Assurer une veille active sur les évolutions LLM, architectures agentiques et outils d’automatisation. Compétences techniques requises Systèmes & Réseau Maîtrise avancée Linux/Unix Solides bases réseaux (TCP/IP, HTTP, DNS, VPN) Cloud & IaC AWS, Azure ou GCP Terraform, Pulumi ou CloudFormation Conteneurisation & Orchestration Docker, Kubernetes, Helm CI/CD Jenkins, GitLab CI, ArgoCD Automation / Config Management Ansible, Puppet, Chef Langages Python (niveau avancé) Bash, Go (appréciés) Monitoring & Logging Prometheus, Grafana, ELK Stack Sécurité / DevSecOps SAST/DAST (SonarQube, Snyk, Aqua Security) Conformité RGPD
Freelance

Mission freelance
PO Observabilité

Publiée le
Dynatrace
Grafana
Monitoring

1 an
500-650 €
Île-de-France, France
Télétravail partiel
Dans le cadre d'une création de poste, nous recherchons un(e) Product owner pour intervenir chez notre client grand compte dans le secteur de l'industrie. Vous serez amené à : Mettre en place un plan d’actions pour améliorer la performance du monitoring Mettre en œuvre une stratégie robuste pour les outils de monitoring entre les solutions Grafana et Dynatrace Assurer une totale couverture du monitoring sur le périmètre fonctionnel VS8 Mettre en place et suivre les outils de monitoring et alerting Piloter et optimiser l’engagement des équipes du partenaire pour faire évoluer ces solutions Mettre en place des KPI de suivi projets / produits Définir et préparer la stratégie d’introduction de l’IA
Freelance

Mission freelance
DevOps Architect - 12 months - Brussels

Publiée le
Ansible
CI/CD
Docker

12 mois
500-700 £GB
Bruxelles, Bruxelles-Capitale, Belgique
DevOps Architect - 12 months - Brussels Un de nos importants clients recherche un DevOps Architect – Kubernetes & CI/CD pour une mission de 12 mois sur Brussels. Description de la fonction En tant que DevOps Architect au sein de la division Operations IT, vous serez responsable de la mise en place et du support des outils et processus DevOps permettant l’industrialisation automatisée des applications et des infrastructures critiques. Votre rôle s’articule autour de deux axes majeurs : Kubernetes : conception, déploiement, sécurisation et exploitation de clusters Kubernetes on-premise (bare-metal, VM ou hybrides) via Infrastructure as Code. CI/CD : mise en place et évolution des pipelines d’intégration et de déploiement continu pour les projets applicatifs et l’IaC. Vous jouerez également un rôle clé de liaison entre les équipes Data, Software et la Division Opération, en traduisant les besoins métiers en solutions techniques robustes. Missions principales Concevoir et déployer un cluster Kubernetes de référence (bare-metal, IaC) servant de modèle pour les environnements futurs Mettre en place les premiers pipelines CI/CD pour l’infrastructure Faire évoluer et standardiser les processus CI/CD existants (applications web, projets IA) Maintenir, sécuriser et faire évoluer les clusters et pipelines Participer à la création de nouveaux clusters Kubernetes Collaborer avec les équipes Opérations pour les aspects réseau et infrastructure physique Profil recherché Bachelier (minimum) ou idéalement Master en informatique Plusieurs années d’expérience en tant que DevOps / DevOps Architect Expertise confirmée en Kubernetes on-premise Solide expérience en CI/CD GitLab Bonnes connaissances en sécurité, réseaux, et automatisation À l’aise en environnement Agile, capable de prendre le lead technique Atouts : Expérience dans des environnements critiques et à forte charge Hard Skills Kubernetes : déploiement, administration, sécurisation, HA, scaling Infrastructure as Code : Terraform (Pulumi = plus) CI/CD : GitLab pipelines, runners, automatisation complète Containers : Docker Sécurité : RBAC, Network Policies, secrets, certificats automatisés Monitoring & Observabilité : Prometheus, Grafana, Istio Scripting : Python, YAML, Ansible Auth & Identity : OpenID Connect, Entra ID / Microsoft 365 API & Messaging : REST, gRPC, RabbitMQ, MassTransit Méthodologies : Agile / Scrum Soft Skills Leadership technique et capacité à fédérer Orientation solution et sens des priorités Esprit d’initiative et autonomie Excellente communication (technique & non-technique) Vision transverse et esprit analytique Résilience et gestion de la pression Langues Anglais Maîtrise d’une langue nationale (la seconde est un atout) Si cette offre vous intéresse merci de m'envoyer votre CV et je reviendrai vers vous dès que possible avec les détails.
Freelance

Mission freelance
Chef de projet technique - IaaS et Data

Publiée le
IaaS (Infrastructure-as-a-Service)

12 mois
660 €
Yvelines, France
Télétravail partiel
Notre client, un établissement financier majeur, recherche un CP IaaS et Data pour renforcer son équipe Cette mission est au sein du centre d’expertise pour l’infrastructure, le cloud, la donnée, l’IA et le DevOps. Il accompagne les projets de transformation numérique, garantit la performance, la sécurité et l’innovation, et propose des solutions adaptées aux besoins métiers et applicatifs. La mission consiste à piloter des projets dans le cadre de création d’offre produit, de traitement d’obsolescence ou de mise en conformité (réglementaire, sécurité, amélioration de QoS). - Piloter des projets sur le périmètre IaaS et DATA - Définir les solutions cibles, en collaboration avec les experts, et en lien avec les besoins utilisateurs -Coordonner l’ensemble des parties prenantes -Structurer et animer la gouvernance des projets -Etablir les plans d’investissements et le suivi financier des projets, en lien avec le Contrôle de Gestion - Gérer les risques projets Livrables - Rédaction des notes de cadrage ; présentation aux parties prenantes (sponsors, Chief Platform Officer, PM, PO) et aux différents comités - Animation des comités de suivi - Suivi opérationnel de l’avancement des projets (respect des délais, des jalons …) - Suivi des risques et des plans d’actions associés - Suivi rigoureux des budgets alloués - Garant de la livraison de tous les documents conformément à la méthodologie Projets Environnement technique Cloud Infrastructures (VMWare, OpenStack, Openshift), OS Factory (Windows, Linux, Unix), Containers (Docker, Kubernetes), plateformes Data (Cloudera, MAPR, Data Cloud GCP, …), Data Storage (bloc, fichier, objet)
Freelance

Mission freelance
Proxy Product Owner (PO) - Automatisation des Processus

Publiée le

6 mois
500 €
75001, Paris, Île-de-France
Dans le cadre de l'initiative Group Process Automation , nous recherchons un Proxy Product Owner (PO) - Automatisation des Processus pour renforcer notre équipe. Ce rôle sera responsable de la collaboration avec les équipes métiers à travers l'organisation afin d'identifier, évaluer, modéliser et optimiser les processus métiers candidats à l'automatisation via des agents IA et la plateforme Dataiku . Le Proxy PO contribuera à traduire les besoins métiers en exigences d'automatisation concrètes, à construire et prioriser le backlog d'automatisation, et à soutenir l'équipe de développement dans la livraison de workflows automatisés de haute qualité. Le rôle inclut également la participation à la création de business cases, à l'évaluation de la valeur et à la conduite du changement pour assurer l'adoption réussie des solutions automatisées. Objectifs et Livrables Responsabilités Clés 1. Identification et Évaluation des Processus Métiers Collaborer avec les équipes métiers pour comprendre leurs défis opérationnels, workflows et points de douleur. Animer des ateliers et des interviews pour capturer les processus existants (« as-is »). Identifier et qualifier les processus adaptés à l'automatisation (agents IA, schémas RPA, flux Dataiku ou automatisations hybrides). Évaluer la faisabilité de l'automatisation en fonction de la complexité, de la disponibilité des données, des coûts, du potentiel de valeur et des risques. 2. Modélisation des Processus en BPMN 2.0 Modéliser les processus actuels et cibles selon les standards BPMN 2.0. Identifier les inefficacités et opportunités d'amélioration avant automatisation. Produire une documentation claire et détaillée pour soutenir la conception et le développement. Collaborer avec les parties prenantes pour valider et affiner les schémas de processus. 3. Définition du Backlog & Rôle de Product Owner Transformer les besoins métiers et analyses de processus en epics, user stories et critères d'acceptation bien définis. Prioriser le backlog d'automatisation en fonction de la valeur métier, des estimations d'effort et des priorités stratégiques. Servir d'intermédiaire entre les parties prenantes métiers et l'équipe de développement Dataiku. Participer aux cérémonies Agile (raffinements, planification de sprint, démos, rétrospectives). 4. Business Case & Réalisation de la Valeur Aider les équipes métiers à définir les bénéfices financiers et non financiers des initiatives d'automatisation. Estimer les gains potentiels (temps, coûts, réduction des erreurs) et la valeur apportée. Suivre les KPI et indicateurs de succès après mise en œuvre. Contribuer à la gouvernance de la réalisation des bénéfices. 5. Collaboration avec l'Équipe de Développement Dataiku Travailler en étroite collaboration avec les développeurs Dataiku pour garantir la bonne compréhension et mise en œuvre des exigences. Participer aux discussions de conception concernant les agents IA, flux de données, connecteurs et logique d'orchestration. Valider les livrables pour assurer leur conformité avec la logique des processus et les attentes métiers. Fournir des retours et améliorations dans le cadre des cycles de livraison itératifs. 6. Conduite du Changement & Engagement des Parties Prenantes Aider les équipes métiers à se préparer à l'adoption des processus automatisés. Communiquer clairement les avancées, délais et attentes aux parties prenantes à tous les niveaux. Fournir des formations ou transferts de connaissances si nécessaire. Promouvoir la culture de l'automatisation et les bonnes pratiques dans l'organisation. Compétences et Qualifications Requises Compétences Techniques & Fonctionnelles Maîtrise des standards BPMN 2.0 et de la modélisation des processus métiers. Expérience en automatisation des processus (RPA, agents IA, workflows automatisés ou automatisation basée sur les données). Connaissance de Dataiku (fort atout). Bonne compréhension des méthodologies Agile/Scrum. Capacité à traduire les besoins métiers en exigences fonctionnelles et techniques. Expérience dans la création de business cases et l'évaluation ROI/valeur. Compréhension basique des API, pipelines de données ou orchestration de workflows. Compétences d'Analyse & Résolution de Problèmes Excellente capacité à analyser des processus métiers complexes. Approche orientée résolution, avec un esprit d'optimisation et de simplification. Capacité à challenger les pratiques existantes et proposer des améliorations. Compétences Interpersonnelles & Communication Excellentes compétences en communication écrite et orale, avec la capacité d'interagir avec des interlocuteurs techniques et non techniques. Solides compétences en animation d'ateliers, interviews et sessions de découverte de processus. Capacité à conduire des discussions, gérer les attentes et influencer les décisions. Expérience Professionnelle 8 à 10 ans d'expérience en gestion des processus, analyse métier, automatisation ou domaines similaires. Expérience préalable dans des initiatives RPA/IPA ou des centres d'excellence en automatisation (atout). Expérience dans des environnements transverses et internationaux.
Freelance

Mission freelance
Data Platform Engineer

Publiée le
AWS Cloud
Python

12 mois
600-650 €
Paris, France
Télétravail partiel
Objectifs Votre mission est de responsabiliser et de faire monter en compétence notre communauté de plus de 50 data engineers et data scientists. Agissant comme le lien essentiel entre les feature teams et les ingénieurs de la plateforme, vous serez le garant de l’adoption et de l’évolution de notre plateforme data en fournissant un support technique opérationnel, en partageant les bonnes pratiques et en animant des initiatives de partage de connaissances. Grâce à un engagement proactif, un support direct et une collecte continue de feedback, vous favoriserez un environnement collaboratif, innovant et à fort impact — garantissant que notre plateforme s’adapte en permanence et délivre une valeur maximale à ses utilisateurs. Missions principales 1. Support technique : Accompagner les data engineers et data scientists dans leurs problématiques techniques en fournissant des solutions opérationnelles, des conseils, des bonnes pratiques et un support via des interactions directes au sein de leurs équipes. S’assurer que la dette technique est identifiée, comprise et gérée via des plans d’actions, et participer aux tâches sous-jacentes. Fournir des outils pour aider à gérer cette dette (tests, automatisation, agents IA, …). Collaborer avec les équipes data platform et support afin de garantir que les problèmes au sein des pipelines data et de la plateforme data sont identifiés et résolus, améliorant ainsi l’expérience développeur globale. 2. Évangélisation : Promouvoir l’adoption de la plateforme data par une utilisation quotidienne, en démontrant sa valeur auprès des utilisateurs existants. Partager avec la communauté de pratique et les équipes internes les tendances du marché, outils et technologies liés aux plateformes data. 3. Montée en compétences des équipes : Évaluer le niveau actuel des équipes sur les outils et pratiques de la Data Platform et l’améliorer via des formations, des exercices et la résolution de problématiques réelles. Promouvoir et animer une communauté de pratique afin de construire des parcours de formation d’amélioration, des ateliers internes et des webinaires mettant en valeur les capacités de notre Data Platform. Créer du contenu technique tel que des articles de blog, tutoriels, projets exemples et documentation afin d’aider les développeurs à comprendre et utiliser efficacement notre plateforme. 4. Boucle de feedback : Collecter activement les retours de la communauté des développeurs afin de fournir des analyses et suggestions d’amélioration produit aux équipes d’ingénierie de la plateforme. Fournir des tests pertinents pour les actifs techniques produits par les ingénieurs de la Data Platform et s’assurer qu’ils correspondent aux usages actuels des feature teams. Représenter les data engineers et data scientists au sein de l’entreprise, en veillant à ce que leurs besoins et défis soient compris et pris en compte. Qualifications / Compétences requises Maîtrise du développement Python et de la conception d’applications scalables et de haute qualité. Expérience avec des frameworks de traitement de données tels que Pandas ou Spark. Expérience pratique dans le développement et la maintenance de pipelines data de bout en bout. Expertise approfondie sur AWS, complétée par des certifications ou une expérience équivalente. Expérience des frameworks d’Infrastructure as Code (idéalement AWS CDK en Python). Connaissance des pratiques DevOps et des pipelines CI/CD afin d’améliorer les processus de déploiement. Excellentes compétences en communication et en présentation, capables d’expliquer des concepts techniques complexes à des publics variés. Forte appétence pour l’animation de communautés de développeurs et la création d’un impact positif. Bon niveau d’anglais, la documentation étant rédigée en anglais et une partie des utilisateurs de la Data Platform ne parlant pas français. Atouts supplémentaires : Expérience en développement produit agile et en méthodologie Scrum. Expérience de migration de pipelines data vers le cloud. Compréhension des bonnes pratiques de sécurité et de conformité dans des environnements cloud. Environnement technologique : AWS : S3, EMR, Glue, Athena, Lake Formation, Cloud Formation, CDK, Lambda, Fargate, … Data engineering : Airflow, Parquet, Apache Iceberg DevOps : Jenkins, SonarQube, Conda Logiciels : Python, Ruff
Freelance

Mission freelance
Intégrateur Industrie 4.0

Publiée le
Intégration

6 mois
Belgique
Télétravail partiel
Contexte Nos usines industrielles produisent des éléments de turboréacteurs en titane, intégrant des opérations d’usinage et de forge d’une précision exceptionnelle de l’ordre de 10 µm. L’équipe Manufacturing 4.0 est en charge d’apporter les outils digitaux et les moyens technologiques Industry 4.0 en support aux équipes métier et de production industrielle. Dans le cadre d’un ambitieux projet de modernisation de la solution Industry 4.0, l’équipe Manufacturing 4.0 est à la recherche d’un Intégrateur Industry 4.0 . Le système cible devra répondre à un certain nombre de qualités essentielles : robustesse, performance, scalabilité, sécurité, traçabilité, etc. En tant qu’Intégrateur Industry 4.0, vous serez responsable du bon fonctionnement et de l’interconnexion des différents modules du système d’information industriel. Une partie de la mission consistera à préparer puis réaliser les tests du système d’information « Usine du futur », ainsi qu’à évaluer sa qualité technique selon les critères mentionnés ci-dessus. Structure du département L’équipe Manufacturing 4.0 est composée d’ingénieurs spécialisés dans l’interfaçage entre le monde industriel et les systèmes IT de pilotage intelligent de l’activité. Elle regroupe notamment des experts en : Architecture IT Manufacturing Execution Systems (MES) UNS (Unified Namespace), collecte et distribution en temps réel des mesures et indicateurs industriels Inspection Qualité Data : Business Intelligence, Machine Learning, Intelligence Artificielle Style de management L’équipe est pilotée en mode projet, selon des principes Agiles (sprints, sprint reviews, daily meetings) et dans un fonctionnement collaboratif. L’esprit d’équipe, la proactivité, la polyvalence et l’autonomie constituent le socle de la vie de l’équipe. L’organisation est orientée résultat plutôt que moyens , afin d’apporter des solutions efficaces et adaptées aux problématiques rencontrées. Prendre plaisir à se dépasser, être curieux et à l’écoute, savoir travailler en autonomie, prendre des initiatives, être force de proposition, agir avec transparence et bienveillance, et rester orienté résultat sont les qualités attendues de chaque membre de l’équipe. Attrait pour la fonction Le projet vise à concevoir et développer une solution technologique Industry 4.0 de nouvelle génération. Les solutions mises en œuvre exploiteront le meilleur de l’état de l’art, notamment : Le pilotage de l’usine par la donnée L’usage de la robotique L’intelligence artificielle Fonction – Tâches En collaboration avec les équipes IT et industrielles internes, vous serez amené à : Acquérir une compréhension technique approfondie du système d’information Analyser les protocoles, flux et structures de données Élaborer et faire valider la stratégie de tests techniques Exécuter des tests sur les qualités techniques du SI (robustesse, performance, scalabilité, sécurité, traçabilité, etc.) Identifier les problèmes, en analyser les causes et proposer ou mettre en œuvre des correctifs Mesurer et optimiser la performance du système Participer à la conception et à la mise en place de la chaîne CI/CD
Freelance

Mission freelance
Lead Python Developer Gen AI - Banking Environment (Paris)(h/f)

Publiée le

12 mois
550-650 €
75008, Paris, Île-de-France
Télétravail partiel
Développeur Python senior / chef de projet - Environnement bancaire (Paris) Vous êtes un développeur Python senior expérimenté et possédez une expertise approfondie en ingénierie de données à haut volume ? emagine vous offre l'opportunité de participer à la conception et à la mise en œuvre de nouvelles applications bancaires à fort impact et de solutions basées sur l'IA dans un environnement technologique mondial. Basé à Paris, ce poste nécessite une présence sur site d'au moins 3 jours par semaine. Vous travaillerez dans un environnement complexe de niveau entreprise où de solides connaissances en ingénierie et une grande autonomie sont essentielles. Senior / Lead Python Developer - Banking Environment (Paris) Are you an experienced Senior Python Developer with deep expertise in high‑volume data engineering? emagine has an opportunity for you to support the design and delivery of new, high‑impact banking applications and AI‑driven solutions within a global technology environment. This role is based in Paris with minimum 3 days per week onsite , working in a complex, enterprise-grade environment where strong engineering fundamentals and autonomy are essential. Skills & Experience 10+ years of hands-on Python development with strong OOP and software design principles. Expert-level SQL skills (PostgreSQL, MySQL, or SQL Server), with proven experience in very high-volume transactional systems . Strong background in data engineering , pipelines, and large-scale data handling. Solid understanding of core engineering fundamentals — no gaps in basics. Strong Linux experience (bash scripting, automation, deployments). Experience with Autosys , GIT , and Agile / JIRA workflows. Experience using Ansible for configuration or deployment (highly desirable). Prior investment banking or financial services experience is essential Must be comfortable navigating complex, process-heavy environments. Able to work autonomously and lead small technical groups effectively. Fluent English communication skills. Key Tasks & Deliverables Design, develop, and optimise Python-based applications using clean, scalable, and maintainable code. Work with very large SQL databases (hundreds of millions of records), including schema design, complex queries, and performance tuning. Build and maintain data pipelines , ensuring efficient ingestion, transformation, and persistence of large datasets. Manage deployments and automation within Linux environments , including bash scripting and tooling. Implement job scheduling and workflow automation using Autosys . Contribute to branching strategies, code reviews, and version control using GIT . Support Agile delivery using JIRA for sprint planning and task tracking. Ensure rigorous engineering practices through TDD, BDD (Behave), and PyTest-based unit testing . Troubleshoot performance bottlenecks, data inconsistencies, and system issues across complex banking platforms. Lead and mentor junior developers, including guiding engineering best practices and architectural decisions. Contribute to AI‑related project components following completion of VAT‑related workstreams. Apply with your latest CV or reach out to Brendan to find out more.
Freelance

Mission freelance
Architecte Kubernetes OpenShift - Expert

Publiée le
Administration réseaux
Apache
Apache Kafka

12 mois
520-550 €
Île-de-France, France
Télétravail partiel
Contexte Dans le cadre du renforcement d’une équipe SRE / Plateforme Cloud au sein d’un environnement complexe et critique, nous recherchons un Expert Cloud DevOps / Architecte Kubernetes & OpenShift . Le consultant interviendra sur la conception, l’industrialisation et la sécurisation de plateformes cloud natives, orientées microservices, data et haute disponibilité . Missions principales Architecture & Design Définir et valider l’architecture Cloud & Kubernetes en tant que Design Authority Élaborer les HLD (High Level Design) et LLD (Low Level Design) Concevoir l’architecture centrale et les standards de la plateforme Participer aux choix technologiques et aux roadmaps techniques Cloud & Conteneurisation Déployer et maintenir des clusters Kubernetes (AKS, EKS, OpenShift, Rancher) Expertise Red Hat OpenShift Mise en œuvre de plateformes cloud sur Azure (AKS) et AWS (EKS) Gestion des environnements hybrides / on-premise et data centers virtualisés DevOps & Automatisation Mise en place des pipelines CI/CD Automatisation des déploiements et de l’infrastructure (IaC) Accompagnement des équipes de développement sur les bonnes pratiques DevOps Sécurité & Réseau Sécurisation des plateformes Kubernetes et Cloud Gestion des secrets et identités ( HashiCorp Vault ) Architecture réseau, segmentation, politiques de sécurité Conformité, durcissement et bonnes pratiques sécurité cloud Data & Streaming Conception et intégration de Data Platforms Mise en œuvre de solutions de streaming et de data flow : Apache Kafka Apache NiFi Intégration avec des workloads data, IA et ML ( TensorFlow ) Microservices & Observabilité Architecture et exploitation d’architectures microservices Supervision, monitoring et gestion de la performance Haute disponibilité et résilience des plateformes FinOps Pilotage des coûts Cloud Optimisation des ressources et mise en place de bonnes pratiques FinOps
Freelance

Mission freelance
BI Specialist - Industrie

Publiée le
BI

1 an
550-650 €
Belgique
Contexte Nos usines produisent des éléments de turboréacteurs en titane avec des opérations d’usinage et de forge d’une précision de 10 µm. L’équipe Manufacturing 4.0 est en charge d’apporter les outils digitaux et les moyens technologiques 4.0 en support aux équipes métier et de production industrielle. Dans le cadre d’un ambitieux projet de modernisation de sa solution Industry 4.0, l’équipe Manufacturing 4.0 est à la recherche d’un BI Specialist . Ce rôle a pour objectif de concevoir et de déployer des solutions de Business Intelligence de bout en bout : de l’exploration et la structuration des données à la création de tableaux de bord et d’indicateurs de performance en production, tout en assurant le respect des meilleures pratiques en matière d’intégration de données et de gestion des outils BI. Style du management L’équipe est pilotée et animée en mode projet sur des principes d’Agilité (Sprints, Sprint reviews et Daily meeting) et en mode collaboratif. Ce sont alors l’esprit d’équipe, la pro-activité, la polyvalence et l’autonomie qui seront le socle de la vie au sein de l’équipe. L’équipe est orientée « résultats » et non « moyens » afin d’apporter toutes les solutions aux sujets et projets à traiter, tout en efficacité. Prendre plaisir à s’impliquer et atteindre ses objectifs, être curieux et à l’écoute, savoir être autonome et prendre des initiatives, être force de proposition, agir en transparence et dans la bienveillance, être orienté résultat, sont les qualités principales attendues. Attrait pour la fonction Le projet consiste à concevoir puis développer la solution technologique Manufacturing 4.0 du futur. Les solutions mettront en œuvre le meilleur de l’état de l’art, y compris le pilotage de l’usine par la donnée, l’usage de la robotique et l’intelligence artificielle. Tâches En collaboration avec les équipes DSI internes, vous : Explorez, analysez et préparez les données issues des systèmes industriels (machines, capteurs, MES, qualité, production) Concevez et maintenez des modèles décisionnels adaptés aux contraintes industrielles Développez des tableaux de bord orientés performance, qualité et amélioration continue Mettez en œuvre des chaînes de préparation et rafraîchissement des données industrialisées Déployez et maintenez les contenus BI dans Power BI Service Assurez la qualité, cohérence et traçabilité des indicateurs Collaborez avec les équipes IT et data pour l’intégration BI Documentez les solutions et partagez les bonnes pratiques Challenges Être un acteur clé de la transformation Manufacturing 4.0 par la donnée Mettre à disposition des indicateurs fiables et exploitables dans un environnement industriel exigeant Concilier besoins métiers, qualité des données et contraintes techniques Faire preuve d’autonomie, proactivité et esprit critique Être force de proposition pour améliorer pratiques BI et gouvernance Partager les bonnes pratiques BI avec l’équipe data et les parties prenantes Contacts internes et externes Intégration dans l’équipe Manufacturing 4.0 aux côtés d’ingénieurs data, IT et industriels Interactions étroites avec les équipes MES, UNS, Qualité, IT et Cloud Interaction possible avec d’autres fonctions de l’entreprise
Freelance

Mission freelance
Urbaniste Métier bancaire & Architecture

Publiée le
TOGAF

12 mois
580 €
Île-de-France, France
Télétravail partiel
Pour un client dans le secteur d’activité bancaire porté par une ambition de banque digitale et inclusive en modernisant ses processus métiers et son architecture SI. Pour accompagner cette transformation, nous recherchons un·e Urbaniste Métier Senior, capable de lier la stratégie métier et l’architecture technique, et de piloter la refonte de nos systèmes clés (CRM, parcours client, digitalisation des processus). Votre mission : concevoir des solutions alignées sur les enjeux métiers (vision 360° client, efficacité opérationnelle, conformité) et fédérer les parties prenantes (métiers, DSI, direction) autour d’une feuille de route ambitieuse. Vous interviendrez en phase amont des projets, depuis la définition des besoins jusqu’à la présentation en comité de direction, en garantissant l’adéquation entre les attentes métiers et les contraintes techniques. Missions clés : 1. Conception et pilotage de la feuille de route métier - Cartographier et analyser les processus métiers de la banque de détail (parcours client, onboarding, gestion des contrats, conformité) pour identifier les leviers d’optimisation et de digitalisation. - Piloter la refonte du CRM et des systèmes supports (ex : outils de relation client, plateformes de conseil) en collaboration avec les directions métiers (réseau, marketing, risques). - Définir des architectures cibles (urbanisation fonctionnelle et technique) qui répondent aux enjeux de vision 360° client, d’agilité et de conformité (RGPD, DSP2, LAB/FT). - Élaborer des feuilles de route priorisées, en arbitrant entre innovation, coûts et risques, et en assurant leur adoption par les métiers. 2. Interface entre métier et technique - Traduire les besoins métiers en exigences architecturales claires pour les équipes IT (ex : intégration de nouveaux canaux digitaux, automatisation des processus). - Garantir la cohérence entre les projets métiers (ex : digitalisation des parcours, offre de services personnalisés) et l’architecture globale du SI. - Accompagner les équipes métiers (directeurs de domaine, responsables produits) dans la formalisation de leurs besoins et la priorisation des initiatives. 3. Gouvernance et influence - Présenter les projets en comité de direction : savoir vulgariser les enjeux techniques et métiers pour obtenir l’adhésion des décideurs. - Animer des ateliers avec les métiers et la DSI pour aligner les roadmaps et résoudre les arbitrages (ex : choix entre solutions packagées ou sur-mesure). - Contribuer à la stratégie de transformation de la banque, en identifiant les opportunités liées à l’IA, à l’open banking ou à l’hyper-personnalisation.
Freelance

Mission freelance
Chef de projet CRM (h/f)

Publiée le
CRM

1 an
500-600 €
Paris, France
Télétravail partiel
Nous recherchons un.e Chef de projet CRM (h/f) pour piloter et faire évoluer un écosystème CRM stratégique (principalement Salesforce), véritable socle de la relation avec l’ensemble des publics : clients, partenaires, collectivités et acteurs de l’écosystème. Rattaché.e au Pôle Produit, Data & IA et en collaboration étroite avec les équipes métiers, produit, CRM/Digital Factory et les équipes techniques, vous garantissez la performance, la cohérence et la valeur d’usage du dispositif CRM dans une vision unifiée connaissance – relation . Votre mission : optimiser et structurer la relation client/partenaires, de la prospection à la fidélisation, tout en renforçant la transparence, l’efficacité et l’engagement. Vos missons : Piloter la stratégie CRM en cohérence avec les priorités métiers Positionner le CRM comme socle unifié de la relation client/partenaire Identifier et prioriser les cas d’usage à forte valeur Assurer la cohérence entre Salesforce et les autres briques technologiques Construire et maintenir la feuille de route CRM Gérer le backlog, les arbitrages, les recettes et les déploiements Superviser l’intégration et l’interopérabilité avec les autres outils internes Garantir la performance, la fiabilité et la disponibilité du CRM Mettre en place et animer la gouvernance CRM (process, règles de gestion, documentation) Assurer la qualité, la sécurité et la conformité RGPD des données Suivre les KPI d’adoption, de complétude, de satisfaction utilisateurs et de valeur business Collaborer étroitement avec les équipes métiers pour comprendre besoins et irritants Animer et fédérer la communauté CRM (key users, référents, ambassadeurs) Favoriser l’adoption via communication, formation et conduite du changement Intégrer les retours utilisateurs dans une démarche d’amélioration continue Assurer une veille active sur Salesforce, l’automatisation, la personnalisation et l’IA Tester et déployer les fonctionnalités à fort potentiel Développer les synergies entre CRM, Data et Produit Promouvoir une approche responsable et éthique de la donnée
Freelance
CDI

Offre d'emploi
Ingénieur Système et Sécurité H/F

Publiée le
Linux
Powershell
VMware

1 an
75k-90k €
550-650 €
Luxembourg
Nous recherchons pour un de nos clients, spécialisé dans le domaine bancaire un Ingénieur Système et Sécurité H/F pour une mission à pourvoir dès novembre sur le secteur du Luxembourg ville. Vos missions : Vous aurez en charge d’administrer, maintenir et mettre à jour les différentes plateformes Antimalware / EDR de la banque. Vous serez le point de contact privilégié et le référent technique des équipes système et celles de sécurité. Vous adapterez les exclusions, les policies, les niveaux d’agressivité des fonctionnalités avancées (IA,..) de manière optimale. Vous devrez assurer le suivi avec les différents fournisseurs en anglais. Veille technologique avancée sur
Freelance

Mission freelance
Expert BigData Aix en Provence ASAP Maitrise Cloudera, Kubernetes et devOps

Publiée le
Big Data
Cloudera

6 mois
400-440 £GB
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Télétravail partiel
Expert BigData Aix en Provence ASAP Maitrise Cloudera, Kubernetes et devOps Mise en place d'outils IA/Data pour les équipes à fortes valeurs ajoutées tout en gardant les nombres au stricte minimum. Mise en place et gestion des pipelines CI/CD en mode GitOps Utilisation des systèmes de monitoring et d'alerting (ex. Victoria Metrics, Grafana). Collaboration étroite avec les équipes de développement et d'opérations. Analyse et optimisation des performances des applications et infrastructures. Rédaction de documentation technique et guides de procédures. Gestion des incidents et mise en œuvre de solutions préventives.
408 résultats

Contrats
1

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous