L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 988 résultats.
Mission freelance
CHEF DE PROJET MOVE TO CLOUD VERS AZURE
PROPULSE IT
Publiée le
Azure
Chef
Cloud
24 mois
375-750 €
La Défense, Île-de-France
Nous recherchons plusieurs profils seniors, avec une bonne connaissance du Cloud AZURE techniquement, mais surtout avec une casquette Gestion de projet/pilotage pour cadrer et suivre les sujets de migration vers le Cloud. CONTEXTE vous intégrez une équipe programme à taille humaine en charge du programme Move to Cloud. Le programme Move to Cloud est un des programmes majeurs de la transformation de la DSI. Ses principaux objectifs sont la mise en conformité de l'ensemble des applications centrales et locales avec de nouveaux standards IT et cybersécurité ainsi que de migrer les applications éligibles vers le cloud Microsoft Azure. Ce programme a été initié début 2023 et est actuellement à la fin de la phase pilote. Intégrant un périmètre d'environ 550 applications (centrales et locales), la migration vers Azure devra passer en mode industrialisée pour compléter cette transformation majeure d'ici à fin 2024. 1. MISSION ET RESPONSABILITÉS En tant que Chef de Projet Move to Cloud sur la plateforme Azure, vous serez responsable de la gestion du processus de migration des applications et des services vers Azure. Vous travaillerez en étroite collaboration avec les équipes techniques ainsi que les parties prenantes métier pour garantir le succès des projets de migration. Dans le cadre de cette mission, vos activités s'articuleront notamment autour des thématiques suivantes : Planification et Gestion de Projet : Élaborer des plans de migration détaillés, en tenant compte des dépendances et des contraintes. Coordonner et superviser la mise en œuvre des projets de migration dans le respect des délais et des budgets établis. Piloter le provisionnement (priorisation, respect des délais) des environnements et composants Azure par l'équipe d'Ingénieurs Azure Analyse des Besoins : Travailler en étroite collaboration avec les équipes métier pour comprendre les exigences spécifiques liées à la migration vers Azure. Assurer une coordination efficace avec les architectes et les experts techniques pour évaluer les performances des applications existantes. Proposer des solutions d'optimisation en concertation avec les équipes techniques lors de la migration. Gestion des Risques et de la Qualité : Identifier les risques liés à la migration et mettre en place des plans d'atténuation. Assurer la qualité des livrables tout au long du processus de migration. Communication et Formation : Communiquer efficacement avec les parties prenantes à tous les niveaux de l'organisation. Fournir une formation et un support aux équipes internes concernant les bonnes pratiques et les normes Azure.
Mission freelance
Data engineer h/f
Freelance.com
Publiée le
Apache Airflow
Apache Spark
Cloud Provider
3 mois
400-580 €
Saint-Ouen-sur-Seine, Île-de-France
Dans le cadre du renforcement de son équipe Data, notre client – grand groupe international du secteur de la beauté et des cosmétiques – recherche un(e) Data Engineer Senior freelance pour une mission de 2 ans basée à Saint-Ouen. Conception et développement de pipelines de données batch et temps réel Intégration de sources de données hétérogènes (APIs, bases relationnelles, fichiers plats) Transformation, nettoyage et fiabilisation de la donnée (via dbt, Spark) Optimisation des flux de données : performance, scalabilité et maîtrise des coûts Mise en place et maintenance des outils d'orchestration (Airflow) Collaboration transverse avec les équipes Data (analystes, data scientists, architectes) La mission est au cœur de la stratégie data du groupe et nécessite un profil autonome, rigoureux et orienté solution.
Offre d'emploi
Architecte Cloud AWS – Consultant Transformation & Migration Cloud
KLETA
Publiée le
AWS Cloud
GitLab CI
Terraform
3 ans
Paris, France
Dans le cadre de programmes de transformation numérique, nous recherchons un Architecte Cloud AWS pour accompagner nos clients dans leurs projets de migration et de modernisation vers le cloud. Vous interviendrez sur des missions de cadrage, d’audit et de définition de trajectoires cibles adaptées aux contraintes techniques, organisationnelles et métiers. Vous analyserez les architectures existantes, identifierez les risques et proposerez des solutions optimisées en matière de performance, de sécurité et de coût. Vous participerez à la conception de Landing Zones AWS, à la structuration des environnements multi-comptes et à la mise en place de bonnes pratiques de gouvernance. En collaboration avec les équipes DevOps et Sécurité, vous contribuerez à l’industrialisation des déploiements et à l’adoption des principes cloud native. Vous aurez également un rôle pédagogique en accompagnant les équipes client dans leur montée en compétence sur AWS et en partageant les bonnes pratiques d’architecture.
Mission freelance
Consultant(e) SAP QM - Public Cloud
Signe +
Publiée le
SAP QM
1 an
400-650 €
Grenoble, Auvergne-Rhône-Alpes
Dans le cadre de la migration Greenfield vers SAP S/4HANA Public Cloud , notre client lance un programme de transformation de son SI. Vos missions Participation aux ateliers Fit-to-Standard Paramétrage du module SAP QM dans S/4HANA Public Cloud Définition et optimisation des processus qualité Rédaction de livrables fonctionnels Support aux phases de tests (unitaires, intégration, UAT) Accompagnement du client lors du déploiement et du go-live Démarrage : Mars 2026 Durée : 1 an renouvelable (3 années de visibilité projet)
Mission freelance
Chef de Projet Infrastructure Cloud (Azure/AWS) – Secteur Luxe
Zenith Rh
Publiée le
Azure
Cloud
Infrastructure
6 mois
Hauts-de-Seine, France
Le contexte : Vous rejoignez le département Infrastructure d'une des maisons de luxe les plus prestigieuses au monde. Dans un environnement en forte croissance et à la culture entrepreneuriale, vous êtes le chef d'orchestre entre les experts techniques et les directions métiers (Parfums, Beauté, Mode, Immobilier). Votre défi : Oubliez la gestion d'un projet unique. Ici, vous pilotez un portefeuille de 10 à 20 projets en parallèle (Cloud Azure, Data, IA, Retail). Votre rôle n'est pas de faire le travail des experts, mais de garantir que la valeur est livrée, que les délais sont tenus et que la communication est fluide. Vos missions prioritaires : Cadrage & Structure : Transformer des besoins exprimés oralement en feuilles de route structurées. Apporter du cadre là où il manque de formalisme. Interface Métier : Traduire les enjeux techniques en bénéfices business pour les directions applicatives. Pilotage Proactif : Relancer, coordonner et "challenger" les parties prenantes (internes et externes) pour débloquer les situations. Reporting de Haute Précision : Offrir une visibilité claire à la direction via des indicateurs pertinents (l'exigence du luxe impose une finition parfaite).
Mission freelance
consultant IBM senior H/F
NITROLABZ By SYNC-DIGITALS SAS
Publiée le
IBM Cloud
6 mois
Suisse
Nitrolabz accompagne les entreprises dans le développement et la concrétisation de leurs projets technologiques. De l’expertise technique à la création de solutions digitales innovantes, nous intégrons les technologies les plus avancées pour booster votre performance et vos ambitions. Aujourd'hui un de nos plus grand client souhaite renforcer son infrastructure cloud interne autour de la solution ODF (OpenShift Data Foundation) afin d’optimiser le stockage et la disponibilité des données critiques. La mission s’inscrit dans un projet stratégique visant à améliorer la résilience, la sécurité et l’efficacité des systèmes de stockage au sein de l’environnement OpenShift. Nous cherchons donc a recruter un(e) consutant(e) IBM senior qui aura pour mission: Titre de la mission : Consultant IBM – Solution ODF sur OpenShift Durée de la mission : [À préciser, ex. 6 mois avec possibilité de prolongation] Lieu : Suisse Missions principales : Déployer, configurer et administrer la solution ODF interne sur OpenShift. Assurer la gestion des différents types de stockage : bloc, file et objet (S3). Garantir la haute disponibilité des services et la continuité des opérations. Mettre en place les stratégies de sauvegarde et restauration adaptées aux différents environnements et exigences métier. Collaborer avec les équipes DevOps et infrastructure pour optimiser les performances et la sécurité du stockage. Documenter les procédures et accompagner les équipes internes sur les bonnes pratiques ODF. Livrables attendus : Plateforme ODF déployée et opérationnelle avec monitoring et alerting configurés. Stratégie de sauvegarde et plan de restauration testés et documentés. Guide de bonnes pratiques pour l’exploitation quotidienne de la solution ODF. Entreprise handi-accueillante : à compétences égales, une attention particulière est portée aux candidatures des personnes en situation de handicap.
Mission freelance
Lead MLOps – Expert Python RAG Conversationnel Production (Azure Cloud – Full Microsoft)
5COM Consulting
Publiée le
Agent IA
Azure AI
IA Générative
1 an
650-700 €
Paris, France
Lead MLOps – Expert PythonRAG Conversationnel Production (Azure Cloud – Full Microsoft) Dans un contexte cabinet / finance / environnement régulé, nous recherchons un Lead MLOps senior , expert Python, ayant déjà mis en production un RAG conversationnel sur Azure . Il ne s’agit pas d’un rôle de Data Scientist ni d’un profil POC. Nous cherchons un Lead Engineering capable d’industrialiser, structurer et opérer un système GenAI en production , dans un environnement complexe et multi-acteurs. Mission Transformer un RAG conversationnel (POC ou existant) en système production-grade . Concevoir et structurer l’architecture technique sur Azure Cloud . Mettre en place les pipelines CI/CD et MLOps adaptés aux systèmes LLM/RAG. Déployer, monitorer et opérer la solution en production. Définir les standards de gouvernance IA, versioning, auditabilité et conformité. Interagir étroitement avec les architectes Azure et équipes Ops Cloud . Être force de proposition, cadrer, arbitrer et assumer les décisions techniques. Passer du POC à la PROD de manière structurée et mesurable . Expertise Azure (indispensable) Maîtrise concrète des environnements Azure : Azure OpenAI Azure AI Search / Vector Search Azure ML / Fabric / Databricks Azure DevOps / GitHub Actions AKS ou services managés Azure Monitoring Azure (logs, métriques, alerting) Capacité à dialoguer techniquement avec les architectes et équipes Ops Azure. RAG Conversationnel – Exigences Architecture modulaire (ingestion / retrieval / génération découplés) Gestion du contexte conversationnel Optimisation retrieval (chunking, reranking, hiérarchisation) Contrôle des hallucinations Monitoring qualité & performance Évaluation automatisée (LLM-as-a-Judge, métriques retrieval, A/B testing) MLOps – Cœur du rôle Pipelines CI/CD pour ML / GenAI Versioning code / data / modèles Tests unitaires & intégration Monitoring technique (latence, coûts, erreurs) Monitoring sémantique (qualité des réponses) Rollback & gestion des incidents Gouvernance IA & standards engineering Engineering Python expert (FastAPI, modularité, clean architecture) Structuration claire du code Gitflow maîtrisé Scalabilité & résilience Documentation et standards d’équipe Profil recherché 7–10+ ans d’expérience Lead MLOps / ML Engineering senior Expérience démontrée de mise en production RAG conversationnel sur Azure Habitué aux environnements cabinet / finance / régulés Leadership affirmé, capacité à s’imposer Capable de proposer des solutions pragmatiques et surtout de les exécuter Environnement de travail Localisation : Paris centre Télétravail partiel possible Environnement exigeant mais agile Culture d’équipe forte, esprit “team spirit” Mode de fonctionnement dynamique, proche d’un esprit startup Forte exposition aux enjeux stratégiques IA Ce que nous ne recherchons pas Profils orientés uniquement Data Science RAG prototype / non production-grade Expérience Azure superficielle Manque d’expérience MLOps réelle Profil incapable de structurer et gouverner
Mission freelance
Cloud Engineer NAS
Codezys
Publiée le
Cisco
ITIL
NetApp
3 mois
450-500 €
Paris, France
Le service comprendra : A. Gestion de l'infrastructure de stockage Conception et déploiement de solutions de stockage en réseau (NAS) et de solutions cloud adaptées. Configuration des volumes et des niveaux de stockage en fonction des exigences de performance. Optimisation des performances de stockage par le biais d'ajustements et d'équilibrages de charge. Assurance d'une disponibilité 24/7 du service, avec une organisation spécifique en matinée. Fourniture et partage de la documentation technique (schémas détaillés, procédures, processus, etc.). B. Protection des données et sauvegarde Implémentation de stratégies de sauvegarde et de récupération en cas de sinistre pour prévenir toute perte de données. Utilisation des solutions de sauvegarde selon les besoins spécifiques. Développement de stratégies de réplication entre centres de données pour assurer la continuité des activités. C. Sécurité du stockage et conformité Mise en œuvre de chiffrement, de contrôles d'accès et de permissions basées sur les rôles pour sécuriser les données stockées. Assurance du respect des normes réglementaires telles que GDPR, HIPAA, ISO 27001, et autres. Surveillance et prévention contre les ransomwares et les accès non autorisés aux systèmes de stockage. Participation à la correction des problématiques lors des audits. D. Planification de la capacité et optimisation Analyse de l'utilisation du stockage et projection des besoins futurs. Amélioration de l'efficacité du stockage à travers des fonctionnalités telles que la déduplication, la compression, et la provisionnement en mode fin (thin provisioning). Automatisation de la gestion du stockage via des scripts (Python, Bash, PowerShell). E. Dépannage et optimisation des performances Identification et résolution des problèmes de latence, de saturation des IOPS ou de défaillances de disques. Réalisations de mises à jour de firmware, de patches de stockage et de vérifications de l'état de santé du système. Collaboration étroite avec les équipes réseau et base de données pour optimiser le flux de données global. Gestion des incidents, incluant la résolution et l'interfaçage avec les parties concernées.
Offre d'emploi
Developer Back end Java 17/21 (Spring boot) & devops
KEONI CONSULTING
Publiée le
Cloud
Postman
Terraform
18 mois
20k-60k €
100-500 €
Lille, Hauts-de-France
Contexte Nous recherchons 1 Dev Back-end Java afin de renforcer l'équipe actuelle. Cette personne pourra intervenir sur les projets au sein du dispositif existant ou le renforcer sur les autres assets, selon la charge de cette période, afin de tenir l'engagement de mise en production MISSIONS Ø Mise en place du socle technique - Choix des librairies nécessaires au projet - Mise en place du socle technique sous Docker - Mise en place des déploiements automatisésEnvironnement technique à maîtriser : o Langages : Java 17/21 o Frameworks : Spring Boot, JUnit, Logback o Serveur d’application : Service manager AWS (Beanstalk) et infra Kub o Industrialisation : Docker, Maven, Gateling o Outils : Datadog, Git LabCi, Jira, Sonar, etc. ○ • Assurer une qualité de code optimale ○ Initie un bon socle ○ S'assure de la mise en place des guidelines ( Quality Gate, % code coverage, pyramide de tests..) ○ Suivi des métriques ○ Garant de la bonne application des pratiques de devs • Fournir une direction technique / architecturale ○ Unifier les pratiques ○ Aider à prendre les bonnes décisions ○ Fluidifier les longs débats, et tranche en cas d'indécision ○ Echange avec les bons partenaires pour coconstruire si besoin • Contrôler la dette technique ○ Sensibiliser alerter en cas d'obsolescence / mauvaise pratiques ○ Suivre, afficher et prioriser la dette technique • Assurer le bon déroulement des Code Review ○ Animer et cadrer les CR (suivre le Time to Review, la Pull Request Size.. ) • Promouvoir la collaboration et l'engagement ○ Accompagne et facilite le partage de connaissance (matrice de compétences, 1to1..) ○ Garant du process d'On-Boarding ○ Crée de la cohésion dans l'équipe ○ Être l'interlocuteur privilégié du PO / Stakeholders en cas de question technique • Déployer de la qualité, rapidement ○ Focus l'équipe sur des solutions rapides, et fiables (KISS, ) ○ Suivi de la fréquence de déploiement, taille de déploiement.. ○ Favorise la collaboration Dev/Ops • Participation au cadrage Technico/fonctionnelle ○ Participation aux études de faisabilité / estimations / planification ○ Réalisation de cadrages fonctionnels et techniques pour les évolutions ○ Réaliser des estimations de charge ou de complexité d’une évolution et des tâches à effectuer ○ Produire les livrables en suivant les pratiques agiles ○ Tests unitaires (TDD) et tests fonctionnels automatisés (BDD) ○ Application packagée (Docker) ○ Documentation technique ○ Analyser les rapports d'intégration continue et actions en conséquence ○ Remonter les alertes et le reste à faire sur ses tâches ○ Contribuer à l’activité d’étude d’architecture technique de l’équipe ○ Être le référent Technique de l'équipe Scrum en lien avec le DevOps et les équipes infra pour les choix techniques mais aussi sur leurs mises en place • Être le garant des process de dev ○ Mettre en place et être le garant des bonnes pratiques de dev ○ Mettre en place des process pour avoir une unicité de pratique au sein de l'équipe (listing de chose à faire lors d'une revue, …) ○ Mettre en place des métriques pour identifier des axes d'améliorations : § Couverture de code par les Test et des TU § Nombre d'aller-retour et Nb de retour sur les revues § Nombre d'anos § Temps passé sur les différentes étapes du Workflow (dev et Test (TU, TA,..) Revue, livraison …) § Réaliser des ateliers d'analyses et de prise d'action d'amélioration Suivi des métriques et des actions d'amélioration 3) Contribution à la vie de l’équipe Ø Vous participez activement à la vie de l’équipe Ø Vous êtes proactif pendant les cérémonies agiles (DSM, rétro, démo, ...) et force de proposition en termes d'amélioration Ø Vous contribuez à l'animation du backlog Produit et technique Ø Vous participez à l’estimation de charge ou de complexité des tâches de l’équipe Ø Vous remontez les alertes et le reste à faire sur ses tâches Ø Vous assurez un transfert de connaissances vers les autres équipes Livrables : Les compétences techniques minimales que nous recherchons sont : - Une maitrise parfaite du Java 17/21 mais aussi des Framework Spring et Spring boot - Frameworks : Spring Boot, JUnit, JAX-RS, Logback - Git LabCi ne sont pas des options ;) PROFIL& COMPETENCES Pour le poste, il convient d'avoir au minimum de 7/8 ans d'expérience sur des postes de développeur prioritairement sur Java 17/21 (Spring boot), avec idéalement plusieurs expériences de lead dev Expert Java dans un contexte Agile très fort mais également une organisation DevOps afin de pouvoir monter les environnements back mais également travailler sur la mise en place et l'Optimisation des pipelines de livraison en Hors Prod et en Prod. Nous travaillerons sur une infra AWS donc il sera obligatoire que le candidat maîtrise l'environnement AWS avec idéalement plusieurs certifications AWS (Architecte Associate, Développer associate, …). Vous aimez apprendre, partager vos connaissances et mettre en application les technologies actuelles et futures. De plus, les compétences suivantes en DevOps seront plus que souhaitables : - Vous connaissez AWS et avez déjà travaillé sur des pipelines de livraison sur AWS - Vous connaissez les logiciels de livraison continue comme Gitlab CI, Jenkins, Artifactory, … - Mais aussi les logiciels intégrer dans les pipelines de livraison pour assurer la qualité/ la sécurité comme Sonar, CheckMark, Vault, … - Vous maitrisez les concepts Cloud et les outils DevOps comme : Terraform, Ansible, Gitlab CI et Docker n'a plus de secret pour vous - Enfin vous maitriser également les outils de testing : PostMan, Selenium ou encore Cucumber
Offre d'emploi
Développeur IA / AI Engineer - Paris H/F
Webnet
Publiée le
Cloud
Docker
Intelligence artificielle
45k-55k €
Paris, France
Dans ce cadre de projets chez nos clients grands compte, nous recherchons un Développeur IA pour concevoir, intégrer et industrialiser des modèles d’intelligence artificielle. Vous participez au développement des solutions intégrant des technologies d’intelligence artificielle pour automatiser des processus métier et créer de nouveaux produits numériques. Vous interviendrez sur l’ensemble du cycle de vie des solutions IA : conception, développement, intégration et optimisation. Vous aurez pour missions : Concevoir et développer des solutions basées sur l’intelligence artificielle Intégrer des modèles de machine learning et LLM dans des applications Développer des API et services backend pour exposer les fonctionnalités IA Participer à la mise en production et à l’industrialisation des modèles Optimiser les performances des pipelines data et des modèles Collaborer avec les data scientists, product owners et équipes produit Mettre en place des bonnes pratiques de MLOps et monitoring
Mission freelance
un Senior Agile Java Developer – Cloud Migration (AWS / OVH)
Keypeople Consulting
Publiée le
API REST
AWS Cloud
Bash
6 mois
400-550 €
Paris, France
Dans le cadre d’un programme stratégique de migration vers le cloud , nous recherchons un Développeur Java Senior pour accompagner la modernisation d’applications critiques vers des environnements AWS et OVH Cloud . Vous interviendrez au sein d’une feature team Agile sur des projets de transformation visant à migrer des applications existantes vers des architectures cloud-native et microservices . Vos missions · Participer à la migration d’applications Java/Spring vers le cloud (AWS / OVH) · Refactoriser et adapter les applications vers des architectures microservices · Concevoir et développer des services backend Java avec l’écosystème Spring · Contribuer à la mise en place et à l’amélioration des pipelines CI/CD · Automatiser les déploiements via Infrastructure as Code (Terraform / Ansible) · Garantir la performance, la résilience et la sécurité des applications · Collaborer étroitement avec les équipes DevOps, Cloud, Architecture et Sécurité · Participer aux cérémonies Agile (Scrum, refinement, rétrospectives) 🛠 Compétences recherchées · Java / Spring Boot / Spring Data / Spring Security · API REST et architectures microservices · Linux & scripting (Bash / ksh) · CI/CD (GitLab) · Infrastructure as Code : Terraform / Ansible · AWS (obligatoire) – compute, networking, IAM, monitoring · Connaissance DevSecOps et bonnes pratiques de sécurité ⭐ Un plus · Expérience avec OVH Cloud · Expérience dans les projets de migration vers le cloud · Connaissance des environnements financiers ou fortement réglementés 📍 Profil recherché · Senior plus de 10 ans d’expérience) · Forte expérience Java backend + Cloud · À l’aise dans les environnements Agile et DevOps
Mission freelance
Cloud Engineer NAS sur Paris 17
EterniTech
Publiée le
NAS
NetApp
3 mois
Paris, France
Je recherche pour un de mes clients un Cloud Engineer NAS sur Paris 17 Description: The service will: A. Storage Infrastructure Management · Designing and deploying Network-Attached Storage (NAS), and cloud-based storage solutions. · Configuring volumes, and storage tiers based on performance needs. · Optimizing storage performance through tuning and load balancing. · 24/7 providing service and Early morning Organization. · Providing and sharing documentation ( LLD, Procedure, Process … B. Data Protection & Backup · Implementing backup and disaster recovering strategies to prevent data loss. · Working with backup solutions in needed. · Developing replication strategies across data centers for business continuity. C. Storage Security & Compliance · Implementing encryption, access controls, and role-based permissions to secure stored data. · Ensuring compliance with GDPR, HIPAA, ISO 27001, and other regulatory standards. · Monitoring and preventing ransomware and unauthorized access to storage systems. · Participating to Audit Issue Remediation. D. Capacity Planning & Optimization · Conducting storage utilization analysis and forecast future storage needs. · Optimizing storage efficiency with features like deduplication, compression, and thin provisioning. · Working on automating storage management using scripts (Python, Bash, or PowerShell). E. Troubleshooting & Performance Tuning · Identifying and resolving latency, IOPS bottlenecks, or disk failures. · Performing firmware updates, storage patches, and system health checks. · Working closely with network and database teams to optimize end-to-end data flow. · Incident Management ( Resolution and interface). ---------- Expertise’s: • NAS NetApp storage expertise – mandatory. • Switch Broadcom - mandatory. • NAS upgrade – mandatory. • NAS Refresh – mandatory. • NetApp Cloud Volume Ontap and/Or AWS FSX N - appreciated • Hyperconverged solution expertise are appreciated: Nutanix, VSAN. • Proven expertise in IT production environment (incident, 24H/7 on duty, early morning organization), with DRP architecture. • Scripting expertise’s and automation: Python, Ansible, Terraform • Strong general knowledge in IT and Datacenter infrastructure architectures • Documentation: LLD, Exploitation Procedure, process, training materials • Expertise providing service in a dynamic, matrix-structured global organizations. • English environment • French would be appreciated. ---------- Delivery : at least 3 days onsite per week
Mission freelance
Architecte CRM Salesforce (Service Cloud)
Mon Consultant Indépendant
Publiée le
CRM
Microsoft Power BI
Node.js
12 mois
500-600 €
Nantes, Pays de la Loire
Contexte : Grand acteur national du secteur des services et de la mobilité, notre client mène une transformation digitale ambitieuse visant à offrir une expérience client omnicanale fluide et performante. Dans ce cadre, la Direction Clients & Numérique recherche un Architecte CRM Salesforce pour intervenir sur un écosystème CRM structurant, au cœur des services digitaux et des applications métiers. L’environnement comprend : CRM Salesforce Service Cloud (BtoC & BtoB) Applications agents (Salesforce / Heroku) Fronts web et applicatifs connectés au CRM DataLake Azure Power BI Marketing Cloud 🎯 Missions : En tant qu’Architecte CRM, vous aurez un rôle transverse et stratégique : Analyse des releases Salesforce et études d’impacts Définition des bonnes pratiques de développement Supervision de l’architecture fonctionnelle et technique Pilotage du backlog technique CRM Identification des dépendances inter-applicatives Conception des nouvelles fonctionnalités transverses Documentation d’architecture (Confluence) Gouvernance des environnements : Gestion des métadonnées Stratégie de branches et déploiements Gestion des environnements et refresh Contrôle des versions Vous contribuerez activement à la robustesse, la qualité et la pérennité du CRM. 🛠 Compétences requises : Indispensables : Maîtrise avancée de Salesforce Service Cloud Expertise Platform Salesforce / LWC / Community Certification Salesforce Administrateur (ADX201) Expérience Agile (minimum 2 ans) Connaissances RGPD Maîtrise JIRA & Confluence Atouts : Certification Développeur Salesforce APEX, Visualforce, SOQL, Aura, LWC Développement API / Web services NodeJS / ReactJS / VueJS Heroku & Heroku Connect Marketing Cloud Power BI Azure DataLake
Mission freelance
Développeur CRM Salesforce Service Cloud
Mon Consultant Indépendant
Publiée le
Azure
Microsoft Power BI
Node.js
12 mois
300-400 €
Nantes, Pays de la Loire
Contexte : Dans le cadre du renforcement d’un pôle digital dédié aux services clients, nous recherchons 3 Développeurs CRM Salesforce Service Cloud expérimentés . Vous intégrerez une équipe Agile structurée (Scrum Master, PPO, Architecte CRM, UX/UI, Lead Dev). Le CRM est au cœur d’un écosystème applicatif interconnecté : plateformes web, applications agents, services omnicanaux, outils marketing et reporting. 🎯 Missions : Développement des User Stories en environnement Agile (JIRA) Conception technique et fonctionnelle Développements Salesforce (Service Cloud) Tests unitaires Code Review Déploiements (Merge Request) Documentation Confluence Participation aux cérémonies Agile Intégration des WebApps avec Salesforce Mise en œuvre d’API et interconnexions SI MEP en heures ouvrées ou non ouvrées selon contexte 🛠 Compétences indispensables : Salesforce Service Cloud (2 ans minimum) Certification Salesforce Developer APEX, Visualforce, SOQL, LWC, Aura Développement API / Web services Connaissance RGPD Expérience Agile (2 ans minimum) JIRA / Confluence ➕ Compétences appréciées : NodeJS / Express / SQL ReactJS / VueJS PWA Heroku Marketing Cloud Power BI Azure / AWS Outils de satisfaction client
Mission freelance
Cloud Ops Engineer GCP
CAT-AMANIA
Publiée le
AWS Cloud
Cloud Provider
Google Cloud Platform (GCP)
1 an
100-450 €
Lille, Hauts-de-France
Gérer l’organisation des 2 principaux Cloud providers : GCP et AWS Proposer, de part votre expérience sur le Cloud, de nouvelles approches de déploiement, gestion et exploitation de systèmes sur le Cloud. Scripting/automatisation/Infrastructure As Code : industrialisation des solutions avec des outils/langages tels que Terraform, Python, CloudFormation… Développer et mettre à disposition des reporting et tour de contrôle (inventaire et qualité) permettant d’informer nos utilisateurs et notre équipe de la qualité et évolution de nos environnements. Coder des applications (API, orchestration) en Python en utilisant les bonnes pratiques de code. Écrire et sensibiliser aux bonnes pratiques d’utilisation du Cloud avec également la formation de nos équipes techniques. Collaborer étroitement avec nos équipes de sécurité pour la gestion des alertes et du renforcement de nos process techniques et fonctionnels.
Offre d'emploi
Ingénieur Support Applicatif
VISIAN
Publiée le
Cloud
Linux
1 an
40k-45k €
400-550 €
Île-de-France, France
Descriptif du poste L'entité assure le maintien en condition opérationnel, l'évolution et les mises en production (implémentation, automatisation, documentation) d'applications en lien avec le reporting reglementaire pour une entité Les applications, en environnement Windows (20%) et Unix (80% Linux/Solaris), sont à base de Weblogic, Tomcat, JBoss et de SGBD Oracle, Microsoft SQL Server, et PostgreSQL. L'automatisation est effectuée grâce aux outils d'ordonnancement Dollar Universe et Autosys. Le suivi de la production est effectué via les outils de monitoring ITRS Geneos. Dans le cadre des évolutions de l'activité, la mission proposée contribue principalement aux différents projets liés à la digitalisation et l'industrialisation de la production (DevOps, Ansible, ELK, Jenkins, etc...) en tenant compte des contraintes liées a la sécurité.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
2988 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois