Trouvez votre prochaine offre d’emploi ou de mission freelance Service Cloud

Offre d'emploi
Administrateur OpenShift
La plateforme OpenShift est déjà installée et opérationnelle dans les environnements de production, de préproduction et de développement. La priorité est de renforcer les opérations, d'améliorer la fiabilité et de faire évoluer la plateforme vers des niveaux supérieurs d'automatisation, d'observabilité et de sécurité. L'administrateur jouera un rôle clé dans : La stabilisation et l'optimisation des clusters existants La définition et la mise en œuvre des meilleures pratiques La migration vers un environnement Bare Metal La conduite des améliorations et des mises à niveau de la plateforme La garantie de la conformité aux exigences organisationnelles et réglementaires. L'expérience du profil doit répondre aux exigences minimales suivantes : Expérience en administration de systèmes Linux et en environnements conteneurisés Solide expertise pratique de l'exécution et de la gestion de clusters Kubernetes/OpenShift Forte expérience des environnements de production critiques Attentes Assurer la disponibilité, la stabilité et les performances des clusters OpenShift Gérer les accès utilisateurs, les quotas, les espaces de noms et les ressources associées Diriger et accompagner la migration vers un environnement Bare Metal Mettre en œuvre et maintenir des solutions de surveillance, d'observabilité et de journalisation Appliquer et améliorer les politiques de sécurité Contribuer au cluster Mises à niveau, améliorations et gestion du cycle de vie

Mission freelance
Data Architect – Core Model CRM
Dans un environnement multi-CRM , l’entreprise souhaite construire un Core Model CRM unifié pour centraliser, harmoniser et valoriser les données clients. Ce modèle sera le socle des usages analytiques, opérationnels et stratégiques. L’un des principaux objectifs du plan de transformation data est de développer des applications qui enrichissent l’expérience client et rendent les équipes métiers autonomes dans l’analyse des données et KPI. Pour atteindre ces objectifs, l’entreprise a déployé un écosystème technologique avancé : Outils et plateformes : AWS, Dataiku, GitLab, Terraform, Snowflake, Braze, IA, Spark, Python, Power BI Architectures : Data Lake, Event-driven, Streaming (ingestion de +100 To/jour) Exemples de projets : chatbot IA, moteur de recommandation, feature store, socle vidéo, plateforme de contenu, partage de données avec partenaires, data self-service Missions 1. Conception du Core Model CRM Analyser les modèles de données existants dans les différents CRM. Identifier les objets métiers communs, divergences et points de convergence. Concevoir un modèle de données central (conceptuel, logique, physique) aligné avec les besoins métiers et techniques. Définir les règles de mapping et de transformation entre les CRM sources et le Core Model. 2. Architecture et intégration Collaborer avec les équipes Data Engineering pour l’implémentation des pipelines d’intégration. Garantir la scalabilité, la performance et la sécurité du modèle. 3. Gouvernance et documentation Documenter le Core Model et ses usages. Participer à la mise en place de la gouvernance des données clients (référentiels, qualité, traçabilité). Assurer la cohérence et l’évolution du modèle dans le temps. 4. Collaboration transverse Travailler avec les équipes CRM, Data, IT et métiers. Animer des ateliers de co-construction avec les entités internes. Former et accompagner les utilisateurs du Core Model.
Mission freelance
Deux Ingénieurs senior et expert Cloud & DevOps Microsoft Azure et AWS
Besoin d'assistance de deux ingénieurs Cloud & DevOps : 1 senior 6 à 10 ans d'expérience et un expert de plus de 10 ans qui interviendront dans un environnement multicloud s'appuyant principalement sur Microsoft Azure et AWS. La prestation s'effectuera en interaction avec les équipes Cloud & Intégration, les architectes, les équipes sécurité, les développeurs et les opérations, dans le cadre d'une mission visant à industrialiser, automatiser et fiabiliser les plateformes cloud et les services associés. Agilité & rapidité : accélérer les cycles de développement et de déploiement via des chaînes CI/CD intégrées. Fiabilité & standardisation : garantir des déploiements maîtrisés, reproductibles et alignés avec les standards du multi-cloud. Sécurité & conformité : intégrer des mécanismes de sécurité dès les phases de build et de déploiement (scans, gestion des secrets, durcissement). Optimisation des ressources cloud : assurer le suivi et l'efficience des ressources via une approche FinOps. Observabilité & résilience : mettre en œuvre des outils de monitoring, logging et alerting pour anticiper les incidents et améliorer le MTTD/MTTR.

Offre d'emploi
Cloudops sénior
Au sein de l'équipe plateforme du client, dont la mission est de : Rationaliser le catalogue d’outils et produits techniques utilisés dans le groupe. Fournir des services clé en main aux équipes IT, pour leur permettre de se concentrer sur la création de valeur. Promouvoir un usage approfondi et commun des technologies Cloud afin de faciliter la mobilité interne et la collaboration. 👉 Le consultant rejoint l’équipe Cloud Foundation , composée d’ingénieurs passionnés, qui construit et maintient une plateforme Cloud robuste, scalable et sécurisée . Administration multi-Cloud : AWS & GCP. Proposer de nouvelles approches de déploiement, gestion et exploitation Cloud . Automatisation / Infrastructure as Code : Terraform, Python, Bash, Curl, API. Reporting et “tour de contrôle” : inventaire, suivi qualité, évolution des environnements. Runboy (max. 1 semaine/mois) : gestion des demandes de service/support. Documentation & formation : bonnes pratiques Cloud, montée en compétences des équipes internes. Collaboration étroite avec les équipes Sécurité : gestion des alertes, renforcement des process

Mission freelance
CloudOps AWS et GCP
Notre client recherche un·e CloudOps Engineer pour renforcer une équipe passionnée d’ingénierie cloud. L’objectif : fournir une plateforme robuste, scalable et sécurisée, permettant aux équipes de déployer leurs applications de manière autonome, rapide et fiable. Ce que fait notre client : Rationaliser le catalogue de services cloud afin de simplifier l’expérience des équipes IT. Offrir des solutions “clé en main” pour permettre aux équipes produit de se concentrer sur les fonctionnalités à forte valeur ajoutée. Favoriser la montée en compétences communes afin de faciliter la mobilité entre équipes. Mettre l’accent sur l’Infrastructure as Code, l’automatisation, le DevOps et la veille technologique. Vos missions : Administrer et exploiter les environnements AWS et GCP. Concevoir et déployer des solutions Cloud avec Terraform, Python, Bash, Curl et APIs. Développer et industrialiser des outils de reporting et de pilotage (inventaire, qualité, suivi). Participer au support utilisateurs (“runboy”, 1 semaine par mois max). Documenter, formaliser et former les équipes aux bonnes pratiques. Collaborer avec les équipes sécurité pour renforcer les process et gérer les alertes

Offre d'emploi
Développeur/développeuse fullstack Java Angular à Lyon
Objectifs de la mission : Participer à l'ensemble des activités de développement logiciel au sein de son équipe (conception, dev, tests, déploiement) Participer aux différents ateliers de conception et cérémonies agiles Appliquer les meilleures pratiques de développement pour un code propre et maintenable (TDD, BDD, DDD, Pair programming ... ) Participer activement à la relecture du code des autres développeurs de l'équipe En fonction du niveau d'expertise, accompagner des développeurs plus juniors Résoudre des problèmes, améliorer la qualité du code et atteindre les indicateurs Accelerate (DORA Metrics) Revue de code quotidienne et accompagnement des développeurs juniors

Offre d'emploi
OPS Sénior Lille
Bonjour, Dans le cadre de ses projets clients, Visian est à la recherche d’un(e) OPS Production Engineer senior. Vous interviendrez sur la conception, le déploiement et la maintenance d’infrastructures cloud AWS via Terraform, ainsi que l’automatisation des déploiements Kubernetes (EKS). Vous garantirez la haute disponibilité des services, la supervision via Datadog, et la sécurité applicative avec Cloudflare. En collaboration avec les équipes développement, vous optimiserez les pipelines CI/CD (GitLab CI) et assurerez la gestion des incidents majeurs ainsi que la cohérence des environnements de production. Stack technique : Terraform, AWS, Kubernetes (EKS), Datadog, Cloudflare, GitLab CI. Missions principales : Déployer et maintenir l’infrastructure cloud et les clusters Kubernetes Automatiser les processus de scaling et déploiement Mettre en place monitoring et supervision Appliquer les politiques de sécurité et conformité Piloter la gestion des incidents et accompagner les équipes sur le delivery Si vous êtes actuellement à l’écoute du marché, je vous invite à m’envoyer votre candidature. Bien à vous.
Mission freelance
DATA Engineer - AWS(H/F)
Nous cherchons : Un(e) Data Engineer motivé(e) pour rejoindre notre squad Data Platform et contribuer à la construction, l’exploitation et l’optimisation de notre plateforme Data dans un environnement Cloud (AWS / Azure). Missions principales : Concevoir, développer et maintenir des solutions de Data Lake (Gen 2, S3). Développer des microservices et applications en Python et C# . Mettre en place et maintenir des processus de déploiement automatisé avec Terraform . Participer au RUN et au Build de la Data Platform (support, supervision, optimisation). Automatiser et améliorer les activités d’exploitation (SRE, FinOps). Définir et appliquer les bonnes pratiques de sécurité, qualité, résilience et observabilité. Collaborer avec les Data Officers, Data Architects et Data Engineers dans un cadre Agile . Assurer la documentation et le suivi des livrables (artefacts, mises en production).4 Stack technique : Cloud : AWS (S3, VPC, services Data), Azure (ADLS Gen 2 – un plus). Langages : Python, C#. Infra as Code : Terraform. Data : ETL, Data Lake (Gen 2, S3). Monitoring & Observabilité : Grafana, Azure App Insights. Méthodologie : Agile / SRE / FinOps.

Mission freelance
Développeur Java/VueJS
Développement Full-Stack : Concevoir, développer, tester et déployer de nouvelles fonctionnalités et services (back-end Java, front-end VueJS) dans le respect des bonnes pratiques de développement et d'architecture (Microservices, DDD, Clean Code). Automatisation & optimisation de la chaine logicielle avec une culture DevOps : Participer activement à l'amélioration continue des processus d'intégration et de déploiement continus (CI/CD) en utilisant les outils en place (GitLab CI/CD, Ansible, Terraform). Garantir la qualité et la sécurité du code via les outils d'analyse statique (SonarQube, CheckMarx). Migration Cloud AWS : Contribuer activement au projet de migration de la plateforme Paiement vers AWS, en apportant son expertise sur les architectures Cloud Ready, la conteneurisation (ECS/EKS), les services managés AWS (ALB, SQS, Lambda, Aurora...) et l'Infrastructure as Code (Terraform) pour le provisionnement et le déploiement. Compétences techniques Développement full-stack Java / VueJS - Expert - Impératif Cloud AWS (ECS, EKS, ALB, SQS, Lambda, Aurora) - Confirmé - Impératif DevOps (GitLab, Ansible, Terraform) - Confirmé - Impératif Architecture Microservices (DDD / Cloud Ready) - Confirmé - Important Description de la mission Le consultant retenu intégrera une Feature Team Agile et aura pour principales responsabilités : - Développement Full-Stack : Concevoir, développer, tester et déployer de nouvelles fonctionnalités et services (back-end Java, front-end VueJS) dans le respect des bonnes pratiques de développement (Clean Code). - DevOps & Industrialisation : Participer activement à l'amélioration continue des processus CI/CD en utilisant GitLab, Ansible et/ou Terraform. - Migration Cloud AWS : Contribuer activement au projet de migration vers AWS, en apportant son expertise sur les architectures Cloud (ECS/EKS, ALB, SQS, Lambda, Aurora…). - Qualité & Sécurité : Appliquer une rigueur exemplaire en matière de qualité des livrables (tests unitaires, d'intégration, end-to-end) et d'observabilité (monitoring, logging). - Support & Release Management : Participer à la préparation et au suivi des mises en production, ainsi qu'à l'analyse et la résolution d'incidents. - Collaboration & Proactivité : Travailler en étroite collaboration avec les Tech Leads, Product Owners, l'Architecte Solution, les autres développeurs et les équipes Ops. Être force de proposition pour améliorer les solutions techniques et les processus.

Mission freelance
COORDINATEUR DE PROJET MOVE TO CLOUD- anglais courant H/F
Dans le cadre de la transformation IT du groupe et du programme stratégique Move to Cloud, notre client lance une consultation pour la mise à disposition d’un Coordinateur expérimenté chargé de piloter le déploiement d’un modèle opérationnel cloud au sein des sociétés du groupe. Pilotage et coordination globale •Organiser la gouvernance projet (COPIL, COPRO, comités locaux) •Gérer le planning, les jalons, les risques et le reporting •Synchroniser les activités des différents work packages 2. Coordination des déploiements par société •Superviser la phase pilote •Structurer les vagues de déploiement jusqu’à fin décembre •Maintenir à jour un tableau de suivi centralisé (modèle, readiness, statut) 3. Mesure de la maturité opérationnelle •Utiliser une grille d’évaluation pour mesurer la maturité de chaque société sur : oProcessus opérationnels (incidents, patching, monitoring…) oOutillage (compliance, automatisation…) oCompétences des équipes •Identifier les écarts par rapport au modèle cible •Proposer et suivre des plans de remédiation personnalisés •Alimenter un dashboard de maturité par société

Mission freelance
DevOps Senior AWS / Rennes
Dans le cadre du développement d’une plateforme Cloud SaaS innovante dans le secteur du streaming, nous recherchons un DevOps Engineer freelance pour accompagner l’évolution d’une infrastructure Cloud hautement disponible, scalable et sécurisée. Vous rejoindrez une équipe tech à taille humaine, agile et experte, avec un fort niveau d’autonomie et d’exigence technique. • Participer activement à la construction et au déploiement de la plateforme Cloud • Garantir la stabilité, la sécurité et la performance de l’environnement SaaS • Automatiser l’infrastructure et les processus de livraison • Intégrer et maintenir des services cloud à forte valeur ajoutée (authentification, billing, logs…) • Collaborer étroitement avec les équipes R&D, QA et Customer Success • Améliorer en continu les mécanismes de build et de déploiement • Contribuer à la scalabilité d’un service vidéo à forte volumétrie

Offre d'emploi
Data Engineer AWS/Databricks
Missions principales : Conception d’outils Big Data : Contribution active à la conception, au développement et à l’amélioration d’outils de traitement de données massives, couvrant l’ensemble du cycle de vie des données : ingestion, traitement, analyse et restitution. Définition des besoins techniques : Collaboration étroite avec les utilisateurs de la plateforme Data pour comprendre les besoins métier et garantir un alignement optimal entre les solutions développées et les attentes fonctionnelles. Développement sur Databricks et AWS : Réalisation de développements avancés sur les plateformes Databricks et AWS, en utilisant notamment les technologies suivantes : Python, SQL, Spark et Airflow. Intégration des pratiques FinOps : Mise en œuvre de bonnes pratiques FinOps dans le développement afin d’optimiser les coûts, les performances et l’utilisation des ressources sur AWS. Utilisation d’outils tels que dbt , GitLab CI/CD , et autres solutions DevOps. Audit et accompagnement transverse : Réalisation d’audits techniques et de revues de code au sein des équipes, avec pour objectif de renforcer la maîtrise des enjeux techniques et de favoriser l’adoption de stratégies FinOps efficaces. Technologies et outils utilisés : Cloud & Big Data : AWS (S3, EC2, Lambda, Glue), Databricks, Spark Langages & Frameworks : Python, SQL, PySpark Orchestration & Automatisation : Airflow, GitLab CI/CD, dbt Suivi des coûts et performance : Outils FinOps intégrés à AWS Méthodologies de travail : Agile / Scrum, DevOps, FinOps

Mission freelance
MANAGER CLOUD OPERATIONS AWS H/F
Objectifs : Piloter les opérations Cloud (IaaS, CaaS, PaaS), organiser la gouvernance ,structurer les services managés, accompagner les sociétés dans l’adhérence Expertises techniques attendues : -AWS (EC2, EKS, RDS, IAM, SSM, Backup) -Environnements hybrides -ITIL (incident, changement, run) -Supervision & gouvernance (Grafana, ServiceNow, CMDB) -Capacité de coordination multi-sociétés Livrables : -RACI consolidé (IaaS, CaaS, PaaS) -Catalogue de services opérés - Runbooks (incidents, patchs, PRA) -Tableaux de bord de gouvernance -PV des comités + plans d’action -Plan d’industrialisation des services -Postmortems

Mission freelance
Consultant Ops AWS, 100% sur site Montreuil
Mission de consultant IT Ops sur AWS, 100% sur site les deux premiers mois. La mission est localisée à Montreuil. Démarrage prévu le 25 Aout, entretiens à réaliser la semaine du 28 Juillet. Compétences recherchées : Maitrise des fondamentaux AWS (EC2/S3/ALB/Transit Gateway/…) Maitrise de l’infratructure as code (terraform) Connaissance de docker et kubernetes Connaissance des solutions devops git / gitlab Ne proposez votre candidature que si vous êtes OK pour le 100% sur site pendant 2 mois de mission, sur Montreuil, merci .

Offre d'emploi
Data engineer BI
Contexte de la mission Dans le cadre d’un projet stratégique de reporting opérationnel , nous recherchons un·e Data Engineer expérimenté·e , orienté·e modélisation BI et performance , pour intervenir de bout en bout : structuration des données, création de modèles, alimentation du Lakehouse, et support à la datavisualisation métier (Tableau). Objectif : construire des tableaux de bord à forte valeur ajoutée tout en optimisant la qualité, les temps de réponse et les coûts liés à la plateforme. Missions principales Modélisation de données BI : modèle en étoile, flocon, Data Vault (si applicable) Manipulation avancée de données avec SQL Création de pipelines Databricks (Delta Lake, Notebooks, optimisation via Z-Order, caching, partitionnement…) Collaboration sur des notebooks pour analyses avancées Optimisation des performances sur environnement Lakehouse Intégration de Databricks avec des environnements cloud (Azure ou AWS) Participation à la conception des dashboards dans Tableau (Salesforce) Contribution active à la qualité de la donnée, documentation et bonnes pratiques

Mission freelance
Chef de projet technique H/F
Responsable des environnements et socles techniques H/F (freelance). Localisation : Niort (79). Profil : > 5 ans TJ : 450€ à 500€. Date de démarrage : ASAP. L’ IT chez ARTEMYS AGIL-IT combine la technologie et l’humain ! Nous sommes convaincus que les compétences, le savoir-être et l’épanouissement de nos Talents sont les clés de notre réussite . Avant tout, nous recherchons chez ARTEMYS AGIL-IT des personnalITés passionnées. Alors, vous nous rejoignez ?! Les missions : · Maintenir et optimiser les environnements de développement, recette, homologation et formation afin de garantir la qualité des livraisons et la fiabilité des mises en production. · Assurer le suivi de l’exploitation et veiller à la performance et à la conformité des environnements. · Piloter la feuille de route des sujets techniques suivants en appui avec les membres de l’équipe : - Mise en œuvre du DevOps - Forge logicielle - Bonnes pratiques de développements - Outillage pour les développeurs (puits de logs, qualité du code …) Responsabilités clés : è Mise en place des environnements et être force de proposition sur la rationalisation · Définir les besoins techniques pour chaque environnement (développement, recette, homologation et formation) · Piloter les installations, configurations et veiller à documenter les environnements · Veiller à l’automatisation des déploiements et les configurations (CI/CD, scripts, outils DevOps) è Qualité et préparation des versions · Participer aux comités de version et aux jalons projet · Garantir la cohérence entre les environnements et la production · Valider les livrables techniques avant mise en production · Mettre en œuvre des tests d’intégration et de non-régression è Suivi de l’exploitation · Surveiller les performances et la disponibilité des environnements · Assurer le maintien en conditions opérationnelles (MCO) · Gérer les incidents et les demandes d’évolution · Mettre à jour les environnements en fonction des évolutions applicatives è Coordination et communication · Travailler en étroite collaboration avec les équipes de développement, test, infrastructure et sécurité · Rédiger les procédures et les guides d’exploitation · Participer aux audits et aux contrôles qualité · Suivre et piloter les travaux d’une équipe pluridisciplinaire
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.