L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 126 résultats.
Mission freelance
Tech Lead H/F
Publiée le
AWS Cloud
Azure DevOps
Azure Kubernetes Service (AKS)
2 ans
550-600 €
Paris, France
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Tech Lead H/F à Paris, France. Contexte : Au sein de l’équipe technique, la mission consiste à coordonner les actions techniques entre les phases de BUILD (conception et déploiement) et de RUN (exploitation et maintenance) afin d’assurer la fluidité des opérations et la qualité des livrables. Description détaillée des tâches qui constituent la mission Vous serez en responsabilité sur le domaine technique de certaines des applications citées ci-dessus. La mission se divise en deux grands aspects : • Phase BUILD : o Initier, piloter et relancer les sujets techniques de construction d’application (MAJ DAT, création d’environnements, ouverture de flux, création de DNS/certificats, …) o Assurer la communication entre les équipes (TMA, TRA, Exploitants, Métiers, Architectes techniques, …) o Garantir la conformité des livrables aux exigences techniques o Préparer, piloter et réaliser les déploiements applicatifs des releases techniques et/ou fonctionnelles sur les environnements o Gestion de l’obsolescence des composants techniques utilisés par les applications • Phase RUN o Coordonner et maintenir techniquement les applications : gestion d’incident, exploitation courante, fiabilisation, mise à jour des versions et proposition d’actions préventives o Coordonner et gérer techniquement les différents environnements (Recette, intégration, préprod, prod) o Suivre et optimiser les performances des systèmes en production. o Documenter les processus et les bonnes pratiques pour garantir la continuité des services. o Industrialiser l’exploitation applicative La mission nécessite les compétences suivantes : • Comportementales : o Excellentes capacités de communication et de coordination o Rigueur et sens de l’organisation o Capacité à travailler en transverse avec différentes équipes o Esprit d’analyse et de résolution de problèmes/incidents o Gestion des priorités • Techniques : o Maîtrise des architectures techniques et des systèmes d’information o Expérience en intégration continue et en gestion des déploiements o Maîtrise des outils de monitoring et de supervision o Connaissance des environnements Cloud, DevOps et des méthodologies Agile
Mission freelance
Tech Lead Kubernetes
Publiée le
AWS Cloud
Kubernetes
12 mois
400-550 €
Malakoff, Île-de-France
Télétravail partiel
Tech Lead Kubernetes expérimenté dans l’administration de clusters Kubernetes et l’intégration de Tanzu Kubernetes Grid (TKG) au sein de VMware Cloud Foundation (VCF), afin d’accompagner la gestion et l’évolution des infrastructures critiques du groupe. Périmètre On-Premises Le Tech Lead interviendra sur la plateforme Kubernetes interne, supportant les applications digitales et les composants d’intermédiation essentiels (API Management). Ses missions principales seront de : - Assurer l’administration, la maintenance et l’évolution des clusters Tanzu Kubernetes Grid (TKG). - Apporter une expertise avancée sur les problématiques Kubernetes (performance, résilience, sécurité). - Préparer et piloter la migration vers TKG 2.x intégré à VCF 9. - Accompagner la montée en compétences des équipes internes sur l’exploitation de TKG. - Contribuer à l’intégration et à la fiabilisation des pipelines CI/CD, dans une approche Infrastructure as Code (IaC) et GitOps. Périmètre AWS Sur la partie AWS, le Tech Lead sera responsable de l’administration et de l’optimisation des clusters Amazon EKS utilisés pour les applications data du groupe. Les missions incluent : - Administrer et faire évoluer les clusters EKS. - Accompagner la reprise des clusters actuellement gérés par les équipes Data Cloud. - Fournir un support expert sur les incidents, la performance et la sécurité Kubernetes. Description Assurer la disponibilité des socles techniques Cloud Internes et Publiques, de Virtualisation et leur maintien en condition opérationnelle. - Administration et maintenance des plateformes Kubernetes (On-Prem & AWS) - Administrer, maintenir et faire évoluer les environnements TKG et EKS. - Garantir la résilience, la sécurité et la disponibilité des plateformes. - Fournir un support expert sur les incidents et la performance. - Documenter et mettre à jour les procédures de reprise après incident et d’exploitation TKG. Répondre aux demandes de nouveaux environnements techniques - Participer à la définition du socle commun d’hébergement des applications et composants critiques. - Fiabiliser les pipelines CI/CD dans une approche IaC et GitOps. - Organiser et piloter la transition des clusters EKS sous gestion Data Cloud. - Définir et maintenir les rôles RBAC et la gestion des droits utilisateurs. - Intégrer et optimiser les outils CI/CD (Jenkins, ArgoCD, etc.). - Automatiser le déploiement bout-en-bout des environnements Kubernetes. Développer et promouvoir les usages Cloud au sein du groupe et en assurer le support. - Contribuer à la migration vers TKG 2.x / VCF 9. - Accompagner les équipes d’exploitation et de développement dans la montée en compétences sur Kubernetes et GitOps. - Assurer la continuité de service et le transfert de connaissances. - Améliorer et formaliser les procédures opérationnelles d’exploitation et optimisation - Renforcer la culture GitOps et DevSecOps au sein des équipes. - Support à la conception et automatisation Livrables Documentation technique complète, en français, mise à jour régulièrement. Référentiel documentaire structuré et à jour. Contributions aux schémas d’architecture des infrastructures Kubernetes et cloud. Modules IaC et pipelines CI/CD déployables.
Offre d'emploi
Ingénieur DevOps
Publiée le
API REST
AWS Cloud
Github
12 mois
40k-55k €
400-500 €
Lille, Hauts-de-France
Télétravail partiel
Au sein d’une Business Unit dédiée à la Data, vous interviendrez sur une plateforme cloud stratégique, utilisée par l’ensemble des profils data : data engineers, data scientists, data analysts et équipes de développement. Votre rôle sera de contribuer à l’évolution, la résilience et la sécurité de l’infrastructure data, tout en apportant un support technique avancé. Votre rôle Vous serez impliqué·e dans trois périmètres principaux : 1. Évolution et exploitation d’une offre de compute Kubernetes (AWS EKS) Faire évoluer le produit selon l’état de l’art et automatiser les fonctionnalités existantes et futures. Analyser, challenger et formaliser les besoins utilisateurs. Automatiser la mise à disposition de ressources et d'accès en self-service. Assurer le maintien en condition opérationnelle (MCO) et le support N3. Suivre les évolutions de Kubernetes et de l’écosystème CNCF. Garantir la sécurité et la conformité des clusters. Améliorer en continu les mécanismes d’observabilité (logs, métriques, alerting). Veiller à la fiabilité, l’évolutivité et la maintenabilité du produit. 2. APIsation de la plateforme Identifier les besoins Ops et les traduire en solutions techniques basées sur des API. Concevoir, développer et maintenir des API robustes et évolutives. Garantir la maintenabilité, la performance et l'interopérabilité entre les services. 3. Animation technique & bonnes pratiques DevOps Mettre en place une automatisation complète de la chaîne de delivery. Garantir la qualité des livrables et standardiser les processus. Automatiser les tâches répétitives ou sources d’erreur. Sensibiliser et accompagner l’équipe sur les bonnes pratiques DevOps. Ce qui fera votre succès Mindset & Soft Skills Proactivité et ownership : être moteur sur l’amélioration continue et l’évolution des produits. Culture de l’automatisation : chercher systématiquement à simplifier et industrialiser. Communication technique pédagogique : capacité à vulgariser, challenger et guider. Exigence sur la sécurité et l’observabilité , intégrées nativement dans les conceptions. Veille technologique active , notamment sur Kubernetes, CNCF et AWS.
Mission freelance
Architecte SI - Data / Cloud (H/F)
Publiée le
SI
6 mois
800-900 €
Toulouse, Occitanie
Télétravail partiel
Notre client, acteur majeur du secteur aéronautique, crée un nouveau poste d’Architecte SI Data & Cloud (H/F) dans le cadre du renforcement de sa stratégie de modernisation autour de la donnée, du cloud et des architectures distribuées. Ce poste s’inscrit dans un contexte de structuration : les équipes et les pratiques d’architecture ne sont aujourd’hui pas encore clairement identifiées, et le futur Architecte aura un rôle clé dans leur définition, leur alignement et leur montée en maturité, en particulier sur les sujets data, cloud et microservices. Vos missions Rattaché à la Direction IT et en lien direct avec les équipes techniques et métiers, vous serez en charge de : • Structurer et coordonner les architectures Data & Cloud existantes tout en harmonisant les pratiques, • Définir le cadre et les processus d’architecture en collaboration avec les parties prenantes, avec un focus sur les environnements cloud et les approches microservices, • Mettre en place une gouvernance efficace et contribuer à l’application de la politique IT et Data, • Accompagner la montée en compétence et la structuration des équipes sur les technologies data, cloud et conteneurisation, • Contribuer à la stratégie de gouvernance des données, à la définition des architectures distribuées et à la cohérence globale du SI. Compétences techniques requises • Expérience confirmée en architecture Data, Cloud et microservices (technique et fonctionnelle), • Bonne compréhension des besoins métiers et capacité à définir des spécifications adaptées aux usages data, • Connaissances en data gouvernance, data management et conception d’architectures distribuées, • Maîtrise des environnements Cloud (Azure, AWS ou GCP) et des solutions de conteneurisation (Kubernetes, Docker), • Anglais professionnel apprécié.
Mission freelance
Ingénieur MLOps Data & IA
Publiée le
Amazon S3
Apache Airflow
Apache Spark
12 mois
500-550 €
Île-de-France, France
Télétravail partiel
Contexte Le profil interviendra sur l’ensemble du cycle de vie des solutions d’Intelligence Artificielle (IA), incluant : Industrialisation et CI/CD : Mise en place et maintenance de pipelines CI/CD (GitLab, Docker, Terraform, Kubernetes). Infrastructure et automatisation : Gestion et optimisation des environnements AWS (S3, EMR, SageMaker, IAM…). Data Engineering & Spark : Développement et optimisation de jobs Spark pour la préparation et le traitement de données à grande échelle. MLOps / Production : Déploiement, suivi et supervision des modèles IA (MLflow, , monitoring Datadog). Collaboration transverse : Interaction quotidienne avec les Data Scientists pour fiabiliser le delivery et le suivi des modèles. Veille et amélioration continue : Participation active à l’optimisation des pipelines et à la montée en maturité technique de l’équipe. Description de la mission Le profil sera en charge de : Maintenir et faire évoluer les pipelines d’industrialisation (CI/CD, Terraform, Docker, Kubernetes). Participer à la mise en production et au suivi des modèles IA (Airflow, Datadog, , MLflow). Garantir la fiabilité des traitements Spark et la conformité des environnements AWS. Contribuer au suivi de la production et aux mises en production (MCO). Participer à l’amélioration continue des outils et pratiques Data/IA. Documenter les bonnes pratiques techniques et partager les retours d’expérience au sein de l’équipe AI Experts. Compétences techniques attendues Obligatoires (Must Have) : CI/CD (GitLab) Docker Terraform Kubernetes Spark Python AWS (S3, EMR, SageMaker, IAM…) Souhaitables (Nice to Have) : MLflow Airflow API / FastAPI Datadog Suivi de production / MEP Autres compétences : Expérience de collaboration avec des Data Scientists Veille technologique et amélioration continue Soft Skills recherchés Esprit d’équipe et forte culture du delivery Rigueur technique, curiosité et autonomie Capacité à collaborer efficacement dans un environnement pluridisciplinaire (DE, DS, OPS, PO, DEV, staff) Sens du partage et de la documentation Livrables et responsabilités principales Maintenir et faire évoluer les pipelines CI/CD et d’industrialisation Participer aux mises en production et au suivi des modèles IA Garantir la fiabilité des traitements Spark et la conformité AWS Contribuer à l’optimisation continue des outils et pratiques Documenter et partager les bonnes pratiques techniques
Offre d'emploi
Architecte SI - Data / Cloud (H/F)
Publiée le
Cloud
80k-110k €
Toulouse, Occitanie
Télétravail partiel
Notre client, acteur majeur du secteur aéronautique, crée un nouveau poste d’Architecte SI Data & Cloud (H/F) dans le cadre du renforcement de sa stratégie de modernisation autour de la donnée, du cloud et des architectures distribuées. Ce poste s’inscrit dans un contexte de structuration : les équipes et les pratiques d’architecture ne sont aujourd’hui pas encore clairement identifiées, et le futur Architecte aura un rôle clé dans leur définition, leur alignement et leur montée en maturité, en particulier sur les sujets data, cloud et microservices. Vos missions Rattaché à la Direction IT et en lien direct avec les équipes techniques et métiers, vous serez en charge de : • Structurer et coordonner les architectures Data & Cloud existantes tout en harmonisant les pratiques, • Définir le cadre et les processus d’architecture en collaboration avec les parties prenantes, avec un focus sur les environnements cloud et les approches microservices, • Mettre en place une gouvernance efficace et contribuer à l’application de la politique IT et Data, • Accompagner la montée en compétence et la structuration des équipes sur les technologies data, cloud et conteneurisation, • Contribuer à la stratégie de gouvernance des données, à la définition des architectures distribuées et à la cohérence globale du SI. Compétences techniques requises • Expérience confirmée en architecture Data, Cloud et microservices (technique et fonctionnelle), • Bonne compréhension des besoins métiers et capacité à définir des spécifications adaptées aux usages data, • Connaissances en data gouvernance, data management et conception d’architectures distribuées, • Maîtrise des environnements Cloud (Azure, AWS ou GCP) et des solutions de conteneurisation (Kubernetes, Docker), • Anglais professionnel apprécié.
Mission freelance
Tech Lead Senior - H/F - 93
Publiée le
Agile Scrum
Amazon S3
Ansible
12 mois
Saint-Denis, Île-de-France
Dans le cadre du projet de refonte et d’évolution d’une application métier dans le domaine ferroviaire / industriel, nous recherchons un Tech Lead pour piloter l’équipe technique et garantir la qualité des solutions développées. Ce rôle clé allie expertise technique, leadership et collaboration transverse avec les chefs de projet et les équipes métiers. Le projet repose sur une stack technique moderne (Python, FastAPI, PostgreSQL/PostGIS, AWS, Kubernetes) et s’inscrit dans une démarche Agile/Scrum. Le Tech Lead sera responsable de l’architecture, de la performance des services back-end, et de l’amélioration continue des processus de développement. Leadership technique & Architecture Concevoir et valider l’architecture technique des solutions (back-end, BDD, ETLs). Superviser les revues de code (Python) et garantir le respect des bonnes pratiques. Optimiser les performances des services back-end (FastAPI, SQLAlchemy). Piloter les déploiements sur les environnements (dev, recette, prod) via Jenkins, AWS (S3/RDS), Ansible, Kubernetes. Automatiser les tests et les pipelines CI/CD. Encadrement & Collaboration Mentorer les développeurs et développeuses pour favoriser leur montée en compétences. Participer aux cérémonies Agile (sprints, rétrospectives) et contribuer à l’amélioration des processus. Travailler en étroite collaboration avec les chefs de projet pour aligner les roadmaps techniques et fonctionnelles. Assurer une veille technologique et proposer des innovations (outils, frameworks, bonnes pratiques). Gestion des infrastructures & Qualité Administrer les outils DevOps (Jenkins, AWS, Helm, Datadog). Documenter le code et les processus techniques. * Garantir la stabilité et la scalabilité des applications en production.
Offre d'emploi
Developpeur fullstack basé à Lille
Publiée le
AWS Cloud
Kubernetes
Node.js
2 ans
40k-55k €
100-500 €
Lille, Hauts-de-France
Bonjour, Dans le cadre de ses projets clients, Visian est à la recherche d'un Developpeur Fullstack Node/React basé à Lille Le consultant intégrera une entité dédiée à la conception, l’évolution et l’industrialisation des produits techniques à destination des équipes de développement et DevOps. Il interviendra en lien étroit avec les équipes techniques transverses et les équipes produit, dans un environnement agile et collaboratif. Description Participer à la définition et à la mise en œuvre des solutions techniques de la plateforme. Contribuer à la conception, au développement et à l’intégration des composants techniques. Développer des interfaces et des services backend pour les produits de la plateforme. Accompagner les équipes DevOps et développement via des ateliers techniques et des sessions de partage. Documenter les solutions mises en place et assurer leur maintenabilité.
Offre d'emploi
Staff Engineer IA / IA Générative
Publiée le
AWS Cloud
Docker
Git
6 mois
40k-45k €
400-550 €
Île-de-France, France
Télétravail partiel
Contexte : Dans le cadre de l’accélération de sa stratégie autour de l’Intelligence Artificielle et de l’IA Générative, un groupe industriel international de premier plan recherche un(e) Staff Engineer pour renforcer son équipe AI Activation . Vous interviendrez en tant que référent technique transverse sur plusieurs projets IA stratégiques (Data, Machine Learning, LLM, RAG…), avec un double enjeu : accompagner les projets de bout en bout (de la conception à la mise en production), et contribuer à la définition d’un cadre technique commun garantissant cohérence, sécurité, performance et scalabilité des solutions IA du groupe. Vous serez le garant des bonnes pratiques d’ingénierie et de la qualité globale de l’écosystème technique IA. Objectifs et Livrables : Accompagner et encadrer techniquement plusieurs projets IA / GenAI (design, implémentation, mise en production). Définir, formaliser et promouvoir les bonnes pratiques techniques : MLOps, LLMOps, DevSecOps, architectures cloud. Concevoir des architectures de référence pour les solutions IA, robustes, sécurisées, scalables et maintenables. Industrialiser les usages IA : mise en place de pipelines, intégration dans les chaînes CI/CD, automatisation et monitoring des workloads. Assurer la cohérence technique entre les différents projets IA / GenAI portés par le groupe. Contribuer à la construction et à l’évolution du socle commun “AI Platform” sur lequel s’appuient les équipes projet. Encadrer, coacher et faire monter en compétence les ingénieurs data, ML et software (revues de code, pair design, partage de bonnes pratiques). Assurer une veille technologique active sur les briques IA / GenAI (LLM, RAG, orchestrateurs, vector DB, frameworks, etc.) et proposer leur intégration quand pertinent.
Offre d'emploi
Ingénieur DevOps GCP/MLOps
Publiée le
AWS Cloud
Google Cloud Platform (GCP)
MLOps
1 an
48k-50k €
480-510 €
Île-de-France, France
Télétravail partiel
Dans le cadre de projets stratégiques orientés Data & Intelligence Artificielle, nous recherchons un Ingénieur DevOps GCP/MLOps intervenant sur l’ensemble du cycle de vie des solutions : design, build et run . Vous intégrerez une équipe dédiée au périmètre DATA, en collaboration étroite avec les squads métiers. ✅ Vos missions Conception, gestion et automatisation d’infrastructures Cloud sur GCP Mise en place et optimisation de chaînes MLOps : collecte et préparation de la donnée, feature engineering, entraînement, déploiement, monitoring et amélioration des modèles Industrialisation des pipelines CI/CD et automatisation des déploiements Maintien en condition opérationnelle des plateformes et applications Gestion du cycle de vie applicatif Analyse et résolution d’incidents d’infrastructure Rédaction des procédures et documentation technique ✅ Profil recherché Expérience confirmée en tant qu’Ingénieur DevOps ou MLOps sur GCP (obligatoire) Maîtrise de Terraform (y compris en environnement restreint / air-gapped idéalement) Solides compétences en scripting, automatisation et normalisation Connaissance des pratiques CI/CD, observabilité et monitoring Capacité à intervenir en production (MCO / MEP) ✅ Environnements techniques Cloud : GCP (AWS apprécié) MLOps / IA : Kubeflow, TensorFlow, PyTorch, notebooks, Python Containerisation & orchestration : Kubernetes, Docker, ArgoCD, EKS (atout) CI/CD : Jenkins, Helm, Artifactory, Container Registry IaC : Terraform Monitoring & logs : ELK, OpenSearch, Grafana, Cloud Monitoring / Logging ✅ Soft Skills Rigueur, autonomie et sens du service Aisance relationnelle et travail en équipe Réactivité, partage et communication Gestion du stress et capacité de conseil
Offre d'emploi
Ingénier Devops basé à Lille
Publiée le
AWS Cloud
Datadog
FLUXCD
2 ans
40k-61k €
100-500 €
Lille, Hauts-de-France
Télétravail partiel
Bonjour, Dans le cadre de ses projets clients, Visian est à la recherche d'un Ingénieur Devops basé à Lille. Objectif : L'objectif de la mission sera : - d'assurer l'exploitation des applications - de répondre aux demandes d'installation des livrables fournit par notre CDS - d'aider au diagnostic lors d'incidents ou de debug - En parallèle, il participera et travaillera en partenariat avec le PO technique sur le rebuild/refactoring afin de répondre à des enjeux de scalabilité et d'optimisation des coûts de l'architecture. - d'assurer les astreintes PIV & SIDH (1 semaine par mois) La mission nécessite un réel investissement tant le projet est vaste et pluriel dans sa partie technique. Il y a beaucoup à apprendre et on sort souvent de sa zone de confort pour répondre efficacement aux exigences des clients. Livrables • Garant de la bonne application des processus de production en transverse : évolutions et créations des stacks techniques • Garant de la cohérence de bout en bout des différents environnements • Organisation et pilotage de la gestion des événements impactant la production • Porte une vision auprès du domaine sur le RUN et facilite la priorisation de sujets d'amélioration • Accompagnement des équipes sur le delivery/recette, analyse des anomalies et facilitateur sur la communication inter-domaine au sein du domaine • Pilotage les incidents majeurs • Accompagne la réalisation de ces sujets ou les porte opérationnellement en fonction des besoins Activités détaillées : - Contribuer au développement, à l'évolution et à la maintenance des outils d'industrialisation - Assurer le déploiement en environnement de préproduction et production des livrables fournit par notre CDS - Assurer le run de l'application en production (suivi de la QoS, monitoring, supervision, Incidentologies, debug et analyses) - Accompagner notre CDS dans leur intégration de livrable sous AWS - Accompagner les équipes support clients dans l'analyse et la résolution des incidents - En véritable devops, augmenter l’autonomie de l’équipe sur la partie exploitation en automatisant au maximum les processus - Dans un contexte agile, être dans un esprit d’amélioration continue. - Vous concevez et développez les outils DEVOPS adaptés au produit à délivrer en respectant les choix et les bonnes pratiques de l’entreprise. - Vous êtes référent sur l’infrastructure, les plateformes applicatives, l’usine logicielle et l’industrialisation des déploiements - Vous accompagnez l’équipe sur l’adoption des bonnes pratiques et nos outils DEVOPS
Mission freelance
229375/Ingénieur CloudOps / SysOps AWS ou AZURE
Publiée le
AWS Cloud
Azure DevOps
6 mois
Paris, France
Ingénieur CloudOps / SysOps AWS ou AZURE, Devops, Kubernetes, Linux. Responsabilités : • Intégration : Concevoir, mettre en œuvre et faire évoluer les infrastructures Cloud et les services Cloud dans un souci constant d'industrialisation, d'efficacité et de coûts (FinOps) • Définir, concevoir, documenter les solutions d'industrialisation en lien avec les équipes R&D du groupe (devOps) et les autres équipes Cloud. • Assurer le transfert de compétences auprès de l’équipe N1 pour une prise en charge au bon niveau des alertes et incidents impactant nos services et les parcours clients. • Prendre en charge des incidents escaladés par les pilotes (Niveau 1 Cegid), le customer care ou les équipes R&D du groupe pendant les phases de transition double RUN • Piloter et correspondre avec les fournisseurs SaaS, logiciels et matériels de la plateforme Cloud • Assurer le respect des processus ITIL (Change, Incident, Problem) • Assurer la mise en œuvre, le respect et l'application des processus sécurité (ISO 27001) • Participer à des groupes de travail transversaux • Définir et rédiger la documentation technique propre au périmètre • Assurer une veille technologique et obtenir les certifications requises au maintien de son expertise Background & skills Experience • Expérience en tant qu’ingénieur Cloud Operation ou infrastructure (minimum 7 ans) dans des environnements IaaS/PaaS de production exigeants (niveau de service et disponibilité) et large volumes • Expérience dans la gestion d’environnement AWS, automatisation et intégration continue • Contribution à des projets de migration cloud applicative et infrastructure (lift & shift, replatform, re build) • Expérience en gestion d’infrastructures IT (Admin System, database) avec une forte orientation en environnements de production clients avec des enjeux de disponibilités très élevés. • Expérience de la gestion des incidents et des crises • Capacité à travailler dans un environnement agile, à gérer et ajuster les priorités de l’équipe Cloud Education • Bac+5 ou supèrieur. Diplôme en informatique, ingénierie ou domaine équivalent. Required Skills • Esprit analytique, rigueur et sens de l’anticipation • Autonomie, proactivité et capacité à prendre des décisions • Appétence pour l’excellence opérationnelle • Organisation, priorisation, pragmatisme • Partage de connaissance • Communication technique avec les autres équipes, leurs managers ou dans toute instance nécessitant la présentation de projets et de leurs objectifs • Passionné avec l’envie d’apprendre et de transmettre, qui sait créer les conditions d’un échange constructif – individuel et collectif • Intègre, transparent • Anglais courant Desirable Skills Mandatory • Certification avancée sur AWS • Compute / virtualisation : Windows et/ou Linux, scripting Powershell ou python, VMWare • DB : SQL Server, Cosmos DB, Oracle, Mysql • Outils de monitoring type APM (Ex : Dynatrace, Splunk) • Terraform, Ansible, GitHub, Azure DevOps Expected skills Microsoft Azure Confirmed DEVOPS Confirmed KUBERNETES Confirmed LINUX Confirmed AWS Confirmed
Offre d'emploi
Architecte Technique Applicatif
Publiée le
Application web
Architecture
AWS Cloud
2 ans
40k-83k €
400-720 €
Villejuif, Île-de-France
Télétravail partiel
Bonjour, Dans le cadre de ses projets clients, Visian est à la recherche d'un architecte technique : Les qualités requises sur cette mission sont de plusieurs ordres : - Technico-applicatif : • Les principes d’architecture Cloud native • Les solutions de containerisation (Docker, Kubernetes), et cloud public tel que AWS, GCP et à moindre mesure Azure • Les patterns applicatifs tels que DDD, Architecture Hexagonale, Clean architecture, CQRS, MVC2… • Le modèle d’architecture API/REST, les solutions d’API Manager (WSO2, Kong) et les protocoles de gestion d’identité et accès OpenIdC/OAuth2 • Les pratiques et solutions DevOps et GitOps (Git, GitLab, Operateur Kube…) • Les architectures évènementielles et les solutions technologiques associées (Kafka, Change Data Capture, MQSeries…) • Les Frameworks Web et back-end JavaScript & CSS, Angular, React, Bootstrap, NodeJS, Springboot • Les bases de données SQL (PostgreSQL, mySQL…) et noSQL (MongoDB, Redis…), • La plate-forme Java JEE et son écosystème • Les systèmes d’exploitation et serveur d’application Windows, Linux, Tomcat, Websphere. • Connaissances du Mainframe IBM serait un plus Experience dans le développement des applications bancaires
Mission freelance
Architecte Technique Multi-Cloud
Publiée le
AWS Cloud
Azure
Google Cloud Platform (GCP)
6 mois
800-1k €
Paris, France
Télétravail partiel
Orcan Intelligence recherche pour l’un de ses clients un architecte technique multi-cloud dans le cadre d’un projet de transformation Cloud Hybride ambitieuse. Vos missions : En tant qu'Architecte technique, votre mission principale sera de garantir la cohérence, la sécurité et l'opérabilité des solutions d'hébergement. Concevoir et valider les architectures cibles pour les applications internes et externes, en s'appuyant sur un modèle hybride/multi-cloud. Définir et faire évoluer les patterns d'hybridation entre le Cloud Privé (utilisant OpenShift comme plateforme de conteneurisation et d'orchestration Kubernetes) et les Clouds Publics (principalement Google Cloud, Microsoft Azure, et AWS). Assurer la standardisation et la bonne intégration des services PaaS/IaaS des différents fournisseurs. Participer activement à la définition et à l'implémentation de la Platform Engineering pour faciliter le déploiement et l'exploitation par les équipes de développement (culture DevOps/GitOps). Mettre en place et optimiser les outils et processus de CI/CD, de gestion de l'hébergement et de l'observabilité.
Offre d'emploi
Architecte Technique Data Expert Technique - Architecture Data & Cloud (H/F)
Publiée le
Gitlab
18 mois
40k-45k €
110-600 €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
CONTEXTE Experience : 5 ans et plus Métiers Fonctions : Architecture technique, Sécurité, Méthode, Expert technique Spécialités technologiques : Cloud, Infrastructure & Cloud, Devops, Gouvernance des données, IAM Compétences Technologies et Outils AWS CI/CD Spark Terraform Python Docker Kinesis Amazon Kubernetes Gitlab Description et livrables de la prestation Le poste d'Architecte Technique Data Expert Technique, également de niveau Expérimenté ou Sénior, a pour mission d'assurer la validité technique et l'alignement des architectures Data avec les standards définis dans le cadre du Programme Vision 2035. En tant que référent technique, vous interviendrez en amont au sein des équipes CAPVISION (méthodologies Capvision, Découverte, Zoom) pour définir les architectures cibles et garantir leur cohérence au sein de l'écosystème SI existant. Vos responsabilités englobent la définition des architectures Cloud (performance, résilience), la mise en œuvre de la gouvernance des données (Dataviz, Datamesh), et la sécurisation des données. Compétences et Technologies (Focus Technique) : Ce rôle requiert une expertise en architecture Data et Cloud (Niveau 4). La maîtrise des outils de gouvernance de la donnée tels que Dataviz et Datamesh est primordiale (Niveau 4). Une expertise est demandée sur la gestion de la sécurité du SI, notamment la gestion des accès (IAM) et les mécanismes de protection des données (Niveau 4). De solides connaissances en intégration et déploiement continus (CI/CD) sont requises (Niveau 4). Techniquement, vous utiliserez Python et Spark. Les services Cloud spécifiques comprennent AWS IAM, Amazon Kinesis, AWS Lake Formation, AWS S3, ainsi que les outils d'industrialisation AWS, Gitlab CI, Docker, Kubernetes et Terraform. Expertise souhaitée Architecte Technique Data Expert Technique
Offre d'emploi
Ingénieur DevOps AWS (H/F)
Publiée le
Azure DevOps
CI/CD
Databricks
1 an
Île-de-France, France
Télétravail partiel
Contexte : Dans le cadre du renforcement des équipes techniques d’un acteur majeur du secteur de l’énergie, nous recherchons un Ingénieur DevOps expérimenté maîtrisant l’écosystème AWS et les outils modernes de CI/CD et de supervision. Environnement technique : Cloud : AWS (certification AWS appréciée) Supervision : Datadog Data platform : Databricks CI/CD : GitLab CI/CD Containerisation & orchestration : Docker, Kubernetes, EKS Traitement de données : Spark Missions : Gérer, maintenir et faire évoluer les environnements AWS (infrastructure as code, sécurité, monitoring). Automatiser les pipelines CI/CD sous GitLab . Mettre en place et maintenir les clusters Kubernetes / EKS . Superviser la production avec Datadog et optimiser les performances. Collaborer avec les équipes Data sur les environnements Databricks / Spark . Participer à la mise en œuvre des bonnes pratiques DevOps (automatisation, observabilité, déploiement continu).
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Passage sasu à eurl: transition mutuelle/prévoyance
- Comment j'ai décroché une mission en bypassant l'ESN - et l'outil que j'ai créé
- Le marché de l'IT est complètement déréglé ! STOP à cette mascarade ! Il faut s'unir et résister !
- Facturation électronique 01 : Rappel du calendrier !
- Résultat négatif veut dire CCA débiteur donc illégal ?
- Création de site Wordpress : BIC ou BNC ?
126 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois