L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 137 résultats.
Mission freelance
Architecte reseau système cloud
Publiée le
Ansible
AWS Cloud
Azure
1 an
580-630 €
Malakoff, Île-de-France
Télétravail partiel
Un architecte hybride est un professionnel qui combine des compétences de plusieurs domaines pour concevoir et gérer des systèmes intégrés. Cela peut inclure des compétences en architecture cloud, réseau, et systèmes traditionnels sur site. L'architecte hybride développe des solutions qui tirent parti des avantages des environnements multi-cloud et sur site, optimisant la flexibilité, l'évolutivité, et la sécurité. Il joue un rôle clé dans la transition vers des infrastructures modernes, assurant une intégration fluide entre les différents environnements technologiques de l'entreprise. • Conception d’architectures multi-cloud ou hybrides • Intégration des environnements on-premise avec Azure/AWS/GCP • Automatisation des déploiements (IaC) • Gestion des flux, identités, sécurité • Virtualisation (VMware, Hyper-V), Kubernetes, Terraform • Cloud : Azure, AWS, GCP • Réseaux hybrides, SSO, sécurité cloud Enjeux : Flexibilité, sécurité, coûts maîtrisés Azure Arc, AWS Outposts, Ansible
Mission freelance
Techlead DevOps AWS
Publiée le
AWS Cloud
36 mois
400-580 €
Île-de-France, France
Télétravail partiel
La mission dans les grandes lignes consiste à : Automatiser et orchestrer la livraison Cloud pour accélérer les déploiements. Simplifier les processus et assurer une traçabilité totale des opérations. Réduire les délais de livraison (Lead Time) grâce à l’automatisation et l’orchestration du déploiement Cloud Donner une visibilité complète et un suivi continu des résultats. 2 - La finalité attendue autour de l’automatisation : Déploiement de patterns d’architectures Cloud (objectif projet) Modification de ressources Cloud existantes (objectif projet et Run) Automatisation de la quality Assurance ArgoCD AWS GCP Terraform/ Enterprise GitLab / GitLab-CI Python Kubernetes (EKS/GKE) Ansible AAP Expertise sur les Pipeline CI CD (gitlab-ci, ansible, AWX, Jenkins etc.), langage python Maitrise des outils de déploiement automatisés Expérience sur des outils comme S3 (ECS, StorageGrid, Minio, ELK)
Mission freelance
Lead C#/PHP/JS
Publiée le
API REST
Architecture
AWS Cloud
3 mois
Lille, Hauts-de-France
Télétravail partiel
Environnement Technique : Fullstack C#.NET / PHP / JS , Cloud (AWS/Azure). 1. Missions Principales : L'intervenant garantira la conception d'architectures robustes et évolutives. Ses responsabilités incluront : Cadrage et Conception : Définir les orientations techno, concevoir des architectures (microservices, event-driven) et identifier les risques techniques. Aider à la réalisation de conception complexe. Pilotage Technique : Collaborer avec les devs, apporter un support expert sur les problèmes complexes et piloter la transformation DevOps (CI/CD). Gouvernance : Promouvoir les standards (SOLID, Clean Code) et animer des revues d'architecture. 2. Compétences Requises (Hard Skills) : Développement Fullstack (Indispensable) : Maîtrise de C#.NET, PHP, JavaScript, SQL. Architecture : Concepts Microservices, Serverless, Event-driven. Intégration : API REST, ETL, ESB. Cloud & DevOps : Connaissance AWS/Azure/GCP et maîtrise des pipelines CI/CD. 3. Profil Recherché : Expérience : 8 à 10 ans minimum en développement logiciel dont plusieurs années sur des problématiques d'architecture. Savoir-être : Leadership, capacité de vulgarisation et vision stratégique.
Mission freelance
Senior devops - expertise Observabilité
Publiée le
Datadog
Google Cloud Platform (GCP)
Kubernetes
3 mois
400-590 €
Lille, Hauts-de-France
Télétravail partiel
Contexte de la mission Présentation de la demande Nous recherchons au sein du pôle Observability dans notre équipe Engineering Productivity, un ingénieur expérimenté et autonome pour prendre la responsabilité d’un ou plusieurs projets et gestion de process autour de l'observabilité et notamment les notions de metrics, traces et alerting. Le terrain de jeu est propice à la prise d’initiative : une plateforme internationale, au coeur de l'ensemble des initiatives digitales L'offre est est possible en remote avec 2 jours / mois sur Lille (si localisation hors métropole Lilloise avec possibilité d'espace de coworking dans certaines de villes de France) Le projet Au cœur des équipes Cloud Platform Engineering (CPE), l'équipe Engineering Productivity et spécifiquement l'équipe Observability a pour objectif de construire et maintenir les process et l'accompagnement autour des notions et pratiques d'Observability (metrics, trace, logs management, dashboard, alerting) au sein de l'ensembles des solutions digitales Pour répondre à ces besoins, l'équipe développe et maintient des solutions utilisées mondialement par nos solutions e-commerces et magasins dans plus de 70 pays. Pour cela nous avons besoin de renforcer notre équipe avec un profil ingénieur expert / senior, qui sera un acteur clef pour la réussite de ces challenges. Clause de Confidentialité Toutes informations transmises par l’une des parties à l’autre partie comme informations transmises pour la réalisation des prestations ont un caractère confidentiel. Dès la réalisation d'une prestation, chaque partie s'engage à conserver comme confidentielles toutes les informations obtenues de l’autre partie. Chaque partie garantit le respect des engagements de cet article par tout son personnel et/ou les autres intervenants aux prestations. Objectifs et livrables En tant que consultant APM, tu contribueras au maintien opérationnel des solutions Datadog et Splunk via : Maintien et tests de nos stacks Terraform Développement en Python/Go d'API ou de composants OpenTelemetry Accompagnement technique et configuration avec les utilisateurs Déploiement sur certains périmètres Prise en charge d’une partie du RUN Formation et le suivi de nos utilisateurs Industrialisation et mise en conformité avec nos gouvernances SI Automatisation du provisionnement Définition des règles et bonnes pratiques Audit de conformité (application des bonnes pratiques) Création de Control Towers vérifiant la qualité du service rendu Mise à jour de la base documentaire Tu formalises régulièrement tes avancées auprès du responsable de ces solutions. Enfin, évoluant dans un contexte international, tu as un niveau d’anglais courant. Tu évolueras dans un contexte Agile au sein d'une équipe pluridisciplinaire autour d'un leitmotiv : "You Build it, You run it, You Enjoy it"... Environnement Technique Solutions: Datadog, OpenTelemetry, Splunk, Solarwinds, Pagerduty Tu maitrises au moins un language de développement de type Python ou Go Tu as une affinité particulière pour l'observabilité et tu comprends et maîtrise l'intérêt des logs, métriques, traces. Tu es à l'aise dans un environnement Kubernetes et dans l'utilisation d'un Cloud Provider (GCP ou AWS) Compétences demandées Compétences Niveau de compétence DATADOG Confirmé Programmation Python Confirmé Google Cloud Confirmé KUBERNETES Confirmé SPLUNK Élémentaire Observability Expert AWS Confirmé GOLANG Confirmé IBM Terraform Confirmé Langues Niveau de langue Anglais Courant
Mission freelance
Senior Security Engineer
Publiée le
AWS Cloud
Azure
Gateway
12 mois
540-570 €
Suresnes, Île-de-France
Télétravail partiel
Nous recherchons un(e) Senior Security Engineer expérimenté(e) pour rejoindre notre équipe de sécurité opérationnelle. Le rôle est essentiel pour renforcer la posture cybersécurité de l’organisation en participant à des projets d’architecture, en menant des tests d’intrusion, en supervisant des projets de sécurité et en apportant une expertise technique sur les solutions de sécurité. La mission contribue à garantir l’efficacité des contrôles de sécurité, à appliquer la gouvernance de sécurité et à protéger les actifs critiques tout en maintenant la résilience opérationnelle. Responsabilités principales : Stratégie et architecture cybersécurité Mener des études d’architecture de sécurité. Assister à la mise en œuvre de la feuille de route technologique en cybersécurité. Fournir des retours sur les technologies émergentes et leur impact opérationnel. Aider à aligner l’utilisation des technologies avec les objectifs de sécurité de l’entreprise. Gestion de projets cybersécurité Superviser la planification, l’exécution et la livraison de projets cybersécurité (infrastructure, applications, cloud). Définir le périmètre, les objectifs et les livrables des projets. Collaborer avec des équipes transverses (IT central, IT régional, équipes produits et solutions, équipes GRC). Communiquer l’avancement, les risques et les résultats aux parties prenantes techniques et non techniques. Tests d’intrusion et gestion des vulnérabilités Contribuer à la définition du programme de tests d’intrusion. Coordonner les tests pour identifier les failles de sécurité. Analyser les résultats et accompagner les équipes concernées dans les mesures correctives. Fournir des rapports avec recommandations exploitables. Expertise sur les solutions de sécurité Piloter le déploiement des outils de sécurité. Agir en tant qu’expert technique sur les plateformes et outils de sécurité. Former les équipes IT et SecOps sur les technologies de sécurité. Évaluer la performance des solutions de sécurité et proposer des améliorations. Compétences techniques et qualifications : Minimum 10 ans d’expérience en tant que consultant ou dans un rôle similaire en cybersécurité. Expérience avérée dans la conception et la mise en œuvre de stratégies de prévention des fuites de données (DLP) sur environnements cloud et postes de travail. Maîtrise approfondie de l’architecture de sécurité cloud (AWS, Azure, GCP) : IAM, chiffrement, conception sécurisée des workloads. Expérience pratique avec CSPM et CWPP, y compris la sélection, rationalisation et intégration des outils. Connaissance des WAF (AWS WAF, Azure Application Gateway, Cloudflare) et de leur configuration. Expertise dans la conception, l’exécution et le suivi des programmes de tests d’intrusion. Compétences complémentaires : Gestion de projet et engagement des parties prenantes. Capacité à traduire les risques techniques en impacts business. Excellentes compétences en communication et documentation, à destination d’audiences techniques et exécutives. Maîtrise du français et de l’anglais.
Mission freelance
POT8704 - Un DBA / DevOps / AWS > 5 ans d'expérience sur La Défense
Publiée le
AWS Cloud
6 mois
300-460 €
La Défense, Île-de-France
Télétravail partiel
Almatek recherche pour un de ses clients, Un DBA / DevOps / AWS > 5 ans d'expérience sur La Défense Contexte : Dans le cadre de la modernisation et de l’optimisation de nos systèmes de données, nous recherchons un profil hybride : DBA confirmé avec une forte culture DevOps/Cloud. Ce rôle va au-delà des missions classiques d’administration : il s’agit d’apporter une expertise sur les bases de données, d’accompagner la migration vers AWS, d’optimiser les performances et d’automatiser la gestion des environnements. Profil recherché : DBA / DevOps / AWS Confirmé > à 5 ans d’expérience dans la fonction Expérience confirmée en DBA/administration de bases de données OnPrem. Maîtrise des environnements AWS Data Services (RDS, Aurora, Glue, Redshift). Expérience en optimisation et migration de systèmes de données. Appétence forte pour les environnements DevOps / IaC. Une expérience sur d’autres Cloud (Azure, GCP) est un plus Missions principales : Administrer et optimiser les bases de données OnPrem : PostgreSQL, Vertica, MariaDB, Oracle (11g, 19c – sortie progressive en cours). Accompagner la migration et la gestion des bases sur AWS (RDS, Aurora MySQL, Redshift, Glue). Concevoir et maintenir des pipelines ETL/ELT robustes et industrialisés. Mettre en place les standards de gouvernance des données (qualité, sécurité, conformité). Optimiser les performances (requêtes SQL, tuning, architectures de stockage). Garantir la haute disponibilité, le PRA et la continuité de service. Automatiser la gestion des environnements via IaC (Terraform, Ansible) et intégrer la donnée dans les chaînes CI/CD. Contribuer au monitoring et à l’observabilité (Prometheus, Grafana, ELK). Collaborer avec les équipes Data, BI et IT pour fournir des données fiables et performantes. Effectuer une veille sur les évolutions technologiques (Cloud, Data Lake, Big Data). Gérer l’évolution des schémas BDD via des outils de migration comme Liquibase. Compétences techniques recherchées : Bases OnPrem : PostgreSQL, Vertica, MariaDB, Oracle 11g/19c. Cloud : AWS (RDS, Aurora MySQL, Glue, Redshift). ? Maîtrise AWS = pré-requis. Azure, GCP = un plus apprécié. ETL / Data pipelines : Airflow, Dollar Universe ou équivalent. Langages : SQL avancé, Python, Shell. IaC & DevOps : Terraform, Ansible, Git, Docker, CI/CD ? pré-requis. Kubernetes = un plus apprécié. Monitoring : Prometheus, Grafana, ELK = un plus apprécié. Sécurité & conformité : IAM, chiffrement, RGPD, sauvegardes/restaurations. Gestion de schémas BDD : Liquibase (pré-requis). Soft skills clés : Vision transverse : relier la technique aux besoins métier. Communication claire : expliquer simplement les choix techniques. Esprit d’analyse et optimisation : détecter les points de blocage et proposer des solutions efficaces. Autonomie et proactivité : anticiper, être force de proposition. Collaboration : travailler en équipe pluridisciplinaire (Data, BI, IT, Cloud). Curiosité : veille permanente sur les innovations Cloud et Data. Orientation résultat : recherche de valeur ajoutée, pas uniquement de solution technique.
Mission freelance
Lead Ingénieur DevOps / Cloud Platform
Publiée le
AWS Cloud
CI/CD
Docker
1 an
400-480 €
Grenoble, Auvergne-Rhône-Alpes
Assurer la conception, l’évolution, le maintien en condition opérationnelle (MCO) et le support des outils d’hébergement et de la chaîne DevOps (GitLab, ArgoCD, AWX, Kubernetes, AWS, GCP, etc.) au sein d’un environnement multi-cloud et agile. Conception et évolution Adapter, suivre et faire évoluer les outils d’hébergement existants (Kubernetes). Mettre en place et maintenir les outils d’hébergement cloud (AWS, GCP). Gérer la chaîne complète DevOps (GitLab, GitLab CI, ArgoCD, AWX). Maintenir et enrichir l’offre middleware « As a Service » : Postgres, InfluxDB, Centreon, Opensearch… Concevoir des briques transverses et réutilisables (Helm, GitLab CI templates, Ansible). Documenter et automatiser les processus d’installation et de déploiement. Rédiger les bonnes pratiques DevOps et accompagner les équipes projets dans leur adoption. 🧾 Livrables : Outillage fonctionnel, à jour et automatisé. Documentation technique et bonnes pratiques à jour. Code source documenté des briques transverses. 2. Maintien en Condition Opérationnelle (MCO) Support aux équipes projets pour la résolution d’incidents de production. Analyse et résolution des incidents sur les infrastructures d’hébergement et d’exploitation. Participation à la roadmap des outils d’hébergement et d’exploitation. Développement de scripts transverses. Réalisation d’une veille technologique continue. 🧾 Livrables : Rapports d’incidents. Tickets JIRA renseignés et suivis. Évolutions outillage planifiées.
Mission freelance
Product Owner Technique – Data Platform
Publiée le
Agile Scrum
AWS Cloud
AWS Glue
12 mois
400-510 €
Paris, France
Télétravail partiel
Mission principale : Nous recherchons un Product Owner (PO) technique pour accompagner le développement et le RUN de notre Data Platform . Vous serez en charge de qualifier les besoins, de participer aux rituels agiles et d’assurer la liaison entre les équipes Build et le RUN de la plateforme, en mode Agile. Responsabilités : Qualifier les besoins techniques et fonctionnels des différentes équipes Data. Participer aux rituels Agile : daily, sprint planning, backlog refinement, PI planning (sur 3 mois). Transformer les besoins identifiés en user stories et tickets Jira exploitables par les squads. Accompagner la construction et l’évolution de la Data Platform (environnements GCP, flux de données, pipelines). Assurer le suivi du RUN de la plateforme et identifier les priorités techniques et fonctionnelles. Travailler en coordination avec 4 à 5 squads organisées en trains pour les PI planning et sprints. Être un interlocuteur technique capable de dialoguer avec les équipes Dev, Data et Ops. Profil recherché : Expérience confirmée en Product Ownership , idéalement dans un contexte technique ou data. Compréhension des environnements cloud (GCP) et des flux de données. Capacité à transformer des besoins complexes en user stories / tickets techniques . Connaissance des méthodes Agile / SAFe et pratique des rituels (sprint planning, PI planning, daily, etc.). Esprit technique : ne pas avoir peur de discuter architecture, flux de données, pipeline, outils de production. Bon relationnel et capacité à collaborer avec plusieurs équipes simultanément. Une connaissance de la data (ETL, ingestion, stockage, pipelines) est un plus. Soft Skills : Organisation et rigueur dans le suivi des priorités. Capacité à synthétiser les besoins et à communiquer clairement. Curiosité technique et ouverture à l’innovation. Force de proposition pour améliorer les process et la plateforme.
Mission freelance
Expert IA & Sécurité
Publiée le
AWS Cloud
18 mois
100-500 €
Paris, France
Télétravail partiel
CONTEXTE : Experience : 6 ans et plus Métiers Fonctions : Etudes & Développement,Expert Spécialités technologiques : Intelligence artificielle, Open Source,MLOps,AI,IA generative Cette mission stratégique s’inscrit dans un programme de sécurisation et d’industrialisation des solutions d’intelligence artificielle générative et agentique. L’objectif principal est de tester, évaluer et intégrer des garde-fous (AI guardrails) dans les pipelines d’IA et environnements MLOps, afin d’assurer la robustesse, la conformité et la sécurité des applications basées sur des LLMs (Large Language Models). Le poste s’adresse à un profil senior en ingénierie IA / sécurité ML, capable d’évoluer dans un contexte international et de collaborer avec des équipes pluridisciplinaires (sécurité, conformité, data science, développement). MISSIONS Responsabilités principales 1. Évaluation et test des solutions de garde-fous IA - Identifier, tester et comparer des solutions de sécurité applicables aux LLMs et aux applications agentiques (open source et commerciales). - Mettre en place un framework de test automatisé pour mesurer la performance, la latence et la robustesse des garde-fous. - Concevoir des scénarios d’attaque avancés (prompt injection, exfiltration de données, jailbreaks) pour évaluer la résilience des modèles. - Analyser les résultats et produire des rapports d’évaluation détaillés (accuracy, intégrabilité, impact sur la performance). 2. Intégration et industrialisation - Définir des blueprints d’intégration pour l’implémentation des garde-fous dans les pipelines d’IA et environnements MLOps. - Travailler à l’intégration de ces solutions dans les workflows LLM, RAG (Retrieval-Augmented Generation) et agentiques. - Collaborer avec les équipes IA et sécurité pour assurer la cohérence technique, la scalabilité et la conformité réglementaire. - Participer à la conception de workflows sécurisés pour les environnements cloud (Azure, AWS, GCP) et hybrides. 3. Conception de scénarios d’attaque et d’évaluation - Élaborer des batteries de tests adversariaux simulant des menaces réelles. - Documenter les résultats et proposer des mécanismes de mitigation. - Contribuer à la définition d’indicateurs de sécurité mesurables pour le suivi de la performance des garde-fous. 4. Partage de connaissances et contribution stratégique - Conduire des ateliers internes et former les équipes aux meilleures pratiques de sécurité IA. - Rédiger des whitepapers techniques sur la sécurité des systèmes IA et les approches de défense proactive. - Participer à la diffusion des bonnes pratiques au sein de la communauté interne IA et sécurité. Livrables attendus - Framework de test des garde-fous IA – outils et scripts pour évaluer la performance et la robustesse des solutions. - Rapports d’évaluation détaillés – comparatifs techniques entre outils (open source / commerciaux). - Blueprints d’intégration – recommandations d’architecture pour l’intégration dans les pipelines LLM, RAG et agents. - Livrables de knowledge sharing – supports d’ateliers, documentation technique et contribution à la base de connaissances IA Sécurité. Expertise souhaitée Expertise technique - Excellente compréhension des architectures LLM (GPT, Claude, Mistral, etc.) et des frameworks d’orchestration d’agents. - Solide expérience en IA générative et sécurité des modèles : guardrails, content filtering, prompt validation, data leakage prevention. -Maîtrise des outils et langages : Python, Docker, CI/CD, APIs cloud AI (Azure, AWS, GCP). - Connaissance approfondie des environnements MLOps et des pipelines de déploiement IA sécurisés. - Expérience en vulnerability testing, tests adversariaux et robustesse des modèles. - Bonne connaissance des principes de Responsible AI, des cadres de gouvernance et du AI Act européen. - Expérience avec les workflows Asiantech AI ou similaires (design d’architectures agentiques et intégration cloud). Compétences transverses - Solides capacités de communication et de rédaction technique (en anglais et français). - Capacité à interagir avec des équipes multiculturelles et à vulgariser des concepts techniques complexes. - Sens de la rigueur scientifique, esprit d’analyse et orientation résultats. - Capacité à travailler dans des environnements complexes et soumis à des contraintes réglementaires.
Offre d'emploi
Ingénieur système DevOps
Publiée le
Apache Tomcat
AWS Cloud
Confluence
12 mois
40k-55k €
350-440 €
Paris, France
Il est attendu de la prestation d’apporter une expertise technique sur l’outillage DevSecOps avec GitlabCI afin de maintenir et faire évoluer la Plateforme DevOps en fonction des besoins qui ne cessent de croître ainsi que de contribuer à la montée en compétence de l’équipe sur l’outil. Tous les développements réalisés devront être testés et validés selon les procédures en vigueurs du client. Dans ce cadre il est attendu une expertise sur l’outillage Gitlab pour participer aux travaux de migration de Jenkins vers Gitlab. Il sera demandé au titulaire de répondre aux différentes activités : Développement Tests Accompagnement Support La prestation porte sur l’outil Gestionnaire de code source de la Plateforme DevOps : GitLab CE et GitLab EE, Gitlab Ultimaten, sur la stack d’indicateur de la plateforme logmining DevSecOps avec les outils Mimir et Loki et Grafana Les activités principales identifiées pour la mission sont les suivantes : Optimisation des instances afin d’améliorer les performances des outils, Mise en place et partage de bonnes pratiques autour des outils, Assurer le suivi, l’analyse et le traitement des incidents, Optimisation de la plateforme Gitlab sur Openshift Assurer le support auprès de l’équipe Projet Migration Jenkins2GitlabCI Suivre et exploiter des environnements de Développement, Participation au POC Gitlab Ultimate et DUO Développement des services conteneurisés (Docker/Openshift) Développement de scripts Python Récupération d’indicateurs (InfluxDB, loki, mimir, Grafana ect..) Rédaction des documentations associées aux travaux réalisés ( README, Confluence) Livrer la solution à l’exploitant et l’assister lors de la MEP, Réaliser la documentation technique, Les technologies du périmètre sont : Linux, RedHat Apache, Tomcat PostgreSQL,InfluxDB Python OpenShift, Kubernetes, Docker GitLab (CE/EE/Ultimate, CI-CD,components), Jenkins, Nexus, Sonar, Checkmarx, Jira/Confluence, Grafana, InfluxDB Cloud : AWS,GCP Méthodologie SRE Mimir Loki Grafana Coaching Connaissance des cultures agiles ((les valeurs, principes et les framework tel que SCRUM, KANBAN et SAFe) et les avoir implémentés dans différents contextes Connaissance des bonnes pratiques DevSecOps et SRE Connaissance des outils d’une plateforme DevOps pour réaliser les pratiques Non à la sous traitance.
Offre d'emploi
Développeur Big Data Scala / Java (Migration DataHub)
Publiée le
Apache Kafka
AWS Cloud
Big Data
12 mois
45k-56k €
500-530 €
Montreuil, Île-de-France
Télétravail partiel
Contexte / Objectif : Renfort d’une équipe technique en charge de la migration du DataHub vers sa version 2. L’objectif est d’assurer le développement et l’industrialisation de traitements Big Data dans un environnement distribué à forte volumétrie, depuis la conception jusqu’au maintien en production. Missions principales : Étude et conception technique des batchs et pipelines data. Développement Spark/Scala pour traitements batch et streaming. Récupération, transformation, enrichissement et restitution des données (ETL/ELT). Création et publication de batchs Kafka (topics / événements). Participation à l’industrialisation : CI/CD, tests, déploiement et monitoring. Collaboration étroite avec les Business Analysts pour garantir la qualité et la lisibilité des libellés. Gestion autonome de sujets transverses (reporting, suivi, coordination, support niveau 2/3). Stack technique (obligatoire / souhaité) : Obligatoire : Apache Spark (maîtrise), Scala (langage principal), SQL (avancé). Souhaité : Java (notions confirmées), Kafka (bonnes bases), Apache Airflow (expérience appréciée), HDFS/Hive/YARN (bonnes bases), expérience Cloud (GCP ou AWS valorisée), CI/CD (Jenkins, Gitflow), notions DevOps. Méthodologie & environnement : Travail en mode Agile (backlog, rituels, communication proactive). Interaction régulière avec équipes Data, BI, infra et métiers.
Offre d'emploi
ARCHITECTE SOLUTIONS & TECHNIQUE (H/F)
Publiée le
Ansible
Apache Kafka
Architecture
12 mois
65k-72k €
550-650 €
Île-de-France, France
Télétravail partiel
ARCHITECTE SOLUTIONS & TECHNIQUE (H/F) 📍 Localisation et Rattachement ● Poste : Architecte Solutions & Technique (H/F) ● Localisation : Paris, Île de France ● Rattachement : Digital Factory INVENTIV IT 🚀 Le Rôle : Leader de la Transformation Cloud-Native Au sein de la Digital Factory, vous êtes le garant technique et stratégique de la cohérence, de la performance et de la sécurité des architectures applicatives pour nos grands comptes (projets en mode Forfait et Régie). Ce rôle, à la fois opérationnel et stratégique, exige une expertise de pointe sur l'ensemble de la chaîne de valeur : du Cloud (dominance AWS) et Java/Spring pour le Backend, aux solutions Web (React/NextJS) & Mobile (Flutter) , incluant l'industrialisation DevSecOps et la conception d' API résilientes . Vous agissez avec une forte vision produit pour transformer les usages métier en valeur business concrète. 🎯 Vos Missions Principales Vous intervenez à la croisée des enjeux métiers et technologiques pour accompagner nos clients dans leurs projets de transformation digitale : I. Conception Architecturale & Stratégie ● Concevoir des architectures évolutives, modernes et hautement performantes (Cloud-native, Serverless, Event-driven, Hexagonal, Microservices, etc.). ● Définir la stratégie d'intégration et de sécurisation des API et des Brokers. ● Assurer l'orientation architecturale et participer activement aux phases de cadrage & stratégie, ainsi qu'au brainstorming technique. ● Sélectionner et valider les solutions techniques adaptées aux enjeux des clients. II. Leadership Technique & Delivery ● Piloter des projets complexes avec des équipes distribuées (offshore/nearshore). ● Garantir l'industrialisation de l'innovation via des usines logicielles DevSecOps, des produits SaaS, RAG, LLM et des plateformes IoT. ● Manager et coacher techniquement les équipes de développement (CoreTeam & Digital Factory). ● Garantir le Delivery, de la production dev jusqu'à la mise en place de l'observabilité/performance. ● Déployer des solutions résilientes, sécurisées (conformité HDS, ISO 27001 ), et alignées sur les meilleures pratiques (CleanCode, TDD, BDD). III. Veille et Expertise ● Être force de proposition et toujours en veille sur l'écosystème tech, l'entrepreneuriat et l'innovation responsable. ● Encadrer plusieurs projets stratégiques auprès de plusieurs clients en tant que Lead Architect. ✨ Quelques Réalisations Attendues Votre expérience se traduira par des réalisations concrètes et impactantes : ● Pilotage d'initiatives stratégiques pour moderniser et sécuriser les infrastructures applicatives. ● Supervision de la conception d'usine logicielle DevSecOps modulaire. ● Pilotage de la mise en place d'une architecture Cloud hautement sécurisée conforme à la norme ISO 27001. ● Migration et modernisation d'applications avec enjeux d’optimisation de Time to Market . ● Création From Scratch d'applications Web & Mobile. 📚 Votre Profil & Compétences Techniques (Le Socle de l'Architecte) Domaine d'Expertise Compétences Techniques Clés (Maîtrise Requise) Architectures Serverless, Event-driven, Data-driven, Hexagonal, Microservices. Backend & Cloud Java / Spring (Dominance Web), NodeJs / JavaScript, Move To Cloud (Dominance AWS) , GCP/Azure. Industrialisation DevSecOps, DevOps & IAC , intégration continue, Sécurité applicative, Brokers. Front-End & Mobile React / NextJS, Mobile ( Flutter ), Angular (TMA). Qualité & Méthodologie Approche BDD, TDD, CleanCode , Test unitaire/intégration/automatisé et end to end, Cycle de vie logiciel. Data & Modélisation Platform Data/IA, Base de données (relationnel et non-relationnel), Modélisation SQL / requêtes. Leadership & Soft Skills Leadership technique, Posture projet / business, Fonctionnel : Confirmé, Anglais : Courant . Autres Performance / observabilité, Build et gestion de version, Développement.
Offre premium
Offre d'emploi
Data Architecte Databricks - Paris
Publiée le
Databricks
65k-80k €
Paris, France
Télétravail partiel
Ton quotidien chez Komeet sera rythmé par : Animation des ateliers afin d’étudier et cadrer les besoins clients Préconisation, conception et mise en œuvre des plateformes Data (datawarehouse, datalake/lakehouse ) Rédaction de dossiers d’architecture et spécifications techniques Mise en œuvre des stratégies d’exploitation de plateformes Data Construction et déploiement des pipelines de données (ETL / ELT) à l’aide de langage de programmation ou d’outils de type Low-Code Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. Tests, validation et documentation des développements Réalisation d'audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP
Mission freelance
Architecte d’Entreprise / Urbaniste SI Senior
Publiée le
API Platform
Architecture
AWS Cloud
12 mois
650-800 €
Paris, France
Télétravail partiel
Au sein de la DSI, vous rejoignez la Direction de l’Architecture et de l’Urbanisme pour accompagner la transformation du système d’information et garantir sa cohérence avec les enjeux métiers et la stratégie d’entreprise. Vous interviendrez sur des projets structurants, de l’urbanisation du SI à la conception de solutions cibles en passant par la gouvernance des architectures. ⚙️ Missions principales 1. Gouvernance et urbanisation du SI Définir et maintenir la cartographie du système d’information (métier, applicative, données, technique). Assurer la cohérence et la rationalisation du portefeuille applicatif . Identifier les axes de simplification, de mutualisation et de modernisation du SI. Contribuer à la feuille de route d’évolution de l’architecture d’entreprise . 2. Architecture d’entreprise et de solutions Concevoir des architectures cibles alignées avec les besoins métiers et les standards techniques. Rédiger les documents d’architecture (Dossier d’Architecture, Dossier d’Urbanisation, DAT, DEX, etc.) . Participer à la conception fonctionnelle et technique des solutions (intégration, données, sécurité, performance). Accompagner les équipes projets dans le choix des solutions et des trajectoires d’évolution . 3. Conseil et accompagnement Conseiller les directions métiers et les chefs de projets sur les orientations technologiques et d’urbanisation . Animer les comités d’architecture , les ateliers de conception et de cadrage. Diffuser les bonnes pratiques d’architecture et contribuer à la montée en compétence des équipes. 4. Pilotage et innovation Identifier les technologies émergentes et en évaluer la pertinence pour l’entreprise. Contribuer aux schémas directeurs , à la stratégie cloud, data et API . Participer aux études d’impacts et d’opportunités pour de nouveaux projets SI. 🧠 Compétences techniques et fonctionnelles Architecture / Urbanisation TOGAF, ArchiMate, Zachman ou équivalents Outils de modélisation : MEGA HOPEX, ARIS, Enterprise Architect, etc. Maîtrise des architectures orientées services, API, microservices, data-centric Bonne compréhension des architectures cloud (Azure, AWS, GCP) Gouvernance des données, interopérabilité, sécurité SI Environnements techniques Connaissances générales en infrastructure (réseaux, middleware, cloud, sécurité) Bonne maîtrise des Systèmes d’Information complexes et intégrés (ERP, CRM, SIG, GED, etc.) Compétences fonctionnelles Capacité à dialoguer avec les métiers : finance, RH, logistique, production, relation client, etc. Capacité d’analyse et de synthèse, esprit de gouvernance et d’alignement stratégique
Offre d'emploi
CDI - DBA PostgreSQL / MariaDB (H/F)
Publiée le
MariaDB
PostgreSQL
Paris, France
Télétravail partiel
Contexte du poste Au sein de la DSI, vous serez responsable de la gestion, optimisation et sécurisation des bases de données MariaDB et PostgreSQL . Vous participerez aux projets d’évolution, aux migrations cloud et à l’intégration de nouvelles bases de données (Redis, Kubernetes). 🛠️ Missions principales Administration et optimisation de PostgreSQL et MariaDB . Gestion des performances, tuning SQL et maintenance. Sauvegarde, restauration et plan de reprise d’activité. Support et troubleshooting niveau N3. Participation à l’architecture des bases et à l’industrialisation des processus. Collaboration avec les équipes DevOps et Cloud (Azure, GCP, AWS). Mise en place et suivi de nouvelles bases de données (Redis, Kubernetes).
Mission freelance
Lead Data Engineer Senior
Publiée le
24 mois
450-900 €
Paris, France
Télétravail partiel
PROPULSE IT recherche un Lead Data Ingénieur ayant près de 10 ans d'expérience pour un de ses clients En tant que Lead Data Engineer, vous travaillerez au sein de l'équipe digitale « data et performance », en charge principalement de l'infrastructure data, et du traitement, de l'intégration et de la transformation de la donnée digitale d'Hermès (hermes.com). Vous serez aussi garant·e de sa qualité et sa sécurité et le respect de la vie privée liée à cette donnée. Vous serez rattaché·e au Data Manager et vous animez et pilotez une équipe de 2 Data Engineer au quotidien. Vous travaillerez principalement sur le Cloud de Google (GCP), mais aussi en partie sur le Cloud Amazon (AWS). Le respect de la vie privée étant au cœur de de votre travail, vous devrez être conscient des problématiques liées à la GDPR. Des connaissances sur les problématiques liées à l'e-Commerce sont un plus. Principales Activités : Industrialisation de l'infrastructure de la Data Platform sous GCP - Vous avez pour principale mission d'accompagner l'équipe Data et Performance dans l'industrialisation de sa plateforme data via : - Mise en place d'environnements dédiés et cloisonnés (Dev / Preprod / Production) - L'automatisation du déploiement et la maintenance des environnements via des outils d'infrastructure as code (Terraform) sous GCP - Mise en place de solutions d'observabilités (monitoring, alerting) au sein de GCP Manipulation/Transformation de données (en batch et stream) - Vous accompagnerez aussi l'équipe Data dans ses activités de transformation de données via : - Maintenance pipelines de données en python (batch et stream) - Des pipelines de transformation en SQL/SQLX dans l'outil DataForm (similaire à DBT) - Mise en place et maintenance d'un outil de data quality (ex : great expectations en python) - Aider au développement des workers dans les Cloud AWS pour récupérer la donnée depuis Kafka et l'envoyer vers PubSub dans GCP. - La connaissance de l'outil DataFlow (Apache Beam) est un plus. Collaboration avec les équipes du pole, centrée sur la donnée de qualité - Standardisation de la base de code de l'équipe (linting, CI/CD, divers tests - Maintien et réalisation de schémas d'architectures et documentation des processus internes - Collaboration avec les autres équipes du pôle Data : data analysts, SEO/SEA et emailing - Aider à la mise en place de bonnes pratiques : - Anonymisation et archivage de la donnée dans le respect du RGPD et de la politique interne du traitement de données - Sécurité de l'infra, de la data et du code
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
137 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois