L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 477 résultats.
Offre d'emploi
Directeur / Directrice Technique CTO (H/F)
█ █ █ █ █ █ █
Publiée le
CI/CD
Docker
Javascript
39 300 €
Poix-du-Nord, Hauts-de-France
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Offre d'emploi
DATA ENGINEER GCP
UCASE CONSULTING
Publiée le
BigQuery
Google Cloud Platform (GCP)
MySQL
6 mois
40k-71k €
400-630 €
Paris, France
Je recherche pour un de mes clients un Data Engineer GCP : Prestations attendues : Déployer les datasets normés sur un ou plusieurs des data domain suivants : Utilisateurs, Comportements et Référentiels Accompagner les utilisateurs dans leurs usages Mettre en place le contrôle qualité sur ces datasets En interaction avec les membres de l’équipe, Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l’équipe Construire et maintenir des pipelines data robustes et scalables Accompagner les membres de l’équipe dans l’exploitation et le requêtage des données Organiser et structurer le stockage des données Mettre en place et maintenir des infrastructures scalables capables de répondre aux besoins et à l’accroissement rapide du volume de données Participer aux initiatives de gouvernance des données en assurant la qualité, la fiabilité et l’intégrité Construire et maintenir les workflows de la CI/CD Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur Assurer l’évolutivité, la sécurité, la stabilité des environnements Participer aux différentes instances des data ingénieurs Contribuer et veiller à la mise à jour de la documentation Faire de la veille technologique active dans le domaine Expertises demandées pour la réalisation de la prestation Au moins 3 ans d’expérience en tant que Data Ingénieur dans un environnement data Compétences solides en data : structures de données, code, architecture France Expériences dans la conception et la réalisation de pipelines data Expériences dans un environnement du cloud Google (GCP) Expériences intégrant BigQuery et Dataplex Universal Catalog Expériences intégrant les langages Python et SQL Expériences intégrant Spark Expériences intégrant dbt Expériences intégrant Terraform et Terragrunt Expériences intégrant Gitlab et Gitlab CI/CD Expériences intégrant les méthodologies Agile : Scrum ou Kanban Capacité à vulgariser et à communiquer sur des aspects purement techniques
Offre d'emploi
Ingénieur de Production Devops Sénior (Kubernetes, Control M, GitLab, Scripting, Linux)
Taimpel
Publiée le
Ansible
Control-M
Dynatrace
3 ans
50k-57k €
440-500 €
Yvelines, France
FICHE DE POSTE – IP DEVOPS CONFIRMÉ Contexte de la mission Dans le cadre d’un renforcement d’équipe, un client bancaire ouvre un poste en prestation longue durée au sein d’une équipe production applicative intervenant sur des applications sensibles, quasi temps réel . L’environnement est décrit comme bienveillant , avec un responsable proche de son équipe (environ 20 personnes ), favorisant la collaboration, l’accompagnement technique et la montée en compétence collective. Objectifs de la mission Assurer la stabilité, la fiabilité et l’industrialisation des environnements de production applicative Accompagner les équipes de développement dans l’ intégration des contraintes production Contribuer activement à la démarche DevOps et à l’automatisation des processus Intervenir sur des applications critiques à forte exigence de disponibilité et de performance Missions principalesProduction & DevOps Intervenir en production applicative sur des applications sensibles et quasi temps réel Participer à la mise en œuvre et à l’amélioration des chaînes DevOps Automatiser les tâches récurrentes via Shell et Ansible Réaliser des projets d’automatisation (création de playbooks Ansible, industrialisation) Kubernetes Intervenir sur des environnements Kubernetes avec un rôle expert Accompagner les équipes de développement pour : l’intégration des applications en production la prise en compte des contraintes d’exploitation les bonnes pratiques de déploiement et d’exploitation Attendu : au-delà d’un simple usage , capacité à accompagner, conseiller et guider les développeurs CI/CD & Outillage Utiliser GitLab avec des connaissances approfondies (au-delà du simple usage) Participer à la conception, l’évolution et l’optimisation des pipelines Travailler avec Control-M : création de chaînes structuration et exploitation des traitements Utilisation de CFT (niveau utilisateur) Supervision & Exploitation Exploitation et suivi des environnements sous Linux (majoritairement) Supervision applicative et infrastructure via Dynatrace Diagnostic et résolution d’incidents de production Contribution à l’amélioration continue de la qualité de service Profil recherché IP DevOps confirmé Minimum 8 ans d’expérience en production applicative Expérience impérative sur des applications sensibles et à fortes contraintes de disponibilité Très bon niveau technique avec un mindset DevOps Capacité à : communiquer efficacement accompagner les équipes être force de proposition s’adapter rapidement Savoir-être attendu Ouvert Technique Motivé Adaptable Bon communicant Contraintes & modalités Démarrage : courant février Localisation : Saint-Quentin-en-Yvelines Télétravail : 2 jours par semaine Durée de mission : 3 ans RÉCAPITULATIF DES TECHNOLOGIES • ORCHESTRATION / CONTAINERS : Kubernetes • CI / CD & VERSIONING : GitLab • ORDONNANCEMENT & TRANSFERTS : Control-M, CFT • AUTOMATISATION & SCRIPTING : Ansible, Shell • SUPERVISION : Dynatrace • BASES DE DONNÉES (USAGE) : MySQL, MongoDB • SYSTÈMES D’EXPLOITATION : Linux • CONTEXTE : Applications sensibles, quasi temps réel, production applicative bancaire
Offre d'emploi
Administrateur DBA Production Expert
KEONI CONSULTING
Publiée le
AWS Cloud
Nosql
Python
18 mois
20k-60k €
100-520 €
Lille, Hauts-de-France
CONTEXTE l’administrateur de bases de données (DBA) prend en charge des projets techniques tout en contribuant au maintien en condition opérationnelle des environnements SGBD relationnels et NoSQL sur notre Cloud (AWS / MongoDB Atlas). Nous recherchons une personne disposant d’une très bonne maîtrise des concepts SGBD, d’une connaissance approfondie du Cloud AWS, ainsi que d’un solide bagage en développement et en automatisation des systèmes (Python, Terraform, Git). MISSIONS - Être le contact privilégié sur la partie SGBD pour des projets techniques - Mise au point d’outils d’industrialisation, d’automatisation et délégation pour rendre autonome les factories et le pilotage sur des tâches SGBD - Contact régulier avec les architectes, développeurs et chefs de projets - Organisation, réalisation ou délégation des opérations de maintenance technique (type bascule cluster ou architecture répliquée, …) - Optimisations des performances et vigilance sur le capacity planning et la frugalité des environnements - Passage de livraisons applicatives et traitement des demandes courantes - Montée de versions SGBD ; application des patchs de sécurité, upgrade version majeure - Création et duplication d’environnements SGBD (instances / bases / schéma) - Suivi d’incidents avec les supports Editeur (Ex : Oracle Corp, Mongo Inc.) - Suivi des sauvegardes et tests de restauration - Mise en place de la supervision et test d’alerting - Rédaction de procédure pour enrichir la base de connaissances de l’équipe - Assurer une veille technologique : apporter une connaissance des pratiques et technologies émergentes - Astreintes et opérations en heures non ouvrées à prévoir. Astreintes obligatoires à la grille achat (1 semaine / mois lundi>dimanche) Spécificités Cloud - Intégrer de nouvelles solutions Cloud (DynamoDB, DocumentDB, RDS, etc.) au catalogue de service, en mettant au point les parties supervision, sauvegardes, monitoring, mise en production, etc. - Accompagner les factories : conseils sur les traitements applicatifs, le déploiement, l’exploitabilité et le traitement des alertes. Interactions : Equipes d’Exploitation, Factories, Architectes IT, Sécurité, CDP, Observabilité Livrables • Prise en charge des projets techniques tout en participant au maintien en condition opérationnelle des environnements • Mise au point d’outils d’industrialisation, d’automatisation et délégation pour rendre autonome les factories • Passage de livraisons applicatives et traitement des demandes courantes • Suivi d’incidents avec les supports Editeur (Ex : AWS, Mongo Inc.) • Suivi des sauvegardes et tests de restauration • Mise en place de la supervision et test d’alerting • Rédaction de procédure pour enrichir la base de connaissances de l’équipe • Assurer une veille technologique : apporter une connaissance des pratiques et technologies émergentes Le profil recherché ... ... connait le SQL / NoSQL ... connait l’environnement et les différentes technologies de DB sur le cloud AWS … peut nous apporter son expertise technique pour challenger des projets structurants ... est en mesure de nous accompagner dans le développement Infra As Code de nos solutions (Terraform, Ansible, Python) • SQL/noSQL • AWS • InfraAsCode (Python / Terraform / Git) • Architecture applicative • Connaissance en production • Bonne capacité à travailler en équipe • Force de proposition • Capacité de coordination • Autonomie Compétences clés : Obligatoire : Python, Terraform, AWS, Aurora PostgreSQL, Mongodb, Gitlab, Connaissance production.
Offre d'emploi
Consultant Data (DataLab Cloudera / Hive / Python) (F/H)
Taleo Capital
Publiée le
Apache Hive
Cloudera
Python
6 mois
57k-64k €
520-580 €
Paris, France
Contexte Au sein d’une direction des systèmes d’information nationaux et européens d'un acteur majeur du secteur banco-financier, le service en charge des plateformes data conçoit, maintient et fait évoluer les systèmes d’information au service d’activités critiques telles que la politique monétaire, les opérations de marché, la gestion des risques, la conformité et la stabilité financière. Vous interviendrez dans un DataLab rattaché aux applications de marché, au cœur des usages data des équipes métiers (marchés, risques, conformité). Objectifs de la mission Vous interviendrez principalement sur : La fin de réalisation et la maintenance évolutive d’un laboratoire data existant L’enrichissement des cas d’usage métiers liés aux opérations de marché, aux risques et à la politique monétaire Les travaux de cadrage et de structuration d’un gisement de données, en lien avec les besoins métiers Périmètre fonctionnel et technique Sources de données Flux issus de systèmes Front, Back et Décisionnels Marché Plateformes de trading et systèmes décisionnels associés Plateforme Data Cloudera Hive Environnements Python et R SAS Viya Outils de restitution et d’analyse Power BI SAS Viya Missions principales Data Engineering & DataLab Développement et maintenance de traitements de données sous Cloudera / Hive Conception et optimisation de requêtes Hive Manipulation, préparation et transformation de données volumineuses Développement de scripts et notebooks Python pour l’analyse, l’exploration et l’enrichissement des données Contribution à la structuration et à l’alimentation des gisements de données Support aux usages métiers Accompagnement des utilisateurs métiers dans l’exploitation des données Contribution aux laboratoires analytiques (Python / R / SAS Viya) Participation à la mise à disposition de jeux de données exploitables pour des analyses prospectives Appui à la création et à l’évolution des cas d’usage data liés aux opérations de marché, aux risques et à la politique monétaire Maintenance et évolution Participation à la maintenance corrective et évolutive du DataLab Prise en compte des nouveaux besoins utilisateurs Contribution à la qualité, à la fiabilité et à la traçabilité des données Documentation des traitements et des jeux de données
Mission freelance
Tech Lead Data Engineer Java Python Azure
Cherry Pick
Publiée le
Azure
Java
PySpark
12 mois
600 €
Paris, France
But principal Le prestataire Tech Lead a pour mission principale de : • Contribuer au delivery du produit • Assurer les choix techniques en collaboration avec la squad dans le respect des standards, • Faire comprendre les choix techniques & obtenir l’adhésion des parties prenantes • Interagir au quotidien avec les parties prenantes (métier, tech authority...) • Garantir la qualité logicielle de la prestation de l'équipe Veiller à la bonne mise en œuvre du plan de développement du produit. Missions • Être le garant technique de la squad en la soutenant dans ses choix et dans la mise en œuvre des bonnes pratiques et standards • Garantir la qualité du code et suivre les KPIs pour le suivi de produit • Contribuer techniquement à la production du code • Remonter les alertes et garantir la résolution de problèmes dans un environnement agile en étroite collaboration avec Delivery Performance, Talent et Chapter leads • Être garant de la bonne mise en œuvre technique du plan de développement du produit.
Mission freelance
INGÉNIEUR DEVOPS / CLOUD
SKILL EXPERT
Publiée le
Ansible
CI/CD
Github
1 an
500-600 €
Paris, France
Descriptif de la mission Notre Client recherche un Ingénieur DevOps / Cloud pour effectuer la mission suivante : - Intégrer l'équipe Infrastructure existante - Accompagner les projets de mise en place de l'automatisation, de la chaîne CI/CD, IaC,et de la transformation vers le Cloud - Evangéliser les différentes équipes de développeurs aux bonnes pratiques de la démarche CI/CD - Proposer des services automatisés - Assurer la bonne communication entre les différentes équipes (projets, infras, applicatives...) - Faire partie des référents sur les sujets DevOps et CI/CD au sein des équipes IT Le collaborateur devra impérativement disposer d'expérience similaire et maîtriser l'écosystème client. Environnement technique de la prestation CI/CD / Cloud (GCP) / Linux / Ansible / Windows / Jenkins / gitlab / GitHub
Mission freelance
Collibra Senior Support & Configuration
Nicholson SAS
Publiée le
AWS Cloud
Collibra
Databricks
3 mois
600 €
Paris, France
Missions : Assurer le support technique de niveau 3, la configuration et l'administration de la plateforme Collibra. Le rôle couvre la gestion des métamodèles, la conception et l'optimisation des flux de travail, l'intégration avec les systèmes internes ainsi que l'accompagnement des entités dans leur intégration et leur adoption de la plateforme. Administration avancée de la plateforme : Gérez les utilisateurs, les rôles, les groupes, les autorisations et les domaines. Maintenir et faire évoluer le métamodèle. Surveillez les performances de la plateforme. Diagnostiquer et résoudre les incidents complexes (support niveau 3). Assurer le suivi technique auprès de l'éditeur si nécessaire. Intégration et automatisation : Intégrez Collibra aux systèmes internes. Configurer et maintenir les connecteurs. Tirer parti des API REST de Collibra pour automatiser les processus. Développer des scripts Python pour automatiser l’ingestion et la mise à jour des métadonnées. Configurer et maintenir les flux de travail. Mettre en œuvre des mécanismes d'automatisation et d'optimisation continue (Exemple : automatiser le chargement des données Collibra Insights sur CDH). Accompagnement des entités : Assurer le support fonctionnel et technique N3 via JIRA . Adapter les aménagements et le modèle opérationnel . Création de tableaux de bord personnalisés (avec HTML) . Diriger des sessions d'intégration, des démos et des formations ciblées . Accompagner les entités dans leur onboarding . Être le référent technique Collibra pour les entités et les équipes Data Gouvernance
Offre d'emploi
Lead Développeur Python & IA (H/F)
Harry Hope
Publiée le
50k-60k €
Crédit Agricole du Languedoc, Occitanie
Nous recrutons pour notre client, une startup à taille humaine spécialisée dans la santé numérique, qui développe des solutions logicielles à fort impact pour optimiser le quotidien des professionnels de santé. L'entreprise conçoit un produit d'aide à la décision basé sur une IA hybride, combinant modèles de langage avancés et logique métier issue de systèmes experts cliniques. Dans un contexte de croissance et de structuration technique, elle souhaite renforcer son équipe avec un Lead Développeur Python / IA confirmé, capable de porter techniquement le coeur du produit. Missions principales : - Concevoir, développer et maintenir les composants IA en Python, notamment autour du NLP et des LLMs. - Intégrer et exploiter des outils et frameworks liés aux LLMs (ex. LangChain, RAG, fine-tuning). - Travailler sur la transformation de règles métier et d'arbres de décision cliniques en systèmes exploitables par l'IA. - Contribuer à l'architecture technique de la plateforme (APIs, performance, scalabilité). - Garantir la qualité du code via tests, CI/CD et bonnes pratiques de développement. - Veiller à la sécurité et à la conformité des systèmes dans un contexte sensible (données de santé). - Assurer une veille technologique continue sur l'écosystème Python et IA. - Partager vos connaissances et accompagner la montée en compétences de l'équipe.
Offre d'emploi
ARCHITECTECTE INFRASTRUCTURE INFORMATIQUE
KEONI CONSULTING
Publiée le
API
Linux
Microsoft Windows
18 mois
20k-60k €
500 €
Saint-Aubin, Île-de-France
MISSIONS Principales activités : • Audit et analyse de l’architecture existante • Conception de l’architecture logicielle au niveau fonctionnelle (modèle C4, cf ) et technique • Conseiller sur les bonnes pratiques et le respect des méthodologies définies dans la cellule d'architecture • Accompagnement de la MOA et de la MOE dans les décisions technologiques • Veille technologique, prototypage et/ou validation de solutions techniques Validation de la mise en œuvre de l’architecture développée ;
Offre d'emploi
DBA Expert MongoDB (H/F)
AVA2I
Publiée le
Azure
Database
Mongodb
3 ans
Île-de-France, France
Dans le cadre du renforcement des équipes IT et de l’évolution des plateformes data vers le cloud, un acteur du secteur de l’énergie recherche un DBA MongoDB expert pour intervenir sur des environnements Azure PaaS à forte criticité, basés sur les technologies MongoDB. Le poste est orienté expertise opérationnelle et technique. Il ne s’agit pas d’un rôle d’architecte mais d’un référent MongoDB capable d’intervenir en profondeur sur la plateforme. Missions principales Administration et exploitation de bases MongoDB en environnement Azure PaaS. Maintien en Conditions Opérationnelles incluant la performance, la disponibilité et la sécurité. Supervision des bases et suivi des indicateurs. Optimisation des performances avec tuning avancé et gestion des index. Gestion des volumes, de la réplication et de la haute disponibilité. Gestion des incidents complexes de niveau N2 et N3. Diagnostic et troubleshooting avancé MongoDB. Réalisation des montées de version et opérations de maintenance. Mise en place et suivi des bonnes pratiques incluant les sauvegardes, restaurations, la sécurité et la supervision. Support technique aux équipes applicatives et rôle de référent MongoDB. Environnement technique MongoDB avec expertise indispensable. Azure PaaS incluant Cosmos DB API MongoDB et MongoDB managé. Cloud Microsoft Azure. Automatisation et scripting PowerShell, Python ou équivalent. Supervision, sécurité et haute disponibilité.
Mission freelance
Ingénieur Data senior
JobiStart
Publiée le
AWS Cloud
Python
1 an
400-550 €
Île-de-France, France
Intervenir sur des programmes stratégiques Data et Intelligence Artificielle au sein de la DSI, sur un socle Cloud orienté Data Intelligence Apporter une expertise Data et Machine Learning Engineering pour concevoir, déployer et exploiter des solutions analytiques et IA à l’échelle Mettre en place des chaînes complètes de gestion de la donnée, depuis l’ingestion jusqu’à l’exposition des usages data et IA Développer et automatiser des flux de données distribués en s’appuyant sur les services Cloud AWS Construire et maintenir des pipelines robustes intégrant orchestration, traitement et stockage des données Participer à la structuration et à l’industrialisation des environnements MLOps et des cycles de vie des modèles ML et IA générative Déployer, superviser et automatiser les plateformes de Machine Learning (SageMaker) et les mécanismes de monitoring associés Réaliser des traitements analytiques, transformations de données et optimisations sur des plateformes de type data warehouse cloud Mettre en œuvre des processus CI/CD et des déploiements automatisés via des outils DevOps Développer des briques techniques Data/IA exploitables par les équipes internes (pipelines, services, composants applicatifs) Participer aux phases de conception, d’architecture, de tests, d’intégration et de mise en production des solutions Alimenter et maintenir les environnements nécessaires aux produits data, analytiques et applicatifs Accompagner les équipes Data Science et techniques dans la clarification des besoins Data/IA Faciliter l’industrialisation et la mise à disposition rapide des cas d’usage Produire la documentation technique et contribuer au respect des standards d’architecture, sécurité et gouvernance
Mission freelance
Tech Lead Java/ angular (H/F)
ALLEGIS GROUP
Publiée le
Angular
AWS Cloud
DevOps
6 mois
100-550 €
Neuilly-sur-Seine, Île-de-France
Dans le cadre de la modernisation de notre plateforme et de l’adoption d’une culture You Build It, You Run It, nous recherchons un profil hybride : un lead développeur confirmé (Java / Angular) avec une forte culture Cloud/AWS et un sens de l’exploitation. Ce rôle va au-delà du développement classique : il s’agit de construire, déployer et opérer les applications en production, d’assurer leur performance et de contribuer à l’automatisation de notre chaîne logicielle. Missions principales • Développer les services backend en Java / Spring Boot et les interfaces en Angular, dans une démarche craft (tests, clean code, revues). • Concevoir, industrialiser et maintenir les pipelines CI/CD pour automatiser les déploiements (GitLab CI). • Déployer et exploiter les applications sur AWS : Farget, Lambda, S3, CloudFront, RDS/Aurora, API Gateway, VPC. • Automatiser l’infrastructure via IaC (Terraform, CDK), y compris la création, la mise à jour et la maintenance des environnements. • Mettre en place les standards de qualité et de sécurité (tests, scans, bonnes pratiques AWS, IAM, secret management). • Contribuer au monitoring et à l’observabilité (CloudWatch, Prometheus, Grafana, ELK, OpenTelemetry). • Optimiser les performances du code, des requêtes, des API, ainsi que le dimensionnement des ressources cloud. • Assurer la continuité de service : disponibilité, résilience, gestion des incidents, analyse post-mortem. • Participer activement à la vie du produit : architecture, conception, revues de code, amélioration continue. • Apporter un regard Ops au sein de l’équipe : logging, alerting, observabilité, bonnes pratiques de run. • Veille et recommandation sur les bonnes pratiques DevOps, AWS et outils d’industrialisation.
Mission freelance
Data Engineer/DataOps - Maintenance prédictive
Nicholson SAS
Publiée le
Ansible
Apache Airflow
Apache Spark
9 mois
300 €
Toulouse, Occitanie
Missions: Mon client recherche un DataOps / Data Engineer pour intervenir sur le service de maintenance prédictive, basé sur : un environnement on‑prem (Python, Airflow, Docker, GitHub CI/CD), un environnement Cloud Azure (Databricks, PySpark, ADF), une Service Platform pour les compagnies aériennes (application web). Assurer le MCO des environnements dev & production. Superviser et monitorer Databricks / Spark. Concevoir & maintenir des pipelines de données en production. Accompagner le déploiement d’algorithmes (optimisation performance & coûts). Améliorer les processus d’intégration / versioning dans la Service Platform.
Offre d'emploi
Tech Lead Data (H/F)
AVA2I
Publiée le
Apache Airflow
AWS Cloud
Data Lake
3 ans
Île-de-France, France
Dans le cadre de l’évolution et de l’industrialisation de sa plateforme Data multi-cloud, un acteur majeur du secteur de l’énergie recherche un Tech Lead Data senior . La mission s’inscrit au sein de la plateforme Data Groupe avec des enjeux forts de : Scalabilité Gouvernance et qualité des données Industrialisation des pipelines Fiabilité en production 🎯 Missions principales 🔹 Leadership technique Être le référent technique de la plateforme Data Définir et faire évoluer l’architecture Data Encadrer et accompagner les Data Engineers Participer aux choix technologiques et aux orientations stratégiques 🔹 Build – Industrialisation Concevoir et mettre en œuvre un Data Lake Définir, développer et automatiser les pipelines de données Mettre en place les bonnes pratiques CI/CD Garantir la performance, la robustesse et la scalabilité 🔹 Run – MCO Assurer la supervision des traitements Gérer les incidents et optimiser les processus Maintenir les environnements techniques Automatiser les tâches récurrentes 🛠 Environnement technique☁ Cloud AWS (Redshift, RDS, Lambda, SQS, SNS, API Gateway…) GCP Contexte multi-cloud 💾 Data & Big Data SQL / NoSQL Data Warehouse Spark / Hadoop / HDFS Airflow ⚙ Dev / DevOps Python APIs (FastAPI / Flask) Docker Terraform GitLab CI/CD Linux
Offre d'emploi
Architecte Technique Senior (H/F)
IA Soft
Publiée le
Angular
Azure Kubernetes Service (AKS)
Mongodb
12 mois
40k-50k €
400-550 €
Île-de-France, France
Dans le cadre du renforcement de nos équipes Architecture, nous recherchons un Architecte Technique Senior pour garantir la cohérence technique des applications du périmètre, accompagner les projets dans leurs choix d’architecture et contribuer aux dossiers d’architecture technique (DAT) en lien étroit avec les équipes cybersécurité, infrastructure et exploitation. Objectifs : Garantir la cohérence technique des applications et leur alignement avec la stratégie d’entreprise. Collaborer avec l’ensemble des acteurs (projets, cybersécurité, infrastructure, exploitation, experts transverses). Piloter la réalisation des dossiers d’architecture technique (nouvelles applications et évolutions). Contribuer, sur sollicitation, à la gestion de crises (incidents / résolution). Identifier, mobiliser et animer les expertises techniques complémentaires . Gérer, compléter et suivre les demandes de services liées aux projets. Activités / Tâches : Planifier et animer les ateliers d’architecture avec les équipes projets et cybersécurité. Recueillir et analyser les besoins des équipes projet sollicitant les services d’architecture. Concevoir des architectures techniques et d’hébergement (Cloud / On-Premise) alignées avec la stratégie SI. Valider la faisabilité des architectures auprès de la cybersécurité, des experts infrastructure et des équipes d’exploitation. Rédiger et maintenir à jour les DAT / dossiers d’architecture technique & hébergement . Réaliser le dimensionnement initial des composants d’infrastructure. Présenter et défendre les dossiers en comités de validation . Proposer des axes d’amélioration (process, offres de service, templates, méthodes) aux architectes référents. Relire et valider les dossiers produits par d’autres architectes (autres divisions). Maintenir la cartographie applicative et suivre l’obsolescence du périmètre. Conseiller sur la stratégie d’évolution des applications. Apporter une expertise forte sur les socles Ubuntu / Apache / Tomcat . Livrables attendus : Production et suivi des Dossiers d’Architecture Technique (DAT) . Mise à jour d’un planner de suivi (versions, dossiers, jalons). Reporting hebdomadaire : planning, synthèse d’activité, points structurants, irritants, blocages. Centralisation et mise à jour des informations dans un référentiel/fichier centralisé . Compte-rendu hebdomadaire des activités (applications, temps passé, description macro). Connaissances techniques : Réseau, base de données, middleware, SQL OS : Ubuntu / Redhat (et connaissances Solaris/Windows appréciées) Cloud : AWS & Azure + On-Premise Virtualisation & conteneurs : VMWare, Docker, Kubernetes Bonne compréhension des logiciels/technos du schéma directeur Environnement technique : Cloud AWS / Azure / On-Premise Tomcat, Java, NodeJS, Kubernetes, Python, Angular Ubuntu, Solaris, Redhat, Windows PostgreSQL, Oracle, MongoDB
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- PER/EURL - Obligation d'en créer un nouveau ?
- Compte à terme pro SASU IS
- Bague Magique de Richesse très efficace pour la commerce
- Traitement fiscal des cotisations sociales payées en 2025 sur CA micro-BNC 2024
- Deuxieme versement ARCE sans CA
- PORTE FEUILLE MAGNETISÉ QUI MULTIPLIE L’ARGENT DE 100 À 1000 FOIS PAR JOUR.
1477 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois