L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 4 299 résultats.
Mission freelance
Responsable d’Application (RUN & DATA GCP)
Codezys
Publiée le
Git
Reporting
Shell
6 mois
Lille, Hauts-de-France
Localisation : Lille Contexte : International 1) Description de la mission Située dans un contexte international, cette mission concerne la gestion de plusieurs produits digitaux récemment déployés, avec des enjeux clés tels que : la fiabilité la continuité de service la qualité des données la performance opérationnelle Le poste de Responsable d’Application combine une responsabilité majeure dans le domaine du RUN applicatif (support, gestion des incidents, maintien en conditions opérationnelles, performance) et une contribution technique liée aux composants DATA sur GCP. Il s’inscrit dans une démarche d’amélioration continue et de développement progressif des compétences sur la stack technologique. Le profil recherché doit être à la fois technico-fonctionnel, avec une orientation vers le pilotage du RUN et du support applicatif, plutôt que vers un rôle exclusivement de développement. 2) Objectifs & responsabilités principales Pilotage du RUN applicatif Assurer la gestion des incidents et des problèmes Garantir le maintien en conditions opérationnelles (MCO) Suivre la performance à l’aide de KPI et produire un reporting régulier Maintenir la stabilité et la continuité du service pour le périmètre concerné Pilotage opérationnel & coordination transverse Animer les instances de projet et de run : COMOP / COPIL Coordonner les différentes parties prenantes : équipes IT, métiers, TMA, éditeurs, pays Gérer le pilotage opérationnel global et assurer le suivi des actions Mise en production & évolutions Accompagner les mises en production (MEV) Suivre l’avancement des projets et évolutions du périmètre Garantir la maîtrise à la fois fonctionnelle et technique des outils Assurer la maintenance évolutive Contribution DATA (GCP) Analyser et comprendre les flux de données et leurs usages Intervenir techniquement sur des aspects tels que SQL ou troubleshooting data Développer ou faire évoluer certains composants sous GCP si nécessaire Participer activement à l’amélioration continue et à la montée en compétences sur la stack DATA 3) Livrables attendus Suivi du RUN avec : – Tableaux de bord KPI – Reporting régulier (incidents, performance, disponibilité) Comptes rendus et supports d’instances : – COMOP / COPIL – Plan d’actions pour le RUN et l’amélioration continue Suivi des mises en production (MEV) : – Préparation, coordination, validation et accompagnement Documentation opérationnelle et technique du périmètre Analyses des flux DATA et résolution d’anomalies
Mission freelance
Expert Data Transfer / Intégration SI
Codezys
Publiée le
API
Control-M
Middleware
12 mois
450-500 €
Paris, France
Dans le cadre d’un projet relatif à l’intégration d’une société d’investissement au sein d’une société de gestion d’actifs, nous recherchons un expert en transferts de données et interconnexions entre systèmes d’information. L’objectif est d’accompagner la mise en place des flux de données et des connecteurs nécessaires entre les applications existantes de la premier organisme et celles du second, afin de garantir une transition efficace, sécurisée et maîtrisée. Description de la mission L’expert interviendra sur des sujets liés à l’intégration applicative et à la circulation des données entre SI, en étroite collaboration avec les équipes techniques déjà en place (middleware, ordonnancement, connectivité, applicatifs, etc.). Principales responsabilités Analyser les besoins de transfert de données entre les systèmes d’information des deux entités. Participer à la conception et à la mise en œuvre des connexions et flux nécessaires. Travailler avec les experts internes sur les volets : Middleware Scheduling / Ordonnancement Connectivité réseau Applications et interfaces Définir les modalités techniques de transfert : protocoles, formats, fréquences, sécurisation, monitoring Contribuer à la fiabilisation des échanges (tests, validation, résolution d’incidents). Documenter les solutions mises en place (schémas de flux, procédures, référentiels techniques).
Mission freelance
Développeur / data engineer
AVALIANCE
Publiée le
Azure
CI/CD
Microsoft Fabric
2 ans
400-550 €
Belgique
Contexte de la mission Le data developer/engineer recherché rejoindra l’équipe Factory Data utilisant les technologies data Azure : Tâches principales • Développer les flux d’ingestion via Fabric Data Factory (et compréhension de Azure Data Factory) ; • Développer les flux de transformation de données via Fabric Factory Notebook ; • Optimiser les Queries des transformations, en particulier en prenant en compte les coûts Azure associés ; • Contribuer à la modélisation du Lake House ; • Établir le Design technique, implémentation de l’architecture médaillon (argent & or) dans Microsoft Fabric ; • Établir le plan de tests unitaires (automatisables) de la solution ; • Suivre/exécuter les tests unitaires ; • Participer à l’estimation de l’effort lié aux activités de développement lors du cadrage de la demande ; • Rédiger la technique de documentation ; • Contribuer à l’amélioration continue (guidelines de développement) ; • Contribuer à la maintenance & résolution des incidents (production).
Offre d'emploi
Data Base Administrator
HN SERVICES
Publiée le
Oracle
PL/SQL
1 an
28k-50k €
100-450 €
Paris, France
Ses principales activités • Contribuer à la conception de l’infrastructure en charge d’accueillir la BDD en lien avec le Référent IT Solution • Contribuer aux chiffrages des développements BDD à réaliser • Contribuer au maintien du référencement des BDD Hors production et à leur administration • Contribuer à la conception technique (MCD, MPD) de la solution à mettre en œuvre dans le respect des choix techniques en lien avec les autres intervenants du projet • Participer à la réalisation des scripts de création des modèles physiques • Contribuer à la gestion de configuration logicielle des composants de bases de données • Contribuer à l’optimisation/la vérification de l’adéquation des modèles et des requêtes • Intégrer les composants dans une version de mise en production
Mission freelance
POT8930 - Un Développeur Data & IA (Python & Dataviz) Sur Auvergne-Rhône-Alpes
Almatek
Publiée le
JIRA
6 mois
340-400 €
Auvergne-Rhône-Alpes, France
Almatek recherche pour l'un de ses clients, Un Développeur Data & IA (Python & Dataviz) Sur Auvergne-Rhône-Alpes . Description Mission générale : Renforcer le groupe en assurant la conception, le développement et l’industrialisation de solutions Data, IA et Dataviz, au service des équipes de développement et DevSecOps. Le consultant contribue également à l’intégration d’usages IA dans les outils du développeur augmenté, ainsi qu’à l’accompagnement des équipes internes. Responsabilités principales 1. Développement & industrialisation Data / IA (activité dominante) Concevoir et développer des composants logiciels Python : scripts, services, APIs, traitements batch. Mettre en œuvre des chaînes de traitement de données (ingestion, qualité, traçabilité, performance). Développer et industrialiser des solutions Data et IA destinées aux équipes de développement Enedis. Contribuer à l’intégration des usages IA dans l’outillage du développeur augmenté (assistants de code, automatisation, analyse, observabilité). 2. Dataviz & reporting décisionnel Concevoir des tableaux de bord Power BI et autres outils de visualisation. Produire des visualisations utiles au pilotage, à l’observabilité et à l’aide à la décision. 3. Documentation, capitalisation et qualité Structurer et maintenir la documentation technique. Contribuer aux référentiels de connaissances (Confluence). Participer à la capitalisation des bonnes pratiques Data/IA. 4. Accompagnement et formation des équipes internes Appuyer les équipes dans la prise en main des solutions. Animer des sessions de formation ou démonstrations (ex : GitHub Copilot). Participer au transfert de compétences et à la montée en maturité des équipes 5. Pilotage et coordination opérationnelle Suivre le backlog, collaborer avec les équipes projets / produits / outillage. Produire un reporting régulier d’avancement et d’activité. Compétences requises Techniques (obligatoires) Développement Python avancé. Connaissance des modèles et usages IA (machine learning, IA générative, observabilité IA). Traitement et préparation de données (ETL/ELT). Maîtrise Power BI et outils de dataviz. Usage outillé des chaînes DevOps / CI-CD (GitLab, pipelines). Environnement et outils attendus GitLab CI / Placide Confluence / JIRA Plateformes Data & IA GitHub Copilot (usage expert)
Mission freelance
Ingénieur DevOps Senior Plateforme Cloud H/F
TechOps SAS
Publiée le
AWS Cloud
DevOps
Google Cloud Platform (GCP)
10 mois
550-650 €
Paris, France
Dans le cadre du renforcement de sa plateforme cloud, notre client recherche un Ingénieur DevOps / Platform Cloud senior pour concevoir, structurer et faire évoluer un environnement AWS robuste et hautement sécurisé. Vous interviendrez sur la création de modules Terraform industrialisés et maintenables, la structuration d’une architecture multi-comptes ainsi que la définition de standards de déploiement pour des environnements conteneurisés, serverless et traditionnels. Vous contribuerez à l’automatisation complète des pipelines CI/CD avec contrôles qualité et sécurité, au monitoring avancé, à la gestion de la résilience et à l’accompagnement des équipes dans la migration et l’adoption des bonnes pratiques cloud.
Mission freelance
Chef de Projet Infrastructure Cloud (Azure/AWS) – Secteur Luxe
Zenith Rh
Publiée le
Azure
Cloud
Infrastructure
6 mois
Hauts-de-Seine, France
Le contexte : Vous rejoignez le département Infrastructure d'une des maisons de luxe les plus prestigieuses au monde. Dans un environnement en forte croissance et à la culture entrepreneuriale, vous êtes le chef d'orchestre entre les experts techniques et les directions métiers (Parfums, Beauté, Mode, Immobilier). Votre défi : Oubliez la gestion d'un projet unique. Ici, vous pilotez un portefeuille de 10 à 20 projets en parallèle (Cloud Azure, Data, IA, Retail). Votre rôle n'est pas de faire le travail des experts, mais de garantir que la valeur est livrée, que les délais sont tenus et que la communication est fluide. Vos missions prioritaires : Cadrage & Structure : Transformer des besoins exprimés oralement en feuilles de route structurées. Apporter du cadre là où il manque de formalisme. Interface Métier : Traduire les enjeux techniques en bénéfices business pour les directions applicatives. Pilotage Proactif : Relancer, coordonner et "challenger" les parties prenantes (internes et externes) pour débloquer les situations. Reporting de Haute Précision : Offrir une visibilité claire à la direction via des indicateurs pertinents (l'exigence du luxe impose une finition parfaite).
Mission freelance
Azure Cloud Engineer - CI/CD, Devops, AI (h/f)
emagine Consulting SARL
Publiée le
6 mois
550-600 €
75001, Paris, Île-de-France
Vous êtes un ingénieur Azure Cloud expérimenté et possédez une expertise approfondie dans la mise en place d'infrastructures cloud sécurisées et évolutives pour les charges de travail liées aux données et à l'IA ? emagine vous offre l'opportunité de contribuer à l'accélération d'une initiative mondiale d'usine d'IA en renforçant l'architecture cloud, la sécurité et l'excellence opérationnelle. Are you an experienced Azure Cloud Engineer with deep expertise in building secure, scalable cloud foundations for data and AI workloads? emagine has an opportunity for you to support the acceleration of a global AI Factory initiative by strengthening cloud architecture, security, and operational excellence. Key Tasks & Deliverables You will play a central role in shaping and validating enterprise‑grade Azure cloud environments for AI and data-driven solutions. Your responsibilities will include: Designing, validating, and refining cloud architectures aligned with enterprise infrastructure and cybersecurity standards. Implementing and enhancing Azure landing zones and cloud‑native services. Ensuring secure and compliant identity and access management (IAM) across cloud workloads. Managing cloud networking, monitoring, governance, and cost control. Supporting CI/CD, DevSecOps, and automation practices for AI solution deployment. Providing hands‑on technical support to development teams throughout build and release phases. Troubleshooting complex Azure issues and contributing to risk mitigation and security assessments. Ensuring all delivered solutions are production‑ready, scalable, secure, and compliant. Skills & Experience Senior Cloud Engineer with strong skills in Microsoft Azure, Cloud Infrastructure, Architecture. Also Azure Automation expertise and good Cybersecurity Awareness. Strong understanding of enterprise networking, identity management (Azure AD), cloud governance, and operational resilience. Ability to collaborate with infrastructure and cybersecurity teams to ensure architectural consistency and compliance. Experience supporting AI/ML, data, and cloud‑native engineering teams is highly desirable. Why Join? You'll be working with a collaborative, enabling global team, while operating autonomously within your domain. You can work remotely from anywhere within Europe, supporting high‑impact initiatives that are scaling rapidly. Apply Apply with your latest CV or reach out to Brendan to find out more.
Mission freelance
Ingénieur Expertise DYNATRACE CLOUD 500 e par jour
BI SOLUTIONS
Publiée le
Cloud
Dynatrace
2 ans
400-500 €
Île-de-France, France
Ingénieur Expertise DYNATRACE CLOUD 500 e par jour Déployer Dynatrace Créer les dashboard adaptés aux besoins des responsables applicatifs avec une vision métier Piloter le déploiement des agents et des dashboards sur l’ensemble du parc applicatif Accompagner les utilisateurs sur l’utilisation de l’outil Très bonne maîtrise de Dynatrace et de la création de dashboard adaptés Capacité à auditer et optimiser un environnement Dynatrace existant Connaissances générales des environnements cloud, on-premise, microservices, Kubernetes Compréhension des enjeux performance, disponibilité, exploitation 500 e par j
Offre d'emploi
Ingénieur système cloud (H/F)
TENEXA
Publiée le
45k-65k €
Colombes, Île-de-France
L'ingénieur système a pour mission principale de concevoir, développer, mettre en place et maintenir des systèmes d'information performants et sécurisés pour les clients. Il doit être capable de comprendre les besoins des clients (internes et externes) et de proposer des solutions adaptées à leurs exigences. Il travaille en étroite collaboration avec les équipes de développement, de production et d'exploitation pour garantir la disponibilité et la stabilité des systèmes. Ce poste requiert une expertise technique approfondie sur les environnements systèmes Windows et Linux, une capacité à traiter les sujets en autonomie ainsi qu’une capacité avérée à collaborer. Responsabilités principales : Accompagner le développement du Cloud Horizon pour en faire un des principaux leviers de développement de la société Mise en œuvre des solutions : participer à l’élaboration des architectures système. Réaliser l'installation la configuration et le déploiement des infrastructures cloud et des solutions associées. Gestion de la sécurité : garantir la sécurité des données et des systèmes en mettant en place les mesures de protection adéquates. Optimisation des performances : analyser et améliorer la performance des systèmes cloud et des infrastructures en identifiant et en supprimant les goulots d'étranglement et en facilitant le travail des services managés. Support technique : fournir un support technique avancé aux équipes internes et résoudre les problèmes complexes (support niveau 3). Process / documentation : participer à la mise en place de procédures et de standards techniques pour garantir la qualité des prestations. Collaboration : travailler en étroite collaboration avec les autres départements pour s'assurer que les solutions du cloud Horizon répondent aux besoins de l'entreprise. Accompagner le déploiement des sujets d’infrastructure pour les clients de Tenexa Participer à toutes les phases techniques de mise en œuvre de solutions (du design de la plateforme à sa mise en œuvre) en interaction avec le métier / client. Accompagner et conseiller nos clients dans la mise en place de solutions, en les aiguillant vers les composants et services les plus adéquats pour leurs contextes (en prenant en considération les capacités des composants choisis, leurs coûts d'utilisation, …). Prendre en charge les projets de « move to cloud » des clients Tenexa vers le Cloud Horizon.
Offre d'emploi
FINOPS CLOUD
CyberTee
Publiée le
FinOps
40k-70k €
Paris, France
🚀 Vos missions Définir et piloter la stratégie FinOps Mettre en place un modèle de gouvernance FinOps (rôles, processus, outils, KPIs) Surveiller, analyser et optimiser les coûts Cloud : Amazon Web Services (AWS), Microsoft Azure, Google Cloud Platform (GCP) Contribuer à la définition du budget Cloud et assurer le suivi des prévisions Identifier les anomalies, gaspillages et leviers d’optimisation (right-sizing, réservations, spot instances, etc.) Concevoir des rapports et tableaux de bord de suivi des dépenses Cloud (Power BI, Tableau, Looker, Grafana) Accompagner et conseiller les clients sur les meilleures pratiques, outils et technologies adaptés à leur contexte Réaliser des présentations, démonstrations, POC et pilotes pour valoriser les recommandations Assurer le transfert de compétences aux équipes techniques clientes Réaliser une veille technologique et financière sur les offres Cloud et les tendances FinOps 👤 Votre profil Formation Bac+5 (école d’ingénieur, informatique, finance ou équivalent) Expérience confirmée (3 à 8 ans) en environnement Cloud ou gestion financière IT Solide expertise technique dans les domaines suivants : Cloud computing (IaaS, PaaS, SaaS, AWS, Azure, GCP) Modèles de tarification et de facturation Cloud Administration systèmes (Linux, Windows, virtualisation, web, hardening, scalability) Sécurité et gouvernance Conteneurisation : Docker, Kubernetes Capacité à travailler en équipe avec d’excellentes compétences en communication et présentation Dynamique, curieux(se), organisé(e), rigoureux(se) et force de conviction Volonté d’intervenir sur des projets stratégiques et innovants Anglais professionnel à l’écrit comme à l’oral
Offre d'emploi
Data Quality Analyst
VISIAN
Publiée le
Dataiku
Tableau software
26k-40k €
Paris, France
Contexte et Objectifs Le bénéficiaire souhaite une prestation d'accompagnement dans l'objectif d'assurance de développement et la mise en œuvre des indicateurs et dashboards sur la qualité des données au sein de la production informatique mutualisée (gestions des données de l'IT), dans un contexte technique complexe, et en méthode agile. Dans le cadre du programme ECB 8MILE, le data quality analyst assurera le développement des méthodes de contrôle qualité des données avec des dashboards / KPI permettant de piloter les remédiations. Missions Principales Maîtrise Data preparation (Mandatory - Niveau Expert) : développement de flow de préparation, traitement des données afin d'extraire les données essentielles et optimiser les performances dans la data visualisation Maîtrise Data visualisation (Mandatory - Niveau Expert) : Le développement de dashboards mettant en évidence l'état de santé des bases de données sur différents axes (inventaire, état, résilience, backup, obsolescence) Infrastructures IT : connaissance générale sur les différentes solutions de production informatiques et leurs interactions (serveurs, réseaux, télécom, stockage, filtrage, répartition de charge, mainframe, virtualisation, docker, ITIL, ITSM, sécurité informatique, middleware, etc)
Offre d'emploi
Business Analyst IT Finance
Lùkla
Publiée le
Diapason
ETL (Extract-transform-load)
Master Data Management (MDM)
2 ans
50k-55k €
450-550 €
La Défense, Île-de-France
Nous recherchons un(e) Business Analyst IT Finance expérimenté(e). Vous serez le pivot central entre les équipes Finance et IT, assurant la continuité opérationnelle lors de la migration des systèmes financiers. Vous accompagnerez également nos projets de conformité (facturation électronique) et contribuerez au cadrage des futures initiatives technologiques, notamment autour de l'IA appliquée à la Finance. 1. Planification et coordination des transitions Développer et piloter les plans d'action détaillés pour la sortie du périmètre TSA de chaque application financière. Cartographier les systèmes existants, les interfaces et les dépendances critiques. Coordonner les tâches entre les équipes Finance, IT et les prestataires externes. 2. Intégration des processus Finance Collaborer avec les responsables de processus et les architectes IT pour intégrer les outils Finance dans nos systèmes internes. Faciliter les ateliers de travail, valider les besoins fonctionnels et documenter les processus et flux de données cibles. 3. Gestion de projet et continuité d'activité Identifier les risques opérationnels et concevoir des plans de mitigation (backup et support). Définir la stratégie de test et piloter les phases de cutover (bascule) ainsi que le support hypercare post-déploiement. Assurer un reporting régulier sur l'avancement, les risques et les points bloquants. Assister les équipes dans le cadre des UAT à mener. 4. Projets transverses et innovation Facturation électronique : Analyser les exigences réglementaires, accompagner le design de la solution, préparer les plans de test et guider les utilisateurs dans l'adoption. Futurs projets IT : évaluation des business cases, recette UAT, définition des ressources, budgets, calendriers et critères de succès.
Offre d'emploi
Architecte Cloud AWS – Consultant Transformation & Migration Cloud
KLETA
Publiée le
AWS Cloud
GitLab CI
Terraform
3 ans
Paris, France
Dans le cadre de programmes de transformation numérique, nous recherchons un Architecte Cloud AWS pour accompagner nos clients dans leurs projets de migration et de modernisation vers le cloud. Vous interviendrez sur des missions de cadrage, d’audit et de définition de trajectoires cibles adaptées aux contraintes techniques, organisationnelles et métiers. Vous analyserez les architectures existantes, identifierez les risques et proposerez des solutions optimisées en matière de performance, de sécurité et de coût. Vous participerez à la conception de Landing Zones AWS, à la structuration des environnements multi-comptes et à la mise en place de bonnes pratiques de gouvernance. En collaboration avec les équipes DevOps et Sécurité, vous contribuerez à l’industrialisation des déploiements et à l’adoption des principes cloud native. Vous aurez également un rôle pédagogique en accompagnant les équipes client dans leur montée en compétence sur AWS et en partageant les bonnes pratiques d’architecture.
Offre d'emploi
Développeur Data Python SQL Shell Spark
KEONI CONSULTING
Publiée le
JIRA
Jupyter Notebook
Python
18 mois
20k-60k €
100-500 €
Lyon, Auvergne-Rhône-Alpes
CONTEXTE : Le client dans le cadre de son activité Big Data, recherche un profil en développement Data, Python, SQL, Shell, Spark (+ de 5 ans d'expérience) pour nous accompagner dans les actions sur la plateforme Cloudera Hadoop. L'objectif de la mission est de réaliser et maintenir les développements nécessaires à l'alimentation de la plateforme Hadoop, à la mise en place d'extractions et à l'accompagnement des utilisateurs MISSIONS Rattaché au responsable Big Data, le profil aura pour principales missions : - de prendre en charge les évolutions des données à intégrer, reprendre les développements effectués pour l'alimentation du Datalake , de les faire évoluer en fonction des besoins (Stack technique : Hadoop Cloudera, Hive, Impala, Python, Shell, Linux, SQL, VBA, Jupyter) - d'avoir une expertise technique permettant de spécifier techniquement les tâches, fournir les requêtes de référence, effectuer une revue de code, accompagner les potentiels alternants ou stagiaires (une alternante à date) - de mettre en place des extractions à partir de ces données, - d’assurer le support niveau 2, - de faire appliquer les consignes aux utilisateurs, - de garantir la tenue des délais de livraison dans un contexte de production à fortes attentes - de contribuer à garantir la maintenabilité de la plateforme ainsi que ses performances et son exploitabilité Il veillera au respect de l’utilisation des modèles référencés ou à leur évolution en collaboration avec la Direction Technique Informatique et la Gourvernance de la Donnée. Le profil devra posséder des aptitudes et qualités avérées sur sa capacité à communiquer avec diplomatie, à écouter, à s'intégrer et à partager son savoir faire, à documenter ses actions et à accompagner. Dans le même ordre d'idée, quelques attendus : - Développement des traitements d'alimentation, forte capacité à structurer l'activité (JIRA), mise en place et description de processus (guides, accompagnement utilisateurs, …), pilotage opérationnel de certains sujets - Développement d'extractions avec SQL (expert) et scripting Shell avancé pour l'automatisation - Capacité à investiguer et faire du reverse engineering dans une architecture héritée complexe - Optimisation des traitements de la plateforme et ceux des utilisateurs Livrables attendus "Code source documenté Plan de tests / fiches de test Bilan Bordereau de livraison Manuel d’installation Dossier d’exploitation JIRA documentée" Environnement technique - technologique "• Cloudera Hadoop • Hive, impala • Python • SQL • Shell • Spark • VBA • GIT • Jupyter • Linux • JIRA" Compétences techniques Connaisance Cloudera Hadoop, Hive, Impala Développement Python Requêtage SQL Développement Shell Développement Spark (Scala) Utilisation de GIT Agilité (méthodes Kanban et/ou Scrum) Compétence liée à l'environnement Connaissance de l'écosystème de la protection sociale
Offre d'emploi
Developer Back end Java 17/21 (Spring boot) & devops
KEONI CONSULTING
Publiée le
Cloud
Postman
Terraform
18 mois
20k-60k €
100-500 €
Lille, Hauts-de-France
Contexte Nous recherchons 1 Dev Back-end Java afin de renforcer l'équipe actuelle. Cette personne pourra intervenir sur les projets au sein du dispositif existant ou le renforcer sur les autres assets, selon la charge de cette période, afin de tenir l'engagement de mise en production MISSIONS Ø Mise en place du socle technique - Choix des librairies nécessaires au projet - Mise en place du socle technique sous Docker - Mise en place des déploiements automatisésEnvironnement technique à maîtriser : o Langages : Java 17/21 o Frameworks : Spring Boot, JUnit, Logback o Serveur d’application : Service manager AWS (Beanstalk) et infra Kub o Industrialisation : Docker, Maven, Gateling o Outils : Datadog, Git LabCi, Jira, Sonar, etc. ○ • Assurer une qualité de code optimale ○ Initie un bon socle ○ S'assure de la mise en place des guidelines ( Quality Gate, % code coverage, pyramide de tests..) ○ Suivi des métriques ○ Garant de la bonne application des pratiques de devs • Fournir une direction technique / architecturale ○ Unifier les pratiques ○ Aider à prendre les bonnes décisions ○ Fluidifier les longs débats, et tranche en cas d'indécision ○ Echange avec les bons partenaires pour coconstruire si besoin • Contrôler la dette technique ○ Sensibiliser alerter en cas d'obsolescence / mauvaise pratiques ○ Suivre, afficher et prioriser la dette technique • Assurer le bon déroulement des Code Review ○ Animer et cadrer les CR (suivre le Time to Review, la Pull Request Size.. ) • Promouvoir la collaboration et l'engagement ○ Accompagne et facilite le partage de connaissance (matrice de compétences, 1to1..) ○ Garant du process d'On-Boarding ○ Crée de la cohésion dans l'équipe ○ Être l'interlocuteur privilégié du PO / Stakeholders en cas de question technique • Déployer de la qualité, rapidement ○ Focus l'équipe sur des solutions rapides, et fiables (KISS, ) ○ Suivi de la fréquence de déploiement, taille de déploiement.. ○ Favorise la collaboration Dev/Ops • Participation au cadrage Technico/fonctionnelle ○ Participation aux études de faisabilité / estimations / planification ○ Réalisation de cadrages fonctionnels et techniques pour les évolutions ○ Réaliser des estimations de charge ou de complexité d’une évolution et des tâches à effectuer ○ Produire les livrables en suivant les pratiques agiles ○ Tests unitaires (TDD) et tests fonctionnels automatisés (BDD) ○ Application packagée (Docker) ○ Documentation technique ○ Analyser les rapports d'intégration continue et actions en conséquence ○ Remonter les alertes et le reste à faire sur ses tâches ○ Contribuer à l’activité d’étude d’architecture technique de l’équipe ○ Être le référent Technique de l'équipe Scrum en lien avec le DevOps et les équipes infra pour les choix techniques mais aussi sur leurs mises en place • Être le garant des process de dev ○ Mettre en place et être le garant des bonnes pratiques de dev ○ Mettre en place des process pour avoir une unicité de pratique au sein de l'équipe (listing de chose à faire lors d'une revue, …) ○ Mettre en place des métriques pour identifier des axes d'améliorations : § Couverture de code par les Test et des TU § Nombre d'aller-retour et Nb de retour sur les revues § Nombre d'anos § Temps passé sur les différentes étapes du Workflow (dev et Test (TU, TA,..) Revue, livraison …) § Réaliser des ateliers d'analyses et de prise d'action d'amélioration Suivi des métriques et des actions d'amélioration 3) Contribution à la vie de l’équipe Ø Vous participez activement à la vie de l’équipe Ø Vous êtes proactif pendant les cérémonies agiles (DSM, rétro, démo, ...) et force de proposition en termes d'amélioration Ø Vous contribuez à l'animation du backlog Produit et technique Ø Vous participez à l’estimation de charge ou de complexité des tâches de l’équipe Ø Vous remontez les alertes et le reste à faire sur ses tâches Ø Vous assurez un transfert de connaissances vers les autres équipes Livrables : Les compétences techniques minimales que nous recherchons sont : - Une maitrise parfaite du Java 17/21 mais aussi des Framework Spring et Spring boot - Frameworks : Spring Boot, JUnit, JAX-RS, Logback - Git LabCi ne sont pas des options ;) PROFIL& COMPETENCES Pour le poste, il convient d'avoir au minimum de 7/8 ans d'expérience sur des postes de développeur prioritairement sur Java 17/21 (Spring boot), avec idéalement plusieurs expériences de lead dev Expert Java dans un contexte Agile très fort mais également une organisation DevOps afin de pouvoir monter les environnements back mais également travailler sur la mise en place et l'Optimisation des pipelines de livraison en Hors Prod et en Prod. Nous travaillerons sur une infra AWS donc il sera obligatoire que le candidat maîtrise l'environnement AWS avec idéalement plusieurs certifications AWS (Architecte Associate, Développer associate, …). Vous aimez apprendre, partager vos connaissances et mettre en application les technologies actuelles et futures. De plus, les compétences suivantes en DevOps seront plus que souhaitables : - Vous connaissez AWS et avez déjà travaillé sur des pipelines de livraison sur AWS - Vous connaissez les logiciels de livraison continue comme Gitlab CI, Jenkins, Artifactory, … - Mais aussi les logiciels intégrer dans les pipelines de livraison pour assurer la qualité/ la sécurité comme Sonar, CheckMark, Vault, … - Vous maitrisez les concepts Cloud et les outils DevOps comme : Terraform, Ansible, Gitlab CI et Docker n'a plus de secret pour vous - Enfin vous maitriser également les outils de testing : PostMan, Selenium ou encore Cucumber
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
4299 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois