L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 411 résultats.
Offre d'emploi
Architecte Applicatif – Digital Factory (H/F)
Inventiv IT
Publiée le
Architecture
AWS Cloud
DevSecOps
Paris, France
Au sein d’une Digital Factory , vous intervenez sur des projets stratégiques en Build & Run (MCO) dans des environnements complexes et à fort enjeu. Vous êtes garant de la cohérence globale des architectures applicatives , dans une logique de performance, scalabilité et maintenabilité. Missions : Architecture & vision technique Définir et faire évoluer l’ architecture applicative (microservices, APIs, serverless) Garantir la cohérence technique globale des solutions Challenger les choix techniques et orienter les équipes vers les meilleures pratiques Participer aux cadrages techniques et aux choix structurants Accompagnement des équipes Collaborer étroitement avec les Tech Leads, développeurs et PO Accompagner les équipes sur les bonnes pratiques d’architecture Assurer la montée en compétence sur les standards techniques Intervenir sur les sujets critiques (support niveau expert) Delivery & MCO Superviser les projets en Build et Run Garantir la qualité, la performance et la robustesse des applications Anticiper les risques techniques et proposer des plans d’action Contribuer à l’amélioration continue des processus DevSecOps & Cloud Promouvoir les pratiques DevSecOps (CI/CD, sécurité, automatisation) Participer à l’industrialisation des déploiements Optimiser les architectures Cloud (AWS, GCP) Assurer l’observabilité (monitoring, logs, performance) Innovation & transformation Être force de proposition sur les évolutions technologiques Contribuer à la roadmap technique Veiller aux tendances et aux nouvelles pratiques du marché Environnement technique : Backend : Java, Spring Boot Frontend : React Architecture : Microservices, APIs, Serverless Cloud : AWS, GCP DevOps : GitLab CI/CD, Docker, Terraform Data : PostgreSQL, MongoDB
Offre d'emploi
Data Engineer Teradata et Big Data H/F
CONSORT GROUP
Publiée le
Big Data
Teradata
55k-62k €
75017, Paris, Île-de-France
Chaque moment compte. Surtout ceux que vous vivez à fond. Bienvenue chez Consort Group. Consort Group, accompagne depuis plus de 30 ans les entreprises dans la valorisation de leurs données et infrastructures. Elle s'appuie sur deux leaders, Consortis et Consortia, et place l’humain et la responsabilité sociétale au cœur de ses valeurs. C’est votre future équipe Les équipes de ConsortIA , sont des acteurs de référence de la Data, du Développement Digital et de l'Ingénierie Média. En combinant ces expertises, nous concevons des systèmes d’information augmentés, intégrés, agiles et sécurisés, au service de la performance et de la transformation numérique de nos clients. Data Engineer Teradata et Big Data H/F C’est votre mission Vous êtes passionné·e par [XXX] ? Ce poste est fait pour vous. En tant que Data Engineer Teradata et Big Data , vous êtes responsable du [XXX] et [XXX] de notre écosystème : Côté build : Concevoir et développer des solutions DataMart / Datalab sur environnement Teradata Mettre en œuvre les chaînes ETL via BTEQ / TPT Développer des traitements de collecte, transformation et stockage de données sur plateforme Big Data Construire des agrégats et indicateurs (scores, datamarts) à destination des équipes Data Science Développer des pipelines de données sous environnements Spark / Hadoop / HDFS Participer à la modélisation et au design des solutions de données (bonnes pratiques Data Engineering) Industrialiser les traitements dans un contexte Unix / SQL / Teradata Utiliser les outils collaboratifs (Git, Jira, Confluence, MEGA) dans un cadre Agile Côté run : Assurer le support et la maintenance des chaînes de production Data Surveiller et optimiser les traitements batch (ordonnancement via Control-M ) Gérer les incidents de production sur les flux Teradata / Big Data Analyser et corriger les anomalies sur les traitements SQL / ETL Garantir la disponibilité et la performance des jobs data Participer à l’amélioration continue des pipelines (fiabilisation, optimisation) Assurer le support aux équipes Data Science sur les environnements de données Maintenir la documentation technique (Confluence, MEGA) Suivre les bonnes pratiques d’exploitation dans un contexte DevOps C’est votre parcours Vous avez au moins 5 ans d’expérience dans des environnements DevOps exigeants. Vous aimez concevoir et industrialiser des pipelines de données robustes sans jamais cesser d’innover. Vous cherchez un cadre où vos idées comptent et où la technique va de pair avec la collaboration. C’est votre expertise : Environnement Linux / Unix dans un contexte Agile et DevOps Maîtrise des technologies Data : Teradata, SQL, BTEQ, TPT Écosystème Big Data : Spark, Hadoop, HDFS, Python Outils d’exploitation et d’ordonnancement : Control-M Outils collaboratifs : Git, Jira, Confluence, MEGA Connaissance de solutions ETL / Data : Datastage Bonne compréhension des architectures de données et pipelines industrialisés C’est votre manière de faire équipe : Rigueur et sens de la qualité dans les traitements de données Esprit d’analyse et capacité de résolution de problèmes complexes Collaboration forte avec équipes Data, IT et métier Autonomie et sens des responsabilités en environnement de production Communication claire et esprit d’équipe Adaptabilité dans des environnements techniques évolutifs (DevOps / Big Data) Culture de l’amélioration continue et du delivery fiable C’est notre engagement Chez Consort Group, vous êtes un·e expert·e qu’on accompagne pour que chaque mission devienne une étape qui compte. Un onboarding attentif et humain Une vraie proximité managériale Des formations accessibles en continu Des engagements concrets : inclusion, égalité, solidarité Un package RH complet : mutuelle, carte TR, CSE, prévoyance Une culture du feedback et des projets qui font sens C’est clair Le process de recrutement : Un premier échange téléphonique avec notre team recrutement Un entretien RH ainsi qu’un échange métier avec un.e ingénieur.e d’affaires Un test ou un échange technique avec un.e de nos expert.es Un dernier point avec votre futur.e manager ou responsable de mission Et si on se reconnaît : on démarre ensemble C’est bon à savoir Lieu : Paris Contrat : CDI Télétravail : Hybride Salaire : De 55K € à 62K € (selon expérience) brut annuel Famille métier : Data Ce que vous ferez ici, vous ne le ferez nulle part ailleurs. Ce moment, c’est le vôtre.
Offre d'emploi
Expert Fullstack Python/React - Plateforme - Paris - H/F
EASY PARTNER
Publiée le
AWS Cloud
Docker
Python
80k-100k €
Paris, France
Contexte du poste Entreprise innovante spécialisée dans le développement de solutions digitales à forte valeur ajoutée, elle conçoit et exploite ses propres plateformes technologiques. Dans un contexte de forte croissance et d’évolution de ses produits (notamment via l’intégration de nouvelles technologies), elle renforce ses équipes techniques avec plusieurs recrutements stratégiques. Vous rejoindrez une équipe tech à taille humaine, répartie sur plusieurs sites en France, avec un haut niveau d’exigence technique et une forte culture produit. Missions Principales Participer activement à la conception et à l’évolution d’applications métiers utilisées à grande échelle Développer des fonctionnalités complexes en lien avec des problématiques de performance et de scalabilité Intervenir sur des sujets variés allant de la structuration du code à l’optimisation des systèmes existants Contribuer à l’intégration de nouvelles briques technologiques dans un environnement en constante évolution Annexes Collaborer étroitement avec les équipes produit pour traduire des besoins fonctionnels en solutions techniques Participer aux choix d’architecture et aux réflexions techniques globales Prendre part aux échanges techniques (revues de code, bonnes pratiques, amélioration continue) Accompagner la montée en qualité et en structuration des développements Stack technique Python React SQL Git
Mission freelance
Enterprise Architect – Data Mesh
Signe +
Publiée le
Data Mesh
12 mois
660 €
Toulouse, Occitanie
🎯 MISSIONS Implémenter une architecture Data Mesh au sein d'un SI industriel complexe Concevoir la Data Service Layer (couche de services de données) Produire les dossiers d'architecture (cibles, patterns, gouvernance) Définir les standards de la donnée orientée domaine Accompagner les équipes produit dans l'adoption du modèle Data Mesh Assurer l'alignement avec les contraintes sécurité & conformité 👤 PROFIL RECHERCHÉ Enterprise Architect confirmé – spécialisation Data Mesh Expérience sur des environnements grands comptes / industrie appréciée Maîtrise des concepts : Data Domain, Data Product, Self-serve platform, Federated governance Compétences en rédaction de dossiers d'architecture Capacité à intervenir en autonomie dès le démarrage
Mission freelance
[SCH] Data Ops - 1468
ISUPPLIER
Publiée le
10 mois
300-345 €
Niort, Nouvelle-Aquitaine
Dans le cadre de ses activités Data, le client souhaite renforcer l’industrialisation et l’automatisation de l’exploitation informatique autour des flux de données et de leur orchestration. La mission consiste à mettre en place des outils et des méthodes permettant d’améliorer la gestion des pipelines Data, tout en assurant une meilleure collaboration entre les équipes de développement et d’exploitation. Le consultant interviendra notamment sur l’intégration des pratiques d’infrastructure as code dans les processus d’orchestration des données, ainsi que sur l’optimisation des chaînes CI/CD. Une attention particulière sera portée à la fiabilisation des déploiements, à la gestion des versions des configurations, ainsi qu’au monitoring des assets en lien avec les équipes d’exploitation. Le consultant participera également à la configuration des environnements, notamment via les runners GitLab, afin de garantir la continuité des déploiements. Objectifs et livrables : -Concevoir et maintenir des services d’assistance FINOPS, notamment autour de l’observabilité -Mettre en place et optimiser les pipelines CI/CD et les tests automatisés -Assurer la configuration et la gestion des runners GitLab -Garantir la gestion des versions et la reproductibilité des déploiements -Mettre en place des solutions de monitoring des assets Data -Accompagner les équipes d’exploitation sur les bonnes pratiques, outils et technologies -Rédiger et maintenir la documentation technique (configurations, processus, workflows)
Offre d'emploi
Business Analyst DATA/ AMOA F/H - Marketing (H/F)
█ █ █ █ █ █ █
Publiée le
Big Data
Paris, France
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Offre d'emploi
Data Engineer
LEVUP
Publiée le
AWS Cloud
Python
Snowflake
12 mois
43k-66k €
460-550 €
Liège, Belgique
Data Engineer (Snowflake / AWS) 📍 Localisation : Liège (Belgique) 📅 Expérience : 3 ans minimum 🎯 Mission principale En tant que Data Engineer , vous contribuez à la conception, au développement et à l’optimisation de plateformes data modernes dans un environnement cloud. Vous intervenez sur l’architecture, l’ingestion, la transformation et la gouvernance des données en utilisant Snowflake, AWS et Databricks , avec une attention particulière à la gestion des métadonnées et à la qualité des données. 🛠️ Responsabilités🔹 Développement Data Concevoir et maintenir des pipelines de données robustes (batch & streaming) Développer des flux ETL/ELT performants Modéliser des entrepôts de données (Data Warehouse / Data Lakehouse) Implémenter des solutions sur Snowflake et Databricks 🔹 Cloud & Infrastructure (AWS) Déployer et gérer des services AWS (S3, Glue, Lambda, EC2, IAM, Redshift…) Automatiser les workflows (CI/CD, Infrastructure as Code – Terraform est un plus) Assurer la sécurité et la performance des environnements cloud 🔹 Metadata & Data Governance Mettre en place des stratégies de gestion des métadonnées Maintenir un data catalog Assurer la traçabilité (data lineage) Participer aux initiatives Data Quality 🔹 Collaboration Travailler avec Data Analysts, Data Scientists et équipes métiers Participer aux choix technologiques et bonnes pratiques Documenter les solutions techniques 🧠 Profil recherché🎓 Formation Master en informatique, data engineering ou équivalent 💡 Expérience Minimum 3 ans d’expérience en data engineering Expérience concrète sur projets cloud data 🔧 Compétences techniques indispensables Snowflake (modélisation, performance tuning) AWS (S3, Glue, Lambda, IAM…) Databricks / Spark (PySpark) SQL avancé Python Gestion des métadonnées & data catalog ➕ Atouts Connaissance de Data Mesh ou Lakehouse Expérience dans environnement réglementé (pharma, industrie) Outils BI (Power BI, Tableau…) CI/CD, Git, DevOps 🌍 Langues Français courant Anglais professionnel (documentation et échanges techniques) 🤝 Soft Skills Esprit analytique Autonomie Sens de la qualité et rigueur Capacité à vulgariser des sujets techniques
Mission freelance
PRODUCT OWNER
SKILLWISE
Publiée le
Big Data
3 mois
400-550 €
Île-de-France, France
Au sein de la Direction des Technologies, vous intégrez le pôle Produits Publicitaires en tant que Product Owner Offre . Vous intervenez sur un produit stratégique dédié à la gestion des catalogues d’offres, de l’inventaire et du pricing sur des environnements TV et Digital. En collaboration avec un autre Product Owner et des équipes pluridisciplinaires, vous êtes responsable de la vision produit, de la priorisation et du delivery dans un environnement agile. Vos missions principales : Vision & stratégie produit Définir et porter la vision produit Construire et piloter la roadmap Garantir l’alignement avec les enjeux métiers (marketing, revenue management) Gestion du backlog Recueillir et analyser les besoins métiers Rédiger les spécifications fonctionnelles (user stories) Prioriser et maintenir le Product Backlog selon la valeur métier Pilotage du delivery Coordonner les équipes techniques (développement, data, API…) Suivre l’avancement en méthodologie agile Garantir le respect des délais, de la qualité et des coûts Recette & mise en production Organiser et piloter la recette fonctionnelle Valider les livrables Assurer les mises en production RUN & amélioration continue Suivre la performance du produit Gérer les incidents et évolutions Optimiser en continu les fonctionnalités Accompagnement au changement Accompagner les utilisateurs dans l’adoption des outils Assurer la communication produit Faciliter la conduite du changement Responsabilités clés : Ownership du Product Backlog Priorisation basée sur la valeur métier Cohérence du SI avec les autres produits Pilotage de la valeur délivrée Qualité des livrables à chaque sprint
Mission freelance
Architecte modélisation data
Freelance.com
Publiée le
Architecture
Big Data
6 mois
100-600 €
Paris, France
📍 Infos pratiques 📍 Localisation : Paris (2 jours TT) 📅 Démarrage : ASAP 📆 Visibilité : mission longue (jusqu’à fin 2026) Dans le cadre d’un programme de transformation Data B2B , nous recherchons un profil orienté architecture et modélisation métier , capable d’intervenir en amont des développements pour structurer un modèle data cible robuste. 👉 ⚠️ Important : ce n’est PAS un poste de Data Engineer 👉 Le besoin est centré sur la conception, l’abstraction et la structuration de la donnée 🎯 Ce que le client attend réellement ✔ Construire une vision 360 des données B2B ✔ Définir les objets métiers clés (Client, Contrat, Parc, Facture, Usage…) ✔ Concevoir le modèle de données cible (Core Model) ✔ Définir les règles de gestion (RCU / unicité client / hiérarchies) ✔ Analyser les sources legacy et faire le lien avec la cible ✔ Structurer un dictionnaire de données (Business Glossary) ✔ Travailler en lien direct avec les équipes métier 👉 Positionnement attendu : Architecte Data fonctionnel / Data Modeler senior 🧠 Responsabilités Modélisation des données (logique & métier) Définition des règles de gestion (vision client / référentiels) Analyse des écarts entre SI existant et cible Contribution à la gouvernance (catalogue, qualité de données) Support aux équipes Data & métiers Pourquoi c’est intéressant ? ✔ Projet stratégique (transformation data complète) ✔ Forte dimension architecture & conception ✔ Impact direct sur la structuration des données du groupe
Mission freelance
Data Scientist Machine Learning / Deep Learning Aix en Provence/la
WorldWide People
Publiée le
Data science
6 mois
400-440 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Data Scientist Machine Learning / Deep Learning Aix ASAP Expérience +2 ans sur l'IA Gen : prompt engineering, context engineering, construction de workflow avec RAG, tool calling, MCP, implémentation de guardrails. Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Expérience significative en Machine/Deep Learning (traitement du langage naturel, traduction automatique, etc.), Vision (vision par ordinateur, reconnaissance, etc.), et sur le cycle de vie des modèles IA (de la conception vers l'industrialisation, puis la supervision en production de sa valeur). Une base solide en Python est requise pour l'exploration des données, l'évaluation d'un modèle ou la construction d'une API python. - Connaissance de SQL - Solide connaissance de Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Maîtrise des frameworks ML distribués modernes tels que TensorFlow, PyTorch Activité principales attendues : Machine Learning / Deep Learning • Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche ML/DL. • Création et production de modèles d'apprentissage automatique industrialisables • Traitement de données à grande échelle pour la création de jeux de données d'entraînement • Appliquer les bonnes pratiques de MLOps et d'explicabilité des modèles • Présenter les résultats aux parties prenantes et aider au suivi à long terme de la performance du modèle pour démontrer la valeur de l'IA IA Générative • Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche IA Gen • Prompt engineering • Bench via des solutions d'évaluation des modèles d'IA Gen • Optimisation des solutions (paramétrage des modèles) Compétences et expériences demandées : - Expérience +2 ans sur l'IA Gen : prompt engineering, context engineering, construction de workflow avec RAG, tool calling, MCP, implémentation de guardrails. - Expérience significative en Machine/Deep Learning (traitement du langage naturel, traduction automatique, etc.), Vision (vision par ordinateur, reconnaissance, etc.), et sur le cycle de vie des modèles IA (de la conception vers l'industrialisation, puis la supervision en production de sa valeur). Une base solide en Python est requise pour l'exploration des données, l'évaluation d'un modèle ou la construction d'une API python. - Connaissance de SQL - Solide connaissance de Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Maîtrise des frameworks ML distribués modernes tels que TensorFlow, PyTorch - Pratiquer une veille active sur vos domaines de compétence. - Participez activement à la construction de la stratégie en effectuant la veille technologique, étant force de proposition sur les nouveaux outils / nouvelles méthodes à utiliser et le partageant avec le reste de l’équipe
Mission freelance
Tech Lead Data (AWS/BI)
STHREE SAS pour COMPUTER FUTURES
Publiée le
AWS Cloud
8 mois
Île-de-France, France
Description du contexte / projet Assurer la responsabilité technique, fonctionnelle et opérationnelle du Datalake AWS (CAP 2.0) et de l’écosystème BI du groupe. Piloter une équipe de développement internationale et garantir l’ingestion, la transformation, la qualité, la gouvernance et la mise à disposition fiable des données pour les équipes et systèmes consommateurs A. Pilotage technique du Datalake AWS CAP 2.0 ▪ Supervision complète de la plateforme data AWS ▪ Coordination et encadrement d’une équipe de 5 développeurs basée en Inde ▪ Conception et adaptation des architectures AWS selon les standards du groupe ▪ Implémentation et optimisation des services AWS : ➢ S3 ➢ Glue ➢ Kinesis ➢ Lambda ➢ EventBridge ➢ CloudWatch ▪ Suivi du fonctionnement, des performances et de la robustesse des pipelines ▪ Mise en place de mécanismes d’alerting, supervision et automatisation B. Ingestion et transformation des données ▪ Analyse des systèmes sources internes et externes ▪ Définition du flux d’ingestion de bout en bout ▪ Orchestration des pipelines d’ingestion et de transformation ▪ Consolidation et structuration des datasets ▪ Mise à disposition des données transformées dans PostgreSQL pour les systèmes consommateurs ▪ Validation de l’intégrité, cohérence, performance et fraîcheur des données C. Gouvernance, qualité et bonnes pratiques ▪ Définition et application des guidelines du datalake ▪ Mise en place des standards de gouvernance de données ▪ Suivi et amélioration de la qualité des données ▪ Gestion des accès, sécurité, conformité et règles de partage ▪ Animation des pratiques data selon les meilleures normes du marché ▪ Supervision de l’usage de Collibra pour la gouvernance documentaire D. Management de projets et méthodologies ▪ Gestion de projets data à fort enjeu stratégique ▪ Pilotage de la migration du SI BI vers un nouvel environnement : ➢ Définition du scope ➢ Planification des jalons ➢ Suivi des coûts et ressources ➢ Coordination des acteurs ➢ Organisation du passage en production ▪ Application avancée des méthodologies Agile ▪ Animation des cérémonies et des instances de pilotage ▪ Rôle hybride : Technical Lead assorti de compétences chef de projet & Business Analyst
Mission freelance
Consultant senior data governance
Mon Consultant Indépendant
Publiée le
Data quality
3 mois
600-640 €
Paris, France
Pour un client bancaire : 1 ETP Consultant Senior Data Gouvernance Mission : Appuyer le responsable de service sur la refonte du cadre de gouvernance des données dans un contexte de réponse aux constats BCE. Livrables attendus : • Refonte de la politique de gouvernance des données (périmètre élargi au groupe et aux filiales) • Scénarios de déploiement de la gouvernance auprès des 5 filiales critiques • Stratégie de lignage fonctionnel des données prioritaires (BCBS / données critiques) Principaux interlocuteurs : équipe Data interne, programme réglementaire data, 5 filiales (2 ateliers par filiale). Profil recherché : • Senior, solide expérience en gouvernance des données (stratégie, construction de politiques, gouvernance fédérée) • À l'aise avec les notions de data domain et de lignage fonctionnel • Capacité à démarrer très rapidement et à produire des livrables de cadrage de qualité 1 ETP Consultant Senior Data Quality Mission : Accompagner les équipes sur la montée en maturité Data Quality dans un contexte réglementaire (réponse aux constats BCE). Activités principales : • Accompagnement des filières réglementaires (Risques, Finance) sur la Data Quality : identification des interlocuteurs, animation d'ateliers, formation • Mise à jour du cadre de contrôle Data Quality : gap analysis entre l'existant et les exigences BCE, révision des seuils d'acceptabilité, définition des exigences pour les objets métiers "or" (données prioritaires des reportings réglementaires) • Étude de convergence des outils ticketing : analyse Jira vs Redmine et recommandation sur l'outil à pérenniser Profil recherché : • Senior, expérience confirmée en Data Quality et gouvernance des données • Capacité à produire et à faire avancer les chantiers (pas uniquement un animateur d'ateliers) • Bonne connaissance des enjeux réglementaires bancaires (BCBS, BCE) appréciée
Offre d'emploi
Chef de projet Agile Master Confirmé
KEONI CONSULTING
Publiée le
Azure Data Factory
Backlog management
Scrum
18 mois
20k-60k €
100-500 €
Paris, France
Contexte Vous interviendrez au sein d'un projet récent, innovant en termes d'organisation et de technos. La mission s’inscrit au service du produit Editeur : - Plateforme d’api éditeur - Média autour de cette plateforme. La mission concerne l’un des deux pôles. Ce produit est en pleine transformation pour devenir un produit autonome utilisable par plusieurs clients. MISSIONS L'Agile master est un facilitateur de la vie d’une équipe de delivery et garant de son bon fonctionnement. Il est également facilitateur des démarches agiles (SCRUM/KANBAN/...), devops et des relations avec les autres équipes de l’écosystème. Il accompagne l'équipe dans un objectif d'autonomie et d'amélioration continue. Etre moteur sur la transformation agile et les pratiques au niveau de son éco système au sens très large et s'assure ainsi de la bonne cohérence de l'animation et des bonnes pratique à l'échelle de son domaine ou de sa factory ou d'un domaine de sa dimension systémique. Dans une approche lean, il promouvoit les méthodes et pratiques agiles dont il est le garant, et de faire en sorte que les équipes deviennent autonomes dans leur fonctionnement Agile. D’un point de vue méthode, il conseille aussi les acteurs pour trouver les pratiques les plus adaptées au contexte. Livrables • Mise en place des pratiques agiles. • Mener les activités préparatoires : Accompagner/coacher le Product Owner, Animer les séances d'évaluation des items du backlog et aider l'équipe à devenir autonome sur ce sujet • Mise en place des artefacts (Indicateurs, Burndown, HealthCheck, etc.) utiles, utilisés et utilisables au suivi de l’efficience de l’équipe. • Organisation des différentes cérémonies : Weekly, DSM, Rétrospective, Maturation, Démo. S'assurer que la documentation technique et fonctionnelle soit à jour et utile au partage de connaissance (intra équipe, inter équipe, nouveaux arrivants) S’assurer de l’autonomie de l’équipe pour un déploiement en continue (en recette et à venir en production) • Aider l'équipe à s'améliorer en continu : analyse des obstacles, éléments bloquants, interférences extérieures.
Offre d'emploi
Tech Lead Fullstack Java / DevSecOps (H/F)
Inventiv IT
Publiée le
AWS Cloud
DevOps
DevSecOps
Levallois-Perret, Île-de-France
Dans le cadre de projets IT structurants, nous recherchons un Tech Lead Fullstack capable de piloter une ou plusieurs squads et de garantir la qualité des livrables dans des environnements exigeants. Vous interviendrez sur des projets long terme avec des enjeux forts autour de la scalabilité, sécurité et performance . Missions : Co-construire la roadmap technique avec les équipes produit et architecture Encadrer une équipe de 4 à 6 développeurs et assurer leur montée en compétence Définir et challenger les architectures techniques Participer activement au développement (hands-on) Mettre en place et maintenir les pipelines CI/CD et pratiques DevSecOps Garantir la qualité du code (tests, revues, bonnes pratiques) Assurer la communication avec les équipes infra, sécurité et produit Suivre la performance des applications (monitoring, SLA) Environnement technique : Backend : Java 17+/21, Spring Boot Frontend : React, Next.js, Angular DevOps : Git, GitLab CI/CD, Terraform, Docker Cloud : AWS (Azure / GCP en plus) Data : PostgreSQL, MongoDB Qualité : Tests unitaires, intégration, E2E
Offre d'emploi
Ingénieur DevOps Senior AWS
VISIAN
Publiée le
AWS Cloud
DevOps
Terraform
1 an
Paris, France
Contribuer à la conception, la sécurisation, l’exploitation et l’amélioration continue de la Landing Zone AWS, avec une priorité forte donnée au maintien en condition opérationnelle et au support des clients internes utilisant la plateforme. Principales responsabilités Assurer le run de la Landing Zone AWS et garantir sa stabilité opérationnelle Prendre en charge le maintien en condition opérationnelle de la plateforme Identifier et mettre en œuvre des optimisations techniques et opérationnelles Participer aux rituels Agile de l’équipe Traiter le backlog Jira et contribuer aux User Stories définies par le PO et le PM Produire et maintenir la documentation d’architecture ainsi que les procédures de run Assurer la communication interne avec les équipes du socle Interagir avec les clients internes , pôles, clusters et autres entités du Groupe Contribuer, selon les besoins, à des sujets de build et d’ automatisation Soft skills Esprit d’analyse Rigueur Autonomie Force de proposition Capacité à communiquer et à partager l’information Bon relationnel avec des interlocuteurs techniques et métiers Livrables attendus Documentation technique de la plateforme Documentation des projets hébergés sur la plateforme Procédures de run Contributions aux sujets d’optimisation et de fiabilisation Éléments liés au projet FinOps le cas échéant
Mission freelance
DBA Oracle - AWS
STHREE SAS pour COMPUTER FUTURES
Publiée le
AWS Cloud
Oracle
3 mois
Paris, France
Anglais courant requis!! Dans le cadre d’une mission stratégique pour l’un de mes clients internationaux, je recherche un Database Administrator Senior disponible rapidement. Démarrage : 1er avril 2026 Durée : 3 mois Télétravail : Full remote (2 semaines d’intégration sur site, puis full remote) Rythme : Astreintes prévues Environnement international – anglais courant requis Responsabilités Participation aux projets de migration vers AWS Automatisation des environnements et développement de scripts Gestion et optimisation des bases Oracle et SQL en EMEA Mise en place et suivi des outils de monitoring Gestion des clusters, réplications, sauvegardes, plans de reprise Support incident, changement, migration et DRP
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
2411 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois