L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 5 104 résultats.
Mission freelance
Développeur Sénior JAVA / API (H/F)
PREREQUIS
Publiée le
API
API REST
AWS Cloud
3 mois
100-500 €
Issy-les-Moulineaux, Île-de-France
Nous recherchons pour l’un de nos clients un Développeur Senior Java AWS afin de rejoindre la Feature Team API Content au sein de la Tribe Content Platform de la Digital Factory . La Tribe Content Platform , composée de 3 équipes , est responsable de l’alimentation et de l’exposition des données descriptives des assets du groupe. Vous intégrerez l’équipe API Content , composée de : 1 Product Owner 1 Tech Lead 3 Développeurs 1 QA Mission : Votre rôle consistera à concevoir et développer de nouvelles fonctionnalités sur l’ensemble des API du périmètre. Ces API REST (4 au total) permettent de fournir les détails descriptifs des assets . Les applications sont développées en Java / Spring et hébergées sur le Cloud AWS . L’organisation de l’équipe repose sur la méthodologie Scrum , avec un ownership complet de la solution par les équipes selon le principe : “You build it, you run it.” Stack technique Java / Spring API REST AWS Cloud JavaScript (NestJS / Angular)
Offre d'emploi
Application Support Analyst / Référent applicatif (RUN – N2/N3) – Nantes
ASAP TECHNOLOGIES
Publiée le
AWS Cloud
Datadog
JIRA
1 mois
30k-35k €
300-350 €
Nantes, Pays de la Loire
Contexte Dans le cadre de la transformation de la diffusion de l’Information Voyageur (de bout en bout jusqu’à l’affichage en gare), vous rejoignez une équipe pluridisciplinaire orientée suivi de production et surveillance applicative , avec une forte composante release / mise en production . Missions Prendre en charge les incidents et anomalies N2/N3 : diagnostic, qualification, escalade, suivi et communication Analyser et qualifier les dysfonctionnements via logs applicatifs , requêtes SQL , et compréhension des échanges API/Webservices Superviser les applications et environnements : monitoring , gestion d’alertes, définition de consignes/runbooks, amélioration continue de la supervision Faire le lien entre équipes techniques et équipes métiers/clients sur les sujets production Participer à l’accompagnement client : assistance à l’intégration, bonnes pratiques d’exploitation Piloter des sujets transverses : cohérence des environnements (paramétrage, versions), documentation, reporting
Mission freelance
Chef de Projet Technique Cloud/MOE– Senior
ABSIS CONSEIL
Publiée le
AWS Cloud
Cloud privé
Prince2
8 mois
550-620 €
Île-de-France, France
Description de la mission Dans le cadre d’un projet d’envergure comportant des contraintes fortes, l’entité Ingénierie & Projets recherche un Chef de Projet Technique expérimenté, disposant d’une solide expertise Cloud privé & AWS . La mission consiste à piloter différents projets techniques et métiers, et à accompagner un Chef de Projet Technique interne. Responsabilités principales : Pilotage, coordination et suivi de projets techniques. Rédaction des expressions de besoin. Cadrage et supervision des travaux des équipes. Élaboration de tableaux de bord et matrices de risques. Construction d’indicateurs de suivi. Animation de réunions et rédaction des comptes rendus. Production des livrables : RFI , RFP , reporting coût / délai / qualité. Répartition indicative des activités : 30 % – MOE sur projets techniques infrastructure. 30 % – Chefferie de projet technique sur projets métiers. 20 % – Chefferie de projet sur projets décisionnels / référentiels. 20 % – Processus & organisation.
Offre d'emploi
Data Scientist Computer Vision sur Alsace
EterniTech
Publiée le
Computer vision
Data science
Vertex AI
3 mois
Grand Est, France
Je recherche pour un de mes clients un Data Scientist Computer Vision sur Alsace Vos missions Développer des modèles de Computer Vision pour identifier les fonctions et contenus des objets dans des images Accompagner les équipes commerciales dans l’exploitation des outils de classification et d’analyse visuelle Déployer et maintenir des solutions de traitement d’images en production sur GCP (Vertex AI) Concevoir des pipelines et algorithmes permettant la visualisation en temps réel de scènes d’ameublement Collaborer avec les équipes métier pour traduire les enjeux business en solutions techniques et aider au déploiement en production. Assurer une veille technologique pour intégrer les dernières avancées en vision par ordinateur Profil recherché Compétences techniques : Maîtrise des technologies Computer Vision (détection, segmentation, classification d’images) Expérience avec Vertex AI et déploiement sur GCP Solides connaissances en machine learning et deep learning Maîtrise de Python et frameworks associés (TensorFlow, PyTorch…) Connaissance des pipelines de production et des bonnes pratiques MLOps Profil : Diplôme Bac+5 (Data Science, IA, Informatique ou équivalent) Expérience significative en Computer Vision de 2 ans minimum dans des contextes similaires Capacité à comprendre les enjeux business et à collaborer avec les équipes commerciales Autonomie, rigueur et curiosité technologique Projets innovants à forte valeur business Impact direct sur les ventes et l’expérience client Environnement technologique moderne et dynamique Télétravail flexible et équipe collaborative
Offre d'emploi
Développeur Big Data sur Lyon
EterniTech
Publiée le
Cloudera
Hadoop
SQL
3 ans
Lyon, Auvergne-Rhône-Alpes
Je recherche pour un de mes client un Développeur Big Data sur Lyon CONTEXTE DE LA MISSION Le client, dans le cadre de son activité Big Data, recherche un profil en développement Data, Python, SQL, Shell, Spark (+ de 5 ans d'expérience) pour l’accompagner dans les actions sur la plateforme Cloudera Hadoop. L'objectif de la prestation est de réaliser et maintenir les développements nécessaires à l'alimentation de la plateforme Hadoop, à la mise en place d'extractions et à l'accompagnement des utilisateurs. DESCRIPTION DE LA MISSION Rattaché au responsable Big Data, le profil aura pour principales missions : - de prendre en charge les évolutions des données à intégrer, reprendre les développements effectués pour l'alimentation du Datalake , de les faire évoluer en fonction des besoins (Stack technique : Hadoop Cloudera, Hive, Impala, Python, Shell, Linux, SQL, VBA, Jupyter) - d'avoir une expertise technique permettant de spécifier techniquement les tâches, fournir les requêtes de référence, effectuer une revue de code, accompagner les potentiels alternants ou stagiaires (une alternante à date) - de mettre en place des extractions à partir de ces données, - d’assurer le support niveau 2, - de faire appliquer les consignes aux utilisateurs, - de garantir la tenue des délais de livraison dans un contexte de production à fortes attentes - de contribuer à garantir la maintenabilité de la plateforme ainsi que ses performances et son exploitabilité Il veillera au respect de l’utilisation des modèles référencés ou à leur évolution en collaboration avec la Direction Technique Informatique et la Gouvernance de la Donnée. Le profil devra posséder des aptitudes et qualités avérées sur sa capacité à communiquer avec diplomatie, à écouter, à s'intégrer et à partager son savoir faire, à documenter ses actions et à accompagner. LIVRABLES ATTENDUS ET ENVIRONNEMENT TECHNIQUE Les principales missions confiées seront les suivantes : - Développement des traitements d'alimentation, forte capacité à structurer l'activité (JIRA), mise en place et description de processus (guides, accompagnement utilisateurs, …), pilotage opérationnel de certains sujets - Développement d'extractions avec SQL (expert) et scripting Shell avancé pour l'automatisation - Capacité à investiguer et faire du reverse engineering dans une architecture héritée complexe - Optimisation des traitements de la plateforme et ceux des utilisateurs - Capacité à expliquer simplement le sujet, à communiquer vers des interlocuteurs type développeur, bureau d'étude, qualifieur et "clients" (Groupes de protection sociale). La connaissance de Power BI et SAS sont des plus. Exemples de livrables attendus : - Code source documenté - Plan de tests / fiches de test - Bilan - Bordereau de livraison - Manuel d’installation - Dossier d’exploitation - JIRA documentée Environnement technique : - Hadoopa Cloudera - Hive - Impala - Python - Shell - Spark - Linux - SQL - VBA - Git - Jupyter Des connaissances de l’écosystème de la protection sociale sont les bienvenues (retraite complémentaire idéalement).
Mission freelance
Lead Product Owner – Securities Research Data/AI Platform H/F
Comet
Publiée le
Azure
Bloomberg
IA
128 jours
900-1k €
Paris, France
Nous recherchons un(e) Lead Product Owner pour piloter la conception et la livraison à l’échelle industrielle de produits innovants, centrés sur l’IA et les données, pour la franchise de Recherche en Valeurs Mobilières côté vente (sell-side). Vous orchestrerez une équipe interfonctionnelle (Analystes de Recherche, Ventes, Corporate Access, Data Scientists/Ingénieurs, UI/UX et ingénieurs full-stack) afin de créer des services sécurisés, multilingues et prêts pour le client, améliorant la portée, la qualité et la monétisation de la recherche. Périmètre du produit : trois piliers 1. Production augmentée par l’IA pour les Analystes de Recherche Génération et assemblage de documents de recherche multilingues avec supervision humaine. Capacités clés : ingestion et templating de documents, traduction/adaptation du ton, sourcing de données, suggestions de mise à jour de modèles, résumés factuels avec citations et validation. 2. Engagement client augmenté par l’IA pour les Ventes Agents intégrés pour réduire le temps de préparation et augmenter le temps consacré aux clients et à l’analyse à forte valeur ajoutée. Capacités clés : récupération sécurisée de données internes et externes, requêtes conversationnelles, préparation ciblée de matériel client, automatisation du flux de capture d’alpha, intégration avec CRM et outils collaboratifs. 3. Monétisation & expérience client Transformation de la propriété intellectuelle en revenus récurrents via différents formats : ensembles de données, abonnements, contenus générés par IA (chatbots, podcasts, vidéos, etc.). Capacités clés : empaquetage de données, génération de contenu multi-format, analyse de l’utilisation et de la monétisation, distribution conforme aux droits. Contexte technologique : Modernisation d’une plateforme mixte : systèmes existants (CRM, portail web de Recherche) et nouvelles solutions IA (Azure RAG, Microsoft Copilot, plateformes de données et IA). Livraison de produits RAG/LLM/Agents à l’échelle avec garde-fous, observabilité et contrôle des coûts. Responsabilités clés : Définir la feuille de route 3 ans et quantifier la valeur via OKRs. Concevoir des expériences RAG/agents, automatiser les flux, sécuriser les données et superviser la qualité humaine. Intégrer les flux de données, assurer la conformité des licences et collaborer avec les équipes Juridique/Conformité. Gérer le backlog, rédiger les PRD, définir les SLOs, livrer de manière itérative et soutenir le lancement des offres client.
Offre d'emploi
Ingénieur OPS
VISIAN
Publiée le
Ansible
Dynatrace
1 an
40k-45k €
400-500 €
Île-de-France, France
Ingénieur OPS Descriptif du poste Le bénéficiaire souhaite une prestation d'Ingénierie OPS afin de participer à des projets métier en mode équipage. La mission requiert une très forte capacité à maitriser les aspects techniques et en garantissant le respect des exigences de la Production et la bonne exploitabilité des produits mis en œuvre. L'automatisation via les toolchain et les outils XL Release sont attendus ainsi que la mise en supervision End to End du parc applicatif via Dynatrace en complément des évolutions applicative / technique à gérer dans une équipe produit Cloud. HNO et astreinte demandée. Anglais courant. Missions principales Réalisation les installations sur les différents environnements (Réaliser passage en production (mep, cab ...)) Facilité de déploiement des solutions Mise à disposition de l'équipe, en mobilisant les bonnes expertises / services de Production : le monitoring des services et Les environnements techniques (Prod et hors Prod) Conduction ou vérification des revues de sécurité de l'équipe Évolution des infras et les outils La remontée des propositions d'amélioration des services de production applicative dans une démarche d'amélioration continue Représentant de la Production dans l'équipe projet (Squad) (TOOLCHAIN - Ansible A/R) Promotion des solutions basées sur les produits et services existants, intégrant par nature les exigences de production et de sécurité (résilience, monitoring, …) afin de réduire le délai de mise en œuvre Définir, piloter et garantir les SLOs (Gestion des problèmes (récurrence incidents)) Assemblage des produits et services de production et d'infrastructure au profit des applications, en conseillant sur l'adoption des technologies en ligne avec les besoins applicatifs Support des équipes de développement pour sécuriser et accélérer la livraison des projets Implémentation des user stories techniques Suivi de l'Exploitabilité du Delivery - (PACT, PCR, Exigence de prod, normes et standards) Identification des points de blocage d'exploitation (flux, sécurité, réseau…) puis alerter et proposer des plans d'action Contribution à la définition des niveaux de service et des indicateurs de Production Veille à l'existence et au test d'un plan de bascule en backup (ICP) Définition de l'architecture Technique (SATS/CASA) - Participation aux réunions de définition de l'architecture Le contrôle de la traçabilité des accès aux machines (OS, Espace de stockage, routeurs…) et remédier si nécessaire Vérification de l'exploitabilité des environnements techniques (backup/restore, accès aux données, performances…) Anticipation des problématiques de conformité aux règles et standards d'architecture, de sécurité, de délais de livraisons et de mise à l'échelle des solutions proposées Veille à l'ajout des exigences d'infrastructures et d'exploitation dans le Product Backlog, ainsi que toute User story technique jugée nécessaire (industrialisation, gestion de l'obsolescence, …) Définition et mettre en place/faire évoluer le Monitoring Mise en place la surveillance et la supervision de la Solution mise en production Disposition de l'équipe, en mobilisant les bonnes expertises / services de Production : Le monitoring des services et Les environnements techniques (Production et hors Production) Mise en place les consignes (Pilotage applicatif) et AEL Référentiel Documentation & GED Veille de la disponibilité d'une documentation Rôle consultatif De part son expertise et son rôle il donne son avis : Le manuel utilisateur (fonctionnel) Gestion des incidents – Assistance en cas de blocage ou d'incident sur les versions mises en production La continuité applicative (ICP/Backup Restore/DR) - Restauration des bases de données La guilde technique Compétences techniques attendues (maîtrise) Linux / Windows / Docker / Kubernetes / Ansible Pratiques d'automatisation "as code" s'appuyant sur une culture DevOps et Agile Technologies / Langages : Cloud (Docker, Kubernetes) / Oracle / MongoDB / CFT, Control M, Liberty Core - Websphere / MongoDB, SGBD Oracle Monitoring : Dynatrace OS Linux et Windows, AIX Langages : YAML, Python, Shell Toolchain et automatisation : GitLab, Ansible Tower, Ansible Galaxy, Artifactory, Jenkins, GitLab-CI, XL Release La certification éditeur peut être un critère différenciant
Offre d'emploi
Ingénieur/e Identité Microsoft Active Directory & Entra ID
Panda Services
Publiée le
Active Directory
ADFS
Azure
12 mois
Paris, France
Panda Services, société de services (ESN) spécialisée dans la délégation de compétences informatiques, recherche pour l'un de ses clients à Paris [75] un(e) Ingénieur/e Identité Microsoft Active Directory & Entra ID Mission Assurer la gestion, la sécurité et l’évolution des annuaires Microsoft Active Directory et Entra ID ainsi que des services associés (DNS, DHCP, MFA), tout en garantissant le support niveau 3 et l’intégration des besoins projets. Activités principales MCO / MCS : maintien opérationnel et support technique Support N3 identités & accès et traitement des tickets d’escalade Sécurité : maintien du Tiering, audits, gestion des escalades Infrastructure : optimisation, migrations, topologie, DRP Administration Entra ID : EntraCONNECT, PTA, Hybridation Projets : intégration des besoins GPO et sécurité Compétences techniques On-Premises Microsoft Active Directory & Tiering DNS, DHCP, PKI GPO, MFA, sécurité des accès et délégations Cloud / Azure AD / Entra ID hybride, EntraConnect PTA / PHS / ADFS Administration M365 / Entra ID Sécurité Entra ID, Conditional Access, EAM Entra ID P1 & P2, gestion des accès Azure, rôles et politiques 👤 Profil recherché Minimum 6 ans d’expérience en environnement Microsoft on-prem et cloud Azure / O365 Expérience en secteur bancaire ou réseau d’agences appréciée Responsabilités clés : Administration et évolution de l’AD (~4000 utilisateurs) Amélioration de la sécurité et application des règles en vigueur Support niveau 3 et référent pour les équipes SI Participation aux audits internes et projets d’infrastructure Mise à jour de la documentation technique Savoir-être Orientation résultat et solution Travail en équipe et en mode projet Communication claire et synthétique Autonomie, engagement et force de proposition Capacité à s’auto-organiser
Mission freelance
Ingénieur Cloud AWS N3
AIS
Publiée le
AWS Cloud
6 mois
400-550 €
Courbevoie, Île-de-France
La DSI Groupe est organisée autour de Shared Line of Services afin de fournir des services globaux à l’ensemble des entités du groupe. Le périmètre Infrastructure délivre : des services Cloud (AWS & Azure), des services réseaux centralisés : Backbone, VPN site-à-site, filtrage Internet, VPN utilisateurs, IPAM, SD-WAN. L’objectif est de garantir un haut niveau de qualité, de sécurité et de conformité sur des environnements AWS complexes, dans un contexte international. Synthèse du rôle Rattaché(e) au Team Lead Cloud AWS Intervention Niveau 3 sur les activités RUN & projets , sous la responsabilité du Cloud Service Delivery Manager Basé(e) en France , en collaboration étroite avec les équipes BAU en Inde Rôle clé dans : la gestion des incidents et changements, la gouvernance Cloud, l’automatisation, la transition des services vers les équipes internes Environnement global avec rotations horaires
Mission freelance
Data Architect (Secteur Luxe)
Nicholson SAS
Publiée le
Azure DevOps
Git
Github
8 mois
1 200 €
Paris, France
Pour le compte de l’un de nos clients basé à Paris, nous recherchons un Data Architect (Secteur de Luxe) afin d’intervenir sur une mission stratégique autour de l’architecture et de la valorisation des données. Missions: Concevoir et mettre en œuvre des solutions de données de bout en bout dans Azure Fabric (Lakehouse, Data Warehouse, modèles sémantiques). Intégration avec Power BI et modèles d'évolutivité. Définir les zones/hiérarchie de données (couches Bronze, Argent, Or). Établir des cadres de gouvernance des données. Modélisation des données et conception de pipelines ETL/ELT. Définir la logique de transformation et les règles métier. Gérez les charges incrémentielles, les dimensions et les contrôles de qualité. Optimisez les performances des requêtes et l’efficacité du stockage. (Outils : SQL, Python (PySpark), Azure Data Factory, Fabric Notebooks, dbt). Expertise en développement Python et SQL : rédigez des scripts Python efficaces (PySpark) pour la transformation des données dans Fabric Notebooks. SQL pour les requêtes complexes, les agrégations et l'optimisation des performances. Développer des bibliothèques de code et des fonctions réutilisables. Gérer la validation de la qualité des données et la gestion des erreurs. Représentation du fata dans la propriété finale du tableau de bord. Gestion du pipeline CI/CD et du contrôle de version GitHub : mettre en œuvre des flux de travail CI/CD pour le déploiement de produits de données. Gestion des référentiels de codes, stratégies de branchement. Suivre les modifications et maintenir des pistes d'audit. Outils : GitHub, Azure DevOps Pipelines, GitHub Actions, Git CLI, règles de protection des branches. Gouvernance des données, sécurité et contrôle d'accès basé sur les rôles (RBAC) : définissez des politiques de gouvernance pour le traçage des données, la gestion des métadonnées et les normes de qualité des données. Implémentez le contrôle d’accès basé sur les rôles (RBAC) pour les espaces de travail et les ensembles de données Fabric. Configurez la sécurité au niveau de l’espace de travail, de l’ensemble de données et des lignes. Établir des schémas de classification des données.Outils : Azure Fabric RBAC, Azure AD/Entra ID, Purview (gouvernance des métadonnées), rôles d'espace de travail Fabric, Power BI RLS (Row-Level Security). Cartographie des données E2E et définition des KPI : Documentez le lignage complet des données depuis les systèmes sources (D365, bases de données héritées) jusqu'aux magasins de données finaux. Créez des documents de cartographie détaillés (champs sources → colonnes cibles). Définissez la logique métier et les règles de transformation à chaque couche. Identifier et définir des KPI alignés avec les objectifs business. Établir la logique de calcul, les seuils et le suivi des KPI. Créez des dictionnaires de données et des glossaires métier. Outils : Confluence (documentation), Visio/Lucidchart (diagrammes de flux de données), Excel (matrices de cartographie), Power BI (tableaux de bord KPI). Documentation du cadre, normes et composants de ressources : établir des normes d'architecture de données et une documentation sur les meilleures pratiques. Conventions de dénomination, structures de dossiers, modèles de conception. Créez des modèles pour les blocs-notes, les scripts SQL et les fichiers de configuration. Définir les règles de qualité des données et les cadres de validation. Documenter les procédures de déploiement, les guides de dépannage et les runbooks. Tenir à jour les enregistrements de décisions d'architecture (ADR). Fournir des guides d'intégration pour les nouveaux membres de l'équipe. Profil : Data Architect Nombre d’années d’expérience : +7 ans Site : Paris ; sur site Prix d’achat max : 1200 euros Date de démarrage : asap Date de fin : 31/12/2026 Compétences techniques requises : Microsoft Azure Microsoft Azure Service Fabric Azure DevOps Pipelines SQL PySpark Git CLI, GitHub Power BI RLS
Mission freelance
Architecte Cloud AWS & On-Premise (H/F)
HOXTON PARTNERS
Publiée le
AWS Cloud
6 mois
630-750 €
Malakoff, Île-de-France
Dans le cadre du renforcement de ses équipes IT, notre client recherche un(e) Architecte Cloud AWS & On-Premise pour intervenir sur des environnements hybrides mêlant Cloud public (AWS), infrastructures on-premise et solutions SaaS, dans un contexte industriel exigeant. Vous interviendrez au cœur des enjeux d’architecture, de standardisation et d’optimisation des environnements techniques. Vos responsabilités Analyser les besoins techniques et challenger les exigences métiers Concevoir, formaliser et maintenir des patterns d’architecture (Cloud AWS, on-premise, hybridation, réseaux, sécurité, data…) Garantir la cohérence des architectures avec les standards d’entreprise et les contraintes opérationnelles Travailler avec les experts techniques pour valider la pertinence, la maturité et la faisabilité des solutions Assurer la communication et la diffusion des patterns auprès des équipes techniques et projets Collaborer étroitement avec les équipes infrastructure, réseau, sécurité et DevOps Environnement technique Cloud public AWS & solutions SaaS Cloud privé on-premise Plateformes de virtualisation et de conteneurisation Middleware de streaming et d’intégration Écosystèmes DevOps & CI/CD Environnement industriel
Mission freelance
Data Engineer Azure Synapse / PySpark (Référentiel ESG)
STHREE SAS pour HUXLEY
Publiée le
12 mois
500 €
France
🔍 Contexte Un acteur européen majeur du secteur financier recherche un Data Engineer confirmé pour renforcer son département Data & Referential . La mission s'inscrit dans le cadre de la mise en place d'un référentiel de données unifié , avec un focus particulier sur les indicateurs ESG provenant de multiples sources. 🎯 Votre rôle Intégration de nouvelles sources de données via Azure Synapse & PySpark Mise en place d'un monitoring rigoureux des flux Adaptation des connexions au reporting interne pour intégrer les nouvelles données Coordination avec les Business Analysts Contrôles de cohérence et qualité des données (comparaison inter‑sources) 🧱 Compétences techniques clés Azure Synapse PySpark Azure Data Factory Azure DevOps SonarCloud API Management Micro‑services SQL Server Connaissance Informatica IDQ = un plus 👤 Profil recherché Bac+5 (ingénieur ou équivalent) Minimum 3 ans d'expérience sur Azure Synapse & PySpark Bonne culture Data & Monitoring Pratique des environnements Agile (SCRUM) & DevOps Maîtrise du français et de l'anglais Intérêt pour l' Asset Management et les sujets ESG 📅 Démarrage : 1er février 2026
Mission freelance
Proxy Product Owner ( H/F)
ALLEGIS GROUP
Publiée le
AWS Cloud
PostgreSQL
Proxy
3 jours
Neuilly-sur-Seine, Île-de-France
Teksystems recherche un proxy PO Bilingue pour un de ses clients grand compte . En tant que Proxy Product Owner, votre rôle sera de : • Construire et porter la vision produit en collaboration avec les Product Owner & Product Manager • Aider au cadrage des besoins fonctionnels • Accompagner les équipes dans l’appropriation et compréhension des éléments du backlog • Accompagner l’équipe des testeurs dans la définition des cas d’usages et tests E2E et s’assurer que les produits développés répondent bien aux besoins fonctionnels et techniques
Mission freelance
Tech Lead Data Engineer Java Python Azure
Cherry Pick
Publiée le
Azure
Java
PySpark
12 mois
600 €
Paris, France
But principal Le prestataire Tech Lead a pour mission principale de : • Contribuer au delivery du produit • Assurer les choix techniques en collaboration avec la squad dans le respect des standards, • Faire comprendre les choix techniques & obtenir l’adhésion des parties prenantes • Interagir au quotidien avec les parties prenantes (métier, tech authority...) • Garantir la qualité logicielle de la prestation de l'équipe Veiller à la bonne mise en œuvre du plan de développement du produit. Missions • Être le garant technique de la squad en la soutenant dans ses choix et dans la mise en œuvre des bonnes pratiques et standards • Garantir la qualité du code et suivre les KPIs pour le suivi de produit • Contribuer techniquement à la production du code • Remonter les alertes et garantir la résolution de problèmes dans un environnement agile en étroite collaboration avec Delivery Performance, Talent et Chapter leads • Être garant de la bonne mise en œuvre technique du plan de développement du produit.
Mission freelance
SRE - Site Reliability Engineer
Comet
Publiée le
AWS Cloud
Azure
Site Reliability Engineering (SRE)
218 jours
370-830 €
Île-de-France, France
Bonjour à tous les SRE ☁️ / Observabilité 📊 / Cloud & Resilience 🚀 ! Rejoins une équipe innovante qui garantit la fiabilité et la résilience des plateformes digitales critiques utilisées dans le monde entier. L’équipe Site Reliability Engineering accompagne les divisions applicatives pour améliorer la fiabilité, la surveillance et la résilience des produits digitaux. 🔎 Je cherche donc un/-e SRE expérimenté/-e pour participer à un projet ambitieux et technique. 💻 Ce que tu vas faire : Définir et implémenter des mécanismes de monitoring et alerting à tous les niveaux (front, back, ETL, data quality, connectivité) Contribuer à la résilience des applications via backup/restauration, Disaster Recovery Plans et tests associés Implémenter des scénarios de Chaos Engineering sur AWS et Azure Optimiser la gestion des incidents pour réduire le MTTR (détection, notification, analyse) Mettre en place des solutions AIOps pour améliorer observabilité et fiabilité Promouvoir les bonnes pratiques SRE auprès des squads et projets digitaux 🎯 Stack & outils : AWS (Prometheus, Cloudwatch, X-Ray, Firewall), Azure (Monitor, Application Insights, Log Analytics), GCP Observability, Grafana, Chaos Engineering, pipelines CI/CD, automatisation des backups, AIOps 📍 IDF – Paris 2e (Sentier) : 2 jours de télétravail 🏠 Si tu as une solide expérience en SRE, cloud multi-plateformes (AWS, Azure, GCP) et observabilité, et que tu aimes rendre les systèmes robustes et résilients, cette mission est faite pour toi !
Offre d'emploi
Ingénieur Réseaux et Télécom H/F
MP Advertising
Publiée le
Azure
Cisco
Fortinet
40k-54k €
Paris, France
Ingénierie Réseaux • Amender les documents d’architecture, les mettre à jour et challenger les infra existantes • Suivre les projets, et accompagner les réalisations techniques et documentaires • Diagnostiquer et résoudre les incidents de niveau 3 à distance ou sur site • Intervenir en priorité sur les incidents impactant l’activité magasin • Être le point central de contact avec les différents prestataires réseaux et créer les tickets inhérents • Faire le lien avec les supports prestataires et les équipes terrain • Communiquer sur les incidents et les pistes d’améliorations continues Déplacements et Déploiements • Analyser sur le terrain les différentes configurations pour maitriser les environnements des différents bâtiments • Être force de proposition sur les architectures cibles suite aux analyses terrains • Accompagner les prestataires sur les différents besoins locaux • Documenter les spécificités des sites distants Ingénierie Télécom • Prendre en charge les incidents téléphonie • Prendre en charge les commandes et les suivis des activations/désactivations/modifications des lignes fixes et portables • Accompagner avec le N3 Microsoft sur la documentation Inventaires et Documentations Telecom • Tenir à jour les inventaires matériels, et faire les procédures de SAV le cas échéant • Suivre les entrées/sorties matérielles et alerter en cas de pénurie • Participer à l’amélioration continue des procédures
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
5104 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois