L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 3 792 résultats.
Mission freelance
Senior Azure IAM Engineer M/W - Gosselies
Publiée le
Microsoft Entra ID
Powershell
3 mois
400-550 €
Gosselies, Hainaut, Belgique
Télétravail partiel
Dans le cadre de ses activité, notre client recherche un Ingénieur IAM Azur senior H/F pour une mission en freelance. Mission Vos missions en tant que tel: * Collecter et analyser les permissions existantes dans Azure (Management Groups, Subscriptions, Resource Groups). * Supprimer les héritages de droits non souhaités depuis le Management Group Root. * Implémenter des modèles de rôles RBAC sécurisés et adaptés aux besoins métiers. * Automatiser les audits et les revues d’accès via PowerShell, Azure CLI. * Monitorer les usages des rôles à privilèges (Owner, Global Admin, etc.) et proposer des remédiations. * Collaborer avec les équipes IAM, I&O et sécurité pour intégrer les rôles dans les workflows existants. * Documenter les rôles, les règles d’héritage, et les processus d’attribution. * La surveillance et reporting des journaux d'activité (Audit Logs) pour la détection d'anomalies et violations de sécurité.
Offre d'emploi
INGENIEUR BACK END DATA
Publiée le
Azure
Docker
Gitlab
2 ans
40k-45k €
360-550 €
Paris, France
Télétravail partiel
Bonjour 😊, Pour le compte de notre client, nous recherchons un ingénieur back end data. Dans le cadre de la prestation, le prestataire devra participer à la réalisation, sans que cela ne soit exhaustif, des tâches et livrables suivants : Etudier l'existant sur le périmètre data (outils de collecte, d'analyse et de restitution de données, outils de facturations, SharePoint, Power BI…) Définir et suivre la roadmap de mise en place des solutions répondant aux cas d’usages remontés : o Définir , prioriser et réaliser les développements o Mettre en place l'architecture logicielle et les flux de données nécessaires au fonctionnement présent et futur des solutions. o Développer les restitutions (rapports, applications, tableaux de bord) consommant les données du socle data et permettant de répondre aux cas d’usages identifiés dans le respect des normes client. Assurer et valider le bon fonctionnement des solutions au cours de tests réguliers, VABF et VSR Le prestataire devra produire un livrable mensuel de suivi d’activité reprenant les points listés plus avant. Pour les livrables projet, le prestataire devra produire les livrables selon la roadmap définie en début de projet, avec une nécessaire adaptabilité aux pics de charge liés à l’évolutivité du planning. La fourniture des livrables et le respect du planning sont soumis à un engagement de résultat avec des pénalités applicables dès le premier jour de retard tel que précisé dans les documents de référence. Compétences attendues Rigueur et méthode Autonomie, bon relationnel et pédagogie Bonne communication, capacité à vulgariser et à présenter ses travaux de manière synthétique Capacité à écouter et à travailler en équipe Langages & Technologies : o PHP o Symphony o Gitlab o Docker o Administration SQL (PostgreSQL), o Langages front-end (JavaScript, Jquery, Bootstrap, Twig) o Cloud Azure o API o Sécurité et gestion des accès.
Offre d'emploi
Lead Developer Node.js / AWS
Publiée le
AWS Cloud
Node.js
52k-72k €
69009, Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Rattaché·e au Responsable Technique, vous vous positionnerez en amont des équipes de développeurs (plusieurs squads de 3 personnes pour une quinzaine au total) et participerez aux phases d'architecture et de conception des divers logiciels de la société. Vous aurez une position de référent sur les sujets Back-end et accompagnerez la montée en compétence de l'équipe. Environnement technique : Node.js (requis), TypeScript (requis), Jest (souhaité), Docker (requis), AWS (requis), GraphQL (souhaité), GitLab-CI, DDD (souhaité), SQL Server
Mission freelance
Cloud Engineer Data (GCP) – Secteur Assurance
Publiée le
Architecture
BigQuery
Cloud
1 an
Paris, France
Télétravail partiel
Contexte de la mission Dans le cadre du renforcement de sa plateforme data cloud, un acteur majeur du secteur de l’assurance recherche un Cloud Engineer orienté data . La mission consiste à accompagner la structuration, la fiabilisation et l’exploitation des environnements data sur GCP , en support des équipes IT Data. Missions principales Concevoir et maintenir les environnements cloud data sur GCP Accompagner les équipes Data Engineer dans l’exploitation des plateformes data Participer à la conception des architectures cloud data Garantir la disponibilité, la performance et la sécurité des environnements Assurer le lien entre les équipes infrastructure, cloud et data Contribuer à l’industrialisation des plateformes data Stack technique obligatoire Google Cloud Platform (GCP) Environnements cloud data Services data GCP (dont BigQuery) Connaissance des environnements Hadoop appréciée Profil recherché Cloud Engineer confirmé orienté data Bonne compréhension des architectures data cloud Capacité à travailler avec des équipes data techniques Profil structurant, orienté conception et exploitation
Offre d'emploi
Senior Azure IAM Engineer / Cloud Security Engineer - 12 mois - Charleroi
Publiée le
Automatisation
Azure
IAM
6 mois
Charleroi, Hainaut, Belgique
Télétravail partiel
Senior Azure IAM Engineer - 6 mois renouvelable - Charleroi Un de nos importants clients recherche un Ingénieur Senior Azure IAM Engineer pour une mission de 6 mois renouvelable sur Charleroi. L'objectif est de mettre en œuvre la stratégie de nettoyage des droits privilégiés dans Azure, en appliquant les bonnes pratiques de sécurité, en supprimant les héritages non maîtrisés, et en modélisant les rôles techniques dans un environnement cloud complexe. Tâches principales : Collecter et analyser les permissions existantes dans Azure (Management Groups, Subscriptions, Resource Groups). Supprimer les héritages de droits non souhaités depuis le Management Group Root. Implémenter des modèles de rôles RBAC sécurisés et adaptés aux besoins métiers. Automatiser les audits et les revues d’accès via PowerShell, Azure CLI. Monitorer les usages des rôles à privilèges (Owner, Global Admin, etc.) et proposer des remédiations. Collaborer avec les équipes IAM, I&O et sécurité pour intégrer les rôles dans les workflows existants. Documenter les rôles, les règles d’héritage, et les processus d’attribution. La surveillance et reporting des journaux d'activité (Audit Logs) pour la détection d'anomalies et violations de sécurité. Profil recherché : Certification Microsoft SC-300 : Administrateur d'Identité et d'Accès Associé Expertise en Azure RBAC, Entra ID, PIM, et gestion des rôles personnalisés. Maîtrise des outils d’automatisation : PowerShell, Azure CLI. Connaissance des limites Azure (nombre d’assignations, héritage, etc.). Expérience en sécurité cloud et gouvernance des accès. Capacité à travailler en environnement multi-équipes et à gérer des projets techniques complexes. Langues : Français C1, Anglais B2 Autonomie Si cette offre vous intéresse merci de m'envoyer votre CV et je reviendrai vers vous dès que possible avec les détails.
Mission freelance
Data Engineer Finance et Risque (H/F)
Publiée le
AWS Cloud
Data Warehouse
ETL (Extract-transform-load)
6 mois
400-650 €
Maisons-Alfort, Île-de-France
Télétravail partiel
Localisation : Maisons-Alfort (94) Rythme : 2 jours sur site (lundi & jeudi) / 3 jours télétravail Expérience : +8 ans Démarrage : ASAP Mission longue Expérience en banque obligatoire. Python / Spark / Entrepôts de données / Data Warehouse 1. Description du poste Dans un contexte de transformation globale du SI et d'accélération autour des technologies Data & Cloud, nous recherchons un Data Engineer senior expert en Python , PySpark , traitement de données Spark et parfaitement à l’aise avec l’écosystème AWS . Le rôle implique une forte dimension d’ingénierie logicielle : développement Python , tests unitaires (pytest), participation aux tests fonctionnels automatisés, mise en place de code modulaire , robuste et industrialisé. Au quotidien, le Data Engineer devra concevoir et développer des jobs de traitement de données (notamment via AWS Glue), maîtriser l’ensemble de la stack AWS Data (S3, Athena, Secret Manager…), intervenir ponctuellement sur des instances EC2, et collaborer étroitement avec le Tech Lead afin de respecter les design patterns applicatifs et les standards d'architecture. L’objectif majeur de la mission est de modulariser et architecturer les process Data pour construire des solutions évolutives, intégrées et orientées métier. Le poste nécessite une posture proactive, autonome, dynamique, ainsi qu’un excellent relationnel avec les PM et les équipes métiers, dans un environnement Agile SAFe .
Mission freelance
Consultant BI Senior - SSIS, SSAS Tabular, Azure & .NET
Publiée le
12 mois
500 €
Paris, France
Télétravail partiel
Consultant BI Senior - SSAS Tabular, Azure & .NET (Mission 12 mois) 📍 Localisation : Paris 📅 Démarrage : ASAP (Janvier 2026) 🕒 Durée : 12 mois Contexte : Notre client, acteur majeur de la gestion d'actifs en Europe, mène un projet stratégique de modernisation d'un outil interne de suivi des actifs sous gestion (AUM). Ce projet inclut la migration vers des technologies Microsoft BI avancées et le déploiement sur Azure. Vos responsabilités : Modernisation de l'architecture BI Migration d'un cube SSAS multidimensionnel vers un modèle Tabular Optimisation des modèles et des performances Adaptation et migration des flux SSIS Refonte des rapports SSRS Déploiement complet sur Azure (Analysis Services, SQL Database, Data Factory, Power BI Premium) Améliorations fonctionnelles Développement de nouveaux KPI et indicateurs Intégration de nouvelles sources de données Amélioration des règles de calcul et de la logique métier Mise en place d'un système d'alertes Définition des événements déclencheurs Développement d'un mécanisme d'alertes automatisées (emails, dashboards, notifications) Support opérationnel Support N2/N3 sur l'outil et ses workflows Résolution des incidents et fiabilisation du système Compétences techniques requises : Expertise Microsoft BI : SSAS (Multidimensionnel & Tabular), SSIS, SSRS SQL Server (T-SQL avancé) Développement .NET / C# Azure : Analysis Services, Data Factory, SQL Database, monitoring/alerting Connaissance Power BI Premium Compétences métier : Bonne compréhension de la gestion d'actifs / Asset Management Familiarité avec les métriques AUM, reporting financier, indicateurs commerciaux Soft Skills : Autonomie, proactivité, rigueur Excellentes capacités de communication Esprit analytique et orienté solution Langues : Français & Anglais (niveau professionnel) Conditions particulières : Présence physique : 3 jours/semaine sur site à Paris Méthodologie Agile
Offre d'emploi
Data Architecte - Lyon
Publiée le
AWS Cloud
Azure
Databricks
60k-70k €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Ton quotidien chez Komeet sera rythmé par : - Animation des ateliers afin d’étudier et cadrer les besoins clients en collaboration avec le Data Platform Architect - Analyser, conseiller, et faire des recommandations de façon à améliorer l’efficience et l’efficacité de la solution Databricks chez ton client. - Préconisation, conception et mise en œuvre du LakeHouse Databricks - Rédaction de dossiers d’architecture et spécifications techniques - Mise en œuvre des stratégies d’exploitation de la plateforme Databricks - Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. - Tests, validation et documentation des développements - Réalisation d’audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP
Mission freelance
Développeur C# .Net (Asset Management)
Publiée le
.NET
Azure
Blazor
1 an
500-550 €
Paris, France
• Développer les nouveaux composants spécifiés • Assurer la cohérence technique des différents modules du projet et garantir les bonnes pratiques (cohérence du code au sein de l’équipe, tests unitaires, définition et/ou adaptation des modèles de données...) • Spécifier avec le BA en charge du périmètre fonctionnel les besoins pour intégrer la nouvelle source et rédiger les spécifications techniques et autres documents nécessaires (architecture review, dossier d’exploitation…) • Planifier les travaux et alerter sur les points de blocage et de risque • Estimer les travaux afin de prévoir la disponibilité de l’ensemble des équipes • Collaborer avec les équipes Infrastructures pour définir et suivre la mise en place de l’environnement Azure pour l’application • Tester et déployer l’application sur l’environnement Azure et procéder aux corrections éventuelles • Accompagner la phase de validation business en UAT et PROD et garantir la qualité des livrables • Réaliser les tests sur les outils/modules développés et être garant de la qualité des produits développés
Offre d'emploi
INGENIEUR CLOUD H/F
Publiée le
Azure
Azure DevOps
Databricks
12 mois
50k-65k €
Île-de-France, France
Télétravail partiel
Au sein de la Direction Digital et Data, vous rejoindrez le Data Lab , en charge des projets BI et Data pour l’ensemble des enseignes et métiers du Groupe En tant qu’ Ingénieur DevOps H/F , vous jouerez un rôle clé dans le déploiement, la sécurisation et l’industrialisation des projets Data du Groupe, au sein d’une équipe d’une dizaine de collaborateurs évoluant en méthodologie Agile. La plateforme Cloud principale est Microsoft Azure . Déploiement & Infrastructure Construire et déployer des infrastructures Cloud Azure adaptées aux besoins Data. Configurer et industrialiser les architectures cibles ( CI/CD ). Participer aux phases de validation technique lors des mises en production. Mettre en place des outils de surveillance pour assurer la haute disponibilité et la résilience des environnements. Sécurité & Gouvernance Organiser des ateliers avec les équipes internes pour répondre aux exigences de sécurité du Groupe. Suivre les plans d’action liés aux audits sécurité et proposer des solutions adaptées. Contribuer à la sécurisation des applications Web, APIs et services Azure . Maintenance & Amélioration Continue Assurer le maintien en conditions opérationnelles (MCO) des infrastructures virtualisées. Diagnostiquer incidents / dysfonctionnements et garantir la fiabilité des solutions déployées. Participer à l’amélioration continue des chaînes CI/CD . Veiller à la sauvegarde des données , à la gestion des droits d’accès et à la conformité des environnements.
Offre d'emploi
Observability Expert
Publiée le
Azure
Grafana
3 ans
40k-65k €
400-660 €
Paris, France
Télétravail partiel
I. Contexte : Notre département IT souhaite mettre en place et animer une Communauté de Pratique dédiée à l’observabilité et à la supervision de nos applications métiers. En tant qu’expert Observabilité/Supervision, vous serez chargé de définir et mettre en œuvre une stratégie d’observabilité complète (monitoring, logs, alerting, tracing) afin de garantir une visibilité en temps réel sur l’état de santé, les performances et le comportement de nos applications. Ces solutions permettront une détection proactive des incidents, un diagnostic rapide des problèmes et assureront la disponibilité de nos services critiques. L’environnement applicatif est hybride, composé de solutions cloud (D365, Power Apps, services Azure, Data product Fabric) et d’applications hébergées on-premise sur serveurs Windows (sites web, serveurs IIS, etc.). II. Missions : · Référent technique pour contribuer à la construction et à l’implémentation des composants de supervision et des pipelines d’observabilité · Fournir une expertise et, si nécessaire, participer à la conception, l’intégration et le déploiement des solutions de supervision (dashboards, collecte de logs, tracing, détection d’anomalies basée sur l’IA, etc.) · Collaborer avec les équipes de développement, d’exploitation et de sécurité pour intégrer les outils et pratiques d’observabilité dans les pipelines CI/CD · Apporter son expertise lors des incidents et des analyses de causes racines. · Identifier les besoins spécifiques de chaque équipe et définir des plans d’accompagnement. · Développer et maintenir des tableaux de bord et rapports pour visualiser les performances applicatives · Analyser et interpréter les métriques pour identifier les tendances et détecter les problèmes de manière proactive · Définir la gouvernance, les règles de fonctionnement et les objectifs de la Communauté. · Mettre en place des outils collaboratifs (wiki, canaux Teams) · Organiser et animer des sessions de la communauté · Favoriser les échanges inter-équipes et le partage de connaissances · Co-construire des standards techniques et des guidelines avec les équipes · Rédiger des guides de bonnes pratiques et de la documentation technique · Assurer une veille active sur les technologies et pratiques d’observabilité · Évaluer et tester de nouveaux outils du marché · Proposer des POC et des expérimentations innovantes.
Offre premium
Offre d'emploi
Data Architecte Databricks - Paris
Publiée le
Databricks
65k-80k €
Paris, France
Télétravail partiel
Ton quotidien chez Komeet sera rythmé par : Animation des ateliers afin d’étudier et cadrer les besoins clients Préconisation, conception et mise en œuvre des plateformes Data (datawarehouse, datalake/lakehouse ) Rédaction de dossiers d’architecture et spécifications techniques Mise en œuvre des stratégies d’exploitation de plateformes Data Construction et déploiement des pipelines de données (ETL / ELT) à l’aide de langage de programmation ou d’outils de type Low-Code Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. Tests, validation et documentation des développements Réalisation d'audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP
Mission freelance
Data Engineer AWS (S3, Glue, Athena, Python) 5 à 10 ans/sal
Publiée le
AWS Glue
Python
6 mois
430-520 £GB
Paris, France
Télétravail partiel
Data Engineer AWS (S3, Glue, Athena, Python) 5 à 10 ans Anglais obligatoire Compétences recherchées : Data Engineer AWS (S3, Glue, Athena, Python) Tâches à traiter : Understanding of scientific data in the pharma CMC space Requirements clarification with stakeholders, effort estimation for PI planning Good knowledge of Lean & Agile practices AWS data engineering: S3, Glue (Jobs/Workflows), Athena ETL/ELT development: Python, Glue ETL, schema evolution, partitioning Data modeling: harmonized domain models, star/snowflake schemas, metadata management SQL optimization: Athena performance tuning, cost-aware query design, partition/pruning strategies Testing and quality: unit/integration tests for pipelines, DQ frameworks Documentation and KT: runbooks, architecture diagrams, KT planning and execution Migration experience: parallel-run strategy, cutover planning, backfill, data reconciliation
Mission freelance
Senior Data Engineer Optimisation et stabilisation d’une pipeline PySpark (Forecast ML)
Publiée le
Amazon Elastic Compute Cloud (EC2)
Amazon S3
AWS Cloud
1 mois
750 €
Paris, France
Télétravail partiel
Profil : Senior Data Engineer · Contexte de la mission : L’équipe Supply Zone Forecast (SZF) développe et maintient les modèles de prévision de la demande et des ventes pour l’ensemble des produits Décathlon, par centre d’approvisionnement continental. Aujourd’hui, notre pipeline est en production sur l’Europe, la Chine et l’Inde, et notre ambition pour 2026 est d’étendre la couverture à LATAM et MEA. Dans ce cadre, nous recherchons un Data Engineer Senior expérimenté sur PySpark et l’optimisation de pipelines. Notre Stack Data : AWS (S3, ECR, EKS); Databricks; Airflow; Pyspark; Python Et Github. La mission portera principalement sur la reprise, l’optimisation et la refonte partielle du module de “refining”, hérité d’une autre équipe . Ce module présente aujourd’hui plusieurs limites : lenteur d'exécution (compute), manque de gouvernance, faible modularité, documentation incomplète et difficulté à évoluer ou à scaler à l’échelle mondiale. Le contexte inclut également plusieurs dettes techniques autour de la stabilité, de la qualité du code et du renforcement des tests (unitaires et fonctionnels) La mission se déroulera sur site à Paris , au sein du pôle data Digital Principales responsabilités Refonte et optimisation du module “Refining” : Auditer le code existant, identifier les goulots de performance et axes d’amélioration. Revoir la structure du code pour renforcer la modularité, la lisibilité et la maintenabilité. Mettre en place une documentation claire et partagée (technique + fonctionnelle). Optimiser le traitement PySpark (logique de partitionnement, cache, broadcast, etc.). Proposer une approche flexible pour l’ajout de nouvelles features. Renforcement de la robustesse et de la qualité : Implémenter ou renforcer les tests unitaires et fonctionnels. Améliorer la stabilité globale de la pipeline ML de forecast. Participer à la mise en place de bonnes pratiques d’ingénierie logicielle (CI/CD, gouvernance du code, monitoring). Collaboration et transfert de compétences : Travailler étroitement avec les Data Scientists et lMachine Learning Engineers de l’équipe SZF. Assurer un transfert de connaissances clair et structuré à l’équipe interne. Contribuer à la montée en compétence collective sur PySpark et la scalabilité de pipelines ML. Livrables attendus : Module “refining” refactoré, documenté et testé Rapports d’audit et plan d’optimisation validés Documentation technique centralisée Pipeline stable et industrialisable à l’échelle mondiale
Mission freelance
Data Engineer AWS - S3, Glue, Athena, Python
Publiée le
AWS Glue
Python
6 mois
210-480 €
France
Télétravail partiel
Dans le cadre d’un programme data stratégique dans le secteur pharmaceutique (domaine CMC – Chemistry, Manufacturing & Controls), l’entreprise souhaite renforcer son équipe Data Engineering afin de soutenir la migration, l’industrialisation et l’optimisation de ses pipelines analytiques sur AWS. La mission implique une forte collaboration avec les équipes scientifiques, Data, IT et produit, afin de clarifier les besoins métiers, structurer les modèles de données, fiabiliser les flux existants et accompagner les phases de migration vers des architectures modernes. L’objectif est d’améliorer la qualité, la performance, le coût et la robustesse de la plateforme data, tout en garantissant une documentation claire et une montée en compétence durable des équipes internes.
Mission freelance
PRODUCT OWNER TECHNICO-FONCTIONNEL WEB(H/F)
Publiée le
Azure
1 an
La Défense, Île-de-France
Télétravail partiel
1 jour sur site par semaine obligatoire Anglais professionnel obligatoire FICHE MISSION – PRODUCT OWNER TECHNICO-FONCTIONNEL WEB (Plateforme Digitale) (Version anonyme – Consolidée) Objectif global de la mission Concevoir, piloter et faire évoluer une plateforme Web à fort trafic, en développant de nouveaux services digitaux, en améliorant les parcours existants et en garantissant une expérience utilisateur optimale. Contrainte forte du projet Environnement technique Web complet : • Symfony / PHP • React • APIs REST Livrables attendus • Application stricte de la méthode Agile • Gestion complète du Product Backlog • Recette fonctionnelle & suivi de la qualité • Organisation des tests utilisateurs • Spécifications fonctionnelles détaillées • Documentation fonctionnelle consolidée Compétences techniques requises Compétence Niveau Importance Méthodes Agile Confirmé Impératif General Compétence Niveau Importance Symfony / PHP – React – APIs REST Confirmé Impératif SQL Confirmé Important SEO Confirmé Important Connaissances linguistiques • Anglais courant (secondaire) Description détaillée de la mission La mission s’inscrit au sein d’un département digital orienté clients particuliers, entreprises et collectivités, avec une forte ambition : apporter des réponses concrètes aux enjeux environnementaux via des services numériques performants et utiles. Le/la Product Owner interviendra sur une plateforme Web stratégique, avec plus d’1,5 million de visites mensuelles, au sein d’une équipe digitale pluridisciplinaire. 1. Pilotage Produit & Vision • Challenger la solution sur les aspects techniques, fonctionnels et UX • Élaborer, structurer et maintenir la vision produit • Prioriser les besoins métier en intégrant valeur, faisabilité et contraintes techniques • Gérer, maintenir et arbitrer le Product Backlog • Définir les versions et suivre le planning de livraison 2. Développement & Spécifications • Rédiger les User Stories, critères d’acceptation et spécifications détaillées • Participer à la définition des architectures fonctionnelles et techniques de haut niveau • Travailler en étroite collaboration avec les équipes Front, Back, Infra, Support et Cybersécurité 3. Recette & Qualité • Organiser et exécuter la recette fonctionnelle • Valider les développements avant mise en production • Identifier, analyser, reproduire et qualifier les incidents • Organiser les tests utilisateurs et recueillir les feedbacks General • Piloter la maintenance corrective et évolutive en lien avec la TMA • Garantir le respect de la sécurité et du RGPD 4. Amélioration continue • Proposer des évolutions techniques et UX • Optimiser la performance, les parcours et les usages • Analyser les logs applicatifs et impacts fonctionnels • Participer à la croissance des usages digitaux et aux nouveaux service Profil recherché Formation Bac+5 en Informatique, Digital ou Ingénierie. Expérience Minimum 5 ans en tant que : • Product Owner, • AMOA digital, • ou profil hybride technico-fonctionnel Web. Soft Skills • Passion pour le digital & sensibilité environnementale • Forte orientation expérience utilisateur • Excellente communication • Autonomie, rigueur, organisation • Capacité d’arbitrage & de priorisation • Aisance dans un environnement Web complexe Compétences additionnelles • Très bonne compréhension des logs applicatifs • Connaissance SQL (modèles & requêtes simples) • Culture sécurité IT & conformité RGPD • Capacité à concevoir des architectures fonctionnelles cohérentes Outils utilisés Azure DevOps, Trello, Slack, New Relic, GitHub, Postman, SoapUI, O365.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- ARE terminée et dividendes après fin de droits
- ARE terminée + dividendes après fin de droits : risque de régularisation ? (SASU)
- ARE terminée + dividendes versés après fin de droits : risque de régularisation ? (SASU)
- Facturation électronique 01 : Rappel du calendrier !
- Calcul de l'indemnité de la rupture conventionnelle
- Futur freelance architecte logiciel
3792 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois