L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 5 012 résultats.
Offre d'emploi
Développeur Senior Full-Stack Java/Angular (H/F)
1G-LINK CONSULTING
Publiée le
Angular
Java
Spring Batch
12 mois
Paris, France
Contexte : Intervention au sein d’une équipe produit Agile opérant à l’échelle (SAFe), avec une participation active à des cycles de livraison courts basés sur des incréments réguliers, permettant aux métiers de suivre l’avancement et d’ajuster la roadmap de manière encadrée. Collaboration étroite avec les équipes internes du client (maintenance et projet), dans le respect d’une répartition des tâches définie lors des Sprint Planning. Missions : Concevoir et implémenter des fonctionnalités front Angular et back Java/Spring Boot conformes aux users stories, critères d’acceptation et à la DoD(Definition of Done). Ecrire les tests unitaires : assurer les seuils de couverture conformes aux KPI. Garantir la qualité, la performance, la sécurité et la maintenabilité du code. Suivre un mode de gestion des branches adapté aux conventions de l’équipe : branches de fonctionnalités avec fusions fréquentes. Prendre part aux cérémonies : Daily Scrum, Sprint Planning, Sprint Review (démo), Rétrospective d’équipe, sessions de raffinage. Collaborer dans des trains SAFe : participation aux PI Planning, respect des objectifs PI. Compétences techniques: Angular 19+,Java 8, Spring Boot, Spring Batch, Spring Data -JPA, CSS Bootstrp, Javascript, Html IntelliJ, Eclipse, JUnit, PostgreSQL, Maven, Cloudbees, Jira/Azure, Git, SonarQube, Accessibilité (RGAA/ARIA) appréciée.
Mission freelance
PRODUCT OWNER
SKILLWISE
Publiée le
Big Data
3 mois
400-550 €
Île-de-France, France
Au sein de la Direction des Technologies, vous intégrez le pôle Produits Publicitaires en tant que Product Owner Offre . Vous intervenez sur un produit stratégique dédié à la gestion des catalogues d’offres, de l’inventaire et du pricing sur des environnements TV et Digital. En collaboration avec un autre Product Owner et des équipes pluridisciplinaires, vous êtes responsable de la vision produit, de la priorisation et du delivery dans un environnement agile. Vos missions principales : Vision & stratégie produit Définir et porter la vision produit Construire et piloter la roadmap Garantir l’alignement avec les enjeux métiers (marketing, revenue management) Gestion du backlog Recueillir et analyser les besoins métiers Rédiger les spécifications fonctionnelles (user stories) Prioriser et maintenir le Product Backlog selon la valeur métier Pilotage du delivery Coordonner les équipes techniques (développement, data, API…) Suivre l’avancement en méthodologie agile Garantir le respect des délais, de la qualité et des coûts Recette & mise en production Organiser et piloter la recette fonctionnelle Valider les livrables Assurer les mises en production RUN & amélioration continue Suivre la performance du produit Gérer les incidents et évolutions Optimiser en continu les fonctionnalités Accompagnement au changement Accompagner les utilisateurs dans l’adoption des outils Assurer la communication produit Faciliter la conduite du changement Responsabilités clés : Ownership du Product Backlog Priorisation basée sur la valeur métier Cohérence du SI avec les autres produits Pilotage de la valeur délivrée Qualité des livrables à chaque sprint
Mission freelance
Développeur d'appli. à forte connotation Data
Codezys
Publiée le
API
Azure
Azure DevOps Services
12 mois
360-410 €
Paris, France
Contexte de la mission Au sein de la Direction des Systèmes d'Information (DSI), le service « systèmes connectés » gère un portefeuille de projets couvrant plusieurs applications, dont certaines sont en phase de développement ( BUILD ) et d'autres en exploitation ( RUN ). Nous recherchons un profil expérimenté pour assurer la responsabilité d’un projet existant. Ce projet, récemment mis en production, a pour objectif de fournir des indicateurs via une interface Grafana. Le système comprend une couche « d’ingestion » qui enregistre les données dans une base ElasticSearch, dans un format adapté. Cette étape d’ingestion est orchestrée avec du code Java. Les indicateurs produits permettent au métier de suivre les modules de télérelève et de radio-relevé client (plus d’un million de modules, avec un index quotidien sur trois ans). La mission comprend notamment : La maintenance de l’existant L’analyse des incidents et des questions remontés par le métier afin d’expliquer ou corriger les résultats affichés L’ajout de nouveaux objets métier selon les besoins. Objectifs et livrables Le candidat retenu devra prendre en charge les projets suivants : Projet « Supervision Télérelève » : basé sur une architecture technique Java/ELK/Grafana, il vise à fournir une solution de reporting des données de télérelève aux experts et aux collectivités. Le socle technique étant déjà en place, il sera nécessaire de le maintenir, le faire évoluer en intégrant de nouveaux objets, et de collaborer avec d’autres équipes sur la mise en œuvre de fonctionnalités d’authentification, afin d’intégrer la solution dans d’autres projets. Il est également possible qu’à moyen terme, une migration vers Databricks soit envisagée. Le rôle du consultant sera celui de TechLead et de développeur : il analysera l’existant, assurera des activités de débogage, suivra le backlog et communiquera régulièrement avec le métier, le Product Owner (PO) et, si nécessaire, avec les architectes. En tant que seul acteur technique sur ce projet, le consultant devra faire preuve d’une grande autonomie pour la gestion des sujets techniques.
Offre d'emploi
Ingénieur Cybersécurité OT - Hardening
RIDCHA DATA
Publiée le
Android
Center for Internet Security (CIS)
Cybersécurité
1 an
Boulogne-Billancourt, Île-de-France
🎯 Contexte Dans le cadre d’un programme international de cybersécurité industrielle, une grande organisation souhaite renforcer la sécurité de ses systèmes d’information industriels (OT/IT). La mission s’inscrit dans une démarche globale de renforcement, standardisation et amélioration continue des politiques de sécurité appliquées aux environnements industriels. 🧩 Périmètre technique Postes industriels IT (environnements OT) Postes industriels OT Équipements mobiles industriels (tablettes, devices) Serveurs MES (Manufacturing Execution System) 🚀 Missions principales Réaliser un audit des politiques de sécurité existantes Identifier les écarts entre les politiques définies et les configurations réelles Conduire des audits de configuration des équipements Analyser les dispositifs de contrôle existants Proposer des solutions d’ automatisation et d’amélioration Définir et formaliser des politiques de sécurité adaptées Participer à une organisation en mode Agile Collaborer avec des équipes internationales et pluridisciplinaires 📦 Livrables attendus Rapport d’état des lieux des politiques de sécurité Analyse des dispositifs de contrôle existants Documentation des politiques de sécurité Analyse de risques Plan de remédiation (mesures correctives) Comptes rendus des réunions
Offre d'emploi
Data manager / Data designer programme sous-marin F/H - Création (H/F)
█ █ █ █ █ █ █
Publiée le
Data management
Microsoft Office
SQL
Cherbourg-en-Cotentin, Normandie
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Offre d'emploi
Consultant Data & Digital F/H
Experis France
Publiée le
40k-45k €
Niort, Nouvelle-Aquitaine
Consultant Data & Digital F/H - Niort Le contexte Experis recrute un Consultant Data / Digital F/H pour accompagner l'un de ses clients grands comptes dans l'exploitation et la valorisation de données issues d'environnements digitaux. Vous interviendrez au sein d'une équipe data intégrée à une organisation agile, dans un contexte de projets à forte volumétrie de données et orientés performance et usages métier. Vos missions En lien avec les équipes produit, techniques et métiers, vous participerez aux différentes étapes du cycle de vie de la donnée digitale : Comprendre et contribuer à la définition des besoins métiers et des indicateurs de performance (KPI) Participer à la mise en place et à l'amélioration des dispositifs de collecte de données digitales Vérifier la qualité et la fiabilité des données en phase de test et en production Préparer, transformer et exploiter les données pour en faciliter l'analyse et la restitution Mettre à disposition des données et des reportings à destination des équipes métier Contribuer à l'analyse des données afin d'identifier des leviers d'optimisation et d'amélioration continue Selon votre appétence et votre expérience, vous pourrez également être amené(e) à : Suivre et fiabiliser les flux de données existants Participer à l'intégration de nouvelles sources de données Proposer des améliorations sur les process, outils et pratiques data Travailler en proximité avec des équipes pluridisciplinaires (produit, UX, développement, data)
Mission freelance
Développeur(se) Microsoft Power Platform / Power Apps
K2 Partnering Solutions
Publiée le
microsoft
Microsoft Fabric
6 mois
400-570 £GB
France
Mission Nous recherchons un(e) développeur(se) Microsoft Power Platform / Power Apps pour contribuer au développement d’une solution interne stratégique. Cette solution permettra d’apporter à notre organisation commerciale des analyses basées sur les données ainsi que des outils intelligents afin de soutenir la croissance. Localisation 100% Télétravail – Europe Durée 6 mois + Extension Début: ASAP Compétences & Expérience Développement avancé Power Apps : Expertise dans la création d’applications Canvas et Model-Driven avec Power Fx, en intégrant des principes de design responsive. Intégration Microsoft Fabric : Expérience dans la conception d’intégrations performantes avec OneLake, Lakehouses et Data Warehouses via des endpoints SQL. Logique complexe Power Automate : Conception de workflows d’entreprise avec gestion avancée des erreurs, exécutions parallèles et architectures parent-enfant. Dataverse & modélisation relationnelle : Maîtrise de Dataverse, incluant les variables d’environnement, les rôles de sécurité et l’alignement avec l’architecture Medallion. Extensibilité pro-code : Développement de composants et contrôles UI personnalisés en TypeScript/JavaScript via le framework PCF. API & connecteurs personnalisés : Capacité à intégrer des API REST et des systèmes externes, notamment avec les services Azure. ALM & DevOps : Expérience dans la gestion des pipelines de déploiement automatisés et la synchronisation des environnements via Azure DevOps ou GitHub. Optimisation des performances : Résolution des limites de délégation et optimisation des requêtes pour des datasets volumineux sous Microsoft Fabric. Sécurité entreprise : Mise en œuvre de la sécurité au niveau des lignes (RLS), des politiques de prévention des pertes de données (DLP) et de l’authentification Entra ID. UI/UX & accessibilité : Conception d’interfaces performantes, intuitives et conformes aux standards d’accessibilité (WCAG). Compétences requises PowerApps : Expert Microsoft Fabric : Avancé Microsoft Azure : Confirmé
Offre d'emploi
Data Analyst F/H
AIS
Publiée le
1 mois
39k-46k €
230-460 €
Nantes, Pays de la Loire
Intégré(e) aux équipes d'une de nos clients grand compte, le projet concerné est une plateforme digitale transversale. Le projet permet une capacité de type "Talk to your data" : une interface en langage naturel permettant aux collaborateurs de poser des questions et d'obtenir des réponses sans expertise technique. La mission porte principalement sur le backend et la couche sémantique, afin de permettre à l'agent IA (LLM) de générer des requêtes SQL fiables à partir des demandes utilisateurs. Le détail de vos missions sera le suivant : Compréhension Fonctionnelle & Cohérence Produit - Assurer l'alignement entre les besoins métier et les capacités de la solution - Maintenir la cohérence fonctionnelle et la qualité du produit Coordination & Gestion des Exigences - Collaborer avec les fournisseurs de données pour clarifier les besoins et garantir la disponibilité des données - Travailler étroitement avec le Product Owner pour affiner et prioriser les fonctionnalités Contribution aux User Stories & au Backlog - Participer à la rédaction des user stories - Définir les fonctionnalités du produit et contribuer à la planification des releases - Prioriser les fonctionnalités et ajuster le périmètre à chaque itération - Garantir la préparation des user stories pour le développement - Accepter ou rejeter les résultats livrés selon les critères définis Assurance Qualité - Contribuer à la création et à l'exécution des cas de test - Valider les modèles de données et leur adéquation aux besoins analytiques - Participer aux contrôles de qualité des données et aux tests fonctionnels Environnement technique : - SQL avancé - Snowflake AI Cortex (niveau confirmé) - Modélisation de données - Data quality, testing et validation - Concepts IA / GenAI - Méthodologie : Agile - Langues : Anglais (Courant - Niveau C1)
Mission freelance
Senior Cloud Specialist - Azure / AWS / Terraform
Orcan Intelligence
Publiée le
Ansible
AWS Cloud
Azure
12 mois
400-600 €
Strasbourg, Grand Est
Dans le cadre d’une mission au sein d’une agence européenne basée à Strasbourg, nous recherchons un Senior Cloud Specialist. Ce rôle clé implique la conception, le déploiement et l’exploitation d’infrastructures cloud sécurisées, scalables et fortement automatisées. Vos missions Concevoir et déployer des environnements cloud sur Microsoft Azure (IaC). Gérer des déploiements Kubernetes (architecture, scalabilité, haute disponibilité). Administrer le cycle de vie Kubernetes : provisioning, upgrades, monitoring, optimisation. Configurer Azure Landing Zones, Bicep, Virtual Machines (environnements hybrides et conteneurisés). Mettre en place et gérer l’IAM (Identity & Access Management). Assurer la sécurité et la conformité (CIS Benchmarks, NIST SP 800, Kyverno, ACS Operator). Mettre en place des pipelines CI/CD (GitHub Actions) et GitOps (ArgoCD). Automatiser les infrastructures avec Terraform et Ansible. Développer des scripts (Bash, Python) pour RHEL, réseau, Zookeeper, F5 Load Balancers. Collaborer avec les équipes DevOps et développement. Participer aux choix d’architecture cloud.
Offre d'emploi
Data Engineer(H/F)
QODEXIA
Publiée le
Apache Spark
Azure
Databricks
10 jours
France
QODEXIA est une société de services informatiques implantée en France et en afrique du nord. Partenaire performant, innovant, agile pour aider les entreprises dans leur transforamtion digitale. QODEXIA s'est spécialisée dans le digital, SAP et les nouvelles technologies, accompagne au quotidien les plus grands acteurs de l'industrie, de l'énergie, du Luxe, de la Banque et de l'Assurance sur leurs projets. L’IT est notre passion, les valeurs humaines sont notre capital, c'est de quoi notre ADN est composé. Dans le cadre du développement de son usine digitale orientée Data , notre client recherche 6 Data Engineers expérimentés afin d’accélérer la mise en œuvre de cas d’usage sur la plateforme Databricks. 📍 Localisation : France / Remote 📅 Démarrage : ASAP
Mission freelance
Consultant senior data governance
Mon Consultant Indépendant
Publiée le
Data quality
3 mois
600-640 €
Paris, France
Pour un client bancaire : 1 ETP Consultant Senior Data Gouvernance Mission : Appuyer le responsable de service sur la refonte du cadre de gouvernance des données dans un contexte de réponse aux constats BCE. Livrables attendus : • Refonte de la politique de gouvernance des données (périmètre élargi au groupe et aux filiales) • Scénarios de déploiement de la gouvernance auprès des 5 filiales critiques • Stratégie de lignage fonctionnel des données prioritaires (BCBS / données critiques) Principaux interlocuteurs : équipe Data interne, programme réglementaire data, 5 filiales (2 ateliers par filiale). Profil recherché : • Senior, solide expérience en gouvernance des données (stratégie, construction de politiques, gouvernance fédérée) • À l'aise avec les notions de data domain et de lignage fonctionnel • Capacité à démarrer très rapidement et à produire des livrables de cadrage de qualité 1 ETP Consultant Senior Data Quality Mission : Accompagner les équipes sur la montée en maturité Data Quality dans un contexte réglementaire (réponse aux constats BCE). Activités principales : • Accompagnement des filières réglementaires (Risques, Finance) sur la Data Quality : identification des interlocuteurs, animation d'ateliers, formation • Mise à jour du cadre de contrôle Data Quality : gap analysis entre l'existant et les exigences BCE, révision des seuils d'acceptabilité, définition des exigences pour les objets métiers "or" (données prioritaires des reportings réglementaires) • Étude de convergence des outils ticketing : analyse Jira vs Redmine et recommandation sur l'outil à pérenniser Profil recherché : • Senior, expérience confirmée en Data Quality et gouvernance des données • Capacité à produire et à faire avancer les chantiers (pas uniquement un animateur d'ateliers) • Bonne connaissance des enjeux réglementaires bancaires (BCBS, BCE) appréciée
Offre d'emploi
Ingénieur Cybersécurité Cloud Azure - AWS (H/F)
SPIE ICS
Publiée le
AWS Cloud
Azure
Bash
12 mois
40k-45k €
400-450 €
Saint-Ouen-sur-Seine, Île-de-France
Nous recherchons pour notre client un(e) Ingénieur Cybersécurité Cloud Azure- AWS (H/F) Dans un environnement international, vous participez au renforcement continu de la posture de cybersécurité des environnements Cloud Azure et AWS. Vous intervenez sur le déploiement et la gestion des politiques de sécurité, ainsi que sur les initiatives d’automatisation et de remédiation. Missions principales Déployer et maintenir les Azure Policy pour assurer la conformité et la sécurité des ressources Azure. Contribuer à la création et à l’évolution des politiques de sécurité cloud adaptées aux besoins métiers et réglementaires. Participer aux projets d’automatisation de la Cloud Foundation, incluant la mise en place de scripts et d’outils pour la remédiation automatique. Collaborer avec les équipes Cloud, Sécurité et DevOps pour intégrer les bonnes pratiques de sécurité dans les processus CI/CD. Assurer une veille technologique et réglementaire sur les solutions de sécurité cloud Azure et AWS. Apporter un support technique et des recommandations pour améliorer la posture de sécurité globale
Offre d'emploi
Buisness analyst / DATA ( trade finance ) - Denodo
AVA2I
Publiée le
Data quality
Microsoft Power BI
1 an
Île-de-France, France
Dans le cadre d’un programme stratégique de transformation data au sein du métier Trade Finance, vous interviendrez sur la mise en place d’un Buisness Analyste/ DATA basé sur une plateforme de virtualisation de données. L’objectif est de : Centraliser et fiabiliser les données métiers Modéliser la donnée en fonction des besoins opérationnels Distribuer la donnée via API, reporting et applications Garantir la qualité et la gouvernance des données 🛠️ Missions 🔍 Analyse & cadrage Recueillir et analyser les besoins métier (ateliers, cadrage) Rédiger les spécifications fonctionnelles et user stories 🧠 Data & modélisation Analyser les modèles de données existants Mapper et intégrer les données (data virtualisation / denodo VQL) Participer à la construction du Data Product 🤝 Support & coordination Assurer un support fonctionnel auprès des équipes de développement Faire l’interface entre les équipes IT et les métiers 📊 Reporting & BI Concevoir et développer des dashboards et rapports ✅ Data Quality & Gouvernance Définir et implémenter des règles de qualité des données Contribuer à la gouvernance des données 🧩 Compétences fonctionnelles Bonne compréhension des besoins métier Une connaissance du Trade Finance est un plus 🌟 Soft skills Rigueur et esprit analytique Curiosité et proactivité Bon relationnel et communication ➕ Atouts Expérience en environnement bancaire ou financier Connaissance d’un progiciel Trade Finance (type TI+) Expérience sur des projets data complexes
Offre d'emploi
Data Analyst fonctionnel
OCTOGONE
Publiée le
Modélisation
Recette
2 ans
Île-de-France, France
Contexte V1 d’un grand projet dont la finalité est l’enregistrement et la publication des actes et déclarations, GESFIE a pour objectif de remplacer une application existante, mais obsolète : FIDJI Le palier 1 de GESFIE dont la mise en production est fixée en T1 2029 propose 3 modules : un module d’enregistrement, un module de comptabilité et un module pilote. Par la suite, d’autres modules seront accueillis au sein de GESFIE. Description Rédaction de spécifications fonctionnelles détaillées en cycle en V : CU, IHM, Contrat de services , modélisation fonctionnelle Rédaction de compte rendu suite à ateliers fonctionnels avec des partenaires Rédaction de guides utilisateurs Rédaction de notes de problématique, de notes de déploiement (…) Elaboration de cahiers de tests fonctionnels dans le cadre de la recette Sélection des jeux d’essai Conception de matrices de couverture Livrables spécifications fonctionnelles détaillées compte rendu guides utilisateurs notes de problématique, de notes de déploiement (…) Préparation à la recette fonctionnelle : cahiers de tests fonctionnels avec jeux d’essais, Matrice de couverture
Offre d'emploi
Data Engineer Python & Power BI (H/F)
STORM GROUP
Publiée le
Microsoft Power BI
Python
3 ans
40k-55k €
400-500 €
Île-de-France, France
Au sein d’une équipe spécialisée en risque de contrepartie, vous contribuez au développement et à l’amélioration d’outils de suivi, d’analyse et de certification des métriques de risque. Vos missions : Développement et optimisation d’outils de reporting et d’analyse Python, Power BI Structuration et modélisation des données pour des usages BI Suivi et contrôle des métriques de risque et des dépassements Participation aux processus de certification et de fiabilisation des données Collaboration avec des équipes pluridisciplinaires (risque, IT, métiers)
Mission freelance
Data analyst SENIOR
MLMCONSEIL
Publiée le
Python
6 mois
100-470 €
Nantes, Pays de la Loire
Recherche d'un data analyst SENIOR : Tâches Comprendre et modéliser les problématiques métier et celles du pôle Définir avec justesse le périmètre des données nécessaire à la solution technique Designer et construire des modèles de machine learning Modéliser des résultats d’analyse des données pour les rendre lisibles, exploitables et actionnables Comprendre et modéliser les problématiques métier et celles du pôle Définir avec justesse le périmètre des données nécessaire à la solution technique Designer et construire des modèles de machine learning
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
5012 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois