L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 3 816 résultats.
Offre d'emploi
Tech Lead .net / Azure devops
VISIAN
Publiée le
.NET
.NET CORE
Azure
3 ans
40k-45k €
400-600 €
Île-de-France, France
Tech Lead .NET Core & Cloud (H/F) - Transformation d'un SI Majeur🚀 Le défi : Devenir l'Architecte de la Ville de Demain Rejoignez un acteur majeur français de la communication extérieure et du digital , présent depuis plus d'un siècle au cœur de la vie des citoyens. Avec une audience de 35 millions de personnes par semaine , nous ne faisons pas que de la tech : nous façonnons le paysage urbain de demain. Dans le cadre d'un plan de transformation ambitieux initié en 2024, l'année 2026 marquera un tournant stratégique pour notre système d'information. Nous recherchons le/la Tech Lead qui sera le pilier de cette modernisation profonde. 🛠️ Vos Missions : Construire, Guider, Moderniser Excellence Technique & Architecture : Définir et incarner les standards d'excellence technique (Clean Code, Design Patterns, Robustesse). Piloter la transition vers une architecture microservices moderne, scalable et hautement disponible. Prendre les décisions stratégiques en arbitrant entre performance, sécurité et impact business. Leadership & Coaching Humain : Prendre le leadership d'une squad avec exigence et bienveillance (Pair programming, revues de code, mentorat). Hisser l'équipe vers une maturité technique de premier plan et favoriser un climat d'innovation naturelle. Modernisation & Industrialisation : Collaborer étroitement avec les équipes Cloud pour garantir la résilience d'un SI industrialisé. Insuffler une culture DevOps moderne (automatisation, industrialisation, responsabilisation bout-en-bout). ⚙️ Votre Environnement Technique Backend : .NET Core (versions récentes). Cloud & Infra : Écosystème Azure, Azure Service Bus. Orchestration : Docker et Kubernetes (Déploiement sur K8s). IA & Innovation : Intégration d'outils d'assistance (type Claude Code) dans le quotidien des développeurs. Data & Observabilité : Monitoring, métriques et gestion fine des flux de données. 🎯 Votre Profil Formation : Diplôme d'ingénieur ou équivalent, avec un socle informatique solide. Expérience : Expérience éprouvée en développement logiciel et en DevOps . Vous avez déjà mené des projets de migration de legacy vers des environnements conteneurisés . Mindset : Leadership affirmé, capacité à inspirer et à porter une vision technique ambitieuse. Expertise Cloud : Maîtrise confirmée d'un cloud majeur (Azure de préférence) et des pipelines CI/CD. Sécurité : Sensibilité forte aux enjeux de criticité et de protection des données.
Offre d'emploi
Ingénieur de production senior h/f
Ela Technology
Publiée le
Ansible
Apache Tomcat
Automatisation
6 mois
Seine-Saint-Denis, France
La mission se déroule au sein d’une équipe en charge du maintien en condition opérationnelle , des évolutions et des mises en production (implémentation, automatisation, documentation) d’environ 15 applications métiers . L’activité est centrée sur : les évolutions infrastructure les évolutions applicatives les aspects de cybersécurité L’équipe intervient également en escalade de support niveau 2 pour des équipes offshore. L’intégration et le support de l’environnement dans lequel sont installés des progiciels métiers ainsi que d’autres logiciels fournis par des chambres de compensation font partie de l’activité quotidienne. Le contexte est international , avec des équipes réparties sur plusieurs sites. Activités – Projet Mise en place et validation des évolutions applicatives, d’infrastructure et de sécurité sur les environnements de staging et de production Suivi des projets business et infrastructure en relation avec les équipes projets (développement, business analyst), le support fonctionnel et l’infrastructure Automatisation des tâches récurrentes via les outils d’ordonnancement et les langages de scripting Contribution à l’évolution de l’architecture applicative afin d’améliorer la qualité de service Mise en place ou amélioration du monitoring applicatif Gestion du risque opérationnel lié aux changements applicatifs ou infrastructure Documentation des processus applicatifs et création de procédures d’exploitation Participation aux astreintes Contribution aux opérations exceptionnelles (tests de continuité, mises en production, migrations infrastructure) Activités – Support (environ 20 %) Maintien en condition opérationnelle des applications (niveau 2) Mise en place et suivi de plans d’actions correctifs Gestion des requêtes, incidents et problèmes en escalade Environnement technique OS : Windows / Linux Serveurs d’applications : progiciels, Tomcat, WebLogic Bases de données : Oracle, SQL Server, PostgreSQL Ordonnancement : Dollar Universe, Autosys, outils internes Monitoring : Geneos, Nagios, Prometheus, Dynatrace Automatisation : PowerShell, Shell, Perl, Python, Ansible, Jenkins Réseau : coordination avec équipes réseau et environnements marchés
Mission freelance
Data Engineer -CLOUD GOOGLE-
DEVIK CONSULTING
Publiée le
Apache Airflow
BigQuery
Google Cloud Platform (GCP)
1 an
400-650 €
Paris, France
Description Pour le compte de notre client grand compte, nous recherchons un Expert Data Engineer Spécialisé sur Google Cloud afin de rejoindre la Squad data pour le pilotage commercial Tâches principales Développement de pipeline de données sur Cloud Composer / Airflow Optimisation des performances et coûts des traitements sur GCP Participation aux choix d'outils et des solutions techniques sur GCP et développement de nouvelles application Modélisation des données sur BigQuery Maintenir l'existant en condition opérationnelle Préparer et mettre en œuvre l’interopérabilité avec de nouveaux systèmes opérationnels Proposer des simplifications et/ou optimisations selon les normes internes Compétences demandées GCP : Confirmé Big Query : Expert Base de donnée : Confirmé Python : confirmé Lieu : Paris
Offre d'emploi
Ingénieur de Production Senior – DevOps Azure - Env Windows
Taimpel
Publiée le
Azure DevOps
Dynatrace
microsoft
2 ans
44k-55k €
400-450 €
Hauts-de-Seine, France
🕐 Type de mission : Production / Support Applicatif / DevOps Contexte de la mission Dans le cadre du renforcement d’une équipe Application Support , nous recherchons un Ingénieur de Production Informatique Senior (DevOps Full Windows) pour intervenir sur un environnement applicatif critique à forte visibilité métier. La mission porte sur le support, la disponibilité et l’évolution des plateformes applicatives utilisées par des clients finaux ainsi que par les équipes internes de gestion et de souscription. Vous intégrerez une équipe Agile travaillant en étroite collaboration avec : les équipes de développement les équipes de production les équipes d’ infrastructure et d’architecture L’objectif principal est de garantir la disponibilité, la stabilité et la performance des applications , tout en contribuant à leur industrialisation et leur modernisation . Missions principalesProduction applicative et exploitation Assurer la disponibilité et la performance des applications Superviser les plateformes via des outils de monitoring (Dynatrace, Grafana, etc.) Diagnostiquer et résoudre les incidents de production Participer aux cellules de crise et aux analyses post-incidents Garantir la stabilité et la résilience des environnements applicatifs Déploiements et gestion des livraisons Coordonner les déploiements applicatifs sur les différents environnements Sécuriser les mises en production Superviser l'exécution des procédures de livraison Assurer la traçabilité des changements et le suivi des mises à jour Automatisation et industrialisation Développer des scripts et outils d’automatisation Industrialiser les processus de déploiement et de support Contribuer à la modernisation des outils de supervision et d’exploitation Améliorer en continu l’efficacité opérationnelle Gestion de l’infrastructure applicative Garantir la sécurité et la performance des infrastructures Participer à la maintenance et aux mises à jour des environnements Collaborer avec les équipes techniques pour optimiser les architectures Collaboration DevOps Travailler en interaction constante avec les équipes de développement Contribuer à l’amélioration des pipelines de déploiement Participer aux rituels Agile (planning, sprint, revue, etc.) Support opérationnel Participer aux astreintes et interventions hors horaires ouvrés si nécessaire Assurer un support applicatif de niveau avancé Compétences techniques attenduesEnvironnement Microsoft Windows Server (2012 / 2019 ou supérieur) IIS .NET Active Directory SQL Server Cloud et DevOps Azure (IaaS / PaaS) Azure DevOps Azure Data Factory Déploiements automatisés Certification AZ900 appréciée ou expérience équivalente. Production et automatisation PowerShell (v2 / v4) Gestion des pipelines et livraisons Automatisation des tâches d’exploitation Supervision et monitoring Expérience avec des outils tels que : Dynatrace Nagios AppDynamics Grafana Kibana PowerBI Ordonnancement et flux Orchestration de jobs (type TWS ou équivalent) Gestion des échanges de fichiers sécurisés Protocoles de transfert sécurisés (ex : CFT ) Expérience recherchée Nous recherchons un profil ayant : une expérience solide en production applicative une forte pratique de la gestion d’incidents en environnement critique une expérience confirmée en environnement Microsoft une bonne maîtrise des environnements Azure et Azure DevOps Une expérience dans des environnements à forte contrainte de disponibilité est fortement appréciée. Soft skills et mindset attendus Ce poste nécessite un profil ayant une excellente posture professionnelle . Le candidat devra démontrer : une excellente communication orale une présentation professionnelle irréprochable une capacité à interagir avec différents interlocuteurs techniques et métiers un esprit d’équipe fort Nous recherchons également une personne : motivée et impliquée proactive et force de proposition capable de travailler avec autonomie ayant un bon esprit d’analyse capable de garder son sang-froid en situation d’incident Environnement de travail Organisation en méthodologie Agile Interaction forte avec les équipes Dev, Ops et Infra Environnement technique riche et évolutif
Mission freelance
Data Engineer
Codezys
Publiée le
Intelligence artificielle
Python
Snowflake
12 mois
Bordeaux, Nouvelle-Aquitaine
Dans le cadre de notre démarche d'innovation et de renforcement de notre expertise en gestion de données, nous lançons un appel d'offres pour le recrutement d'un(e) Data Engineer intégré(e) à notre Direction des Systèmes d'Information (DSI). Le(a) candidat(e) retenu(e) aura pour mission principale d'apporter son expertise technique sur des sujets récents liés à l'intelligence artificielle (IA) appliquée à la data, en s'appuyant sur une compréhension approfondie des enjeux métiers et techniques. Responsabilités principales : Alimentation de données : Effectuer l'ingestion, la transformation et la mise à jour des flux de données provenant de différentes sources afin d’assurer leur disponibilité et leur cohérence. Collaboration avec un Data Analyst : Travailler en binôme sur des projets liés à l’IA et à la data, en apportant votre expertise technique pour la réalisation d’analyses et la mise en place de solutions innovantes. Développement d’outils IA : Participer à la conception et au déploiement d’agents IA capables de réaliser du requêtage SQL en langage naturel, facilitant ainsi l’accès et l’interprétation des données par les utilisateurs métier. Outils et monitoring : Mettre à disposition des outils d’aide au développement, au monitoring et à la maintenance des plateformes data, afin d’assurer leur fiabilité et leur performance. Veille technologique : Effectuer une veille continue sur les architectures data, en termes de nouvelles tendances, d’outils émergents et de bonnes pratiques, pour faire évoluer nos solutions et répondre efficacement aux besoins métiers. La personne recrutée devra faire preuve de rigueur, d’autonomie et d’un esprit d’innovation, tout en étant à l’écoute des besoins des utilisateurs finaux. La maîtrise des technologies liées à l’IA, aux plateformes data et à la requête en langage naturel sera un réel atout pour la réussite de ce projet. Nous invitons donc les candidats ou organismes intéressés à soumettre leur proposition, en précisant leur approche technique, leur expérience et leur capacité à répondre à ces enjeux stratégiques.
Offre d'emploi
Business Analyst - Epargne Retraite
VISIAN
Publiée le
Business Analyst
1 an
42k-54k €
350-500 €
Paris, France
Périmètre détaillé : Recueillir et analyser les besoins métiers : Organiser des ateliers avec les utilisateurs / parties prenantes métier Comprendre les processus métier existants, les points de douleur, les opportunités d’amélioration Documenter les besoins, scénarios d’usage, cas d’usage Rédaction de spécifications fonctionnelles : Rédiger cahier des charges fonctionnel ou spécifications détaillées Définir les critères d’acceptation et de performance Formaliser les exigences métiers (règles de gestion, cas d’exception, flux de données) Interface entre métiers & technique Vérifier la faisabilité technique des demandes Participer aux choix fonctionnels Assurer le suivi des développements ou configurations selon les besoins métiers Pilotage de la validation fonctionnelle Organiser les campagnes de tests fonctionnels (recette) Vérifier que les livrables répondent aux besoins (tests d’intégration, tests utilisateurs) Remonter les écarts, accompagner les corrections Accompagnement du changement : Former ou sensibiliser les utilisateurs aux nouvelles fonctionnalités Assister la mise en production et le déploiement Collecter les retours post-déploiement et proposer des évolutions Veille / optimisation métier : Suivre l’usage des outils / applications métiers Proposer des améliorations ou évolutions Veiller aux bonnes pratiques métier, conformité, réglementation
Mission freelance
AMOE / Administrateur Système Décisionnel
Signe +
Publiée le
LUnix
4 mois
580 €
Paris, France
CONTEXTE DE LA MISSION La mission se deroule au sein d'une unite locale PDA (Produits Data et Analytics), rattachee a l'unite FAB (Fabrique Digitale) du departement DEI. Le prestataire interviendra en maitrise d'oeuvre en tant qu'administrateur systeme et technique sur un parc decisionnel compose des plateformes suivantes : IBM DataStage, IBM Cognos, IBM Planning Analytics (TM1), Oracle Hyperion EPM, Talend, Konvergence Shuttle. Une forte expertise IBM DataStage est attendue. Le prestataire assurera egalement le role de Backup Technique du responsable CTBD. PRESTATIONS ATTENDUES Installation, configuration, parametrage, qualification et integration des progiciels Gestion des environnements (developpement, test, production) Support technique MOE Diagnostic et resolution de problemes Redaction de documentation technique (installation, parametrage, FAQ, base de connaissances) Tests techniques (unitaires, interoperabilite, performance) Coordination avec les autres equipes techniques Assurer le role de Backup Technique du responsable CTBD PROFIL RECHERCHE Experience : 8 ans minimum Competences techniques requises : Administration systeme UNIX/Linux avancee - RHEL 7.6 / 8+ Connaissance bases de donnees Oracle 11g a 19c Tres bonne maitrise administration IBM DataStage 9.1 / 11.7 (competence cle) Maitrise administration IBM Cognos Analytics 11.x Red Hat Notions administration IBM TM1 Planning Analytics Maitrise environnement Windows 10 Capacite a lire et assimiler de la documentation technique en anglais
Mission freelance
ACHETEUR Domaine Market Data/
WorldWide People
Publiée le
Pilotage
12 mois
Paris, France
ACHETEUR Domaine Market Data . Acheteur senior spécialisé dans les données de marché, avec une solide expérience auprès des fournisseurs de données financières et une excellente compréhension des cas d'utilisation en salle des marchés. Localisation Paris / Télétravail Durée de la mission : 3 ans Mission : · Développer et entretenir des relations de proximité avec les lignes métier pour s’assurer de comprendre leur besoin en market data et négocier suivant leurs contraintes. · Apporter une expertise fonctionnelle et une connaissance approfondie de l'industrie des données de marché (Market Data) et de ses spécificités pour répondre aux besoins métiers. · Entretenir des relations avec les fournisseurs afin de comprendre leurs offres très spécifiques et très techniques, pour identifier des sources alternatives. · Analyser et challenger les besoins des clients internes et leur apporter votre expertise achats tout en garantissant la conformité avec les règles de conduite du Groupe applicables aux relations avec les fournisseurs. · Analyser les contrats des fournisseurs pour s’assurer de l’adéquation du contrat aux besoins métiers exprimés · Comprendre les usages des Data des utilisateurs pour s’assurer de la conformité des usages aux contrats fournisseurs associés · Négocier des contrats dans le cadre des renouvellements ou révisions des contrats de Market Data avec les fournisseurs externes pour le compte et au mieux des intérêts des lignes métier. · Suivre la conformité des contrats avec le service EI Juridique et EI Achats (Analyses de risques fournisseurs) · Etre force de proposition d’optimisation en anticipant les risques, les tendances et les opportunités. · Pour chaque contrat : · Réaliser une synthèse présentant le besoin, la réponde au besoin avec un support contractuel et une synthèse contrat sur les demandes de market data formulées par les lignes métiers. · S’assurer de bien comprendre, de challenger et de documenter l’utilisation faite des données souscrites par les lignes métiers notamment s’il s’agit d’alimenter des applications et des référentiels. · Assurer un reporting auprès des équipes de facturation et s’assurer d’une bonne coordination avec les équipes techniques si besoin. · Intégration des contrats dans les applications internes et mise à jour des informations régulières.
Offre d'emploi
Analyste SOC N3 - Expert Akamai & EDR (H/F)
UMANTIC
Publiée le
60k-70k €
Issy-les-Moulineaux, Île-de-France
Le contexte Dans le cadre du renforcement du dispositif de cybersécurité d'un grand compte du secteur bancaire et services, nous recherchons un Analyste SOC N3 expert sur les solutions de protection applicative Akamai et les solutions EDR/XDR. Vous interviendrez au sein d'une équipe SOC structurée (N1/N2/N3), sur un environnement hybride (cloud et on-premise) protégeant des applications et services critiques exposés sur Internet. Vos missions * Apporter une expertise technique N3 lors des investigations avancées sur incidents complexes * Piloter l'onboarding des nouvelles applications vers les dispositifs de protection (Akamai, EDR, SIEM) * Optimiser les configurations des solutions de sécurité (WAF, Anti-Bot, DDoS, EDR) * Développer et tuner les règles de détection et de corrélation * Contribuer aux activités de Threat Hunting et à l'amélioration continue du dispositif * Produire la documentation technique, les rapports d'investigation et les tableaux de bord de pilotage SOC * Coordonner techniquement les échanges avec les architectes sécurité, équipes infrastructure et équipes projets Environnement technique * Sécurité applicative : Akamai (WAF, Anti-Bot, DDoS) * Endpoint Security : Tehtris XDR, Trellix * SIEM & analyse de logs : Splunk (SPL), Elastic / Kibana * Reporting : Power BI * Frameworks : MITRE ATT&CK
Mission freelance
101689/Business Analyst secteur Assurance Niort
WorldWide People
Publiée le
Business Analyst
9 mois
350 €
Niort, Nouvelle-Aquitaine
Business Analyst secteur Assurance Niort. - Compétences en analyse d'incidents. - Compétences en spécifications de conception. - Compétences en analyse qualité. - Compétences en gestion des incidents. - Connaissances en LumApps. Mission qui consiste à intervenir sur l'environnement de travail numérique d'un client du secteur Assurance. Basée à Niort, avec possibilité de télétravail 2 à 3 jours par semaine. - Animer des ateliers pour comprendre et challenger les besoins des métiers et des utilisateurs finaux. - Traduire ces besoins en rédigeant les spécifications fonctionnelles (ou User Stories). - Concevoir et rédiger les cahiers de recette pour les différents projets. - Réaliser les tests fonctionnels, valider les livraisons et assurer le suivi des anomalies avec l'équipe de développement. - Analyser, qualifier, suivre et corriger les incidents remontés. - Accompagner et former les métiers et les utilisateurs finaux sur les outils. Notre client attend un Business Analyst disposant de : - Compétences en analyse d'incidents. - Compétences en spécifications de conception. - Compétences en analyse qualité. - Compétences en gestion des incidents. - Connaissances en LumApps.
Mission freelance
Cyber Operation Expert Cloud
Codezys
Publiée le
Azure
Azure Data Factory
Azure DevOps Services
12 mois
Les Ulis, Île-de-France
Contexte de la mission [Ne pas se positionner si consultant ou freelance basé en France. Cette mission s’inscrit dans le cadre d’une opération de nearshore ou offshore.] Le consultant interviendra de manière transverse au sein des équipes Cloud et Cybersécurité, afin d’accompagner les squads dans la sécurisation, l’évolution et la mise en conformité de leurs produits. Cette mission se déroule dans un environnement orienté produit/running, avec un enjeu majeur autour de la sécurité opérationnelle et de la montée en maturité des pratiques cloud. Objectifs et livrables Objectifs de la mission Renforcer la sécurité des environnements cloud Azure. Accompagner les squads dans la conception et la sécurisation des produits cloud. Analyser les risques associés aux évolutions techniques. Définir et déployer des mesures de remédiation adaptées. Assurer la conformité aux référentiels internes de cybersécurité. Contribuer à l’amélioration des pratiques de sécurité cloud et à leur montée en maturité. Expertise technique Cloud Fournir une expertise sur l’élaboration d’architectures sécurisées sur Azure. Définir des modèles de sécurité (Entra ID, RBAC, Key Vault, gestion des secrets, etc.). Intervenir sur les sujets liés au réseau, à l’identité et à la gouvernance cloud. Utiliser les outils natifs Azure tels que Defender for Cloud, Azure Policy, Monitor et Log Analytics. Réaliser des analyses de risques techniques et élaborer des plans de remédiation. Accompagnement des squads (RUN / Mode produit) Revoir et qualifier les évolutions techniques (nouvelles fonctionnalités, infrastructure, architecture). Identifier les impacts en matière de cybersécurité et proposer des stratégies de mitigation. Participer aux ateliers, revues d’architecture et réunions d’avancement. Supporter la mise en œuvre des mesures de sécurité. Anticiper les risques liés aux évolutions des produits. Transversalité & coordination Collaborer avec les équipes Cloud, DevSecOps, Architecture et Cybersécurité. Remonter les risques, alertes et éventuels points de blocage. Proposer des améliorations sur les pratiques et processus en place. Intervenir sur des sujets transversaux selon les priorités. Livrables attendus Revues de sécurité suite aux changements cloud. Analyses de risques techniques. Recommandations et bonnes pratiques en matière de sécurité. Contribution à l’enrichissement des référentiels cybersécurité cloud. Participation active aux comités techniques et de sécurité.
Mission freelance
Proxy PO DATA - finance / Processus Procure to Pay AND Order to cash /DATAIKU / Anglais (H/F)
Octopus Group
Publiée le
BI
Dataiku
Finance
6 mois
490-600 €
La Défense, Île-de-France
Nous recherchons pour le compte de notre client grand-compte en finance, un proxy-product Owner Data Objectif : Apporter son soutien à l'équipe de finance d'entreprise dans la mise en œuvre de son programme de transformation financière. Ce programme couvre l'automatisation des processus, ainsi que les processus P2P (Procure-to-Pay) et O2C (Order-to-Cash). Vous veillerez à ce que toutes les initiatives de transformation financière comportant une dimension « données » soient correctement identifiées, structurées et alignées sur les normes, les modèles et les cadres de mise en œuvre du Bureau des données du groupe. Il s'agit d'un poste transversal et hautement collaboratif, faisant le lien entre les équipes Finance, Informatique et Données, afin de garantir la mise en œuvre et l'adoption efficaces de solutions basées sur les données. Mission Principale : Agir en tant que Proxy Product Owner Data pour le programme de transformation de la finance d'entreprise, en permettant une exécution axée sur les données en s'assurant que les projets sont : • Correctement identifiés comme comportant une composante données • Sont recensés et alignés sur les priorités du Bureau des données du Groupe • Sont structurés selon les modèles, solutions et normes d'architecture du Groupe • Sont mis en œuvre efficacement avec une gouvernance et des conseils techniques appropriés Identification et gestion des projets Identifier les initiatives de transformation financière ayant un impact sur les données Évaluer la valeur métier et la faisabilité Veiller à la cohérence avec les priorités du Bureau des données du Groupe Veiller à la hiérarchisation et à l'intégration dans le backlog du bureau des données du groupe Traduire les besoins financiers en exigences techniques et en matière de données Veiller à l'alignement sur les modèles d'architecture du groupe Valider la conception de la solution et les modèles de données Expertise en processus financiers et soutien à la transformation Apporter une expertise sur les processus de finance d'entreprise Accompagner les initiatives de transformation dans les domaines suivants : P2P (Procure-to-Pay) O2C (Order-to-Cash) Automatisation des processus financiers S'assurer que les solutions de données répondent aux besoins opérationnels de la fonction financière Mise en œuvre de l'automatisation des processus Soutenir la mise en œuvre des initiatives d'automatisation des processus Contribuer à l'élaboration de cas d'utilisation de l'automatisation à l'aide de Dataiku Garantir l'intégration et la qualité des données pour les flux de travail automatisés Coordination de la mise en œuvre Assurer la coordination entre les équipes financières, informatiques et le Bureau des données du groupe Suivre l'avancement du projet et lever les obstacles Veiller à ce que la mise en œuvre soit alignée sur les étapes clés de la transformation Normes, gouvernance et bonnes pratiques Veiller au respect des normes du Bureau des données du Groupe Appliquer les modèles d'architecture et les cadres de gouvernance Garantir le respect des exigences en matière de qualité et de sécurité des données Implication des parties prenantes et communication Servir de point de contact principal pour les données dans le cadre du programme de transformation financière Fournir des rapports d'avancement réguliers Soutenir la prise de décision et la coordination
Mission freelance
Architecte EXCHANGE
emagine Consulting SARL
Publiée le
Microsoft Exchange Server
Microsoft Office
3 ans
Île-de-France, France
Dans ce cadre, la prestation consiste à contribuer à/au(x) : • L'intégration des filiales IBFS • L'intégration du groupe Ayvens • La mise en place des architectures techniques messagerie (HLD, LLD) • La mise en place des outils techniques et leur implémentation • Etudes et la production des procédures de migration • L'optimisation des actions d'administration et de monitoring • Maintien de la cohérence de l'infrastructure et gestion de la capacité • La gestion des incidents et des changements Environnement Anglophone Les livrables attendus sont : • Documentation d'architecture technique • Procédures d'installation et d'exploitation • Estimations de charges, gestion des priorités • Plans d’actions et analyse d’impacts • Plans de tests • Gestion et suivi des infrastructures de service sur le périmètre de responsabilité
Mission freelance
Product Manager Referentiel et data
Freelance.com
Publiée le
Confluence
Gherkin
JIRA
1 an
580-600 €
Île-de-France, France
Dans le cadre d’un programme stratégique au sein d’un grand acteur du financement et de l’assurance, nous recherchons un Product Manager Data & Référentiel pour intervenir sur un environnement SI métier complexe et transverse . La mission s’inscrit dans un train SAFe dédié aux applications métiers , avec une forte interaction entre plusieurs équipes produits et data. Le Product Manager interviendra sur deux domaines structurants : Référentiel et composants transverses Data / Infocentres Ces équipes couvrent les besoins mutualisés de plusieurs produits métiers et participent à la transformation des plateformes data. Vous serez amené à piloter des initiatives transverses impliquant différentes équipes et trains agiles, notamment autour de projets de modernisation data et d’amélioration continue des solutions. Une attention particulière est portée à l’intégration de l’IA dans les pratiques produits et dans la chaîne de delivery , afin d’améliorer la performance collective des équipes. En tant que Product Manager , vous serez garant de la vision produit et de la valeur délivrée : Définir des solutions désirables, viables et réalisables répondant aux besoins métiers Construire et porter la vision produit et la roadmap Élaborer et maintenir : la Roadmap Solution (vision pluriannuelle) la Roadmap PI (planification des features sur les Program Increment) Identifier et initier les Features et Enablers dans le backlog Gérer la priorisation du backlog produit Collaborer étroitement avec les métiers et les équipes Agile Animer des ateliers de recueil de besoins Traduire les besoins métiers en solutions livrables par les équipes techniques Piloter des projets transverses impliquant plusieurs équipes Contribuer à l’amélioration continue des pratiques produit et data
Offre d'emploi
Lead Data Engineer Dataiku & Python
OBJECTWARE
Publiée le
Dataiku
Python
3 ans
40k-79k €
400-550 €
Île-de-France, France
Prestations demandées RESPONSABILITES - Conception et implémentation des pipelines de données : • Concevoir et développer des pipelines de données automatisés pour collecter, charger et transformer les données provenant de différentes sources (internes et externes) dans le Data Hub puis pour les transformer en Data Product Data Hub, Data Science ou Data Viz (Power BI). • Optimiser les pipelines de données pour garantir des performances élevées, une faible latence, et une intégrité des données et des traitements tout au long du processus. • Travailler avec les équipes data science et métiers pour comprendre leurs besoins en données et en traitements, et adapter les pipelines en conséquence. - Industrialisation et automatisation des flux de données et des traitements : • Mettre en place des processus d’industrialisation des modèles de machine learning et des flux de données, en garantissant la scalabilité et la fiabilité des pipelines en production. • Automatiser la gestion et le traitement des données à grande échelle, en veillant à réduire les interventions manuelles tout en assurant une supervision proactive des performances et des anomalies. • Collaborer étroitement avec les data scientists et MLOps pour assurer une transition des projets de l’exploration à la production, en intégrant les modèles dans des pipelines automatisés. - Gestion des données et optimisation des performances : • Optimiser les performances des requêtes et des pipelines de traitement des données, en utilisant les meilleures pratiques en matière de gestion des ressources et d’architecture de stockage (raw, refined, trusted layers). • Assurer une surveillance continue de la qualité des données et mettre en place des contrôles de validation pour maintenir l’intégrité des jeux de données. - Sécurité et gouvernance des données : • Mettre en œuvre des solutions de sécurisation des données (gestion des accès, cryptage, audits) pour garantir la conformité avec les réglementations internes et externes. • Travailler en collaboration avec le Data Office pour assurer l’alignement avec les politiques et processus définis. • Maintenir la documentation technique des pipelines et des flux de données, en assurant la traçabilité et la gestion des métadonnées. COMPETENCES - Expérience confirmée en ingénierie des données : Solide expérience dans la conception, la mise en œuvre et l’optimisation de pipelines de données. - Maîtrise des technologies de traitement de données : Expertise dans l’utilisation d’outils et technologies tels que ELT, Spark, SQL, Python, Dataiku, et la gestion de data warehouses et data hubs. - Compétence en sécurité et gouvernance des données : Connaissance des enjeux de sécurité, de conformité réglementaire (GDPR), et de gouvernance des données, avec une capacité à implémenter des solutions adéquates. - Compétences en automatisation et industrialisation : Capacité à automatiser et industrialiser les flux de données et les traitements afférents, en assurant la transition fluide des projets data science vers la production. - Maîtrise de l’anglais : La maîtrise de l’anglais est indispensable pour interagir avec des parties prenantes
Offre d'emploi
Développeur-se Fullstack JavaScript (H/F)
█ █ █ █ █ █ █
Publiée le
.NET Framework
Application web
ASP
49 300-58k €
69009, Lyon, Auvergne-Rhône-Alpes
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Renégo TJM : de 600€ à 800€ après 3 mois réaliste ?
- VOYANT GRATUIT SÉRIEUX EN FRANCE +33 7 54 05 54 85
- VRAI MEDIUM VOYANT PUISSANT GRATUIT +229 45723596
- Réforme de l’assiette sociale
- Nouveau volet social dans la déclaration d'impôts sur le revenu
- Mission à 600 km de chez moi - Frais de double résidence
3816 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois