L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 482 résultats.
Mission freelance
PMO Ressources – Sécurité Opérationnelle
ARGANA CONSULTING CORP LLP
Publiée le
Agile Scrum
Cybersécurité
Data management
3 ans
400-470 €
Issy-les-Moulineaux, Île-de-France
La DMRSO (Direction Maîtrise des Risques et Sécurité Opérationnelle) intervient sur les missions suivantes : Maîtrise des risques liés au Système d’Information Sécurité opérationnelle assurée par le Centre de Sécurité Opérationnelle (CSO) La mission du Centre de Sécurité Opérationnelle est notamment de : Déployer et configurer les mesures techniques de prévention et de protection Construire et piloter le cockpit sécurité (mise sous surveillance continue des assets) Réaliser le transfert de la sécurité opérationnelle gérée par la Banque vers la BGPN Faire face à un contexte d’augmentation significative des attaques cyber (volume, intensité, complexité) Dans ce cadre, la prestation s’inscrit dans l’animation et la gestion des ressources de la DMRSO . Objectif de la mission Le PMO Ressources contribue au bon fonctionnement des équipes et à la bonne exécution des prestations externes, dans un contexte de suivi des actions d’amélioration continue en mode Agile . Les principaux enjeux sont : Maintenir un suivi rigoureux des entrées et sorties des ressources Mettre en place un suivi des outils et des transferts de connaissance Déployer un reporting de pilotage des ressources sous Excel / Power BI Missions principalesPilotage des ressources Suivi des ressources externes principalement Gestion des entrées et sorties des ressources dans les outils internes Accompagnement des nouveaux arrivants sur : outils espaces collaboratifs documentation processus Suivi administratif et financier Suivi des ressources en interface avec le PMO Finance : TJM dates d’arrivée suivi des prestations Préparation des demandes d’achat Émission des demandes vers la DPT Suivi du cycle de commande de bout en bout Suivi du réceptionné Projection des dépenses et gestion des alertes Contribution au pilotage financier de la DMRSO Reporting et suivi opérationnel Diffusion mensuelle du tableau de suivi des ressources externes : date de début de mission date de fin de mission alertes sur les fins de mission Mise en place et suivi du reporting ressources sous Excel / Power BI Maintien à jour de la documentation de prestation sous Confluence Conduite du changement Accompagnement des équipes dans l’ adoption des nouveaux outils et processus Contribution aux actions de transformation et d’amélioration continue Animation Agile Contribution active à l’animation Agile de la DMRSO : Participation aux PI Planning trimestriels Participation aux instances Agile Prise en compte des OKR Création et gestion des User Stories dans JIRA Suivi du delivery selon la planification Mise à jour régulière des tickets JIRA
Offre d'emploi
Expert Infrastructure Middleware & Progiciel (Cognos)
WIKEYS
Publiée le
Cognos
DevOps
Middleware
10 mois
40k-45k €
400-500 €
Île-de-France, France
Nous recherchons un expert Middleware et Progiciel pour intervenir sur l’amélioration et l’administration de solutions Cognos dans un environnement bancaire. Le consultant participera à la définition et à la mise en œuvre des environnements techniques tout en garantissant la cohérence, la sécurité et la performance des infrastructures. Missions principales Assurer le maintien en conditions opérationnelles des plateformes Cognos. Gérer les incidents et problèmes complexes liés aux infrastructures. Optimiser et fiabiliser les environnements, anticiper les besoins en capacité et performance. Participer à la définition de l’architecture technique et à l’évolution des solutions Cognos. Documenter les configurations et rédiger des consignes pour les équipes support. Collaborer étroitement avec les équipes production, infrastructures et sécurité . Administrer et maintenir les logiciels et outils liés aux offres Cognos. Mettre en œuvre les outils de surveillance et garantir la sécurité physique et logique des systèmes. Contribuer à des projets d’évolution et à l’automatisation des processus.
Offre d'emploi
Offre de mission Data Governance Manager – Stewardship & Adoption sur Bordeaux
EterniTech
Publiée le
Data governance
Microsoft Power BI
Snowflake
5 mois
Bordeaux, Nouvelle-Aquitaine
Je cherche pour un de mes clients Data Governance Manager – Stewardship & Adoption Description du besoin : Poste : Data Governance Manager – Stewardship & Adoption Expérience : mini 5 ans en Data Gouvernance Partenaires et Freelances Quelques mots sur le contexte de la mission et l’équipe Chez le client, le besoin s’inscrit dans le développement de la gouvernance data, dans un environnement structuré autour de Snowflake, Power BI et Datahub. La mission se déroule au sein de l’équipe Data Management composée de 4 Data Managers, qui outillent la gouvernance Data des entités du groupe et participent aux projets métiers en collaboration avec les Data Engineers et notre communauté de Data Owner. Enjeux du projet / périmètre La mission vise à structurer, déployer et animer la gouvernance opérationnelle autour d’une communauté de Data Stewards à créer, à renforcer l’adoption des outils et pratiques de gouvernance, et à rapprocher l’équipe Data Management des utilisateurs afin de mieux prioriser les besoins métiers et data. Le poste n’a pas vocation à être un rôle de Data Steward central ; il s’agit d’un rôle transverse, orienté cadre, adoption, animation de communauté et accompagnement du changement. Activités principales • Déployer et animer le modèle de Data Stewardship : clarification des rôles, périmètres, interactions et rituels entre Data Owners, Data Stewards, Data Management et équipes techniques. • Structurer l’onboarding des Data Stewards et produire les kits, standards et supports utiles. • Lancer et animer la future communauté de Data Stewards. • Renforcer l’adoption du Data Catalog et des pratiques de gouvernance. • Accélérer la documentation des assets prioritaires • Intégrer davantage la gouvernance dans les workflows projets. • Contribuer à l’extension de la couverture du catalogue, notamment sur les traitements IA. • Organiser des ateliers et temps d’échange avec les utilisateurs. • Faire émerger les irritants et besoins, structurer un backlog transverse et contribuer à sa priorisation avec les équipes concernées. • Contribuer à une gouvernance by design sur les projets data, dès les phases de cadrage. Activités secondaires • Réactiver et mobiliser les communautés existantes, en particulier les référents Power BI. • Animer des campagnes ciblées et des rituels simples mais réguliers autour des usages de gouvernance. • Accompagner l’appropriation des rôles de Data Steward par certaines communautés existantes. Contexte technique et organisationnel Environnement data structuré autour de 4 plateformes Snowflake, une par entité du groupe, Power BI et Datahub. Mission portée par l’équipe Data Management, en interaction avec des Product Managers, Data Analysts, Data Scientists, Data Engineers, équipes plateforme et sponsors métier. Utilisation framework scrumban Contraintes techniques Bonne compréhension attendue des enjeux liés aux catalogues de données, aux métadonnées, à la documentation, à l’ownership, aux accès et aux usages. Maitrise de Snowflake et Power BI ou outils similaires Soft skills souhaitées • Forte capacité d’animation de communauté • Facilitation • Conduite du changement • Capacité à faire avancer un sujet transverse sans autorité hiérarchique • Approche structurée, pragmatique, orientée impact et adoption • Capacité à dialoguer avec des interlocuteurs variés Expérience minimale requise Profil disposant d’une expérience solide en Data Governance, Data Management, Data Transformation ou Data Program Management. Outils de collaboration attendus Teams, Jira, Confluence, Datahub • TT les mercredis et vendredis (Possibilité de venir sur site si volonté). Critères de sélection Les éléments différenciants pouvant être mis en avant dans la candidature, d’après ton draft, sont : • expérience concrète de déploiement de modèles de gouvernance, de rôles ou de réseaux de référents ; • capacité à structurer et animer une communauté de Data Stewards ; • capacité à embarquer des parties prenantes variées et à conduire le changement ; • bonne compréhension des enjeux de Data Catalog, métadonnées, documentation, ownership, accès et usages ; • capacité à faire émerger les besoins utilisateurs et à contribuer à leur priorisation ; • approche pragmatique et orientée adoption / impact. Détail des compétences techniques Connaissance de Power BI : junior (<2 ans) Snowflake : junior (<2 ans d'exp) Data Governance : expert (>5 ans d'exp) Data Stewardship Operating Model : confirmé (2 à 5 ans d'exp) Data Catalog / Metadata Management : confirmé (2 à 5 ans d'exp) Conduite du changement / adoption : expert (>5ans) Animation de communauté / réseau de référents : confirmé (2 à 5 ans d'exp) Datahub ou autre Data Catalog : junior (< 2 ans) Gestion backlog transverse / priorisation : confirmé (2 à 5 ans d'exp)
Mission freelance
IT & Data Integration Manager
TEOLIA CONSULTING
Publiée le
ERP
Google Cloud Platform (GCP)
Supply Chain
6 mois
Paris, France
Dans le cadre d’un programme de transformation stratégique autour d’un outil d’Integrated Business Planning (IBP), un grand groupe international recherche un IT Data & Integration Manager. Ce programme vise à connecter plusieurs systèmes (ERP, outils métiers, plateformes data) afin de fiabiliser la donnée et améliorer la prise de décision à l’échelle globale. Missions : Piloter la mise en place des flux de données et interfaces entre systèmes Définir les règles de transformation des données et les spécifications fonctionnelles / techniques Coordonner les équipes internes (Business, IT) et l’intégrateur Suivre la delivery en Agile (backlog, sprints, Jira) Garantir la qualité, la cohérence et la fiabilité des données Participer aux phases de tests (UAT, validation, mise en production) Anticiper et sécuriser le passage en RUN (monitoring, performance, stabilité)
Offre d'emploi
Senior Cyber Security Design consultant sur Paris 17
EterniTech
Publiée le
cyberark
Cybersécurité
Design
3 mois
Paris, France
Je cherche pour un de mes clients un Senior Cyber Security Design consultant sur Paris 17 Service Description: We are looking for the service of a general Senior Cyber Security Design consultant, with expertise in the broad field of Cyber Defense product portfolio. The goal is to create and execute Cyber Defense data center migration plans together with a project manager and product teams, as part of a major program. Scope of Service - The Service will do the following (as part of the CD OneDC project team), in service with the product teams and project manager Deliverables: • Assure there are service availability monitoring criteria/plans for the products • Assure there is a test-plan to validate the functionality of the services during the migration steps • Identification of the dependencies of the Cyber Defense products and services • Support the update (creation) of the post migration Low Level Design • Support the (technical) migration of existing Cyber Defense product portfolio into our new virtualized data centers • Structure/enrich the project backlog (and execute your deliverables) • Servicing in the project architectural and product governance • Co-create communication sessions with the stakeholders or expertise teams • Lead the technical security architecture for Cyber Defense service migration plans (Belgium and Germany to France) • Define multiple options, including the pros and cons of the options • Explain the pros and cons of service consolidation (including the technical, organizational and financial impact) • Service with the project manager to create a realistic migration plan (including the estimated) • Assure that the migration plans work in the Client context / technical environments • Service with cross-functional teams to ensure seamless migration without compromising security • Service with product teams to define the requirements and address them in the migration plans • Realize opportunities for improved standardization of architecture patterns and solutions. Technical Expertise (ability to have senior conversations about): • General overview of information security concepts, risk assessments, cyber defense technology and security architecture • Privileged Access Management (PAM) solutions and best practices (e.g., CyberArk, Thycotic) • Password Complexity checkers • Hardware Security Modules (e.g. nCipher, Thales , Utimaco SecurityServer, YubiHSM) • DLP Solutions (e.g. Forcepoint, Microsoft, Teramind) • Antivirus solutions (e.g., CrowdStrike, Sentinel-One, Symantec, Microsoft Defender for End-Point), covering Endpoint, gateway and storage • Network Security like IPS, Firewall, DDOS protection, Secure Web Gateway, Shadow Cloud monitoring, Secure Email Gateway, Web Application Firewall (e.g., Cisco Firepower, Palo Alto Networks, Fortinet, SkyHigh, Z-Scaler) • Security Operations Center (SOC) – Log Collection (e.g. ArcSight, Sentinel, AMA, Beats, Cribl) • Troubleshooting expertise for operating system and network issues Non-Technical Expertise : • Expertise to make a planning, and support other people in achieving it • Identify gaps, limitations, opportunities for improvement • Strong customer focus and service orientation • Strong presentation expertise to different levels of stake holders both management and technical • English environment – a good level of English is mandatory, other languages are appreciated • Expertise to service in a diverse, inclusive and international environment Type de prestation : Senior Cyber Security Design consultant Lieu de la mission : Paris 17 Durée de la prestation : 3 mois renouvelable Expériences : minimum 8 années Date de démarrage : ASAP Date limite de réponse: 13/03/2026 2 jours de gratuité au démarrage Anglais courant + CV en anglais
Mission freelance
Ingénieur d’étude Migration de données (Linux / MVS – Cobol)
Signe +
Publiée le
Multiple Virtual Storage (MVS)
12 mois
300-360 €
Marseille, Provence-Alpes-Côte d'Azur
Contexte Dans le cadre de projets de migration de données vers de nouveaux systèmes d’information, l’ingénieur d’étude intervient sur les phases de spécification, développement, tests et recette. La mission s’inscrit dans un environnement agile orienté migration et modernisation de SI, avec utilisation d’outils internes permettant d’industrialiser les transformations de données. Objectif de la mission Contribuer à la migration de données d’un système source vers un système cible en assurant : l’analyse fonctionnelle des données la génération et la validation du code de transformation la mise en place des tests la communication avec les équipes métiers Missions principales Spécifications et analyse Rédiger les spécifications fonctionnelles des données à migrer Animer des ateliers avec les équipes métiers client Identifier les règles de transformation, fusion, éclatement ou filtrage des données Étudier les structures de fichiers source et cible Développement et transformation Utiliser l’outil interne pour générer du code en pseudo Cobol Implémenter les règles de migration dans l’outil Tester et corriger le code généré Participer aux phases de recette Tests et validation Définir la stratégie de tests Construire les cas de tests et jeux d’essai Suivre les anomalies et assurer les corrections Présenter les résultats à la MOA / équipes métiers Organisation projet Travailler en mode agile et itératif Gérer plusieurs sujets en parallèle Reporter sur l’avancement et les points de blocage Être force de proposition sur les optimisations Compétences obligatoires Maîtrise de Cobol Connaissance Linux ou environnement MVS Bonne compréhension des structures de fichiers (fichiers plats, encodage EBCDIC / ASCII) Expérience en migration ou transformation de données Première expérience en Banque ou Assurance de personnes (santé, prévoyance) Compétences appréciées Connaissance de l’environnement MVS Shell Linux PostgreSQL Méthodes agiles Animation d’ateliers fonctionnels Profil recherché Formation Bac+5 informatique ou scientifique Bonne capacité d’analyse fonctionnelle Autonomie rapide Bon relationnel client Capacité rédactionnelle claire et synthétique Esprit d’équipe et curiosité technique
Mission freelance
Tech Lead / PO Tech – IA & Santé
Axysse
Publiée le
Agent IA
PostgreSQL
React
1 an
400-550 €
Île-de-France, France
Et si votre prochain défi consistait à transformer concrètement le système de santé grâce à la data et à l’IA ? Nous recherchons un profil hybride Tech Lead / Product Owner Tech , capable de structurer, accélérer et faire évoluer une plateforme innovante au cœur des enjeux de santé. 🎯 Votre mission Vous intervenez sur un produit à fort impact, avec un rôle clé à la croisée de la tech, du produit et de la data : Piloter les choix techniques et garantir leur alignement avec les enjeux business Structurer et faire évoluer l’architecture (flux, data, interopérabilité) Encadrer une équipe de développeurs fullstack Organiser et animer les rituels Agile Prioriser le backlog, rédiger les user stories, challenger les estimations Accélérer la delivery avec une approche orientée résultats rapides Contribuer activement à l’intégration de l’IA dans le produit 👉 L’objectif : passer un cap technologique et produit en un temps court , avec un impact mesurable. 🛠 Environnement technique Java, NodeJS VueJS, React PostgreSQL Figma, Retool Environnement cloud (échanges avec hébergeur) 🌍 Contexte Projet avec une dimension internationale Anglais obligatoire Présence sur site requise (3 jours sur site / 2 jours en télétravail) Environnement en forte croissance avec des enjeux structurants
Mission freelance
Ingénieur d’étude Migration de données (Linux / MVS – Cobol)
Signe +
Publiée le
Multiple Virtual Storage (MVS)
12 mois
300-350 €
Lyon, Auvergne-Rhône-Alpes
Contexte Dans le cadre de projets de migration de données vers de nouveaux systèmes d’information, l’ingénieur d’étude intervient sur les phases de spécification, développement, tests et recette. La mission s’inscrit dans un environnement agile orienté migration et modernisation de SI, avec utilisation d’outils internes permettant d’industrialiser les transformations de données. Objectif de la mission Contribuer à la migration de données d’un système source vers un système cible en assurant : l’analyse fonctionnelle des données la génération et la validation du code de transformation la mise en place des tests la communication avec les équipes métiers Missions principales Spécifications et analyse Rédiger les spécifications fonctionnelles des données à migrer Animer des ateliers avec les équipes métiers client Identifier les règles de transformation, fusion, éclatement ou filtrage des données Étudier les structures de fichiers source et cible Développement et transformation Utiliser l’outil interne pour générer du code en pseudo Cobol Implémenter les règles de migration dans l’outil Tester et corriger le code généré Participer aux phases de recette Tests et validation Définir la stratégie de tests Construire les cas de tests et jeux d’essai Suivre les anomalies et assurer les corrections Présenter les résultats à la MOA / équipes métiers Organisation projet Travailler en mode agile et itératif Gérer plusieurs sujets en parallèle Reporter sur l’avancement et les points de blocage Être force de proposition sur les optimisations Compétences obligatoires Maîtrise de Cobol Connaissance Linux ou environnement MVS Bonne compréhension des structures de fichiers (fichiers plats, encodage EBCDIC / ASCII) Expérience en migration ou transformation de données Première expérience en Banque ou Assurance de personnes (santé, prévoyance) Compétences appréciées Connaissance de l’environnement MVS Shell Linux PostgreSQL Méthodes agiles Animation d’ateliers fonctionnels Profil recherché Formation Bac+5 informatique ou scientifique Bonne capacité d’analyse fonctionnelle Autonomie rapide Bon relationnel client Capacité rédactionnelle claire et synthétique Esprit d’équipe et curiosité technique
Offre d'emploi
Architecte de Solution AWS / Terraform
SCC France SAS
Publiée le
AWS Cloud
IAM
Python
1 an
56k-65k €
500-550 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Dans un environnement cloud‑native à forts enjeux de sécurité, de performance et d’industrialisation, l’Architecte de Solution AWS / Terraform conçoit, met en œuvre et fait évoluer des architectures cloud robustes, scalables et sécurisées sur AWS. Il/elle joue un rôle clé dans la standardisation de l’infrastructure via l’Infrastructure as Code (Terraform) et dans l’industrialisation des déploiements applicatifs (CI/CD). Missions principales : Architecture & Cloud AWS (niveau avancé – cœur du poste) Concevoir des architectures AWS sécurisées, résilientes et scalables Définir et maintenir les standards d’architecture cloud (réseau, sécurité, identité, gouvernance) Installer et maintenir des environnements multi‑comptes AWS via: AWS Organizations IAM Identity Center (ex‑SSO) Assurer la gouvernance, la conformité et la sécurité des environnements cloud Infrastructure as Code – Terraform (niveau avancé) Concevoir et maintenir une base Terraform industrialisée Développer des modules Terraform réutilisables (best practices) Gérer les workspaces, backends distants et states Terraform Participer à la gestion de la dette technique Infrastructure Collaborer avec les équipes sur les revues de code Terraform CI/CD & automatisation Concevoir et maintenir des pipelines CI/CD GitLab Automatiser les déploiements Terraform et applicatifs Intégrer AWS CodeBuild dans les pipelines existants Mettre en place des contrôles qualité, sécurité et conformité (linting, policy as code) Conteneurisation & orchestration Concevoir et maintenir des architectures basées sur ECS Gérer les images Docker via ECR Créer et maintenir des Dockerfiles optimisés Mettre en place les Application Load Balancers (ALB) pour les services ECS Développement serverless & scripting Développer et maintenir des fonctions AWS Lambda en Python Automatiser des processus Cloud via Python et AWS SDK (boto3) Intégrer les Lambdas aux services AWS (EventBridge, CloudWatch, SES, etc.) Environnement technique : AWS (niveau avancé requis) Networking & sécurité VPC (avancé), Subnets, Route Tables, NAT, IGW IAM (avancé), Security Hub Compute & services applicatifs ECS, ECR Lambda ALB Données & stockage RDS / Aurora Distribution & communication CloudFront SES Observabilité & supervision CloudWatch Gouvernance AWS Organizations IAM Identity Center Infrastructure & DevOps Terraform (avancé – modules impératifs) GitLab CI/CD AWS CodeBuild Docker / Dockerfile Développement Python (principalement pour AWS Lambda)
Offre d'emploi
Développeur .Net - Angular H/F
█ █ █ █ █ █ █
Publiée le
.NET CORE
ADO.NET
Angular
48k-55k €
Marseille, Provence-Alpes-Côte d'Azur
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Mission freelance
Consultant(e) SAP ECC & S/4HANA FICO
EBMC
Publiée le
SAP
6 mois
400-650 €
Paris, France
Dans le cadre du renforcement du Centre d’Excellence SAP, nous recherchons un consultant SAP FI/CO afin d’accompagner le Stream Leader Finance sur des projets stratégiques de transformation. Le consultant interviendra sur un environnement international déployé à grande échelle, avec un rôle clé dans le cadrage des initiatives de transformation, l’identification des opportunités d’optimisation et la définition des roadmaps associées. Il participera à la refonte des core models Finance dans une logique d’harmonisation et d’industrialisation des processus. Dans la continuité, le consultant sera impliqué dans les phases projet complètes : conception générale et détaillée, paramétrage, coordination des développements, tests, cutover, mise en production et hypercare. Il sera également garant de la qualité et de la complétude du patrimoine documentaire (processus, spécifications, scénarios de tests).
Offre d'emploi
Chargé de projets SI et data H/F
HAYS France
Publiée le
50k-65k €
75001, Paris, Île-de-France
Rattaché à la Direction Financière, le chargé SI & Data est le référent technique de l'entreprise sur l'ensemble du périmètre informatique. Véritable profil couteau-suisse, il intervient aussi bien sur la gestion de la donnée que sur l'architecture des logiciels métiers, l'infrastructure réseau du siège et la gestion du parc matériel. Il est l'interlocuteur(trice) de confiance des équipes internes pour tout sujet lié aux systèmes d'information. Data Collecter, structurer et fiabiliser les données issues des différents systèmes (ventes, opérations, RH, finance) Mettre en place et maintenir les outils de reporting et de visualisation de données (dashboards, tableaux de bord) Accompagner les équipes métiers dans l'exploitation et l'analyse de leurs données Logiciels et architecture SI Administrer et maintenir les logiciels métiers du siège (ERP, CRM, outils de caisse, plateformes SaaS) Gérer les intégrations entre les différentes applications et assurer la cohérence de l'architecture SI Piloter les projets de déploiement ou de migration logicielle : cahier des charges, suivi prestataires, recette Infrastructure réseau Administrer et superviser l'infrastructure réseau du siège (LAN, Wi-Fi, VPN, pare-feu) Assurer la disponibilité, la performance et la sécurité des connexions et des accès Gérer les accès utilisateurs, les droits et les politiques de sécurité informatique Parc matériel Gérer le parc informatique : ordinateurs, serveurs, terminaux de caisse, tablettes, périphériques Assurer les achats, la configuration, le déploiement et le renouvellement du matériel Mettre en place et suivre l'inventaire du parc et les contrats de maintenance associés
Offre d'emploi
Architecte web - Ingénieur IA / LLM Engineer
VISIAN
Publiée le
IA Générative
Large Language Model (LLM)
3 ans
50k-55k €
500-550 €
Montpellier, Occitanie
Contexte Dans le cadre du développement d’une solution interne basée sur l’IA générative, une organisation souhaite renforcer son équipe technique afin de concevoir et faire évoluer un socle cognitif intégrant des modèles de langage (LLM). L’objectif est de développer et industrialiser une plateforme IA interne permettant de proposer différents modules à valeur ajoutée autour de l’IA générative, tout en garantissant un haut niveau de sécurité et de robustesse. Missions • Concevoir et développer des modules d’IA générative intégrés à une solution interne (RAG, génération automatisée de présentations, web grounding, etc.) • Participer à la construction et à l’évolution d’un socle cognitif et d’un système de chat basé sur des LLM • Développer de nouvelles fonctionnalités à forte valeur ajoutée pour la plateforme IA interne • Mettre en place et suivre les expérimentations liées aux modèles IA et aux pipelines de traitement de données • Contribuer à l’architecture technique et à l’urbanisation de la solution IA • Accompagner les équipes dans l’industrialisation et la mise en production des modules développés • Garantir la qualité, la performance et la sécurité des développements Environnement technique • Cloud : AWS • Langages : Python • Data & IA : TensorFlow, scikit-learn, pandas, NumPy, PySpark, PyKrige • Bases de données : NoSQL, MySQL • Conteneurisation / orchestration : Kubernetes • Outils de qualité et sécurité du code : SonarQube, Checkmarx, JFrog Xray, OWASP Dependency Check
Offre d'emploi
Analyste Observabilité & Expérience Digitale (DEX)
OBJECTWARE
Publiée le
Data visualisation
UX design
Workplace
1 an
40k-45k €
430-620 €
Montpellier, Occitanie
Vous rejoignez l’équipe en charge de la performance du poste de travail et de l’amélioration continue de l’expérience utilisateur. Votre rôle consiste à exploiter les données de télémétrie Windows 11 issues d’une plateforme d’observabilité (Nexthink, Lakeside Systrack ou équivalent) afin de fournir une vision claire, actionnable et orientée utilisateur de la santé du parc informatique. Vos missions principales : Analyse & Observabilité Collecter, analyser et interpréter les données de performance des postes Windows 11. Identifier les dégradations, signaux faibles et anomalies avant qu’elles n’impactent les utilisateurs. Réaliser des investigations techniques et des analyses RCA pour comprendre l’origine des problèmes. Pilotage de la qualité d’expérience (DEX) Élaborer des indicateurs de qualité d’expérience (DEX Score, performance, stabilité, connectivité…). Définir, suivre et optimiser les KPIs clés (boot time, crash apps, latence réseau, ressources système…). Construire des vues dédiées aux équipes support, run, métiers et direction. Tableaux de bord & Data Visualisation Concevoir et maintenir des tableaux de bord Power BI (ou équivalents). Mettre en place des rapports automatisés (hebdomadaires, mensuels, flash analyse). Fournir des recommandations basées sur la donnée (« data-driven insights »). Contribution aux opérations IT Suivre l’impact des mises à jour Windows / drivers / applications. Accompagner le support N1/N2/N3 avec des analyses temps réel. Contribuer à la réduction du MTTR et à l’amélioration continue du service.
Mission freelance
Ingénieur de production - Linux Redhat
Deodis
Publiée le
Kubernetes
Openshift
Oracle
2 ans
350-450 €
Lyon, Auvergne-Rhône-Alpes
Participe aux différentes phases projet ou peut être amené à piloter le projet Met en oeuvre des solutions techniques Réalise des diagnostics pour identifier les causes de dysfonctionnement, proposer et mettre en oeuvre des corrections et des solutions de 'back-up' Propose des solutions pour améliorer les performances de son domaine d'activité Assure, si nécessaire, l'interface des experts des autres domaines et gère les échanges avec les sous-traitants Définit les règles de bonne gestion des systèmes d'exploitation Conçoit si nécessaire les normes et les règles de bonne gestion et vérifier systématiquement leur application (sécurité informatique, qualité) Assure la mise à niveau, l'assemblage, la cohérence et l'homologation des différents logiciels (progiciels, base de données, développements spécifiques) dans le respect de l'architecture retenue Prend en charge l'intégration de nouvelles applications ou de progiciels (transactionnel et/ou batch) dans le respect des normes et procédures en vigueur Effectue la réception, la validation et le packaging des composants Installe et met à disposition des composants Réalise la recette technique et l'homologation des composants / applications Participe à l'amélioration des processus et des outils d'industrialisation et de déploiement Travaille en relation étroite et permanente avec les équipes Etudes, Infrastructures et Sécurité Prend en charge le maintien en conditions opérationnelles des infrastructures matérielles et logicielles relatives aux technologies liées à l'infrastructure utilisateurs (Télédistribution, Packaging, Messagerie, Groupware, Annuaires, ...)
Offre d'emploi
Expert Oracle/ Exadata / ExaCC / OEM
LOMEGARD
Publiée le
Exadata
Exadata Cloud@Customer (ExaCC)
Oracle
1 an
45k-70k €
400-680 €
Île-de-France, France
Contexte Dans le cadre du renforcement des équipes, nous recherchons un expert Oracle OEM / Exadata / ExaCC (N3) intervenant sur des environnements critiques à forte volumétrie. Le poste combine des activités de RUN avancé , d’ expertise Exadata et de pilotage via OEM , avec une forte composante sur les machines Exadata (compute, storage, réseau EXA) . L’objectif est d’intégrer un profil capable d’intervenir au-delà du rôle de DBA , sur l’ensemble de la stack Oracle, incluant OEM, Exadata et réseau InfiniBand / RoCE . Missions Expertise Exadata & réseau EXA Intervenir sur les composants bas niveau des machines Exadata (compute, storage) Maîtriser le réseau InfiniBand / RoCE Analyser les latences et les performances des flux entre compute et storage Optimiser les échanges RAC (interconnect) Utiliser les outils Exadata pour diagnostic et analyse (dcli, cellcli, ibstat…) Participer aux opérations sensibles (patching Exadata, upgrades, rolling updates…) Production & exploitation (RUN N3) Assurer le support niveau 3 sur les environnements Oracle / Exadata / ExaCC Administrer les bases Oracle (RAC principalement) Exploiter les plateformes Exadata (compute nodes, storage cells, réseau EXA) Gérer les activités de MCO : supervision, patching, capacity planning, incidents complexes Diagnostiquer et résoudre les problématiques de performance bout en bout (DB / infra / réseau EXA) OEM (Oracle Enterprise Manager) Administrer et maintenir Oracle Enterprise Manager (OEM) Superviser les environnements via OEM (bases, Exadata, infrastructure) Mettre en place et optimiser les alertes, métriques et reporting Exploiter OEM pour le diagnostic de performance et le troubleshooting Participer aux évolutions et à l’optimisation de la plateforme OEM Sécurité & conformité Contribuer à la gestion des patchs Oracle (CPU/PSU) Participer au durcissement des environnements Suivre les vulnérabilités et appliquer les standards de sécurité Projets & amélioration continue Participer aux projets Exadata / ExaCC Automatiser les tâches d’exploitation (shell, SQL…) Contribuer à l’industrialisation et à l’optimisation des plateformes Rédiger la documentation technique Intervenir en tant que référent technique sur les sujets Exadata
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
2482 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois