Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 5 972 résultats.
Freelance

Mission freelance
Tech Lead Data GCP Expert F/H

SMARTPOINT
Publiée le
Apache Kafka
CI/CD
Docker

12 mois
550-600 €
La Défense, Île-de-France
Missions principales : • Participer aux analyses, études d’impacts et cadrage techniques • Concevoir des solutions en respectant l’architecture data et les bonnes pratiques de développement • Réaliser le développement des data products et assurer la maintenance évolutive et corrective des data products existants • Effectuer des contrôles croisés entre développeurs ou des relectures de code afin d’assurer la qualité des développements réalisés par l’équipe • Rédiger la documentation technique des data products • Apporter une expertise de troisième niveau dans les incidents de production, et si besoin la réalisation de solution de contournements, ou de correctifs de manière à assurer une qualité de fonctionnement optimale • Accompagner les Data Engineers sur les bonnes pratiques, les choix d’architecture et dans leur travail au quotidien • Effectuer les audits et les contrôles des développements réalisés : Sécurité, Maintenabilité, Robustesse et Performance • Reporter l’activité à la Squad et travailler dans une démarche d’efficacité collective Livrables principaux : • Etudes d’impact technique • Faire des propositions techniques • Réaliser du code applicatif à l’état de l’art sur notre Data Platform GCP • Rédiger les documentations techniques liés à ta solution, incluant le modèle de données, les procédures, l’ordonnancements • Schéma de solution des flux, modèle de données • Fournir des chiffrages détaillés des futures réalisations • Relecture de code technique • Rédaction de SFD, STD, Manuel d’installation Compétences techniques : • Langages de programmation : Python, SQL, Scripts Shell • Services de streaming data : Kafka • Services d’ingestion des données : Kafka Connect, SFTP • Services de stockage : GCP BigQuery, Cloud Storage, Kafka, Sharepoint • Processing : Scripts Python, Data Build Tool (DBT), GCP Dataflow • Restitution : Looker (Dashboards, Explores de données), Fichiers de reporting (CSV, Excel) • Outils de collaboration et de CI/CD : GitLab • Utilisation de plateformes pour le développement et le déploiement : Docker, Kubernetes, Kustomize, Helm Charts, Terraform • Testing : Tests avec DBT, Tests de non-régression, collaboration avec la QA. • Outils IA et d’automatisation : Gemini Code Assist, Antigravity, n8n, Gitlab Duo • Manipulation des formats de fichiers : CSV, JSON, Avro, XML Compétences transverses : • Proactivité et prise d’initiative • Autonomie et rigueur • Capacité à communiquer, à travailler en équipe et excellent relationnel • Capacité d’adaptation aux changements • Curiosité, veille technologie sur le data engineering et sur l’AI / ML • Capacité à aborder des problèmes complexes de manière structurée • Aptitude à concevoir des solutions innovantes • Capacité d’écoute, d’analyse et de synthèse • Maitrise de l’agilité Une pratique opérationnelle de l’anglais est également nécessaire pour la rédaction de la documentation et la participation à certaines cérémonies. Une expérience similaire significative dans le domaine de la banque de détail est un plus.
Freelance
CDI

Offre d'emploi
Data Analyst

Atlanse
Publiée le
Dremio
ETL (Extract-transform-load)
SQL

3 ans
45k-55k €
400-500 €
Issy-les-Moulineaux, Île-de-France
Dans le cadre d’un projet de simplification et d’optimisation des données, vous intervenez sur l’analyse et l’amélioration des flux de données transactionnelles et géographiques. Vous analysez l’usage des données, identifiez les incohérences et contribuez à la mise en place d’un cadre de gouvernance des données. Votre rôle Analyse des flux et structures de données Analyser la structure des flux de données transactionnelles, les données échangées et leurs usages Identifier les incohérences, redondances ou données inutilisées Proposer des simplifications et optimisations des flux de données Amélioration de la qualité et optimisation des données Réaliser des analyses détaillées de jeux de données pour détecter anomalies, incohérences et problèmes structurels Mettre en place des indicateurs et contrôles de qualité des données pour suivre et piloter les améliorations Contribuer aux actions de nettoyage et de fiabilisation des modèles et structures de données Documentation et structuration des référentiels de données Documenter les flux transactionnels : modèles de données, règles métier, cas d’usage et guidelines Mettre à jour et clarifier le Data Catalog, les modèles de données et les spécifications de flux Définir et formaliser les règles d’utilisation et d’alimentation des données Gouvernance et collaboration Partager les résultats d’analyse avec les parties prenantes Accompagner les équipes dans la définition de plans d’action pour corriger les anomalies détectées Contribuer à la mise en place du cadre de gouvernance des données : rôles, responsabilités, règles de gestion et suivi de la qualité des données Participer aux routines de gouvernance et à l’analyse des impacts IT liés aux évolutions des données
CDI
Freelance

Offre d'emploi
Data Engineer Apache NiFi/SQL/JSON/XML/API

OBJECTWARE
Publiée le
Apache NiFi
API
JSON

3 ans
40k-68k €
400-550 €
Île-de-France, France
Objectif de la mission Dans le cadre du déploiement d’une plateforme Data destinée à centraliser, fiabiliser et gouverner l’ensemble des données des domaines banque et assurance, vous intégrez la squad Data Flux. Cette équipe, composée de trois développeurs Data, d’un architecte technique, d’un Business Analyst et d’un Product Owner, est responsable des missions suivantes : la conception et l’implémentation des flux de données, l’intégration et la transformation de données provenant de sources multiples, la sécurisation et l’industrialisation des flux, en conformité avec les standards attendus en matière de qualité et de traçabilité. Une expérience dans les secteurs de l’assurance, de la banque ou de la finance est vivement recommandée, notamment sur des développements de flux conformes à la norme Penelop, ainsi que sur des flux de données liés aux domaines assurantiels ou aux données clients. - Conception et développement de pipelines de données : Concevoir des flux robustes et évolutifs pour l’ingestion, la transformation et la diffusion des données dans le cadre du modèle Bronze / Silver / Gold. - Développement et intégration sur Apache NiFi : Implémenter et paramétrer des workflows NiFi pour collecter et normaliser les données issues de différentes sources (fichiers XML/CSV, API REST). - Transformation et modélisation des données : Participer à la modélisation du socle de données structurées et au développement des transformations afin de constituer les vues consolidées du MDM. - Contrôles de qualité et traçabilité : Mettre en place des mécanismes d’audit, de logs et de contrôle (complétude, unicité, cohérence, versioning des données). - Optimisation et performance : Surveiller les performances des pipelines, identifier les goulots d’étranglement et proposer des améliorations continues. - Sécurité et conformité : Veiller à la sécurité des données (authentification, chiffrement, gestion des accès) dans le cadre des standards du groupe. - Documentation et partage de connaissances : Documenter les processus, les schémas et les bonnes pratiques afin d’assurer la maintenabilité et la transmission des savoirs au sein de la squad. PREREQUIS TECHNIQUES : - Maîtrise d’Apache NiFi (ingestion, orchestration, monitoring) - Solides connaissances en SQL et modélisation de données relationnelles (PostgreSQL) - Connaissance des modèles de stockage objet (S3, Blob) - Connaissance des formats et protocoles : JSON, XML, CSV, REST API - Compétences en scripting (Python, Bash) appréciées - Sensibilité aux enjeux de qualité, sécurité et gouvernance des données Compétences Techniques : SQL, Python, Bash, Gitlab
CDI

Offre d'emploi
Data Engineer Databricks

KOMEET TECHNOLOGIES
Publiée le
Apache Spark
Databricks

45k-60k €
Paris, France
En tant que Data Engineer, vous intervenez sur la conception, le développement et l’optimisation de pipelines de données robustes et scalables. Vous travaillez au cœur des plateformes Data afin de garantir la qualité, la disponibilité et la performance des données utilisées par les équipes métiers, BI et Data Science. Expérience attendue : 3 à 8+ ans en ingénierie Data. Vous correspondez au/à la Data Engineer que nous recherchons si : Vous évoluez efficacement au sein d’équipes agiles et pluridisciplinaires , en collaboration étroite avec les équipes Data, IT et métiers Vous faites preuve d’un fort esprit analytique et d’une grande rigueur Vous êtes autonome , proactif et doté d’un solide sens des responsabilités Vous êtes capable de communiquer clairement avec des interlocuteurs techniques comme non techniques Vous savez prioriser vos tâches , gérer les contraintes et respecter vos engagements Vous disposez d’un bon esprit de synthèse et êtes orienté résultats et valeur métier Vous avez une bonne connaissance des environnements Business Intelligence , Big Data et des architectures Lakehouse Vous avez déjà travaillé sur des plateformes Data modernes (Cloud) Vous maîtrisez SQL comme langage d’interrogation des données et avez des notions de modélisation de données (architecture médaillon, modèle en étoile …) Vous disposez d’un bagage en software engineering , vous permettant d’écrire un code robuste, lisible, maintenable et testable, notamment en Python Vous appliquez les bonnes pratiques de développement : structuration du code, modularité, gestion des dépendances, conventions de nommage Vous êtes sensibilisé aux principes de qualité logicielle (tests unitaires, tests d’intégration, revue de code) Vous êtes à l’aise avec les outils de versioning ( Git ) et les workflows collaboratifs associés Vous savez concevoir des pipelines Data comme de véritables produits logiciels, en tenant compte de la maintenabilité, de l’évolutivité et de l’observabilité
Freelance

Mission freelance
Product Owner - Transaction Regulatory Reporting

NEXORIS
Publiée le
Data quality

1 an
560-650 €
Île-de-France, France
Notre client, Banque de Finance et d'Investissement, recherche un Product Owner Transformation Reporting Réglementaire – Capital Markets (H/F) dans le cadre d'une longue mission. Dans le cadre d’un programme pluriannuel de transformation et de sécurisation des reportings réglementaires transactionnels au sein des activités de marchés, la mission consiste à piloter la backlog et garantir la conformité réglementaire (MIFID II, EMIR, SFTR…) dans un environnement international. Rôles stratégiques : - Traduction des exigences réglementaires (MIFID II, EMIR, SFTR…) en user stories et critères d’acceptation métier - Priorisation des livrables selon les échéances réglementaires, l’impact business et les risques - Coordination des parties prenantes : IT, Compliance, Front Office, Middle & Back Office Rôles opérationnels : - Gestion et priorisation de la backlog, animation des cérémonies agiles - Définition et validation des solutions fonctionnelles de reporting - Contrôle du respect des formats techniques (ISO 20022, FpML) et des délais de transmission réglementaire - Encadrement des Feature Owners et des équipes en charge des expressions de besoins et des recettes - Pilotage des dépendances entre systèmes Front Office, post-trade et outils de reporting Rôles de pilotage : - Définition et suivi des KPIs (taux de rejet, complétude des données, délais de soumission) - Reporting aux instances de gouvernance (avancement, risques, alertes) - Accompagnement au changement et support aux équipes de production Livrables - Backlog priorisée et roadmap de transformation - User stories et critères d’acceptation formalisés - KPIs de pilotage et tableaux de bord - Documentation fonctionnelle et supports d’accompagnement au changement
CDI

Offre d'emploi
Développeur logiciel linux embarqué F/H - Informatique industrielle (H/F)

█ █ █ █ █ █ █
Publiée le
Linux

Toulouse, Occitanie

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance
CDI

Offre d'emploi
Développeur SAP ABAP – Migration ECC vers S/4 HANA (SQL / Data)

Etixway
Publiée le
ABAP
SAP
SAP ABAP

1 an
40k-50k €
400-560 €
Boulogne-Billancourt, Île-de-France
Dans le cadre d’un projet de transformation majeur, nous recherchons un Développeur SAP ABAP pour intervenir sur une migration SAP ECC vers S/4 HANA . Le consultant interviendra sur des sujets techniques à forte valeur ajoutée, notamment autour de la reprise, transformation et manipulation des données SAP . Une formation est prévue sur l’outil de migration utilisé (ADM), toutefois une expérience sur des projets similaires est fortement attendue. Missions principales : Développement ABAP dans un environnement ECC / S/4 HANA Manipulation et exploitation des tables SAP Participation aux travaux de migration de données (ECC → S/4) Analyse et transformation des données Développement et adaptation des programmes existants dans un contexte de migration Collaboration avec les équipes techniques et fonctionnelles Environnement : SAP ECC, S/4 HANA, ABAP, SQL
Offre premium
Freelance

Mission freelance
Ingénieur Cybersécurité (H/F)

Link Consulting
Publiée le
Gouvernance, gestion des risques et conformité (GRC)
Microsoft Purview
Prévention des pertes de données (DLP)

3 mois
450-550 €
Bois-Colombes, Île-de-France
Pour le compte de notre client dans l' assurance , nous recherchons un Ingénieur Cybersécurité spécialisé GRC (H/F) avec une forte appétence pour la sécurité opérationnelle et la montée en compétences vers la gestion de projet. Responsabilités principales : Pilotage et run de solutions DLP / Microsoft Purview . Gestion des campagnes antiphishing et animation des actions de sensibilisation sécurité. Participation active à la sécurité des projets transverses. Appui opérationnel et structuration des pratiques GRC au sein des équipes. Évolution progressive vers des responsabilités en gestion de projet sécurité.
Freelance

Mission freelance
CONSULTANT TECHNQUE BI DATA EXPERT SSIS SQL SERVEUR AZURE DEVOPS

PROPULSE IT
Publiée le
Azure
BI
DevOps

24 mois
300-600 €
Nanterre, Île-de-France
CONSULTANT BI DATA EXPERT SSIS SQL SERVEUR AZURE DEVOPS Expérience ciblée : PLUS DE 10 ANS Compétences impératives - Compétences techniques : Conception / Modélisation BI (Flux & modèles de données) Expériences significatives sur la mise en place complète de projets BI Data ETL (conception, modélisation, réalisation) et sur le RUN en environnement Full Microsoft (SSIS, SQL Server : Modélisation, procédures stockées, optimisation SQL, etc.). Connaissance et mise en œuvre de la suite Microsoft AZURE DEVOPS (Git, Board Agile, Pipeline de déploiement CI/CD). Anglais professionnel courant - Compétences organisationnelles Expérience significative sur l'implémentation de projets BI d'intégration de données (datawarehouse & datamarts) Avoir la capacité de mener des mini-projets en autonomie tout en étant accompagné par un(e) maitrise d'ouvrage et/ou le métier. Capacité à s'organiser, à s'adapter sur les priorités, à synthétiser l'état d'avancement de ses activités et à remonter les alertes si besoin. - Compétence(s) appréciée(s) : Outils de reporting BI : TABLEAU, IBM Cognos, Power BI Habitué aux relations avec des partenaires offshore Certifications sur la suite MSBI - Descriptif détaillé de la mission : Assurer le RUN des applications existantes (ETL, Bases de données, support niveau 3) Comprendre les enjeux métier, problématiques à résoudre et opportunités à concrétiser. Echanger et challenger les besoins métiers avec les équipes AMOA BI en tenant compte des contraintes techniques. Proposer, concevoir et spécifier des solutions techniques viables, évolutives et tenant compte de l'existant. Rédaction des documents techniques (spécification techniques, document d'exploitation…etc). Conseiller, proposer des axes d'amélioration, alerter si besoin. - Environnement technique de la mission : Socle Data : SSIS, SQLServer (2016), procédures stockées, Azure DevOps (Git, Board Agile, Pipeline de déploiement CI/CD) Reporting : COGNOS BI 10.2 et 11 & Tableau Date début de mission : ASAP Durée estimée de la mission : longue - 3 mois (renouvelables)
CDI

Offre d'emploi
Administrateur réseaux F/H

Experis France
Publiée le

32k-37k €
Angers, Pays de la Loire
Administrateur réseaux F/H - Angers 📢 Offre d'emploi - Administrateur Réseaux (H/F) Localisation : Angers Type de contrat : CDI / Freelance / Mission longue 🎯 Contexte du poste Dans le cadre du renforcement de son pôle Réseau, notre client recherche un Administrateur Réseaux capable d'assurer le support niveau 2 des infrastructures WAN, LAN et Wi-Fi , ainsi que de participer à la structuration des processus de diagnostic et à l'enrichissement de la base de connaissances réseau. Vous interviendrez au cœur d'un environnement technique exigeant, en lien direct avec les équipes IT, les prestataires et les experts infrastructures. 🔧 Missions principales 1️⃣ Administration & Exploitation des Infrastructures Vous garantissez le bon fonctionnement, la disponibilité et la performance des environnements réseaux et systèmes associés : Administration et exploitation des infrastructures : WAN, LAN, Wi-Fi , serveurs, bases de données, stockage et réseaux. Analyse, résolution et escalade des incidents de niveau 2. Suivi des performances, supervision, optimisation des flux réseau. Participation aux opérations d'exploitation courante et aux changements planifiés (maintenance, upgrades, patching…). 2️⃣ Pilotage des Prestataires Coordination et suivi des prestataires matériels ou logiciels intervenant sur le périmètre réseau. Participation à la gestion contractuelle, validation des livrables techniques, contrôle de qualité des interventions. Suivi des engagements SLA et reporting des performances. 3️⃣ Étude, Conception & Projets Réseau Participation à l'étude, la définition et la mise en œuvre des nouvelles architectures applicatives. Proposition d'améliorations techniques pour fiabiliser les infrastructures. Contribution au design des architectures réseau : sécurisation, segmentation, haute disponibilité, QoS… Participation à la rédaction des documents d'architecture et d'exploitation. 4️⃣ Urbanisation du Système d'Information Vous jouez un rôle clé dans la cohérence globale du SI : Contribution à l'urbanisation du SI et aux travaux d'intégration réseau. Participation à la mise en place et à l'évolution des API et des bus d'échanges de données . Développement des chaînes de diagnostic réseau : méthodologie, outils, automatisation. Enrichissement de la base de connaissances : procédures, modes opératoires, guides de dépannage.
Freelance

Mission freelance
251774/Data Engineer (Snowflake / Qlik) - RENNES, NANTES, BREST, CAEN

WorldWide People
Publiée le
Snowflake

3 mois
Bretagne, France
Data Engineer (Snowflake / Qlik) - RENNES, NANTES, BREST, CAEN Ingénieur Data & BI (Snowflake / Qlik) Pour l'un de nos clients, nous recherchons un Ingénieur Data et BI. Périmètre Data : L'équipe Data intervient sur plusieurs domaines (Data Engineering, Data Viz, … ) Data Visualisation et BI (Qlik Cloud) : Préparer et transformer les données pour leur exploitation. Concevoir, développer et maintenir des applications et tableaux de bord interactifs. Proposer des designs pertinents de dashboards répondant aux besoins métiers. Gérer les accès utilisateurs et groupes. Assurer la maintenance et la qualité des applications existantes. L'équipe intervient également à la partie reporting et administration : Conception et automatisation de rapports (Excel, PDF, …). Supervision de la plateforme Qlik : gestion des catalogues et applications, suivi des licences, clés et APIs. Diagnostic et résolution des incidents (logs, API Qlik). Compétences requises : 3 ans d'expérience sur l’utilisation de Qlik (QlikSense, QlikCloud ...) et Snowflake (préparation et optimisation des données). Bonne compréhension des principes d’architecture BI et des bonnes pratiques de modélisation. Capacité à optimiser les applications et améliorer la performance des modèles de données. Points clés pour réussir Être autonome et curieux : (forums, documentation, veille technique)... Avoir une base technique solide sur les modules de Qlik (Analyse, Automation). Comprendre les enjeux d’administration, même si ce n’est pas le cœur du métier. Être capable de diagnostiquer les problèmes d’accès, de configuration ou de logique métier. Autonome, curieux, capacités relationnelles Objectifs et livrables Data Visualisation et BI (Qlik Cloud) : Préparer et transformer les données pour leur exploitation. Concevoir, développer et maintenir des applications et tableaux de bord interactifs. Proposer des designs pertinents de dashboards répondant aux besoins métiers. Gérer les accès utilisateurs et groupes. Assurer la maintenance et la qualité des applications existantes. Compétences demandées Compétences Niveau de compétence QlikCloud Avancé QLIKVIEW Confirmé Snowflake Avancé Architecture BI Confirmé QlikSense Confirmé
CDI

Offre d'emploi
Technicien datacenter H/F

DSI group
Publiée le
Administration linux

37k-40k €
Bruyères-le-Châtel, Île-de-France
DSI Group recherche un Technicien Datacenter H/F pour son client basé en Ile de France (91). Activités : Installation physique (baies, serveurs, équipements réseau) Brassage et câblage (cuivre & fibre intra/inter salles : tirage, étiquetage, contrôle) Gestion des faisceaux et organisation des câbles Définition des cheminements et estimation des longueurs Mise à jour des outils d’inventaire (GLPI, NetBox) Décommissionnement (équipements, baies, fibres) Tâches d’exploitation (visites de salle, supervision, interventions procédurées) Gestion des stocks (consommables, câbles, connectique)
Freelance

Mission freelance
Ingénieur Vidéo – Maintenance des Systèmes Broadcast (H/F)

Sapiens Group
Publiée le
Cisco
GLPI
Grafana

12 mois
500-600 €
Île-de-France, France
Missions principales 1. Training (activité principale) Formation des équipes aux systèmes de diffusion broadcast Transmission des bonnes pratiques d’exploitation et de maintenance Accompagnement à la montée en compétence des utilisateurs 2. Support diffusion (selon besoins) Assistance opérationnelle sur les chaînes de diffusion Supervision des systèmes broadcast Intervention en cas d’incident technique 3. Maintenance et expertise technique Maintenance préventive et corrective des équipements audiovisuels Diagnostic et résolution de pannes complexes Participation à l’amélioration continue des systèmes Compétences techniques requises Broadcast & Audiovisuel Exploitation d’équipements audiovisuels Chefferie de chaîne Maintenance avancée des systèmes et équipements Maîtrise des technologies suivantes : Automations de diffusion (MBT V4) Serveurs de diffusion (Harmonic SpectrumX) Matrices de commutation (Riedel Micron UHD) Habillage (Ross Xpression) Orchestration (Cerebrum) Maîtrise des architectures IP broadcast ( ST 2110 ) Connaissance des environnements IPTV, OTT, Replay Maîtrise des signaux : HD-SDI, UHD, AES, Black Burst, 2110 Synchronisation : BB, PTP, NTP Informatique & Systèmes Administration systèmes et réseaux Virtualisation ( VMware ) Connaissance des équipements réseau ( Cisco ) Bases en langages informatiques Outils & Logistique Gestion logistique courante Outils de ticketing ( GLPI ) Outils de supervision ( Grafana )
CDI

Offre d'emploi
Administrateur systèmes Linux H/F

█ █ █ █ █ █ █
Publiée le
Ansible
Docker
Elasticsearch

Le Bouscat, Nouvelle-Aquitaine

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Architecte Applicatif & Data Cloud

CAT-AMANIA
Publiée le
Big Data
J2EE / Java EE
Python

3 mois
400-610 €
Lille, Hauts-de-France
Architecte Applicatif & Data Cloud (H/F) Nous recherchons un consultant indépendant pour une mission d'Architecte Applicatif et Développeur Senior au sein d'un grand groupe du secteur de la distribution, sur un projet lié au domaine de la Finance. L’enjeu central de cette mission est la fiabilisation des modèles de calcul et la consolidation d’une architecture Data robuste sous environnement Google Cloud. Informations Générales Référence : TM17037ADON Date de démarrage : 13/04/2026 Date de fin : 31/12/2026 (Durée : 166 jours) Lieu : Ronchin (59) Rythme : 3 jours de présence sur site par semaine requis Contrat : Assistance technique Description de la Mission Intégré à une équipe agile, votre rôle consistera à consolider et améliorer les travaux existants tout en assurant la transmission de vos connaissances aux équipes internes. Architecture et Conception : Définir la structure technique des systèmes et choisir les frameworks adaptés. Assurer la cohérence du système d’information et le respect des standards de l’entreprise. Rédiger le dossier d'architecture (documentation et validation de l'existant). Concevoir l'intégration du produit dans l'usine de packaging. Développement et Fiabilisation : Création des jobs et validation des interfaces. Réalisation des développements, tests d'intégration et mise à jour de la documentation. Garantir la performance de l'application (tests de montée en charge) et la sécurité logicielle. Accompagnement Technique : Former et accompagner les développeurs sur les normes et pratiques de développement. Animer les indicateurs de qualité et assurer un support de second niveau sur les problématiques complexes. Définir la roadmap technique du produit. Profil et Compétences Requises Nous recherchons un profil de niveau "Maîtrisant", capable d'allier expertise technique et sens du service client. Compétences Techniques (Niveau Confirmé) : Google Cloud : Computing, Big Query, Big DATA (Indispensable). Langages : Python (Indispensable) et Expertise Java / J2EE souhaitée. Outils & Data : GitHub, Terraform, Kafka (Indispensable). Dataflow : Connaissance souhaitable. Connaissances Linguistiques : Français : Professionnel impératif. Anglais : Lu et écrit. Qualités attendues : Capacité d'adaptation aux priorités changeantes. Aptitude à la transmission de compétences. Rigueur dans la documentation et la fiabilisation des résultats.
Freelance

Mission freelance
Pilote opérationnel de Service Messagerie

ECONOCOM INFOGERANCE ET SYSTEME
Publiée le
Administration réseaux
Architecture
Cisco

12 mois
450-550 €
Nanterre, Île-de-France
Pilote opérationnel de Service Messagerie Localisation : Nanterre Modalités : 50% sur site, 50% en TT selon un planning établi avec le client. Durée : 12 mois (renouvelable) Date de démarrage : 11/05/2026 Contexte : Au sein du groupe Messagerie & Collaboratif, vous assurerez l’activité d’appui au pilotage d’applications du SI, sur le périmètre plus particulier du service Messagerie. La mission sera de garantir le bon fonctionnement et la délivrance de ces services auprès des utilisateurs de l’entreprise et de ses filiales intégrées dans le respect de niveaux de services garantis (SLA) de chacune de ces applications. - Prestations d'exploitation : Surveillance des processus applicatifs, maintien en condition opérationnelle (gestes techniques, procédures industrielles), supervision applicative, gestion des incidents (identification, analyse, résolution, communication, gestion de crise), gestion des problèmes et REX, reporting. - Prestations d'administration : Mise en place d'outils et de procédures, préparation et réalisation des mises en production, gestion de configuration, résolution des incidents applicatifs non techniques. - Conseil et assistance : Accompagnement dans l'intégration et le déploiement de versions applicatives, analyse d'impact et de risque, optimisation de l'exploitabilité. Dans le cadre du pilotage du services messagerie, incluant notamment le service SMTP, ces activités se feront en coordination avec les prestations délivrées par l’infogérant ou le cas échéant, par tout autre prestataire assurant ce même service. Dans le cadre du pilotage du service messagerie, l’intervenant se verra confier les missions suivantes : Respect des engagements de service (disponibilité, performance) / pilotage de l'infogérant au périmètre du service • Réalisation et revue du RACI • Réalisation de la feuille de route années N et N+1 du service en cohérence avec les orientations de la CS • Production des indicateurs de performance (à communiquer au RCS) • Réalisation de la revue annuelle de l'hygiène du service (PCS, DEX, DISECA, SI-VISION, SIPEDIA etc.) • Le cas échéant, participation aux exercices de PCA • Gestion des certificats gérés par le service (renouveler en temps et en heure) • Recueil, analyse et formalisation des besoins métiers (à valider par PO et RCS) • Satisfaction client recueillie auprès des utilisateurs du service une fois par semestre sur l’adéquation du service par rapport à leurs attentes (dispo, perf, fonctionnalités) mais aussi les processus GDI et GDD avec analyse des verbatims • Présentation de la vie du service et de sa feuille de route auprès des métiers • Analyse et validation des évolutions et changes émaillant le service • Participation à une étude de veille technologique (validée par la SA) • Pilotage de l’automatisation des processus GDI, GDD, GDC/GMEP chez l’infogérant au périmètre du service (de la phase d’étude à la phase de mise en œuvre) • Réalisation/Création des changements (RFC) dans le respect des processus ITIL • Analyse des vulnérabilités remontées par le SOC dans le délai imparti • Réalisation des actions identifiées et consécutives à l’analyse des vulnérabilités. • Formalisation/renouvellement des FED du service • Participation aux cellules de crises pouvant affecter le service et aux REX suivant la clôture de la crise • Revue de l’arbre de décision pour les niveaux de support N1 et N2 et de la base de connaissance pour le N3 • Résolution d’incidents N3 en appui de l’infogérant ou de l’éditeur • Gestion de problèmes en cas de récurrence d’incidents • Réalisation des engagements pris en PI et en Sprint Planning (85% minimum) • Participation aux instances AGILES de l’équipe produit et de la CS concernée • Saisie des activités planifiables dans JIRA sous formes d’User Stories • Mises en visibilité des activités non planifiables au Product Owner lors de daily • Respect des exigences de sécurité de l’ENTREPRISE. Environnement technique : - Cisco CES / ESA - SMTP / Relais SMTP - SPF / DKIM / DMARC - Microsoft Exchange Online - Microsoft Entra ID - Windows PowerShell - SharePoint Online / Teams Outils en place : - Gestion des incidents et Gestion des demandes – ServiceNow - Gestion de la connaissance – Arbres de résolution – COZMI / WIZMI (ServiceNow) - SharePoint Online / OneDrive / Teams (stockage et partage des livrables en interne) Compétences demandées : · Maîtrise des architectures et flux SMTP (on-premise / cloud) · Maîtrise des équipements Cisco CES / ESA / solutions antispam Cisco · Maîtrise des protocoles et standard de sécurisation SMTP (SPF, DKIM, DMARC) · Connaissance des relais de messagerie et passerelles SMTP sécurisées · Capacité de pilotage opérationnel / coordination de service · Capacité d’analyse et de coordination dans la résolution d’incidents complexes · Aisance dans la communication avec les équipes techniques, infogérant, sécurité et métiers · Connaissance des environnements Microsoft Exchange Online · Administration Exchange Online · Maîtrise de Windows PowerShell (modules Exchange / Active Directory / Entra ID) · Bonne compréhension des enjeux de cybersécurité liés à la messagerie / SMTP · Connaissance des architecture cloud Microsoft / hybrides · Connaissance des méthodologies projet Agile / Scrum / SAFe · Utilisation de ServiceNow (incidents / changements / demandes / suivi) · Capacité de formalisation documentaire et rédaction de procédures / supports · Connaissance des principes de sécurité Azure / Cloud · Capacité de reporting / suivi des indicateurs de service · Connaissance de SharePoint Online / outils collaboratifs Microsoft 365

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

5972 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous