Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 6 408 résultats.
Freelance

Mission freelance
Data Engineer Semarchy (H/F)

CELAD
Publiée le

1 an
370-400 €
Nantes, Pays de la Loire
CDI / Portage / Freelance - 2 jours de télétravail / semaine - Nantes - Expérience de 3 ans minimum Nous poursuivons notre développement et recherchons actuellement un(e) ingénieur décisionnel ETL pour intervenir chez un de nos clients dans le secteur bancaire. Contexte : Rejoignez une équipe Data au cœur de la connaissance client et des activités commerciales d’un grand groupe bancaire. Vos principales missions : Vous jouerez un rôle clé dans la construction et la performance des pipelines de données : Conception & Développement - Concevoir, développer et maintenir des flux ETL robustes et industrialisés sous Stambia / Semarchy - Modéliser et structurer les données selon les besoins métiers et techniques - Développer des jobs d’intégration, de transformation et de restitution Qualité & Performance - Optimiser les traitements pour garantir la performance , la scalabilité et la fiabilité des pipelines - Mettre en place des contrôles qualité, règles de validation et mécanismes d’alerting - Participer à l’amélioration continue des bonnes pratiques Data Analyse & Collaboration - Analyser les besoins fonctionnels et proposer des solutions techniques adaptées - Collaborer avec les équipes BI, Data, IT et les référents métiers - Documenter les flux et leur cycle de vie pour garantir la pérennité des traitements ⚙ Stack technique du projet : - ETL : Stambia / Semarchy ( xDM / xDI) - SQL
Freelance
CDI

Offre d'emploi
Data Engineer IA

Craftman data
Publiée le
DevOps
Docker
Github

6 mois
40k-45k €
390-540 €
Île-de-France, France
Maintien en condition opérationnelle et industrialisation du Portail Multi‑IA Générative dans un contexte multi‑environnements (On‑Premise, GCP, cloud de confiance à venir). Mise en œuvre et optimisation des chaînes CI/CD (GitLab), de l’Infrastructure as Code (Terraform) et de l’automatisation des déploiements. Contribution à la sécurité, conformité et observabilité des usages IA générative (IAM, secrets, logs, metrics, traces, FinOps). Mise en place et exploitation des pratiques LLMOps : observabilité LLM, évaluations continues (qualité, sécurité, coûts), guardrails et HITL. Conception et préparation de la V2 du Portail IA (architecture cible, HLD/LLD, migration). Support technique N2/N3, analyse et résolution d’incidents, assistance aux mises en production. Production de la documentation technique (runbooks, playbooks, architectures) et transfert de compétences vers les équipes internes.
Freelance
CDI

Offre d'emploi
Data Engineer TERADATA ET BIGDATA

WE +
Publiée le
Apache Spark
Hadoop
HDFS (Hadoop Distributed File System)

12 mois
Île-de-France, France
• vous contribuerez à la construction des solutions Datalab et Datamart sous technologie Teradata, en étroite collaboration avec les autres membres de la Tribu • vous aurez en charge le développement des solutions de collecte des données, de leur stockage et traitement (constitution d’agrégats ou scores), et de leur mise à disposition des DataScientists : une expérience des environnements Unix, du sql et des SGDB relationnels est indispensable ainsi que des bonnes pratiques de développement et modélisation sous technologie Teradata BTEQ. • vous serez amenés à développer sur notre plateforme Big Data. Une forte connaissance de Spark, HDFS, Python, Hadoop est demandée. Les compétences suivantes devront être maîtrisées : • Mode de chargement dans l’entrepôt (ETL) : BTEQ
CDI

Offre d'emploi
Administrateur Système & Réseau H/F

S-quaar
Publiée le
GLPI
Linux
OS Windows

35k-40k €
Carquefou, Pays de la Loire
Lieu : Nord / Est de Nantes (44) Salaire : 35 à 40 K€ annuel brut Rythme : Pas de télétravail sur ce poste Nous recherchons pour notre client, industriel reconnu dans son domaine, un Administrateur Système & Réseau dans le cadre d'une opportunité de recrutement en CDI. VOS MISSIONS : Rattaché directement à la Direction générale, vous êtes le référent informatique et assurez la gestion du parc informatique, la performance, la sécurité et la disponibilité permanente du SI. Déploiement et évolution des infrastructures informatiques • Contribuer à l’analyse des besoins et au choix des équipements informatiques adaptés • Participer à l’identification et à la sélection de partenaires techniques (intégrateurs, infogéreurs, etc.) • Étudier la compatibilité et la viabilité technique lors de l’intégration de nouvelles solutions logicielles, en collaboration avec les prestataires externes • Mettre en place, paramétrer et rendre opérationnels les différents environnements techniques (serveurs, réseaux, postes utilisateurs) • Maintenir une documentation à jour de l’architecture du système d’information Gestion de projets et pilotage des réalisations (build) • Coordonner les projets d’évolution du système d’information en lien avec des partenaires externes • Participer à la définition des besoins métiers et à leur traduction en solutions techniques • Piloter les différentes phases des projets (cadrage, planification, mise en œuvre, recette, déploiement) • Assurer le suivi des prestataires (qualité des livrables, respect des délais, conformité aux attentes) • Organiser et animer les échanges entre les équipes internes et les intervenants externes • Garantir la bonne intégration des nouvelles solutions dans l’environnement existant • Assurer un reporting régulier sur l’avancement des projets et les éventuels risques identifiés Supervision et maintien en conditions opérationnelles • Suivre le bon déroulement des traitements informatiques et des échanges de données • Garantir la disponibilité des systèmes via des outils de supervision et des indicateurs de performance • Analyser les incidents et alertes, qualifier leur criticité et mettre en œuvre les actions correctives appropriées, en autonomie ou avec des partenaires Gestion de la sécurité des systèmes d’information • Assurer l’actualisation régulière des dispositifs de sécurité (antivirus, pare-feu, etc.) • Superviser les processus de sauvegarde afin de garantir la fiabilité et la récupération des données • Gérer les habilitations et contrôler les accès aux ressources informatiques • Réaliser une veille technologique continue, notamment sur les usages liés à l’IA, afin d’anticiper les évolutions et garantir la conformité des outils • Formaliser et actualiser les procédures et bonnes pratiques Support aux utilisateurs et gestion des outils de communication • Administrer les solutions de téléphonie (choix des équipements, configuration, maintenance) • Assurer un support technique de proximité auprès des utilisateurs dans une logique de qualité de service • Gérer et suivre les demandes via un outil de ticketing (type GLPI) • Enrichir la base documentaire (procédures, guides, FAQ) de manière proactive • Sensibiliser et accompagner les collaborateurs sur les enjeux de cybersécurité et les bonnes pratiques Environnement technique Systèmes : Windows, Linux, Android, IBM AS400 (OS400) Applications : ERP M3, outils bureautiques Technologies : SQL, TCP/IP, DNS, VPN, pare-feu, virtualisation (VMware)
CDI

Offre d'emploi
Relations publiques & institutionnelles ( association cyber défense ) F/H - Communication (H/F)

█ █ █ █ █ █ █
Publiée le

Paris, France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Ingénieur DataOps / DevOps Data (H/F)

emagine Consulting SARL
Publiée le
AWS Cloud
Azure
CI/CD

36 mois
Niort, Nouvelle-Aquitaine
Dans le cadre du renforcement de sa plateforme data, un grand groupe du secteur assurantiel recherche un Ingénieur DataOps afin d’accompagner l’industrialisation, la fiabilisation et l’exploitation de ses environnements data. Vous interviendrez au sein d’une équipe dédiée à la performance et à la stabilité des services data, avec pour objectif d’assurer leur disponibilité et leur évolutivité. Vous participerez activement à la mise en place et à l’amélioration des pipelines de déploiement (CI/CD), à l’automatisation des processus, ainsi qu’à la gestion des environnements de production et de test. Vous serez également impliqué dans la supervision des systèmes, la gestion des incidents, et la mise en œuvre des exigences non fonctionnelles (sécurité, performance, scalabilité). Enfin, vous contribuerez à l’amélioration continue des pratiques DataOps et à la documentation des solutions mises en place.
Freelance
CDD

Offre d'emploi
Architecte Big Data / Expert Databricks (H/F)

SMARTPOINT
Publiée le
Apache Kafka
Apache Spark
AWS Cloud

6 mois
75k-90k €
700-750 €
Île-de-France, France
Dans un contexte d’accélération des projets data et de modernisation des plateformes analytiques, notre client recherche un Architecte Big Data / Expert Databricks H/F; Votre rôle sera clé pour concevoir des architectures data modernes, optimiser les performances et les coûts, tout en accompagnant les équipes dans leur montée en compétences. Vos missions Concevoir des architectures Big Data / Modern Data Stack robustes et scalables Réaliser des études techniques et cadrages des besoins data Définir et valider des architectures data sur Databricks et AWS Conduire des audits de performance et de code Produire des dossiers d’architecture (6 à 8 par an) Élaborer des supports de formation (10 à 12 par an) Animer des sessions de formation et de montée en compétences Rédiger des comptes-rendus d’audit (4 à 6 par an) Conseiller sur les bonnes pratiques d’optimisation des coûts et des performances
Freelance

Mission freelance
Expert Looker Core (BI & Big Data)

Nicholson SAS
Publiée le
Big Data
BigQuery
Google Cloud Platform (GCP)

4 mois
700-900 €
Paris, France
Nous recherchons un Expert Looker pour accompagner l'un de nos clients majeurs dans le secteur du transport aérien, dans le cadre d'une étude stratégique sur ses outils de Dataviz.📋 Détails de la mission Démarrage : 04/05/2026 Durée : Jusqu'au 31/08/2026 (Visibilité sur Octobre 2026) Localisation : Paris ou Toulouse (Rythme hybride selon politique site) Expertise attendue : +5 ans d’expérience 🎯 Enjeux et Missions Au sein de la plateforme Data & AI Technology , vous interviendrez sur l'évaluation de Looker comme futur standard de Dataviz du Groupe (contexte de migration Cloud). Vos responsabilités : Accompagnement de POCs : Développement et support aux métiers dans la réalisation de leurs preuves de concept. Expertise Conseil : Apporter un regard critique sur l'architecture, la sécurité et l'optimisation FinOps . Formation & Pédagogie : Acculturation des utilisateurs métiers et échanges techniques avec les équipes IT (Ops, Architectes). Évaluation stratégique : Analyser la capacité de l'outil à répondre aux besoins d'analyses Ad-hoc, aux enjeux d'IA (Conversational Analytics) et au remplacement de solutions existantes (SAP BO, Spotfire). 🛠️ Compétences Requises Looker Core (Indispensable) : Maîtrise parfaite de l'outil (Note : Looker Studio est hors scope). Ecosystème GCP : Excellente maîtrise de BigQuery et du SQL . Culture Data : Compréhension des enjeux de migration "Data Move To Cloud". Soft Skills : Excellent relationnel, capacité à vulgariser des sujets complexes et pédagogie. Langues : Anglais courant (contexte international). Bonus : Une maîtrise de Power BI est un plus apprécié. 💰 Conditions financières TJM Paris : 900 € (selon profil) TJM Toulouse : 700 € (selon profil)
Freelance

Mission freelance
Data Scientist – Remote Sensing & Deep Learning (AgTech)

Intuition IT Solutions Ltd.
Publiée le
Python

3 mois
Toulouse, Occitanie
Contexte Dans le cadre d’un projet stratégique pour un client du secteur spatial/agricole, nous recherchons un Data Scientist expérimenté afin de reprendre et poursuivre des travaux en cours autour de la détection d’objets à grande échelle via imagerie satellite. La mission s’inscrit dans un environnement à forte dimension technique, combinant Computer Vision, traitement de données géospatiales et passage à l’échelle. Missions Reprise et amélioration de modèles de Computer Vision appliqués à l’imagerie satellite Implémentation et optimisation de modèles de segmentation d’instance et détection (type Mask R-CNN, U-Net) Traitement et fusion de données multi-sources ( optique Sentinel-2 & radar Sentinel-1 / SAR ) Industrialisation des pipelines de traitement et passage à l’échelle sur de larges zones géographiques (US, Brésil, Europe) Contribution aux bonnes pratiques MLOps (tracking, reproductibilité, déploiement) Déploiement et optimisation des modèles dans un environnement AWS
Freelance

Mission freelance
Data Migration & Integration Lead

Montreal Associates
Publiée le

30 mois
600-650 €
75001, Paris, Île-de-France
Bonjour, 🚫 𝐏𝐀𝐒 𝐃𝐄 𝐒𝐎𝐔𝐒-𝐓𝐑𝐀𝐈𝐓𝐀𝐍𝐂𝐄!🚫 Je recherche actuellement pour un de mes clients un profil : 🔔 𝐋𝐞𝐚𝐝 𝐃𝐚𝐭𝐚 𝐌𝐢𝐠𝐫𝐚𝐭𝐢𝐨𝐧 & 𝐈𝐧𝐭𝐞́𝐠𝐫𝐚𝐭𝐢𝐨𝐧 𝐴𝑦𝑎𝑛𝑡 𝑑𝑒 𝑏𝑜𝑛𝑛𝑒 𝑐𝑜𝑛𝑛𝑎𝑖𝑠𝑠𝑎𝑛𝑐𝑒 𝑑𝑒 𝑙𝑎 𝑠𝑜𝑙𝑢𝑡𝑖𝑜𝑛 𝑆𝐴𝑃 𝑆𝑜𝑙𝑖𝑑𝑒 𝑒𝑥𝑝𝑒́𝑟𝑖𝑒𝑛𝑐𝑒 𝑓𝑜𝑛𝑐𝑡𝑖𝑜𝑛𝑛𝑒𝑙𝑙𝑒 𝑒𝑡 𝑡𝑒𝑐ℎ𝑛𝑖𝑞𝑢𝑒 𝐸𝑥𝑝𝑒𝑟𝑡𝑖𝑠𝑒 𝑒𝑛 𝑚𝑖𝑔𝑟𝑎𝑡𝑖𝑜𝑛 𝑑𝑒 𝑑𝑜𝑛𝑛𝑒́𝑒 𝑀𝑎𝑖𝑡𝑟𝑖𝑠𝑒 𝑑𝑒𝑠 𝑜𝑢𝑡𝑖𝑙𝑠 𝑑𝑒 𝑚𝑖𝑔𝑟𝑎𝑡𝑖𝑜𝑛 (𝐿𝑆𝑀𝑊, 𝑀𝑖𝑔𝑟𝑎𝑡𝑖𝑜𝑛 𝐶𝑜𝑐𝑘𝑝𝑖𝑡, 𝐸𝑇𝐿) 𝐸𝑥𝑝𝑒𝑟𝑡𝑖𝑠𝑒 𝑒𝑛 𝑖𝑛𝑡𝑒́𝑔𝑟𝑎𝑡𝑖𝑜𝑛 𝑆𝐴𝑃 (𝐼𝐷𝑂𝐶...) 𝐵𝑜𝑛𝑛𝑒 𝑐𝑜𝑚𝑝𝑟𝑒́ℎ𝑒𝑛𝑠𝑖𝑜𝑛 𝑑𝑒𝑠 𝑝𝑟𝑜𝑐𝑒𝑠𝑠𝑢𝑠 𝑚𝑒́𝑡𝑖𝑒𝑟 : 𝐹𝐼 𝐶𝑂, 𝑆𝐷 𝑀𝑀, 𝐻𝑅 🎯 𝐌𝐢𝐬𝐬𝐢𝐨𝐧 𝐈𝐧𝐭𝐞𝐫𝐯𝐞𝐧𝐢𝐫 𝐝𝐚𝐧𝐬 𝐮𝐧 𝐞𝐧𝐯𝐢𝐫𝐨𝐧𝐧𝐞𝐦𝐞𝐧𝐭 𝐜𝐨𝐦𝐩𝐥𝐞𝐱𝐞, 𝐢𝐧𝐭𝐞𝐫𝐧𝐚𝐭𝐢𝐨𝐧𝐚𝐥, 𝐦𝐮𝐥𝐭𝐢-𝐬𝐲𝐬𝐭𝐞̀𝐦𝐞 (𝐒𝐀𝐏 & 𝐬𝐨𝐥𝐮𝐭𝐢𝐨𝐧𝐬 𝐭𝐢𝐞𝐫𝐜𝐞𝐬) 𝐚𝐯𝐞𝐜 𝐝𝐞𝐬 𝐞𝐧𝐣𝐞𝐮𝐱 𝐟𝐨𝐫𝐭𝐬 𝐚𝐮𝐭𝐨𝐮𝐫 𝐝𝐞 𝐥𝐚 𝐜𝐨𝐧𝐭𝐢𝐧𝐮𝐢𝐭𝐞́ 𝐛𝐮𝐬𝐢𝐧𝐞𝐬𝐬 𝐞𝐭 𝐥𝐚 𝐪𝐮𝐚𝐥𝐢𝐭𝐞́ 𝐝𝐞 𝐝𝐨𝐧𝐧𝐞́𝐞𝐬. - Assurer la cohérence et la fiabilité des intégrations - Piloter les activités de migration de données et de cutover - Garantir la continuité des processus métiers (Finance, RH...etc.) - Avoir un rôle de référent transverse 🔊 𝐀𝐧𝐠𝐥𝐚𝐢𝐬 𝐜𝐨𝐮𝐫𝐚𝐧𝐭 obligatoire 📍𝐈𝐃𝐅 - 2/3j semaine sur site 🕐 ASAP - 3 𝐦𝐨𝐢𝐬 𝐫𝐞𝐧𝐨𝐮𝐯. Montreal Associates is acting as an Employment Business in relation to this vacancy.
CDI

Offre d'emploi
Data Analyst SAS - Anglais courant

Synchrone recrutement
Publiée le
Dataiku
Dremio
SAS

40k-60k €
Paris, France
L'équipe est chargée du pilotage mensuel du risque via la mise à jour du datamart risque et des reportings associés. Pour cela, un RUN mensuel, actuellement composé de programmes SAS, devra perdurer en parallèle des développements induits par les nouveaux usages data (nouvelles expositions de données, nouveaux outils de préparation tels que DREMIO-DATAIKU, et utilisation de Power BI Report Server). Cette mission a pour objectif : · Développer des flux Dataiku et des rapports Power BI afin de contribuer au pilotage mensuel du risque. · Assurer le transfert et la réécriture des programmes SAS existants vers Dataiku, en tenant compte de la complexité de certains codes et des logiques métier sous-jacentes. · Documenter la construction et le fonctionnement des mises en place pour garantir la pérennité et la maintenabilité des solutions. L’équipe tient à cœur de développer des suivis automatisés et optimisés. Une intégration au RUN mensuel ainsi qu’une participation aux demandes d’évolutions sur des suivis déjà existants pourront également être réalisées, dans le but de s’imprégner du fonctionnement global de l’équipe. Anglais courant requis ! Prestations demandées : Comprendre le fonctionnement actuel du datamart risque composé de programmes SAS. Dupliquer les RUN actuels sur les nouveaux outils DREMIO et DATAIKU Mise en place d’un rapport Power BI version report server permettant le pilotage mensuel Participation au double run mensuel
Freelance
CDI

Offre d'emploi
Data Product manager

ANDEMA
Publiée le
Microsoft Power BI

6 mois
40k-63k €
450-500 €
Lille, Hauts-de-France
Raison d’être du poste : Le Data Product Manager assure l'interface stratégique et opérationnelle entre les Data Owners métier et l'équipe technique Data. Sa mission est de transformer la donnée issue des différents systèmes en produits analytiques performants pour piloter l'offre, l'impact scientifique du client et les processus d'accréditations internationales. Expert en modélisation Power BI, il garantit la fiabilité des indicateurs et la sécurité des accès, tout en challengeant les besoins métiers pour maximiser la valeur ajoutée des solutions déployées Finalités et Résultats Attendus : 1. Analyse, modélisation et structuration des données Analyser les modèles de données des différentes applications contributrices (sources de données ou consommatrices/cibles de données) Modéliser les données métiers (programmes, faculté, recherche et accréditations) dans un modèle commun ‘SKEMA’, développer des data products (PowerBI et autres) répondant aux besoins métier et maintenir le modèle sémantique de l'école. Définir et gérer la gouvernance des accès et la sécurité des données (Row Level Security) pour chaque data product. 2. Conception et développement des data products Ecrire les spécifications techniques pour les opérations de manipulation de données Documenter les logiques métier de transformation Comprendre, piloter les flux d’intégration et de transformation de données (Azure Data Factory, Synapse, PowerBI [demain Fabric / Databricks ou autres]) Développer les data products en lien avec les data owners et les équipes data Tester et valider la cohérence des flux de données entre les systèmes producteurs et les data products finaux. Suivre l’adoption des data products (usage, accès …) 3. Qualité et fiabilité des données Direction des Ressources Humaines Participer aux projets de migration et de mise en qualité des données entre systèmes applicatifs afin d’identifier les impacts sur le périmètre des data products concernés. Assurer la fiabilité des données, les contrôles de cohérence et participer au support technique associé des data products. 4. Structuration de la plateforme Data Avoir une compréhension d’une data plateforme et d’une modélisation médaillon Piloter la mise à disposition de donnée dans la data plateforme pour permettre la réalisation des data products. 5. Collaboration et accompagnement Savoir faire le pont entre les équipes métiers (vulgarisation des concepts) et les équipes techniques pour l’évolution des usages data Animer la communauté des data owner de l’univers « Offre d'enseignement & Impact scientifique » Environnement data : Modélisation de donnée • Power BI • Fabrics (est un plus) • Synapse / Azure (est un plus) • Databricks (est un plus) • Git, DevOps • SQL
CDI

Offre d'emploi
Actuaire - Data Scientist Mrh H/F

█ █ █ █ █ █ █
Publiée le
Git
Numpy
Ocaml

Suresnes, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI

Offre d'emploi
Data Scientist spécialisé dans les enquêtes/sondages - H/F

█ █ █ █ █ █ █
Publiée le

Paris, France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDD
CDI
Freelance

Offre d'emploi
Expert cybersécurité - Security by Design

KEONI CONSULTING
Publiée le
Big Data
GED (Gestion Électronique des Documents)
MOA

18 mois
20k-60k €
100-550 €
Niort, Nouvelle-Aquitaine
Contexte : Dans le cadre de la Direction Cybersécurité et Risques Numériques (DCRN) et plus particulièrement l’accompagnement des chefs de projet pour l’identification des risques de sécurité et la réalisation d’analyses de risques (Intégration de la Sécurité dans les Projets - Security by Design) MISSIONS: Contribuer, lors des avant-projets, à la définition des exigences de sécurité des projets inscrits aux feuilles de route des Directions Métiers. • Soutenir les MOA et les Directions Métiers dans la classification des données personnelles et des données sensibles, • Procéder à des analyses de risques et émettre des préconisations pour réduire ces risques, • Assurer la qualification des fournisseurs et des sous-traitants de la DSI au regard des exigences de cyber-sécurité et de conformité règlementaire • Contribuer à l’accompagnement des projets techniques en matière de cyber-sécurité • Assurer l’expression des besoins transverses en matière de cyber-sécurité et garantir la mise en œuvre des projets spécifiques y répondant Les périmètres d'interventions principaux seraient : La data (datahub), la téléphonie d'entreprise, la gestion documentaire (GED, éditique, dématérialisation entrante, sortante, etc)
Freelance

Mission freelance
Data Analyste Technique - VBA - Sharepoint

ABSIS CONSEIL
Publiée le
Batch
Microsoft Power BI
Powershell

1 an
490-500 €
Île-de-France, France
Dans le cadre d’un programme de transformation des parcours clients, une équipe Data Quality intervient sur la refonte des processus et des outils de gestion de données réglementaires (KYC). Ce programme vise à remplacer plusieurs systèmes legacy par une plateforme cible commune, tout en garantissant la continuité opérationnelle, la qualité des données et la conformité réglementaire dans un environnement international. L’équipe Data Quality est en charge de : La validation de l’intégrité des données entre les systèmes sources et la plateforme cible, Le pilotage de la migration des données, La production et le suivi des réconciliations sur plusieurs périmètres fonctionnels, L’accompagnement des équipes opérationnelles offshore et nearshore. La mission nécessite de reprendre et sécuriser des processus critiques à forte dépendance au code VBA et aux outils collaboratifs. Missions & livrables La mission est répartie à parts égales entre développement et production opérationnelle. Développement & maintenance (≈50 %) Maintenir, faire évoluer et sécuriser un socle de code VBA critique (lecture, débogage, amélioration, mises en production). Garantir la stabilité et la performance des macros alimentant les processus de réconciliation. Documenter les évolutions, garantir la maintenabilité et la traçabilité des développements. Participer à la préparation de la migration des processus pérennes vers l’architecture cible (définition des besoins, tests, recettes). Production & pilotage opérationnel (≈50 %) Piloter les réconciliations quotidiennes en mode « au fil de l’eau » afin d’assurer la continuité des flux de données. Produire et suivre les réconciliations hebdomadaires et mensuelles, incluant la préparation et l’analyse des KPI de qualité de données. Piloter les processus de bulk permettant la remédiation des données dans l’outil cible. Administrer et migrer les espaces SharePoint (passage vers SharePoint Online, gestion des permissions, organisation documentaire). Garantir le respect strict des SLA, afin d’éviter toute interruption de la chaîne de valeur alimentant les équipes internationales. Assurer un haut niveau de rigueur sur la gestion opérationnelle (versionning, espaces de stockage, contrôles). Livrables attendus : Processus de réconciliation fiables et continus, Code VBA stable, documenté et évolutif, Reporting de qualité (KPI, suivi des anomalies), Espaces SharePoint structurés et sécurisés, Documentation opérationnelle et technique à jour.

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

6408 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous