Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 658 résultats.
Freelance

Mission freelance
Architecte Data Azure / Databricks / Snowflake — Part-time puis Full-time

CONCRETIO SERVICES
Publiée le
Azure
Databricks
Snowflake

3 mois
700-750 €
Puteaux, Île-de-France
Architecte Data Azure senior (10 ans+) recruté en mission de transformation — plateforme Databricks/Snowflake à recadrer architecturalement , équipe interne à coacher, stratégie data à 3 ans à définir. Il challenge diplomatiquement la direction technique actuelle , conçoit l'architecture cible , industrialise les pipelines en Terraform/Azure DevOps, gouverne la plateforme via Unity Catalog, et transfère les compétences sans créer de dépendance. MISSIONS PRINCIPALES Audit & Recadrage Diplomatique de l'Architecture Existante Analyser l'architecture data actuelle : identifier les problèmes structurels, les anti-patterns, les risques opérationnels Formuler les recommandations de façon constructive Convaincre le management et les équipes de changer de direction : argumentation technique, démonstration par les risques, roadmap de transition réaliste Conduire des revues d'architecture régulières pour maintenir la cohérence dans la durée Définition de l'Architecture Cible Concevoir l'architecture data cible : zones medallion (raw/processed/curated), formats (Delta Lake / Snowflake selon les cas d'usage), partitionnement, clés de distribution Définir les patterns d'intégration entre Databricks et Snowflake pour éviter les silos Produire le DAT complet, défendable en comité de direction Définir la stratégie de gouvernance : Unity Catalog, RBAC, RLS, Data Lineage, catalogue de données Industrialisation des Pipelines & DataOps Concevoir et implémenter les pipelines ETL/ELT sur Databricks et Snowflake (Snowpipe, Streams & Tasks) Mettre en place les pipelines CI/CD Azure DevOps (YAML) avec Terraform pour l'infrastructure as code Tests automatisés data : qualité, contrats, régression — culture DataOps production réelle Structurer les environnements dev/staging/prod avec isolation et promotion contrôlée Sécurité & Conformité IAM Azure, RBAC Unity Catalog, RLS Snowflake, Key Vault Conformité RGPD : pseudonymisation, chiffrement, audit trail, droit à l'oubli Coaching & Transfert de Compétences Revues de code, revues d'architecture, sessions de formation sur les patterns et standards Documentation des décisions (ADR) et bonnes pratiques pour assurer la continuité sans dépendance Montée en compétences sur Unity Catalog, Delta Live Tables, optimisation Snowflake, Terraform Stratégie Data à 3 ans Roadmap data : quick wins, transformations structurelles, jalons, dépendances Veille technologique : évolutions Databricks/Snowflake/Azure, data mesh, data fabric Cadrage des POCs nécessaires avant l'implémentation à grande échelle
Freelance

Mission freelance
Chef de projet BI (F/H)

Experis France
Publiée le

3000 mois
Vitrolles, Provence-Alpes-Côte d'Azur
Analyste d'exploitation F/H - Niort Vous intervenez au cœur des enjeux majeurs de la gestion complète de la chaîne Data : infrastructure, gouvernance et Business Intelligence. Dans un contexte à forts enjeux métiers (ex. croissance externe, rachat d'entreprises), vous pilotez des projets BI stratégiques et contribuez à la valorisation de la donnée au service de la prise de décision. Vos missions : En tant que Chef de Projet BI , vous êtes responsable du pilotage et de la mise en œuvre de projets décisionnels end-to-end : Pilotage de projets BI et d'intégration de données Recueil et compréhension des besoins métiers Traduction des besoins fonctionnels en solutions techniques data conception développement tests mise en production Mise en place de flux d'intégration de données (ETL) Création et maintenance de tableaux de bord décisionnels Coordination des différents acteurs (métier, IT, partenaires) Exemple de contexte projet : intégration et harmonisation des données suite à un rachat
Freelance

Mission freelance
Data Engineer Nantes /st

WorldWide People
Publiée le
Python

12 mois
340-390 €
Nantes, Pays de la Loire
Data Engineer Nantes •Langages de programmation et scripting (ex : SQL, Python, Java, Bash/Shell scripting, …) •Bases de données (ex : Base, Data Warehouse, Data Lake, Data Platform / Lakehouse, …). •Traitement des données (Frameworks Big Data, comme Apache Spark, Pipelines ETL/ELT, Streaming, …) •Cloud Computing (ex : Azure, Concepts cloud, stockage et calcul distribués, …) •Modélisation des données et architecture (ex : Modélisation des données relationnelles et dimensionnelles, modèle en étoile, en flocon, compréhension des architectures Data Lake, Data Warehouse, et Data Platform / Lakehouse, …) •Gestion et optimisation des schémas pour les performances. •DevOps et ingénierie logicielle (ex : outils CI/CD, conteneurs et orchestration, versionnement via Git/GitHub pour le suivi du code source, surveillance et journalisation, …) •Outils de gestion des données et gouvernance (Qualité des données : Vérification des duplications, gestion des erreurs, validation… Gouvernance des données : Connaissance des politiques comme le RGPD, gestion des catalogues, Sécurité des données…) 07/04/2026 Mission longue Ce poste est ouvert à la pre-embauche Le Data Engineer est un expert en gestion des données, qui est chargé de la conception et de la maintenance de l’infrastructure data du périmètre en responsabilité Tâches : Infrastructures de données : •Cartographie et documente les sources de données. •Assure la maintenance des différentes applications données (Data) déployées en production et des infrastructures. •Conçoit les solutions permettant le traitement de volumes importants de flux de données et ceci en toute sécurité. •Structure les bases de données (sémantique, format, etc.). •Contribue à la gestion des référentiels de données. Intégration des données : •Capte et stocke, en toute sécurité, les données (structurées ou non) produites dans les différentes applications ou venant de l’extérieur de l’entreprise. •Assure la supervision et l’intégration des données de diverses nature qui proviennent de sources multiples. Vérifie la qualité des données qui entrent dans la Data Platform et s’assure de leur sécurité. •Nettoie la donnée (élimination des doublons…) et la valide pour une utilisation aval. •Animation des communautés : •Anime la communauté technique qui met en oeuvre les dispositifs prévus ou nécessaires à l’application de la politique de la donnée de l’entreprise. Veille technologique : •Reste en alerte sur les technologies liées au traitement de la manipulation de la donnée et identifie les solutions utilisables. •Propose des évolutions pour les infrastructures et solutions de données en place. Compétences Technique : •Langages de programmation et scripting (ex : SQL, Python, Java, Bash/Shell scripting, …) •Bases de données (ex : Base, Data Warehouse, Data Lake, Data Platform / Lakehouse, …). •Traitement des données (Frameworks Big Data, comme Apache Spark, Pipelines ETL/ELT, Streaming, …) •Cloud Computing (ex : Azure, Concepts cloud, stockage et calcul distribués, …) •Modélisation des données et architecture (ex : Modélisation des données relationnelles et dimensionnelles, modèle en étoile, en flocon, compréhension des architectures Data Lake, Data Warehouse, et Data Platform / Lakehouse, …) •Gestion et optimisation des schémas pour les performances. •DevOps et ingénierie logicielle (ex : outils CI/CD, conteneurs et orchestration, versionnement via Git/GitHub pour le suivi du code source, surveillance et journalisation, …) •Outils de gestion des données et gouvernance (Qualité des données : Vérification des duplications, gestion des erreurs, validation… Gouvernance des données : Connaissance des politiques comme le RGPD, gestion des catalogues, Sécurité des données…) Compétences Métier : •Compétences analytiques et mathématiques (Compréhension des statistiques pour interpréter les données et aider les équipes de Data Science, Familiarité avec les bases de l’apprentissage automatique et des modèles d’IA, …). •Résolution de problèmes : Capacité à identifier des inefficacités et à proposer des solutions. •Communication : Présentation claire des concepts techniques à des publics non techniques. •Adaptabilité : Apprendre rapidement de nouvelles technologies dans un domaine en constante évolution
CDI
Freelance

Offre d'emploi
Data Engineer Azure

KLETA
Publiée le
Azure
Databricks

3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Data Engineer Azure pour concevoir, optimiser et industrialiser des plateformes analytiques cloud natives sur Microsoft Azure. Vous analyserez des architectures existantes, proposerez des trajectoires d’évolution (refonte des pipelines, migration vers des traitements serverless, optimisation des modèles analytiques) et guiderez leur mise en œuvre avec Azure Data Factory, Azure Databricks, Azure Synapse, Azure Data Lake et Event Hubs. Vous serez responsable de la conception et de la fiabilisation des pipelines d’ingestion et de transformation, de l’amélioration des performances et de l’intégration de mécanismes d’observabilité et de qualité des données. Vous travaillerez main dans la main avec les équipes Cloud et DevOps pour intégrer les traitements dans des pipelines CI/CD robustes et adaptés aux contraintes d’exploitation. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes client sur les meilleures pratiques de data engineering cloud native et d’usage avancé d’Azure. Votre mission combinera expertise technique, rigueur méthodologique et capacité à structurer des solutions scalables et pérennes.
Freelance

Mission freelance
Directeur de programme F/H

INFOGENE
Publiée le
Gestion de projet

6 mois
800-900 €
La Défense, Île-de-France
Notre client lance plusieurs programmes de digitalisation de leurs processus (contractualisation et d’achats, industriel, ...). Pour mener à bien ces initiatives, nous recherchons un Directeurs de Programme IT qui aura pour mission principale de piloter le programme dans sa dimension IT. Leurs interlocuteurs principaux seront les Directeurs de Programme Métier et ils travailleront en étroite collaboration avec les intégrateurs sélectionnés et les équipes IT et Métiers. Description de la prestation : Gestion de Projet : Planification, coordination et suivi de l'ensemble des activités liées à l'intégration des nouvelles solutions. Planification et Suivi : Élaboration des plannings projets, gestion des ressources et suivi des délais, budget et qualité des livrables. Gestion des Risques et Résolution de Problèmes : Identification des risques et mise en place des actions correctives. Pilotage des appels d’offres fournisseurs : Coordination de la gestion du cahier des charges, organisation et participation aux soutenances, négociation commerciales, juridiques et préconisation des choix Pilotage intégrateur et éditeur Coordination des Parties Prenantes : Travail en étroite collaboration avec l’intégrateur, les équipes Métier, Data et DSI.
Freelance
CDI

Offre d'emploi
Consultant SAP CO PC (H/F)

Scalesys
Publiée le

32 mois
Île-de-France, France
📋 RÉSUMÉ Vous accompagnez les directions Finance et Contrôle de gestion dans la mise en œuvre, l'évolution et le support des processus de calcul des coûts de revient sur SAP CO-PC (Product Costing). Vous intervenez sur des projets de transformation (migration S/4, rollout, harmonisation) et/ou sur du RUN (support N2/N3, améliorations continues), avec une exigence forte sur la qualité, la traçabilité et l'alignement métier. 🎯 MISSIONS Recueillir et analyser les besoins Finance (calcul des coûts standards, coûts réels, analyse des écarts) et proposer des solutions SAP CO-PC adaptées. Réaliser le paramétrage (customizing) CO-PC et documenter les choix (costing variants, cost component structure, overhead calculation). Rédiger les spécifications fonctionnelles et piloter/valider les développements (ABAP, interfaces). Préparer et exécuter les tests (unitaires, intégration, UAT), organiser la recette et sécuriser les corrections. Accompagner la mise en production (cutover, hypercare) et produire la documentation/supports de formation. Assurer le support N2/N3, analyser les incidents/problèmes, proposer et suivre les plans d'actions. Travailler en interface avec les équipes métiers (Finance, Contrôle de gestion), l'intégration, la data et les équipes techniques. Contribuer à l'amélioration continue (standardisation, simplification, capitalisation). 📦 LIVRABLES Dossier de conception / paramétrage (customizing). Spécifications fonctionnelles (et mappings d'interface si applicable). Plans de tests et rapports de recette (SIT/UAT). Documentation utilisateur / exploitation. Suivi incidents/problèmes et plan d'amélioration.
Freelance

Mission freelance
Data Engineer Nantes/pa

WorldWide People
Publiée le
Scripting

12 mois
340-360 €
Nantes, Pays de la Loire
Data Engineer Nantes Le Data Engineer est un expert en gestion des données, qui est chargé de la conception et de la maintenance de l’infrastructure data du périmètre en responsabilité Compétences Technique : •Langages de programmation et scripting (ex : SQL, Python, Java, Bash/Shell scripting, …) •Bases de données (ex : Base, Data Warehouse, Data Lake, Data Platform / Lakehouse, …). •Traitement des données (Frameworks Big Data, comme Apache Spark, Pipelines ETL/ELT, Streaming, …) •Cloud Computing (ex : Azure, Concepts cloud, stockage et calcul distribués, …) •Modélisation des données et architecture (ex : Modélisation des données relationnelles et dimensionnelles, modèle en étoile, en flocon, compréhension des architectures Data Lake, Data Warehouse, et Data Platform / Lakehouse, …) •Gestion et optimisation des schémas pour les performances. •DevOps et ingénierie logicielle (ex : outils CI/CD, conteneurs et orchestration, versionnement via Git/GitHub pour le suivi du code source, surveillance et journalisation, …) •Outils de gestion des données et gouvernance (Qualité des données : Vérification des duplications, gestion des erreurs, validation… Gouvernance des données : Connaissance des politiques comme le RGPD, gestion des catalogues, Sécurité des données…) Le Data Engineer est un expert en gestion des données, qui est chargé de la conception et de la maintenance de l’infrastructure data du périmètre en responsabilité Tâches : Infrastructures de données : •Cartographie et documente les sources de données. •Assure la maintenance des différentes applications données (Data) déployées en production et des infrastructures. •Conçoit les solutions permettant le traitement de volumes importants de flux de données et ceci en toute sécurité. •Structure les bases de données (sémantique, format, etc.). •Contribue à la gestion des référentiels de données. Intégration des données : •Capte et stocke, en toute sécurité, les données (structurées ou non) produites dans les différentes applications ou venant de l’extérieur de l’entreprise. •Assure la supervision et l’intégration des données de diverses nature qui proviennent de sources multiples. Vérifie la qualité des données qui entrent dans la Data Platform et s’assure de leur sécurité. •Nettoie la donnée (élimination des doublons…) et la valide pour une utilisation aval. •Animation des communautés : •Anime la communauté technique qui met en oeuvre les dispositifs prévus ou nécessaires à l’application de la politique de la donnée de l’entreprise. Veille technologique : •Reste en alerte sur les technologies liées au traitement de la manipulation de la donnée et identifie les solutions utilisables. •Propose des évolutions pour les infrastructures et solutions de données en place. Compétences Technique : •Langages de programmation et scripting (ex : SQL, Python, Java, Bash/Shell scripting, …) •Bases de données (ex : Base, Data Warehouse, Data Lake, Data Platform / Lakehouse, …). •Traitement des données (Frameworks Big Data, comme Apache Spark, Pipelines ETL/ELT, Streaming, …) •Cloud Computing (ex : Azure, Concepts cloud, stockage et calcul distribués, …) •Modélisation des données et architecture (ex : Modélisation des données relationnelles et dimensionnelles, modèle en étoile, en flocon, compréhension des architectures Data Lake, Data Warehouse, et Data Platform / Lakehouse, …) •Gestion et optimisation des schémas pour les performances. •DevOps et ingénierie logicielle (ex : outils CI/CD, conteneurs et orchestration, versionnement via Git/GitHub pour le suivi du code source, surveillance et journalisation, …) •Outils de gestion des données et gouvernance (Qualité des données : Vérification des duplications, gestion des erreurs, validation… Gouvernance des données : Connaissance des politiques comme le RGPD, gestion des catalogues, Sécurité des données…) Compétences Métier : •Compétences analytiques et mathématiques (Compréhension des statistiques pour interpréter les données et aider les équipes de Data Science, Familiarité avec les bases de l’apprentissage automatique et des modèles d’IA, …). •Résolution de problèmes : Capacité à identifier des inefficacités et à proposer des solutions. •Communication : Présentation claire des concepts techniques à des publics non techniques. •Adaptabilité : Apprendre rapidement de nouvelles technologies dans un domaine en constante évolution
Freelance

Mission freelance
Architecte DATA

Codezys
Publiée le
Python
SQL
Teradata

12 mois
Lyon, Auvergne-Rhône-Alpes
Contexte de la mission Dans le cadre d'une phase de transformation visant à adopter un modèle axé sur les données (Data Centric) et de définition d'une stratégie Data, le client met en œuvre une nouvelle plateforme Data Régime pour répondre à ses besoins. Un programme dédié à cette plateforme a été lancé fin 2025. Au premier trimestre 2026, des Proofs of Concept (POC) sont en cours afin de sélectionner la future plateforme Data. Le client recherche une prestation en architecture Data pour l’accompagner dans la définition de l’architecture cible et la mise en œuvre de cette nouvelle plateforme au sein d’un écosystème existant. Objectifs et livrables Le consultant intervenant aura pour mission de définir, concevoir et accompagner la construction de l’architecture cible Data. Ses principales responsabilités seront : Définir l’architecture cible Data : Concevoir une architecture alignée avec la stratégie globale Data et les principes Data-Centric, en déterminant les patterns d’intégration ainsi que les couches fonctionnelles de la plateforme (inclusion, traitement, stockage, exposition). Concevoir l’architecture de la nouvelle plateforme Data : Élaborer l’architecture technique globale en intégrant l’écosystème existant (tels que Teradata, Hadoop) et en tenant compte des stratégies d’évolution (cloud ou on-premise, gouvernance, scalabilité). Proposer une trajectoire d’évolution permettant la transition vers cette nouvelle plateforme, incluant stratégie de migration, coexistence et déploiement par phases. Modélisation et harmonisation des données : Définir des modèles de données harmonisés (modèle cible, datamarts, vues métiers, glossaire). Établir les principes de modélisation adaptés aux usages, qu'ils soient analytiques, opérationnels ou liés à des data products. Data Products & accompagnement métier : Soutenir les équipes métiers dans la conception et la structuration des data products, en veillant à leur cohérence avec les modèles de données, les standards d’intégration et l’architecture cible. Définition et formalisation des standards Data : Élaborer les standards d’intégration, de transformation, de stockage et d’exposition des données. Formaliser les bonnes pratiques concernant les outils de l’écosystème, notamment ceux liés à l’ingestion, à la qualité, à l’orchestration, au catalogage et à la gouvernance.
Freelance

Mission freelance
Reporting Réglementaire (SQL/Alteryx) Recette & Data

STHREE SAS pour HUXLEY
Publiée le

6 mois
75001, France
Contexte & objectifs Au sein d'une équipe projet Finance & Risques rattachée à la Direction Architecture & Reporting , vous intervenez sur des travaux de recette et de qualité des données pour des reportings réglementaires d'un groupe bancaire de premier plan. L'objectif : sécuriser la production réglementaire, fiabiliser les flux de données et déployer de nouveaux contrôles de second niveau. Missions principales 1) Déclinaison d'une nouvelle guidance BIDS au format MBDT Organiser la recette (stratégie, jeux d'essais, critères d'acceptation). Exécuter les campagnes de tests en interaction avec les métiers. Réaliser l' analyse de qualité des données avec les communautés concernées et leurs DSI. Suivre les anomalies (qualification, priorisation, plan de remédiation). Animer des ateliers de restitution et produire les synthèses de recette . 2) Recette des dispositifs réglementaires au sein de la squad "Usages" Conduire les TNR et évolutions liées aux nouvelles versions des backbones de données (sourcing des reportings réglementaires). Valider les tirs de certification dynamique dans le cadre d'un projet de mutualisation du SI (tests d'intégration bout‑en‑bout, traçabilité, conformité). Livrables attendus Stratégie et cahiers de recette , cas de tests, jeux de données, PV de validation. Dossiers de contrôle (fiches de contrôle, flowcharts de production, notes de synthèse). Tableaux de bord d'anomalies et plans d'actions. Compte‑rendus d'ateliers et rapports de synthèse pour les parties prenantes. Profil recherché 7 à 9 ans d'expérience en data/recette dans un environnement bancaire/assurance . Maîtrise de SQL et Alteryx ; à l'aise avec des volumétries importantes et la traçabilité de bout en bout. Solide culture fonctionnelle bancaire et reporting réglementaire (ex. AnaCredit, RCH, VDS, SRB‑MREL ). Connaissance des dispositifs de contrôle 1er/2nd niveaux et des meilleures pratiques de qualité de données . Rigueur, autonomie, sens du service et capacité d'animation (ateliers, restitutions, coordination multi‑équipes).
Freelance

Mission freelance
EXPERT DATA BI SSIS SQL SERVER AZURE DEVOPS

PROPULSE IT
Publiée le
Azure
BI
DevOps

24 mois
325-650 €
France
Pour l'un de nos client basé à La Defense, nous recherchons un expert Microsoft BI très orienté Data sur l'ETL SSIS et T/SQL pour une mission très orientée optimisation et Run avec cependant quelques projets en parallèle : Consultant MOE BI / Domaine Socle Data / Domaine : Etudes et Intégration / Ingénierie d'Etude / Conception ▪ Descriptif détaillé de la mission : ➢ Assurer le RUN des applications existantes (ETL, Bases de données, support niveau 3) ➢ Comprendre les enjeux métier, problématiques à résoudre et opportunités à concrétiser. ➢ Echanger et challenger les besoins métiers avec les équipes AMOA BI en tenant compte des contraintes techniques. ➢ Proposer, concevoir et spécifier des solutions techniques viables, évolutives et tenant compte de l'existant. ➢ Rédaction des documents techniques (spécification techniques, document d'exploitation…etc). ➢ Conseiller, proposer des axes d'amélioration, alerter si besoin. ▪ Environnement technique de la mission : ➢ Socle Data : SSIS, SQLServer (2016), procédures stockées, Azure DevOps (Git, Board Agile, Pipeline de déploiement CI/CD) ➢ Reporting : COGNOS BI 10.2 et 11 & Tableau
Freelance
CDI

Offre d'emploi
Proxy Product Owner Data – Transformation Finance Corporate F/H

SMARTPOINT
Publiée le
Dataiku
Finance
P2P

1 an
50k-76k €
500-680 €
Île-de-France, France
Dans le cadre d’un ambitieux programme de Transformation Finance , nous recherchons un(e) Proxy Product Owner Data pour accompagner la Corporate Finance au sein d’un environnement international. Rattaché(e) au Group Data Office , vous intervenez comme véritable pont stratégique entre les équipes Finance, IT et Data , afin de garantir la bonne intégration des enjeux data dans les projets de transformation. Les domaines couverts incluent : L’automatisation des processus Finance Le cycle P2P (Procure-to-Pay) Le cycle O2C (Order-to-Cash) L’amélioration continue des processus financiers Votre mission En tant que Proxy Product Owner Data, vous assurez que toutes les initiatives de transformation Finance comportant une dimension data : Sont correctement identifiées et priorisées Sont alignées avec les standards du Group Data Office Respectent les patterns d’architecture et la gouvernance groupe Sont délivrées efficacement et adoptées par les métiers Vos responsabilités Identification & priorisation des initiatives data Détecter les projets Finance à fort impact data Évaluer la valeur business et la faisabilité Alimenter et prioriser le backlog Data groupe Produire les analyses d’impact data Traduction des besoins métier Transformer les besoins Finance en exigences techniques et data Valider les modèles de données et les flux Garantir l’alignement avec l’architecture groupe Formaliser les spécifications fonctionnelles Expertise Processus Finance Apporter votre expertise sur les cycles P2P et O2C Accompagner les projets d’automatisation Cartographier les processus et définir les cas d’usage Formuler des recommandations d’amélioration Automatisation & Dataiku Contribuer aux cas d’usage d’automatisation via Dataiku (ou outil équivalent) Garantir l’intégration et la qualité des données Définir les besoins en pipelines data Coordination & delivery Coordonner les équipes Finance, IT et Data Suivre l’avancement des projets Identifier et lever les risques et dépendances Assurer un reporting régulier auprès des parties prenantes Gouvernance & standards Garantir la conformité aux standards Data groupe Assurer la qualité, la sécurité et la gouvernance des données Produire la documentation d’alignement
CDI

Offre d'emploi
Ingénieur Systèmes et Réseaux N3 H/F - Gennevilliers

Webnet
Publiée le
LAN
SQL
WAN (Wide Area Network)

50k-60k €
Gennevilliers, Île-de-France
Dans le cadre d'une intégration définitive chez l'un de nos clients grand comptes, nous sommes à la recherche d'un Ingénieur Système et Réseaux N3. Dans un contexte de transformation du SI à l'échelle Monde vous assistez la DSI ainsi que les différents sites dans leur adaptation. À ce titre, vos missions principales sont les suivantes : Partie administration niveau 3 et projets infrastructure (70% du temps) : Projets de consolidations de l’infrastructure des sites locaux dans le datacenter de notre infogéreur. Gestion des réseaux et firewall en lien avec notre prestataire externe. Gestion des serveurs et des infrastructures locales. Gestion de la politique de sécurité du groupe. Administration O365. Définition de l’architecture technique en fonction des projets métier. Gérer des projets d’infrastructure informatique et être force de proposition pour améliorer la sécurité et l’exploitation. Partie Exploitation et support informatique (30% du temps) : Assurer le Helpdesk informatique et résoudre les incidents de niveau 3 Suivre, gérer et répondre aux demandes liées à l’infrastructure informatique de niveau 3. Gérer le réseau et le parc serveur. Veiller à l'application des procédures (codification, confidentialité, sauvegarde, sécurité…) Assurer la supervision des systèmes et réseaux.. Compétences attendues pour ce poste : Connaissances approfondies sur Windows serveur 2008, 2012, 2016 et 2019 Compétences sur SQL Serveur/smtp/ftp/AD et Oracle est un plus Gestion d’un active Directory et des GPO Réseaux LAN et WAN ainsi que des Firewalls. Bonnes connaissances et pratique des méthodologies de Projets. Animation de comités projets internationaux.
CDI

Offre d'emploi
Business Analyst ALM Trésorerie (ALMT) - CDI F/H - Marketing (H/F)

█ █ █ █ █ █ █
Publiée le

Paris, France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI
Freelance

Offre d'emploi
Chef.fe de projet Data senior

Atlanse
Publiée le
Agile Scrum
Gestion de projet
Méthode Agile

6 ans
55k-65k €
400-550 €
Paris, France
En tant que Chef.fe de projet Data senior – flux de données, vous pilotez la structuration, l’intégration et la fiabilisation des flux alimentant une base annuaire centrale. Votre rôle Cadrage et structuration des flux data · Piloter les études de cadrage avec les partenaires internes et externes · Formaliser les besoins fonctionnels et les exigences en matière de qualité de données · Challenger les demandes du commanditaire au regard des contraintes techniques et d’architecture · Définir les formats d’échange et standards d’intégration (API, fichiers, JSON…) · Identifier les risques (techniques, organisationnels, partenaires) · Définir la feuille de route projet en cohérence avec les enjeux stratégiques et politiques Organisation et fiabilisation des intégrations · Structurer une base annuaire alimentée par des flux multiples (API, fichiers, imports batch…) · Superviser l’intégration progressive de nouvelles sources et fournisseurs de données · Mettre en place ou cadrer les processus de nettoyage, normalisation et déduplication · Définir les mécanismes d’automatisation et de contrôle des flux · Garantir la qualité, la cohérence et la traçabilité des flux intégrés Pilotage projet et coordination transverse · Coordonner les équipes métiers, techniques et partenaires externes · Arbitrer les priorités, suivre les charges, délais et budgets · Organiser les phases de recette et valider la conformité aux exigences définies · Assurer la gouvernance projet et le reporting auprès des instances décisionnelles · Défendre les contraintes techniques et les positions du client face aux parties prenantes Supervision et cohérence globale · Challenger les choix d’architecture en lien avec les équipes techniques · Veiller à la robustesse et à la performance des flux de données · Superviser les mécanismes d’échanges inter-applicatifs · Assurer la cohérence globale entre l’application centrale et les applications connectées
Freelance

Mission freelance
AMOA / Business Analyst SI Finance EPM (H/F)

Mindquest
Publiée le
Board
Databricks
EPM

3 mois
Issy-les-Moulineaux, Île-de-France
Le/la consultant(e) interviendra sur les activités suivantes : Cadrage & analyse : Analyse de l’expression de besoin, Identification des écarts et points à clarifier, Animation d’ateliers avec les métiers Finance, Accompagnement de la maîtrise d’ouvrage dans la définition et la formalisation des besoins. Conception fonctionnelle : Structuration et pilotage de la conception fonctionnelle, Rédaction des spécifications fonctionnelles détaillées, Modélisation des processus budget, reporting et forecast, Définition des règles de gestion et des flux de données, Garantie de la cohérence fonctionnelle des solutions mises en place. Coordination & suivi projet : Interface entre les équipes métiers Finance et les équipes techniques, Interaction avec les équipes MOE, data et intégration, Participation aux ateliers de conception technique, Suivi de l’avancement projet. Recette & validation : Définition de la stratégie de tests, Pilotage des phases de recette utilisateur, Validation des flux de données et des restitutions. Organisation : Mission basée en Île-de-France, Télétravail hybride selon le contexte.
Freelance

Mission freelance
DATA MESH PLATFORM MANAGER

Codezys
Publiée le
Azure
Cloud
Data governance

12 mois
Courbevoie, Île-de-France
Contexte de la mission Le Groupe met en place une Self-Service Data Platform basée sur les principes du Data Mesh , appelée Group Data Platform (GDP) . La mission vise à concevoir, construire, déployer et exploiter cette plateforme à l’échelle de l’entreprise. Le Data Mesh Platform Manager sera responsable de la mise en œuvre, de l’adoption et du pilotage de la plateforme dans un environnement multi-cloud (AWS/Azure) et hybride, incluant des systèmes on-premise. Objectifs et livrables Construction et delivery de la plateforme Data Mesh : conception de l’architecture, définition des capacités, standards techniques, garantissant scalabilité, performance et sécurité. Livrables : ADR, architecture de référence, roadmap, standards techniques. Architecture cloud et hybride : conception, pilotage des déploiements sur AWS et Azure, intégration des systèmes on-premise, automatisation via Infrastructure as Code. Livrables : blueprint, framework de sécurité, conformité. Delivery et pilotage : gestion du cycle de deliverables, priorisation, suivi de la performance et gestion des incidents. Livrables : roadmap, plan de release, indicateurs de fiabilité. Déploiement dans les domaines métiers : accompagnement des équipes, création de data products, onboarding, résolution des problématiques d’adoption. Livrables : frameworks d’onboarding, playbooks, KPI d’usage, supports de formation. Product management et évolution : recueil des besoins, définition de la vision, mesure de la valeur, améliorations continues. Livrables : vision produit, KPI, feedbacks, roadmap d’évolution. Gouvernance et documentation : documentation des capacités, conformité avec la Data Governance fédérée. Livrables : référentiel, standards, frameworks, playbooks. Communication et reporting : suivi de l’avancement, reporting aux gouvernances, alignement des parties prenantes. Livrables : dashboards, présentations, suivi des décisions. Promotion et évangélisation interne : valorisation de la plateforme, développement de la communauté. Livrables : supports de communication, stratégies d’adoption, démonstrations, cas d’usage.

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

658 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous