Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 2 674 résultats.
Freelance

Mission freelance
Consultant·e senior Metadata & Contenus

Publiée le
Data analysis
Gestion de projet

4 mois
580-640 €
Paris, France
Télétravail partiel
Contexte Mission d’étude au bénéfice d’un client (organisation de presse – anonymisée), sans prestation de développement à ce stade. Coordination avec la DSI en charge des métadonnées. Échanges préalables déjà tenus ; la présente fiche formalise le périmètre à présenter avant contractualisation. Interlocuteurs et coordination Côté client : DSI en charge des métadonnées. Demande associée : partage des coordonnées des personnes clés côté prestataire pour une présentation du périmètre de mission avant formalisation. Objectif de planification Cible de chiffrage : avant Noël. Démarrage envisagé : début 2026, sous réserve de validation par la DSI. Objectifs « high level » de la mission (phase initiale) Analyse concurrentielle des métadonnées : comparaison [Client – organisation de presse] vs Reuters, AP, et autres acteurs à déterminer. Analyse des besoins clients en metadata dans leurs systèmes CMS / DAM / MAM, avec un focus spécifique sur les usages « AI‑friendly ». Recommandations d’actions. Description détaillée du besoin 1) Analyse concurrentielle des métadonnées Construire une grille de comparaison couvrant : modèles de métadonnées (schéma, champs obligatoires/optionnels), taxonomies/ontologies, politiques de nommage, qualité/complétude, mécanismes d’identifiants, historisation/versioning, exposition via APIs, et modalités de licence/usage. Cadrer les sources publiques et matériaux accessibles des acteurs ciblés (Reuters, AP, autres à confirmer) et expliciter les limites éventuelles. Évaluer l’alignement/déviations du [Client – organisation de presse] par rapport aux pratiques observées, avec exemples représentatifs. 2) Besoins clients metadata dans CMS / DAM / MAM Conduire des entretiens structurés avec un panel représentatif de clients/intégrateurs (rôles : équipes CMS, responsables DAM/MAM, data/AI) pour cartographier les besoins par parcours : ingest → édition → publication → réutilisation. Identifier les champs et structures « AI‑friendly » prioritaires (désambiguïsation, liens entité‑événement, timestamps normalisés, droits/licensing, source, provenance) et les contraintes d’ingestion/export (formats, payloads, latence, webhooks). Formaliser les attentes d’intégration : modèles d’API (REST/GraphQL), filtres, pagination, recherche/facettes, webhooks, documentation attendue, exemples de réponses, politiques de versioning et SLA de fraîcheur/qualité. 3) Recommandations d’actions Produire des options de convergence par paliers (quick wins vs chantiers structurants), avec impacts estimés sur qualité des métadonnées, réutilisabilité, et compatibilité IA. Proposer une trajectoire de normalisation (champ par champ / structure par structure), des règles de gouvernance (dictionnaire, contrôles automatiques, métriques de complétude), et les prérequis organisationnels. Préparer le chiffrage et les hypothèses associées, adaptés à la cible « avant Noël » pour décision de lancement début 2026. Périmètre de la phase initiale Cadrage et restitution du périmètre aux parties prenantes identifiées par la DSI Metadata. Prise en compte des échanges précédents comme base de travail. Inclusion des trois volets listés dans les objectifs « high level ». Hypothèses et dépendances Validation interne DSI nécessaire pour enclencher un démarrage début 2026. Identification et disponibilité des personnes clés côté prestataire et côté [Client – organisation de presse] pour la présentation de cadrage. Livrables attendus (alignés sur les objectifs « high level ») Restitution d’analyse concurrentielle métadonnées [Client – organisation de presse] vs acteurs cités. Synthèse des besoins clients metadata dans CMS / DAM / MAM, avec attention aux usages « AI‑friendly ». Recommandations d’actions.
Freelance

Mission freelance
Architecte d'Entreprise

Publiée le
Cloud
SAP BW
TOGAF

12 mois
Hauts-de-Seine, France
Télétravail partiel
Métier et Fonction : Stratégie & transformation digitale, Architecte d'entreprise. Spécialités technologiques : TOGAF, Cloud. Type de service : Assistance Technique, facturation au taux journalier. Compétences : Technologies et Outils : AWS Langues : Anglais Secteurs d'activités : Banque, Finance, Assurance Description de la prestation : Pour un client dans le secteur des assurances, recherche de 2 architectes d'entreprise avec 3 à 5 ans d'expérience. Le département comporte 8 architects expérimentés et 3 architects transversaux. Les architectes d'entreprise sont responsables de la vision architecturale d'un sous-domaine, en collaboration avec l'équipe d'architecture, les équipes de livraison, la gouvernance, la sécurité, et les centres d'expertise. Leurs missions incluent : Affiner et maintenir la vision architecturale du sous-domaine attribué Réaliser des évaluations et études architecturales Diriger les sessions de conception et contribuer au comité d'architecture Mettre à jour le référentiel d'architecture d'entreprise Soutenir l'équipe de gouvernance dans ses activités
Freelance
CDI

Offre d'emploi
Expert sécurité ZTNA ZSCALER

Publiée le
AlgoSec
zscaler

3 ans
55k-80k €
450-680 €
Guyancourt, Île-de-France
Télétravail partiel
Nous recherchons pour notre client grand compte un Ingénieur Sécurité & Réseaux ZTNA afin d’intervenir sur les activités suivantes. Missions principales : Participer au déploiement et à la mise en œuvre d’une infrastructure ZTNA de type Zscaler (ZPA) . Assurer le support niveau 3 sur tout incident opérationnel lié aux composants de la solution ( ZPA / ZIA / ZCC ). Accompagner les projets lors de l’intégration de nouvelles applications et assurer le suivi du support opérationnel auprès des équipes d’exploitation. Identifier et corriger les problèmes ou blocages liés à l’utilisation des applications au sein de l’environnement ZTNA . Garantir la mise en conformité des règles d’accès dans le portail ZTNA et sur les équipements réseau et sécurité ( firewalls, proxies, AlgoSec , etc.). Rédiger et maintenir les procédures et documents techniques à destination des équipes d’exploitation (niveaux 1 et 2). Participer à la mise en place de l’automatisation du déploiement des applications ( Terraform, Ansible, Python ). Livrables : Les livrables seront rédigés en anglais (sauf demande spécifique contraire). Comptes rendus de réunions. Documents d’architecture. Documents d’exploitation. Supports de documentation (utilisateur et/ou équipes de support). Alimentation des bases de connaissances de l’entreprise.
CDI
Freelance

Offre d'emploi
CHEF DE Projet SAP - Finance (H/F)

Publiée le
Kyriba
SAP FICO
Tagetik

6 mois
60k-65k €
750-800 €
Grigny, Île-de-France
Télétravail partiel
Nous recherchons un Chef de projet finance (H/F) pour intégrer notre centre de compétences ERP au sein de la Direction des Systèmes d'Information et piloter les projets liés au domaine Finance. Notre client, en partenariat avec un intégrateur SAP, est engagé dans un projet de déploiement SAP S/4 HANA en mode Greenfield. Ce projet stratégique suit une approche de déploiement par phases, débutant par un déploiement en France, puis en Europe. Le candidat sélectionné viendra renforcer l'équipe existante (dédiée au RUN et PROJETS) et collaborera étroitement avec la responsable du domaine Finance au sein de la DSI. Ce rôle clé contribuera à façonner l'avenir de notre infrastructure financière à l'échelle mondiale. Responsabilités principales : Assurer la maintenance et l'optimisation des logiciels de comptabilité, de trésorerie, de consolidation financière et de paie Analyser les besoins des utilisateurs et proposer des solutions adaptées Configurer et mettre en œuvre de nouvelles fonctionnalités Former et accompagner les utilisateurs finaux Rédiger et maintenir à jour la documentation fonctionnelle du système Participer aux projets d'amélioration continue des processus financiers Assurer la liaison entre les équipes finance, IT et les autres départements Support de niveau 3 sur les problèmes techniques et fonctionnels. A noter, des déplacements ponctuels sont à prévoir.
CDI
Freelance

Offre d'emploi
Expert DFIR – Réponse aux Incidents Cybersécurité (H/F)

Publiée le
CyberSoc
SOC (Security Operation Center)

3 ans
Île-de-France, France
Dans un environnement international à forts enjeux de sécurité, le consultant interviendra au sein des équipes CyberDefense / CERT afin de prendre en charge des activités de forensique numérique et de réponse aux incidents de cybersécurité , incluant la gestion d’incidents critiques à fort impact. La mission s’inscrit dans un contexte 24/7 , avec participation à une astreinte tournante , et une forte interaction avec des équipes locales et globales. Mission principale Assurer la détection, l’analyse, l’investigation et la gestion des incidents de cybersécurité , tout en contribuant à l’amélioration continue des capacités DFIR et à la maturité opérationnelle du dispositif de sécurité du groupe. Responsabilités clés Réaliser des activités de Digital Forensics & Incident Response (DFIR) : évaluation, analyse, qualification, catégorisation et investigation des incidents de sécurité. Piloter la gestion des incidents de cybersécurité , en coordination avec les équipes opérationnelles et le management, afin d’assurer un confinement rapide et une réduction des risques . Prendre en charge en toute autonomie des incidents potentiellement critiques, y compris hors heures ouvrées (astreinte). Collecter, documenter et analyser les preuves numériques dans le cadre des activités forensiques. Assurer le suivi de la résolution des incidents et la traçabilité via les outils de ticketing. Communiquer et notifier les parties prenantes concernées, y compris les responsables sécurité (CISO / CSO). Apporter un support aux analystes SOC ainsi qu’à un réseau international de correspondants locaux. Réaliser les retours d’expérience : revues d’incidents, analyses post-mortem et documentation. Contribuer à l’ amélioration des capacités DFIR : intégration et développement d’outils open source et commerciaux, participation à l’enrichissement du laboratoire forensique. Participer aux activités de threat hunting et à la gestion d’incidents de forte sévérité. Contribuer à l’évolution des cas d’usage SIEM et à l’ajustement des seuils de détection. Produire des reportings et communications professionnelles à destination des parties prenantes internes. Participer aux échanges avec les communautés CERT / CSIRT nationales et internationales. Compétences techniques requises Expertise confirmée en réponse aux incidents de cybersécurité (IR) et forensique numérique . Expérience sur des environnements SOC / CERT / CSIRT . Solide maîtrise des processus de gestion des incidents de sécurité . Connaissance des outils DFIR, SIEM et techniques d’investigation numérique. Expérience en threat hunting et analyse d’incidents complexes. Capacité à documenter et formaliser des analyses techniques et post-mortem.
Freelance

Mission freelance
Expert Infras As Code (Ansible, Terraform, Openshift, Gitlab-Ci)

Publiée le
Ansible
GitLab CI
Openshift

24 mois
450-900 €
Paris, France
Télétravail partiel
PROPULSE IT recherche un Expert Infras As Code (Ansible, Terraform, Openshift, Gitlab-Ci). Dans le cadre du projet « IAC » et de la maintenance évolutive de la chaine de déploiement continue, le client souhaite se renforcer avec une prestation d'expert technique sur l'infra As Code et le CI/CD. La chaîne d'outillage est composée des éléments suivants : Gitlab (repository + pipelines + runners), Hashicorp Vault, Artifactory , Kaniko, Trivy, Grype, Syft, Checkov, Kubernetes, ArgoCd Cette prestation sera menée au sein d'une équipe « DevOps », utilisant la méthodologie « Scrum » et le principe du « GitOps ». mission : Réaliser et modifier différents rôles et playbooks Ansible - Mise en œuvre des solutions attendues en respectant les processus définis - Compte-rendu des ateliers et réunions (avec les contributeurs nécessaires identifiés en amont) - Mise à jour des documents des normes d'utilisation de la brique technique - Documents d'installation, d'administration et d'exploitation des solutions mise en œuvre - Mode opératoire des actions réalisées Réaliser et modifier différents modules Terraform - Mise en œuvre des solutions attendues en respectant les processus définis - Compte-rendu des ateliers et réunions (avec les contributeurs nécessaires identifiés en amont) - Documents des normes d'utilisation de la solution - Documents d'installation, d'administration et d'exploitation des solutions mise en œuvre - Mode opératoire des actions réalisées. Réaliser et modifier différents jobs et pipelines Jenkins - Mise en œuvre des solutions attendues en respectant les processus définis - Compte-rendu des ateliers et réunions (avec les contributeurs nécessaires identifiés en amont) - Documents des normes d'utilisation de la solution Réaliser et modifier différents jobs et pipelines Gitlab-CI - Mise en œuvre des solutions attendues en respectant les processus définis - Compte-rendu des ateliers et réunions (avec les contributeurs nécessaires identifiés en amont) - Documents des normes d'utilisation de la solution - Documents d'installation, d'administration et d'exploitation des solutions mise en œuvre - Mode opératoire des actions réalisées. Assurer le support N3 de la chaîne CI/CD • Suivi, mise à jour et résolution des incidents en respectant les processus définis • Compte-rendu des ateliers et réunions (avec les contributeurs nécessaires identifiés en amont) • Mode opératoire des actions réalisées
Freelance

Mission freelance
Expert APIGEE

Publiée le
Apigee
Quarkus

4 ans
140-600 €
Le Mans, Pays de la Loire
Télétravail partiel
Déploiement Apigee Hybrid Définition et implémentation de pipelines CI/CD (Tekton, Ansible…) Définition et développement de sharedflows : sécurité, logs, caches, gestion des erreurs… Définition et mise en place de policies Localisation : Le Mans (1 jour sur site par semaine) Démarrage : début janvier Déploiement Apigee Hybrid Définition et implémentation de pipelines CI/CD (Tekton, Ansible…) Définition et développement de sharedflows : sécurité, logs, caches, gestion des erreurs… Définition et mise en place de policies Localisation : Le Mans (1 jour sur site par semaine) Démarrage : début janvier
Freelance
CDI

Offre d'emploi
Consultant SnapLogic (H/F)

Publiée le
Comptabilité
Finance
SGBD

6 mois
Paris, France
Télétravail partiel
Consultant SnapLogic (H/F) Dans le cadre des projets de transformation du système d’information de notre client, nous recherchons un consultant spécialisé sur SnapLogic. Le consultant interviendra au sein d’une task force projet dans le cadre d’un programme dont l’objectif est de remplacer l’ERP historique (outil propriétaire) par un ERP métier du marché. Contexte de la mission Le SI s’appuie sur l’ETL SnapLogic comme outil d’intégration, assurant les flux d’échange de données entre : · l’ERP de gestion · l’ERP comptable · l’outil de gestion des achats · l’outil de dématérialisation et de traitement des factures Dans le cadre du projet, les besoins fonctionnels sont en cours de révision par la task force, nécessitant une analyse et une mise en conformité des flux existants. Objectifs et responsabilités · Réaliser un état des lieux détaillé des développements existants sur SnapLogic · Analyser les flux d’information actuels entre les différents outils du SI Finance · Identifier les écarts entre l’existant et les besoins fonctionnels cibles définis dans le cadre du projet (existence d’un outil BI pour le SI) · Adapter et/ou faire évoluer les flux afin de les rendre conformes aux besoins fonctionnels validés (en particulier évaluer l’opportunité d’une gestion plus précise des rejets) · Travailler en collaboration étroite avec les équipes fonctionnelles : AMOA et les équipes projet · Contribuer à la fiabilisation et à la sécurisation des échanges de données (comptabilité, achats, facturation)
Freelance

Mission freelance
Expert technique DEVOPS Senior

Publiée le
DevOps

24 mois
325-650 €
Paris, France
Télétravail partiel
PROPULSE IT recherche un expert technique devops Senior dasn le cadre de projets de conteneurisation On premise et IAC Configuration des clusters Openshift et des services associés (ex : Sauvegarde/Surveillance) Garantir le bon fonctionnement des workloads Applicatifs et effectuer le troubleshooting en cas d'incident/dysfonctionnement. Réaliser et modifier différents jobs et pipelines Gitlab-CI Les compétences techniques attendues sont les suivantes : - Maitrise de kubernetes (Openshift) o Déploiement des clusters en mode « airgap » o Troubleshooting des défaillances o Technologie CSI o Déploiement des workload (helm chart / yaml) o Exposition des Services/Ingress/routes Layer4 & 7 - Maitrise de Git, de l'outil Gitlab-CI et de la mise en place de Runners - Maitrise de technologies et méthodologies basées sur le principe du gitops - Maitrise de la mise en place d'outillage de scan au build et au runtime des images de conteneur - Maitrise de l'outil de construction des images de conteneur kaniko - Maitrise de l'outil Hashicorp Vault - Connaissance des technologies : o Vmware Vsphere o Baremétal o NSX o Solution de load Balancing - BigIP-F5 - NSX advanced Load Balancer o Stockage object (S3, minio) - Connaissance d'ansible / terraform - Maitrise des outils de déploiement continue KUBERNETES (ArgoCd) Les compétences fonctionnelles attendues sont les suivantes (par ordre de priorité) : - Expérience sur des projets menés en agile - Forte expérience de travail en équipe et d'animation d'ateliers techniques - Expérience de rédaction de documentations et de production de reportings
CDI

Offre d'emploi
Technicien HotLine - IT & Logistique - Ile de France

Publiée le

28k-35k €
Corbeil-Essonnes, Île-de-France
Contexte du poste Nous sommes une entreprise innovante spécialisée dans les solutions informatiques, la mobilité professionnelle et les technologies de traçabilité dédiées à l’ensemble de la Supply Chain. Depuis plus d’une décennie, nous accompagnons les acteurs de la logistique, du transport, de l’industrie et du retail dans le déploiement de solutions clé en main alliant matériel, logiciels, mobilité, RFID et IoT. Entreprise à taille humaine, nous cultivons une forte cohésion d’équipe, une ambiance détendue mais orientée performance, et un esprit d’innovation reconnu sur notre marché. Notre objectif : proposer à nos clients les meilleures technologies pour améliorer leur productivité, leur réactivité et la fiabilité de leurs opérations. Dans le cadre du renforcement de notre équipe support, nous recrutons un(e) Technicien(ne) Support Informatique . Au cœur du service utilisateur, vous aurez un rôle essentiel dans la gestion des incidents, l’assistance technique et la continuité de service. Missions Support utilisateur (Niveau 1 & 2) Répondre aux appels et aux tickets des utilisateurs. Diagnostiquer les incidents matériels, logiciels et réseaux. Appliquer les procédures pour proposer des solutions rapides et efficaces. Mettre en place des solutions de contournement en cas de besoin. Escalader les incidents complexes vers les équipes concernées. Gestion des incidents Enregistrer, qualifier et suivre les demandes dans l’outil de ticketing. Respecter les procédures internes, les priorités et les SLA définis. Assurer un suivi rigoureux afin de garantir la satisfaction utilisateur. Maintenance et assistance technique Installer, configurer et dépanner le matériel (terminaux, imprimantes, équipements réseaux…). Intervenir sur les logiciels et outils internes : EMM, RCS, solutions logicielles spécifiques. Réaliser des mises à jour, assistances et dépannages à distance. Communication et documentation Informer les utilisateurs de l’avancement de leurs demandes. Rédiger des comptes rendus d’incidents à destination des services techniques internes. Amélioration continue Identifier et remonter les problèmes récurrents pour analyse. Participer activement à la mise à jour des bases de données.
Freelance
CDI

Offre d'emploi
Product Owner

Publiée le
BI
Data Warehouse

12 mois
Paris, France
Télétravail partiel
Le/La Data Product Owner – Intermodal est responsable de la définition et de la livraison du produit de données Intermodal , qui servira de datamart de référence pour l’ensemble des sources opérationnelles et commerciales clés (systèmes de gestion du transport existants et futurs, outils opérationnels, solutions de facturation, etc.). Il/Elle est le point focal côté métier pour tous les sujets liés à la construction et à l’évolution du produit de données Intermodal. Le périmètre couvre les données de référence (master data) et les données transactionnelles , issues de l’ensemble des systèmes Intermodal, y compris plusieurs TMS. Dans le cadre d’un projet de déploiement d’un nouveau système de gestion du transport, le/La Data Product Owner pilote les activités de préparation, de nettoyage et de sécurisation des données avant chaque mise en production, en collaboration avec les Product Owners, les experts régionaux et les équipes IT. Il/Elle s’appuie sur un/une référent(e) Master Data , chargé(e) d’accompagner l’identification, la standardisation et la consolidation des données de référence (clients, sites, actifs, etc.) afin de garantir une base de données cohérente et fiable. Travaillant en étroite collaboration avec les chefs de projet métier et IT, les Product Owners et les experts techniques, le/La Data Product Owner documente et supervise les flux de données de bout en bout , maintient le catalogue de données , définit et pilote les règles de qualité des données , et gère le backlog du produit data . Il/Elle promeut des indicateurs cohérents et une source unique de vérité pour le pilotage de la performance. Ce rôle fait le lien entre le métier et l’IT sur les sujets data : compréhension de la création et de l’usage des données dans les systèmes opérationnels, traduction en un datamart fiable et cohérent, et accompagnement de son adoption et de son amélioration continue. Responsabilités clésVision et roadmap du produit data Définir, avec les chefs de projet métier et IT, le plan de construction et d’évolution du datamart Intermodal de référence couvrant l’ensemble des systèmes sources clés. Traduire les objectifs métiers (pilotage de la performance, maîtrise des coûts, qualité de service, visibilité opérationnelle, etc.) en une vision produit data et une roadmap détaillée. Maintenir et prioriser le backlog du produit data (domaines de données, fonctionnalités, transformations, initiatives qualité, prérequis BI), en arbitrant entre valeur métier, contraintes techniques et ressources disponibles. Besoins BI & analytique Recueillir les besoins BI et reporting des parties prenantes métiers en collaboration avec le/la référent(e) BI (KPI, tableaux de bord, reporting réglementaire ou contractuel, suivi opérationnel). Traduire les cas d’usage métiers en exigences data : éléments de données requis, règles de calcul, niveaux d’agrégation, historique, fréquence de mise à jour. Proposer des solutions adaptées à l’architecture et aux outils BI disponibles, en tenant compte : de la fraîcheur des données requise (quasi temps réel, quotidien, mensuel), de la performance et de l’ergonomie, de la sécurité des données et des droits d’accès. Prioriser et coordonner, avec le/la référent(e) BI, la livraison des tableaux de bord et rapports basés sur le datamart Intermodal, en garantissant la cohérence des indicateurs. Compréhension et documentation des flux de données Formaliser les flux de données de bout en bout : création, mise à jour, enrichissement et consommation des données tout au long des processus Intermodal. Cartographier les interfaces et dépendances entre les différents systèmes opérationnels, les référentiels de données et la couche datamart / BI. Produire et maintenir une documentation claire (schémas de flux, lignage des données, liens processus/données) à destination des équipes IT, des utilisateurs métiers et de la gouvernance. Catalogue de données & modèle de données Piloter, en lien avec la gouvernance data, la création et la maintenance du catalogue de données Intermodal, incluant pour chaque donnée : définition et signification métier, système source, classification (master data / transactionnelle), niveau de confidentialité, responsabilités (propriétaires métier et IT). S’assurer, avec les équipes IT et les architectes data, de l’alignement entre les modèles de données logiques et physiques et la vision métier du catalogue. Promouvoir l’usage du catalogue de données comme référence unique sur la signification et l’origine des données. Qualité des données & gouvernance Identifier et évaluer l’impact des données manquantes ou de mauvaise qualité sur les opérations, le reporting et la prise de décision. Définir, pour les données clés, les pratiques de gestion de la qualité : KPI et seuils de qualité, règles de contrôle et de surveillance, processus de gestion des anomalies, rôles et responsabilités (responsables, contributeurs, escalade). Prioriser les améliorations de qualité des données dans le backlog (contrôles, enrichissements, workflows de correction). Garantir la conformité avec les politiques et standards de gouvernance data. Pilotage de la livraison & validation Collaborer avec les data engineers, développeurs BI et équipes plateforme pour livrer les incréments du produit data (nouvelles sources, tables, métriques, vues). Animer les revues de validation avec les équipes IT et métier pour confirmer l’adéquation aux besoins et la qualité de la documentation. Valider les structures de données et transformations selon des critères d’acceptation clairs. Assurer la cohérence et la réutilisation des jeux de données et indicateurs afin d’éviter les duplications. Préparation des déploiements & support Piloter, pour les projets de déploiement de nouveaux systèmes, les phases de préparation et de nettoyage des données avec l’appui du/de la référent(e) Master Data : planification des chargements et migrations, coordination avec les équipes métiers, régionales et IT, validation de la complétude et de la qualité des données avant mise en production. Suivre les incidents data lors des mises en service et en phase de démarrage, et capitaliser pour les déploiements suivants. Mettre à jour la documentation (catalogue, flux, règles de qualité) en fonction des nouvelles zones, périmètres ou évolutions des systèmes. CompétencesCompétences data & techniques Bonne compréhension des concepts de data warehouse (schéma en étoile, dimensions/faits, ETL/ELT, lignage des données). Expérience en catalogage et documentation des données. Connaissance des frameworks et indicateurs de qualité des données. Capacité à échanger avec des équipes techniques sur des modèles de données ; des bases en SQL sont un plus. Expérience avec des outils BI (Power BI, Tableau, Qlik ou équivalent). Compétences produit & métier Forte capacité à traduire les besoins métiers en exigences data et inversement. Expérience en gestion de backlog et en priorisation multi-parties prenantes. Communication claire et structurée auprès de publics métiers et techniques. Soft skills Esprit analytique, rigueur et sens du détail. Capacité à animer des ateliers et à fédérer autour de décisions communes. Sens des responsabilités et de l’ownership dans un environnement en transformation. Excellente organisation pour gérer plusieurs chantiers en parallèle.
Freelance

Mission freelance
Expert Skyhigh

Publiée le
McAfee
Netskope
zscaler

1 an
600-750 €
Paris, France
Télétravail partiel
1/ Descriptif de la mission: En tant qu’expert Web Gateway, vous devez posséder une expérience technique dans la gestion de l’accès internet des utilisateurs et des applications, ainsi que de solides compétences en collaboration et en relation client, afin d’assurer les responsabilités suivantes (dans le cadre des projets de migration) : Pour chaque nouvelle entité à migrer, vous interviendrez au sein d’un projet, en binôme avec un chef de projet, en l’accompagnant grâce à votre expertise des solutions proxy. Les autres parties prenantes seront les chefs de projet utilisateurs finaux, les équipes poste de travail, les équipes réseau et les équipes sécurité. Vos principales responsabilités seront : - Évaluer l’environnement proxy existant, les besoins, et définir les activités techniques du projet - Préparer la migration des utilisateurs vers la solution de proxy cloud de groupe - Effectuer la configuration dans l’environnement de production du proxy (opérations HNO) - Gérer la migration des utilisateurs - Gérer les incidents et assurer le support en cas de besoin - Analyser l’activité internet des utilisateurs ou des applications à des fins de sécurité et d’amélioration des performances - Assurer le support de niveau 3 de la solution globale Skyhigh Web Gateway (pas d’activité de MCO ni de support de niveau 1) - Ouvrir des tickets de service ou d’incident auprès de l’éditeur - Travailler en étroite collaboration avec les équipes support poste de travail sur les problématiques de navigation - Collaborer avec les équipes Active Directory sur les sujets liés à l’authentification - Travailler avec les équipes sécurité sur les demandes et sujets de sécurité 2/ Livrables attendus du service : Évaluation du proxy / passerelle web de l’entité Paramétrages spécifiques de la passerelle web Ateliers avec les équipes poste de travail et les équipes IT des entités (opco) LLD (Low Level Design) : documentation des configurations et paramétrages de la solution McAfee Suivi du POC (Proof of Concept) et du pilote Suivi des migrations et sessions de résolution d’incidents Mise à jour du service Transfert de compétences aux équipes MCO (BAU – Business As Usual) HNO
Freelance

Mission freelance
[FBO] Chef de Projet IT Sénior (avec XP secteur Bancaire)

Publiée le
Conduite du changement
Coordination
Gestion de projet

3 ans
460-630 €
Île-de-France, France
Dans le cadre du plan de transformation de la Banque de détail, Le bénéficiaire cherche un profil de cheffrie de projet expérimenté pour pilotage de l'impact et les évolutions des différents produits du domaine REFERENTIELS (8 squads) liés au volet Connaissance personne du programme Stratégique RETAIL 4.0 qui va toucher la quasi-totalité des produits. La mission sera rattachée et rapportera opérationnellement au responsable IT de la squad REFENTIELS TIERS tout en étant référent pour l'ensemble des squads du domaine auprès de l'IT Tribe Leader et du Tribe Leader Connaissance Personne/Data Foundations. La mission intègrera une entité fonctionnant en mode agile et devra avoir une expérience concrète et réussie dans un contexte agile. La mission aura une forte composante de pilotage et de coordination de nombreuses et différentes parties prenantes ( Métier et IT des parcours qui vont évoluer en s'appuyant sur la connaissance Personne, Centres d'expertise, Ops etc.). Sont requis : - Une connaissance/expérience des processus métier bancaires - Une forte capacité à interagir tant avec les parties prenantes IT (Ingénieurs Sotfware, Business Analyst, Architectes, Experts Sécurité et Devops..) ainsi qu'avec les métiers et à différents niveaux - Une capacité à rendre compte de façon synthétique des enjeux, avancées, risques du produit au niveau de l'équipe direction du domaine , une capacité à lever les obstacles. - Une capacité à concevoir/challenger l'architecture des solutions selon les normes et standards, respecter la gouvernance IT , appuyer et challenger les parties prenantes IT ( dont équipiers de la squad) - Une expérience sur la stratégie et la réalisation des tests selon les règles de l'art - Une expérience sur des sujets transverses (mobilisant différents domaines métiers) - Des expériences passées dans les environnements open idéalement mainframe Il est idéal d’avoir : - Une expérience sur des sujets /enjeux liés à la data Poser et adapter l'organisation projet tout au long du projet · Définition/complétion du cadre de gouvernance : rôles et responsabilités des parties prenantes, rituels projet Garantir la responsabilité de bout en bout de l’atteinte des objectifs du projet dans le respect des engagements pris vis-à-vis du Métier, en conformité avec les orientations stratégiques de l’entité et les attentes du sponsor · Responsabilité de l’atteinte des objectifs du projet dans le respect du budget, des délais impartis et de la qualité des livrables · Coordination des études préalables en lien avec le Métier/sponsor · Garantie de la bonne définition et de la validation du besoin · Garantie de la cohérence des exigences avec les besoins retenus et de la faisabilité technologique · Garantie de l’adéquation de la solution (notamment la dimension donnée) avec l’ensemble des exigences · Garantie de la validation de la solution avec toutes les parties prenantes · Préparation, consolidation, validation des éléments d’estimation et de planning tout au long du projet · Garantie de la livraison, l’exploitabilité et la mise en service de la solution · Identification et gestion des risques pouvant intervenir au cours de la réalisation du projet, en lien avec l’ensemble des parties prenantes · Garantie que les impacts du projet sont intégrés au plan capacitaire des squads Piloter l’ensemble du projet et coordonner tous les acteurs(trices) et contributeurs(trices) · Pilotage et mesure de l’état d’avancement du projet · Coordination les parties prenantes du projet · Planification, préparation et garantie d'un passage dans les instances de gouvernance projet (comité d’architecture et d’investissements…) · Garantie de l’élaboration et l’application de la stratégie de tests sur l’ensemble du projet en coordination avec métiers · Intégration de la conduite du changement dans son projet et contribuer à celle-ci pour les activités qui le concernent · Elaboration du plan de déploiement avec l’ensemble des parties prenantes et garantie de son exécution
Freelance

Mission freelance
Data Engineer Python / AWS / Airflow / Snowflake

Publiée le
Apache Airflow
AWS Cloud
Python

12 mois
100-550 €
Île-de-France, France
Télétravail partiel
Conception & développement de pipelines Implémenter de nouveaux flux de données batch et streaming . Développer des pipelines ETL / ELT en Python et Airflow pour les traitements planifiés, et via NiFi ou Kafka pour les données en temps réel. Assurer l’intégration et la mise à disposition des données dans Snowflake . Industrialisation & bonnes pratiques Participer aux revues de code , aux tests unitaires et d’intégration . Contribuer à l’ industrialisation des pipelines avec des pratiques CI/CD robustes. Maintenir la documentation technique à jour et contribuer à l’amélioration continue des process. Maintenance & optimisation Garantir la maintenance corrective et évolutive des flux existants. Participer à la mise en place du monitoring , des alertes et des bonnes pratiques d’exploitation. Optimiser les performances, la fiabilité et la qualité des traitements de données.
Freelance

Mission freelance
Profil Data hybride / Alteryx / Power BI

Publiée le
Alteryx
Google Cloud Platform (GCP)
Microsoft Power BI

3 ans
400-500 €
Montpellier, Occitanie
Télétravail partiel
Pour l’un de nos clients grand compte, nous recherchons un Profil Data hybride ALTERYX / Power BI capable à la fois de challenger les métiers fonctionnellement (recueil et reformulation du besoin, rédaction de specs, validation) et d’assurer une partie technique / développement (ETL, requêtage, reporting). Être l’interface entre les utilisateurs métiers et l’équipe technique, traduire les besoins en spécifications exploitables, concevoir et développer les traitements et livrables data (ETL, requêtes, tableaux de bord), assurer la qualité et la maintenabilité des livrables. Responsabilités Recueillir, clarifier et challenger les besoins métiers ; réécrire et structurer les demandes pour les rendre exploitables. Rédiger les spécifications fonctionnelles et techniques (US, critères d’acceptation). Concevoir et développer des flux ETL / transformations avec Alteryx . Modéliser, optimiser et maintenir des requêtes et procédures sur Oracle (SQL / PL/SQL). Développer et publier des Dashboard Power BI (modèles tabulaires, DAX, performance). Développer des applications simples ou prototypes avec PowerApps (souhaité).
Freelance

Mission freelance
Consultant Data Migration – SAS / SQL – Contexte Épargne & Transformation SI

Publiée le
SAS
SQL

2 ans
400-580 €
Île-de-France, France
Télétravail partiel
Description de la mission : Dans le cadre d’un programme de transformation du système d’information épargne , nous recherchons un consultant confirmé spécialisé en migration de données pour intervenir sur la construction et l’industrialisation d’un modèle de données pivot entre les systèmes existants et un nouvel outil de gestion. Vos missions : Analyser les traitements et modèles de données existants sous SAS Enterprise Concevoir et faire évoluer le modèle de données Pivot servant d’interface entre les systèmes source et cible Développer et industrialiser les flux SAS (pré-traitement, transformation, injection) Réaliser les tests unitaires et suivre les anomalies Participer au passage de run de migration et assurer le suivi des compteurs Rédiger la documentation technique et les spécifications fonctionnelles détaillées
2674 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous