L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 5 556 résultats.
Offre d'emploi
Expert cybersécurité - Security by Design
KEONI CONSULTING
Publiée le
Big Data
GED (Gestion Électronique des Documents)
MOA
18 mois
20k-60k €
100-550 €
Niort, Nouvelle-Aquitaine
Contexte : Dans le cadre de la Direction Cybersécurité et Risques Numériques (DCRN) et plus particulièrement l’accompagnement des chefs de projet pour l’identification des risques de sécurité et la réalisation d’analyses de risques (Intégration de la Sécurité dans les Projets - Security by Design) MISSIONS: Contribuer, lors des avant-projets, à la définition des exigences de sécurité des projets inscrits aux feuilles de route des Directions Métiers. • Soutenir les MOA et les Directions Métiers dans la classification des données personnelles et des données sensibles, • Procéder à des analyses de risques et émettre des préconisations pour réduire ces risques, • Assurer la qualification des fournisseurs et des sous-traitants de la DSI au regard des exigences de cyber-sécurité et de conformité règlementaire • Contribuer à l’accompagnement des projets techniques en matière de cyber-sécurité • Assurer l’expression des besoins transverses en matière de cyber-sécurité et garantir la mise en œuvre des projets spécifiques y répondant Les périmètres d'interventions principaux seraient : La data (datahub), la téléphonie d'entreprise, la gestion documentaire (GED, éditique, dématérialisation entrante, sortante, etc)
Offre d'emploi
Expert Collibra – Data Governance
Craftman data
Publiée le
Collibra
Microsoft Power BI
55k-65k €
Île-de-France, France
Contexte Dans le cadre du renforcement de sa stratégie Data, un acteur majeur du secteur bancaire recherche un Expert Collibra pour accompagner son Data Office au sein du Digital Excellence Center. Vous interviendrez sur une plateforme data stratégique, au cœur des enjeux de data governance, BI et valorisation des données, avec une forte interaction entre les équipes métiers et IT. Missions Analyse des besoins métiers et IT liés à la gouvernance des données Structuration et intégration de la documentation data dans Collibra Paramétrage de la solution (dashboards, vues, workflows) Accompagnement des data stewards et data custodians Animation d’ateliers (formation, démonstrations, adoption) Contribution à l’évolution de l’offre de service Collibra Tests des nouvelles fonctionnalités et releases Support utilisateurs et gestion des incidents Travail sur les intégrations avec l’écosystème data (BI, API, SGBD)
Mission freelance
Lead Data Engineer - Financial
Phaidon London- Glocomms
Publiée le
AWS Cloud
DBT
Git
6 mois
400-550 €
Paris, France
Piloter l'ingénierie des données de bout en bout sur Snowflake, dbt et SQL, de l'ingestion et la transformation des données sources jusqu'aux jeux de données analytiques prêts pour la production. Concevoir, implémenter et maintenir des modèles de données évolutifs et alignés sur les besoins métiers, en garantissant la cohérence, la réutilisabilité et la performance pour de multiples cas d'utilisation d'analyse et de reporting. Assurer des normes d'ingénierie élevées, notamment en matière de qualité du code, de tests, de documentation et de revues de code par les pairs, tout en promouvant activement les bonnes pratiques au sein de l'équipe. Fournir des jeux de données optimisés pour Tableau et compatibles avec la BI, permettant un reporting en libre-service fiable et des informations exploitables pour les parties prenantes. Agir en tant que contributeur technique senior, en assumant progressivement des responsabilités de leadership technique, notamment : - Encadrer et soutenir les ingénieurs de données juniors et intermédiaires. - Conseiller sur les décisions relatives à l'architecture et à la modélisation des données. - Être le référent technique pour les initiatives axées sur l'analyse.
Offre d'emploi
Chef de Projet IT – Domaine Bancaire (Data & Lutte contre la fraude) H/F
TOHTEM IT
Publiée le
40k-45k €
Toulouse, Occitanie
Dans un environnement bancaire exigeant et fortement réglementé, nous recherchons un(e) Chef de Projet IT / Delivery Manager pour piloter des projets stratégiques liés à la donnée et à la lutte contre la fraude . Vous interviendrez sur des projets à forte complexité technique , dans un cadre de gouvernance de sécurité poussée , avec des enjeux métiers critiques. Vos missions Piloter des projets Build & Run dans un environnement bancaire Construire et maintenir les plannings projet , lots, jalons et dépendances Coordonner l’ensemble des parties prenantes (équipes IT, data, sécurité, métiers) Garantir la qualité de la delivery , le respect des délais et des engagements Gérer les risques, alertes et arbitrages dans un contexte à forte criticité S’assurer du respect des exigences de sécurité , de conformité et de gouvernance Suivre les indicateurs de performance, reporting et comités projet Accompagner les équipes dans un environnement challengeant et contraint Environnement fonctionnel & technique Secteur : Banque / Services financiers Domaines : Data, lutte contre la fraude, SI critiques Mode : Build & Run Sécurité : Gouvernance sécurité avancée, contraintes réglementaires fortes Méthodologie : Agile / cycle en V selon les projets
Offre d'emploi
Développeur PHP Senior
RIDCHA DATA
Publiée le
Back-end
MySQL
PHP
1 an
40k-45k €
320-410 €
Nantes, Pays de la Loire
Contexte Notre client est une fintech créée en 2014, spécialisée dans les services financiers pour les professionnels, TPE-PME et associations. La société propose un compte professionnel complet avec cartes Mastercard, ainsi qu’une plateforme digitale permettant de gérer la trésorerie, créer des factures, encaisser des clients ou automatiser la comptabilité. Depuis 2023, l’entreprise se concentre sur les grandes associations dans le secteur social et médico-social. Missions principales En tant que Développeur PHP Senior (Back-End) , vous participerez au développement et à la maintenance des fonctionnalités existantes et nouvelles. Vos missions incluront : Rédaction de documents d’analyse technique. Développement de nouvelles fonctionnalités sur le back-end. Maintenance et support sur la base de code existante (souvent legacy). Réalisation de tests pour garantir la conformité aux spécifications fonctionnelles. Rédaction de documentation technique sur le nouveau code et sur le code existant.
Mission freelance
Data Product Owner (h/f)
emagine Consulting SARL
Publiée le
1 mois
111 €
92000, Nanterre, Île-de-France
emagine recherche pour un de ses clients un Data Product Owner . Vos missions : Contribuer à la définition de la vision produit Décliner cette vision en roadmap priorisée et alignée avec les enjeux business. Pilotage de la performance produit. Gestion des stakeholders. Amélioration continue et cadre Data. Participer aux rituels agiles (refinement, sprint planning, review, rétro). Favoriser une culture produit orientée valeur et impact. Votre profil: Expérience confirmée (minimum 5 ans) en tant que Product Owner. Anglais courant Connaissance de Tableau software. Environnement data, BI ou intelligence artificielle, idéalement en contexte agile. Bonne compréhension des enjeux data en environnement complexe : modélisation, qualité des données (accuracy, completeness, etc.), usages et valorisation. Maîtrise des méthodologies agiles, notamment SCRUM. Certification de Product Owner Détails supplémentaires: Ce poste offre l'opportunité de travailler dans un environnement dynamique, orienté données, convenant aux candidats passionnés par la gestion de produit en contexte agile.
Mission freelance
Data Steward
Signe +
Publiée le
BI
12 mois
400-420 €
Mérignac, Nouvelle-Aquitaine
Dans le cadre d'un programme de transformation numérique, le Data Steward interviendra sur la refonte d'un SI documentaire dans le secteur de l'énergie ( Socle GED ). Missions principales Structuration et maintien du Modèle d'Organisation des Métadonnées (MOM) Construction des glossaires métiers documentaires et modèles de données Pilotage de la qualité des données et des indicateurs associés Mise en place des lignages de données Appui à la préparation à la migration du socle GED Identification et cadrage de cas d'usages Data / IA documentaires (OCR, NLP, GenAI) Profil recherché Intitulé : Data Steward Expérience : 5 à 7 ans Compétences techniques requises Data Stewardship et gouvernance de la donnée (confirmé) Modélisation de données et maîtrise du SQL Data Management, MOM Outils : JIRA, Confluence, MEGA HOPEX, Microsoft Power BI
Mission freelance
Scrum master Data
Tritux France
Publiée le
Agile Scrum
Azure Data Factory
Azure DevOps
3 mois
400-550 €
Paris, France
POSTE: SCRUM MASTER DATA SENIOR Objectifs de la mission : · Uniformiser les pratiques Agile sur l’ensemble du périmètre · Stabiliser et sécuriser les cycles de sprint · Améliorer la qualité du backlog et des User Stories · Structurer les processus de production, d’arbitrage et de communication · Mettre en place un pilotage clair : capacité, consommés, KPIs, roadmap · Assurer la synchronisation et la gestion des dépendances inter squads Périmètre d’intervention · Animation des rituels : daily, refinements, poker plannings, sprint plannings, reviews, rétros · Vision prévisionnelle de la capacité et du backlog sur les prochains sprints · Construction d’une roadmap consolidée · Amélioration de la qualité des US : découpage, prérequis, critères d’acceptation · Mise en place / harmonisation de la Definition of Ready et Definition of Done · Alignement des pratiques entre les équipes · Production des release notes et mise en place des KPIs de delivery · Standardisation des checklists de livraison / reprise de données (UAT, OAT, PRD) · Analyse de charge, détection d’anomalies, gestion proactive des risques · Mise en place d’un reporting clair et régulier vers la Data Factory Livrables types attendus · Cadre Agile documenté et harmonisé · Processus formalisés (production, arbitrage, communication) · Roadmap + capacité prévisionnelle · Tableau de bord CAF / consos / KPIs · Release notes pour chaque MEP · Synthèse et présentation aux responsables Data Profil recherché : · 8+ ans d’expérience en Scrum Mastery dans des contextes complexes et exigeants · Expertise en delivery Data · Solide expérience en coordination multi‑prestataires · Forte capacité de structuration, formalisation et communication · Leadership non hiérarchique, autonomie, rigueur, assertivité · Culture du delivery prévisible et du continuous improvement · Bonne connaissance de Jira & Azure DevOps
Offre d'emploi
Ingénieur Systèmes & Réseaux - Référent Sécurité Réseau (F/H)
Experis France
Publiée le
40k-50k €
Angers, Pays de la Loire
Ingénieur Systèmes & Réseaux - Référent Sécurité Réseau (F/H) - Angers Nous recherchons un·e Ingénieur·e Systèmes & Réseaux - Référent·e Sécurité Réseau (F/H) pour intervenir chez l'un de nos clients, dans un contexte à forts enjeux cybersécurité. 🚀 Dans le cadre de cette mission stratégique, vous occuperez un rôle clé de référent technique réseau , avec une forte autonomie et une véritable responsabilité sur des sujets structurants de sécurité des infrastructures. 🔐 Vos missions principales Piloter des POC puis des déploiements de solutions NDR Concevoir et mettre en œuvre des modèles de sécurité réseau (NAC, 802.1X, Wi‑Fi) Renforcer et durcir les infrastructures réseau (switchs, protocoles, architectures) Assurer l' intégration des solutions au SOC et accompagner les équipes jusqu'au RUN Structurer les actions, coordonner les différents acteurs, suivre l'avancement et alerter sur les risques ✅ Vous n'êtes pas chef·fe de projet PMO, mais vous garantissez l'aboutissement opérationnel des sujets, de bout en bout, avec une forte exigence de qualité.
Offre d'emploi
Développeur web / Data (H/F)
ADSearch
Publiée le
50k-60k €
Pantin, Île-de-France
Développeur web / data H/F – CDD – Pantin – Développement, Data, SQL La division IT de notre bureau Paris recherche pour son client, un organisme, un Développeur web / data (H/F) à Paris. Rattaché au responsable du département études et développement de la DSI, vous prenez en charge l’analyse, le traitement et la valorisation des données dans le cadre des missions qui vous sont confiées. Vous participez à la conception, au développement et à l’optimisation des applications nécessaires afin d’assurer la fiabilité et la performance des flux de données. VOS MISSIONS Vous serez en charge des missions suivantes : Collecter, nettoyer et structurer des données issues de sources variées (bases de données, API, fichiers externes). Réaliser des analyses pour répondre aux besoins métiers et formuler des recommandations basées sur les données. Concevoir des rapports et dashboards interactifs à l’aide d’outils de Business Intelligence. Gérer, maintenir et optimiser des bases de données
Mission freelance
CONSULTANT MOE BI ORIENTE DATA
PROPULSE IT
Publiée le
BI
MOE
24 mois
275-550 €
Nanterre, Île-de-France
Consultant MOE BI / Domaine Socle Data Expérience ciblée : 3-4 ans minimum Compétences impératives - Compétences techniques : Conception / Modélisation BI (Flux & modèles de données) Expériences significatives sur la mise en place complète de projets BI Data ETL (conception, modélisation, réalisation) et sur le RUN en environnement Full Microsoft (SSIS, SQL Server : Modélisation, procédures stockées, optimisation SQL, etc.). Connaissance et mise en œuvre de la suite Microsoft AZURE DEVOPS (Git, Board Agile, Pipeline de déploiement CI/CD). Anglais professionnel courant - Compétences organisationnelles Expérience significative sur l'implémentation de projets BI d'intégration de données (datawarehouse & datamarts) Avoir la capacité de mener des mini-projets en autonomie tout en étant accompagné par un(e) maitrise d'ouvrage et/ou le métier. Capacité à s'organiser, à s'adapter sur les priorités, à synthétiser l'état d'avancement de ses activités et à remonter les alertes si besoin. - Compétence(s) appréciée(s) : Outils de reporting BI : TABLEAU, IBM Cognos, Power BI Habitué aux relations avec des partenaires offshore Certifications sur la suite MSBI - Descriptif détaillé de la mission : Assurer le RUN des applications existantes (ETL, Bases de données, support niveau 3) Comprendre les enjeux métier, problématiques à résoudre et opportunités à concrétiser. Echanger et challenger les besoins métiers avec les équipes AMOA BI en tenant compte des contraintes techniques. Proposer, concevoir et spécifier des solutions techniques viables, évolutives et tenant compte de l'existant. Rédaction des documents techniques (spécification techniques, document d'exploitation…etc). Conseiller, proposer des axes d'amélioration, alerter si besoin. - Environnement technique de la mission : Socle Data : SSIS, SQLServer (2016), procédures stockées, Azure DevOps (Git, Board Agile, Pipeline de déploiement CI/CD) Reporting : COGNOS BI 10.2 et 11 & Tableau Date début de mission : ASAP Durée estimée de la mission : longue - 3 mois (renouvelables)
Mission freelance
INGENIEUR RESEAU DATACENTER
Groupe Aptenia
Publiée le
Data Center
6 mois
450 €
Île-de-France, France
Vos missions principales : Concevoir et faire évoluer les architectures réseau datacenter Apporter un support technique de haut niveau sur : Le design Le déploiement L’exploitation des infrastructures Intervenir sur des incidents complexes de niveau 3 (N3) Optimiser les performances réseau et proposer des axes d’amélioration continue Participer à l’intégration de nouvelles technologies réseau Collaborer étroitement avec les équipes d’ingénierie et d’exploitation Assurer l’interface avec les experts d’autres domaines (sécurité, systèmes, cloud…) Encadrer et faire monter en compétence les profils plus juniors Maintenir à jour la documentation technique Réaliser une veille technologique active sur le périmètre
Offre d'emploi
Architect Data
The Yellow Office
Publiée le
Architecture
AWS Cloud
Microsoft SQL Server
6 mois
Toulouse, Occitanie
Data Architect | AWS / Snowflake | Toulouse | Freelance Nous recherchons un Data Architect expérimenté pour intervenir sur des sujets d’architecture, de migration et de structuration de plateformes data dans un environnement international. Informations mission • Localisation : Toulouse - 2 jours de TT • Contrat : Freelance • Démarrage : ASAP • Durée : Mission longue • TJM : Selon expérience • Expérience : 10 à 15 ans minimum • Anglais courant requis Votre rôle • Concevoir et faire évoluer l’architecture data globale • Définir les flux d’ingestion, de transformation et de stockage • Structurer les modèles de données et les usages analytiques • Accompagner les projets de migration (legacy vers cloud) • Garantir la performance, la sécurité et la gouvernance des données • Challenger les choix techniques et améliorer l’existant Environnement technique • AWS (S3, Lambda, RDS, Redshift…) • Snowflake • SQL / modélisation de données • Python • Stack BI (Power BI, SQL Server, SSIS, SSAS…) Profil recherché • Forte expérience en architecture data et transformation cloud • Maîtrise des environnements AWS et Snowflake • Capacité à intervenir sur des sujets complexes et structurants • Vision globale data (flux, modélisation, gouvernance) • À l’aise dans des environnements internationaux Merci de me faire parvenir votre CV à
Offre d'emploi
DEVELOPPEUR(SE) BACK .NET - Clean Architecture - Confirmé (4-10 ans) F/H
SMARTPOINT
Publiée le
.NET
.NET CORE
Data cleaning
12 mois
40k-45k €
100 €
Châtillon, Île-de-France
ANALYSE : Participe à l'analyse fonctionnelle détaillée des besoins utilisateurs et peut être sollicité pour des ateliers de définition des spécifications générales Étudie les opportunités et la faisabilité technologique de l'application, réalise l'analyse technique, l'étude détaillée et contribue à l'estimation des charges CONCEPTION ET DÉVELOPPEMENT : Contribue au design du logiciel et des frameworks utilisés dans le cadre du projet Adapte et applique les paramètres techniques des progiciels ou des middlewares Réalise le prototypage Analyse et développe les composants en utilisant les langages appropriés Participe à la structuration des Bases de Données Participe à la revue croisée des développements de ses pairs Initialise le dossier d'exploitation Assemble les composants unitaires dans un package applicatif cohérent destiné au déploiement de la solution et l'intègre à la gestion de configuration Documente les applications pour les développements ultérieurs et la Mise en Production (MEP) Harmonise et industrialise l'ensemble des composants et applications Utilise les composants logiciels réutilisables et met à jour la nomenclature RECETTE UNITAIRE ET TESTS D'INTÉGRATION : Responsable des tests unitaires : élaboration des jeux d'essais et réalisation Teste, identifie et traite les dysfonctionnements éventuels du logiciel développé Vérifie la conformité de l'ouvrage avec la demande formulée Contribue à la préparation et à la réalisation des tests d'intégration Analyse les résultats et rédige le rapport de tests MAINTENANCE : Réalise les développements nécessaires à la maintenance corrective et évolutive Participe à l'analyse et à la résolution des incidents de production
Mission freelance
Data Analyst Professional
Codezys
Publiée le
Data visualisation
Python
SQL
12 mois
310-400 €
Lyon, Auvergne-Rhône-Alpes
Contexte de la mission Le projet est réalisé pour le compte d’un client resté anonyme, permettant de préserver la confidentialité de ses activités et de ses données stratégiques. La mission s’inscrit dans un environnement où l’analyse précise des données joue un rôle clé pour orienter la prise de décision et optimiser les processus internes. Le candidat doit disposer d’une expérience professionnelle comprise entre 2 et 5 ans, ce qui garantit une maîtrise suffisante des techniques d’analyse tout en étant capable de s’adapter rapidement aux spécificités du projet. Objectifs et livrables Collecte de données : Recueillir des données provenant de diverses sources, telles que bases de données internes, fichiers Excel, API tierces ou autres systèmes d’information. Assurer la qualité et l’intégrité des données dès la phase de collecte pour faciliter leur utilisation ultérieure. Visualisation et analyse : Développer des tableaux de bord interactifs et des visualisations dynamiques à l’aide d’outils comme Power BI, Tableau ou QlikView. Effectuer des analyses exploratoires pour détecter des tendances, anomalies ou opportunités spécifiques, conformément aux enjeux fixés par l’entreprise. Extraction et structuration des données : Mettre en œuvre des techniques avancées de traitement de données pour extraire des informations pertinentes. Organiser ces données sous des formats structurés, tels que des bases de données relationnelles ou des modèles multidimensionnels, en utilisant des langages comme SQL ou Python. Construction de modèles et rapports : Développer des modèles analytiques robustes, notamment des modèles prédictifs ou descriptifs, adaptés aux besoins métiers. Produire des rapports standardisés et des outils autonomes destinés à une communauté d’utilisateurs élargie, facilitant la prise de décision collective. Ce projet exige une communication fluide avec les parties prenantes, une capacité à documenter clairement le processus de traitement des données, ainsi qu’une vigilance constante pour garantir la pertinence et la qualité des livrables, dans le respect des délais impartis.
Offre d'emploi
DATA ENGINEER
VADEMI
Publiée le
Apache Spark
Azure
Databricks
1 an
Châtillon, Île-de-France
Nous recherchons un Data Engineer confirmé / sénior disposant d’une forte expertise sur Azure, Databricks, Spark et SQL. · Analyse des traitements existants dans le cadre de projets de migration · Conception et construction de pipelines de données pour transformer, enrichir et traiter les données au sein du Data Lake · Développement de notebooks Databricks pour des traitements avancés de données · Mise en œuvre de solutions de Cloud Data Warehousing (optimisation des traitements et tuning des requêtes SQL) · Rédaction de la documentation technique (Dossiers d’Analyse Technique, release delivery notes, etc.) · Réalisation de revues de code dans une logique de qualité et de bonnes pratiques · Conception et exécution de tests unitaires · Livraison des développements dans un environnement DevOps intégrant des processus CI/CD et les outils associés 3 - Compétences techniques requises · Expérience Data minimum 5 ans · Azure minimum 3 ans · Databricks minimum 5 ans · Spark minimum 5 ans · Python minimum 5 ans · SQL minimum 5 ans · Maitrise de CI/CD, Azure DevOps minimum 3 ans · Connaissance des outils Agile (JIRA) et ayant déjà travaillé en mode Agile minimum 1 an
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
5556 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois