Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 1 661 résultats.
Freelance
CDI

Offre d'emploi
Data Manager / Coordinateur Data Governance

Publiée le
Data governance

1 an
40k-45k €
220-540 €
Paris, France
Télétravail partiel
Descriptif du poste La mission au sein du Data office d'une institution financière a pour objectif d'accompagner la transformation autour : de la mise en place des Data Domain Manager (DDM) au des équipes Métiers, Fonctions et des tribes (agile) de la démarche des Data products et des Vues organisées métiers pour exposer et consommer la data. Cette mission est là pour accélérer le déploiement des rôles autour de la Data du producteur au consommateur.
CDI

Offre d'emploi
Data Engineer Snowflake - Lyon

Publiée le
Snowflake

40k-60k €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Ton quotidien chez Komeet sera rythmé par : - Animation des ateliers afin d’étudier et cadrer les besoins clients en collaboration avec le Data Platform Architect - Analyser et conseiller pour améliorer l’efficacité des solutions Snowflake chez nos clients. - Participer à la rédaction des dossiers d’architecture et des spécifications techniques. - Mettre en œuvre des stratégies d’exploitation de la plateforme Snowflake. - Développer et superviser des flux d’intégration (batch ou streaming) pour des volumes importants de données. - Surveiller les jobs ETL/ELT, logs et alertes, et optimiser les temps de traitement. - Administrer Snowflake chez ton client (gestion des rôles, permissions, warehouses). - Optimiser les requêtes SQL (à l’aide du Query Profile). - Contrôler la qualité des données (Data Quality) et la consommation des ressources (FinOps). - Tester, valider et documenter les développements. - Réaliser des audits et projets d’optimisation.
Freelance

Mission freelance
Data Engineer Senior

Publiée le
SAS

6 mois
Bruxelles, Bruxelles-Capitale, Belgique
Télétravail partiel
Nous recherchons un profil Senior Data Engineer très opérationnel, disposant d’une bonne compréhension du métier bancaire. Notre mission principale est de fournir des solutions digitales orientées métier (tableaux de bord, reporting ad hoc) pour les utilisateurs de la banque Corporate (Sales, Métiers, Management, etc.). Après la phase de staging, les données nécessaires sont fédérées dans un environnement de préparation destiné à alimenter les différentes solutions de visualisation via des flux Alteryx. Après avoir acquis une vue complète des systèmes existants, des flux de données et des objectifs métier de l’équipe, le Data Engineer Senior devra : - Améliorer et rationaliser les workflows Alteryx existants en appliquant les principes de clean code, en centralisant la logique, en supprimant les redondances et en améliorant la maintenabilité à long terme. -Mettre en œuvre ces améliorations de manière progressive à travers les environnements, en validant les impacts, en collaborant avec les utilisateurs et en garantissant l’absence de régression sur les tableaux de bord en aval. Description de la fonction : Les principaux axes d’amélioration porteront sur : -Intégration et qualité des données : Collaborer avec l’équipe Data Engineering pour ingérer les données provenant de différents systèmes, en assurant une intégration rapide des nouvelles sources avec un haut niveau de fiabilité et d’exactitude. -Simplification de la conception (design) : Simplifier les flux de données et les processus de conception existants afin d’améliorer l’efficacité, réduire la complexité et optimiser les performances globales du système. - Nettoyage (cleanup) : Identifier les jeux de données obsolètes, les fichiers inutilisés et les workflows abandonnés ; les refactoriser ou les supprimer et contribuer à l’harmonisation des règles d’historisation et de rétention afin de maintenir un paysage data propre et durable. -Conception de macros et de composants : Concevoir et maintenir des macros Alteryx réutilisables pour centraliser les schémas de transformation récurrents, garantir une logique cohérente entre les workflows et réduire la dette technique, tout en documentant et validant les changements avec les utilisateurs impactés. -Harmonisation des processus legacy : Rationaliser la coexistence SAS et Alteryx en supprimant les composants SAS obsolètes et en migrant les transformations utiles vers une logique Alteryx cohérente et maintenable. Réduire les duplications et la complexité multi-plateformes. -Opérations de release : Soutenir et améliorer les processus de déploiement et de mise en production en augmentant l’automatisation et les contrôles qualité afin de rendre les déploiements plus sûrs, plus rapides et plus prévisibles. -Documentation : Appliquer et renforcer les standards de documentation des jeux de données et des workflows, en assurant un nommage cohérent et des descriptions claires pour une compréhension partagée, une découverte facile et une utilisation efficace par tous les membres de l’équipe. -Monitoring : Mettre en place et maintenir des systèmes de surveillance robustes pour suivre la qualité des données et les performances, permettant une identification et une résolution rapides des incidents. -Gestion multi-instances : Superviser la gestion des batchs quotidiens afin d’assurer la cohérence, la synchronisation et une utilisation efficace des ressources à travers les différents environnements.
Freelance
CDI

Offre d'emploi
Data analyst confirmé marketing client

Publiée le
PowerBI
SQL

12 mois
40k-45k €
350-400 €
Lille, Hauts-de-France
Télétravail partiel
Contexte de la mission : Dans le cadre du renforcement de notre département IT Data, nous recherchons un(e) Data Analyst Confirmé(e) pour accompagner les équipes Marketing, CRM et Digital dans l'exploitation et l'analyse des données clients. L'objectif : améliorer la connaissance client, affiner la segmentation, et optimiser les actions marketing grâce à une analyse fine des comportements et parcours clients. Activités et responsabilités de la mission - Analyser les données clients pour identifier des comportements, profils et tendances de consommation. - Construire et maintenir des segmentation clients pertinentes (RFM, appétence, valeur client, cycle de vie.). - Réaliser des analyses ad hoc pour répondre aux besoins des équipes Marketing, CRM, Digital, Produit. - Mettre en place des tableaux de bord Power BI pour suivre les KPIs liés à l'acquisition, l'activation, la fidélisation, et la rétention client. - Collaborer avec les équipes Data Engineering pour la préparation et modélisation des données dans l'environnement Snowflake. - Identifier des opportunités business via des analyses prédictives ou des insights data-driven. - Contribuer à la qualité et cohérence des données clients, en lien avec les équipes IT et Data Governance. Résultats attendus - Mise en place de profils clients exploitables par les équipes métier. - Amélioration de la performance des campagnes marketing grâce à une segmentation plus fine. - Accroissement de la connaissance client et des insights comportementaux. - Mise en place de tableaux de bord dynamiques et accessibles, facilitant la prise de décision. Démarrage : rapide Localisation : métropolie lilloise (1j de télétravail par semaine non négociable)
Freelance
CDI

Offre d'emploi
Support Applicatif

Publiée le
Big Data
DevOps

1 an
40k-45k €
400-500 €
Île-de-France, France
Télétravail partiel
Descriptif du poste Au sein du support applicative dédié à la ferme de calcul et la génération des rapports de PNL & Risk pour les produits dérivés (EQD), la mission consiste à contribuer en plus d'un travail de support de production applicatif, au suivi et à l'amélioration de l'utilisation des applications via un travail sur des données de monitoring et applicatives dans un environnement Big Data. Ratio run/projet: 50%/50% Responsabilités Assurance du bon fonctionnement des applications Monitoring de la grille de calcul Contribution à la mise en place du DEVOPS
Freelance
CDI

Offre d'emploi
Chef de Projet Data / Data Project Manager

Publiée le
Data governance
Data management

1 an
40k-45k €
400-800 €
Paris, France
Télétravail partiel
Description de la mission La mission est au sein du Data Office d'une organisation majeure. Elle a pour objectif de cadrer le stream Data de la plateforme Marketing pour le plan stratégique d'accélération digitale : Besoins en données, modèle de données. Règles d'exposition, de stockage des données. Adhérence avec les uses cases Métiers et les autres chantiers de l'accélération digitale. Planning de construction du stream Data. Organisation du stream data.
Offre premium
CDI
Freelance

Offre d'emploi
Data Analyst – Power BI / Business Objects (Junior / Confirmé) – CDI

Publiée le
Business Object
C#
Finance

3 jours
Île-de-France, France
Télétravail partiel
KS Consulting recrute un(e) Data Analyst BI disposant de 1 à 3 ans d’expérience pour intervenir chez un acteur majeur du secteur bancaire . Vous intégrerez une équipe Data / BI et interviendrez sur des sujets de reporting, d’analyse métier et de maintenance des solutions décisionnelles , dans un environnement structuré et exigeant. Missions principales Analyse et compréhension des besoins métiers (finance, banque, reporting réglementaire) Conception, développement et évolution de reportings et dashboards sous Power BI et Business Objects Participation à la maintenance et à l’optimisation des solutions BI existantes Exploitation et interrogation des données via SQL Contribution à la qualité, la fiabilité et la cohérence des données Collaboration avec les équipes métiers et techniques
Freelance

Mission freelance
Consultant Data Snowflake SQL

Publiée le
Snowflake
SQL

12 mois
Paris, France
Télétravail partiel
Analyse de la données Le consultant freelance accompagnera la mise en place, l’optimisation et l’automatisation des traitements de données sur Snowflake et Databricks, ainsi que le développement de scripts pour améliorer les processus internes. Missions principales Analyse de la donnée Analyser les besoins métiers et produire des jeux de données fiables et pertinents. Concevoir, optimiser et maintenir des requêtes SQL et objets Snowflake (tables, vues, pipelines). Développer des transformations et workflows sur Databricks Créer et maintenir des scripts d’automatisation (Python, PowerShell, .NET selon besoins). Documenter les traitements et assurer un niveau de qualité élevé des données. Collaborer avec les équipes internes pour faciliter l’utilisation et la compréhension des datasets.
Freelance

Mission freelance
Data Engineer (GCP / BigQuery / dbt) – Secteur Assurance

Publiée le
BigQuery
DBT
Google Cloud Platform (GCP)

1 an
Paris, France
Télétravail partiel
Contexte de la mission Dans un grand groupe du secteur de l’assurance , la direction IT Data renforce sa plateforme data cloud afin d’améliorer le pilotage de l’activité, la connaissance client et les usages analytiques internes. La mission s’inscrit dans un contexte de montée en maturité data, avec des enjeux forts de structuration, fiabilisation et exploitation des données métiers (assurance dommages, santé, prévoyance, finance). Missions principales Concevoir et développer des pipelines de données sur GCP Modéliser les données analytiques sous BigQuery à destination du pilotage et du reporting Développer et maintenir les transformations de données via dbt Participer aux phases d’analyse des besoins métiers assurance Contribuer à la conception des modèles de données et des flux Travailler en collaboration avec les équipes BI (Tableau) et Data Science (Dataiku) Garantir la qualité, la cohérence et la fiabilité des données exposées Stack technique obligatoire Google Cloud Platform (GCP) BigQuery dbt SQL avancé Profil recherché Data Engineer confirmé à senior Capacité à intervenir sur l’analyse et la conception data , pas uniquement le développement Expérience sur des environnements data cloud structurés Bonne compréhension des enjeux métiers dans un contexte assurance ou grand compte
CDI

Offre d'emploi
Ingénieur data - Vannes

Publiée le
Big Data
Hadoop

28k-42k €
Vannes, Bretagne
Missions principales Contribuer au développement et à l’industrialisation des traitements Big Data. Intervenir en transverse auprès des différentes équipes (IT et métiers). Challenger les besoins métiers et proposer des solutions techniques pertinentes. Participer à l’amélioration continue des performances et de la qualité des données. Environnement technique Environnement technique : SPARK, CLOUDERA, HADOOP, Java, Hive Profil recherché – Hard & Soft Skills 5 à 8 ans d’expérience en environnement Big Data (Spark / Hadoop / Hive / Java). Solide culture data et environnement distribués (type Cloudera). Excellente capacité de prise de recul et de compréhension des enjeux métiers. Aisance relationnelle et posture transverse : capacité à challenger et à accompagner les équipes métiers. Présence à Vannes 3 jours par semaine - Non négociable
Freelance

Mission freelance
Data Steward

Publiée le
BigQuery
Data governance
RGPD

3 ans
Paris, France
Télétravail partiel
Nous recherchons un Data Steward expérimenté , opérationnel et proactif, capable de prendre en main la gouvernance data et d’être le lien privilégié entre les métiers et les équipes Data. Nous pouvons valider votre intégration la semaine prochaine, pour un démarrage en Février ✅ Déployer la gouvernance data : qualité, métadonnées, gestion des accès. ✅ Assurer la qualité des données : définition des règles, contrôles, suivi des anomalies, plans de remédiation. ✅ Gérer les métadonnées : glossaire métier, cohérence, respect des standards et bonnes pratiques. ✅ Garantir les accès & la conformité : sécurité, RGPD, gestion des données sensibles, coordination avec les équipes. ✅ Animer la gouvernance : communication, accompagnement, support aux Data Owners & Data Champions. ✅ Piloter le domaine data : suivi des Data Sets, conformité, documentation, gouvernance quotidienne.
Freelance

Mission freelance
Azure Data FinOps Technical Specialist (snowflake, DataBricks)

Publiée le
FinOps
Snowflake

6 mois
La Défense, Île-de-France
Télétravail partiel
Dans ce cadre, une équipe FinOps a été mise en place afin de garantir la maîtrise des coûts Cloud , le respect des budgets et la mise en œuvre d’une gouvernance financière Cloud structurée . La mission s’inscrit au cœur de ce programme stratégique, avec la construction d’une FinOps Tower destinée à centraliser les analyses financières, le monitoring des coûts et les mécanismes d’alerting. Objectifs de la mission Assurer la maîtrise financière des environnements Cloud Azure Mettre en place une plateforme d’analyse FinOps robuste et industrialisée Détecter et prévenir les dérives budgétaires en amont Accompagner les équipes projets sur les bonnes pratiques FinOps Rôle & Responsabilités Mise en place d’ analyses FinOps sur les données de consommation Azure Conception et exploitation d’une sandbox Snowflake pour l’analyse des coûts Cloud Industrialisation des traitements en lien avec l’équipe Data Platform Intégration des données FinOps dans l’écosystème Finance / IT / Applicatif Définition et implémentation de règles d’alerting pour la détection des risques financiers Réalisation de POC pour l’intégration de solutions SaaS (Snowflake, Databricks, GitHub, PowerBI, etc.) Analyse de la consommation des ressources d’infrastructure afin d’assurer la juste utilisation des services Cloud Mise en place de contrôles automatisés FinOps (non-conformités, surconsommation, anomalies) Activités RUN FinOps Surveillance continue des coûts Cloud et gestion des alertes Support FinOps aux équipes projets Définition et suivi des plans de remédiation Gestion des réservations Cloud et identification d’opportunités d’optimisation Accompagnement des projets en phase amont (onboarding FinOps, revues d’architecture, validation budgétaire) Maintenance et enrichissement du reporting FinOps Environnement Technique Cloud : Microsoft Azure Data / FinOps : Snowflake, SQL Restitution & BI : PowerBI Data / SaaS : Databricks, GitHub Scripting / Automation : Python, PowerShell IaC : Terraform Monitoring & requêtage : KQL Livrables clés FinOps Tower opérationnelle (analyses, showback, alerting) Tableaux de bord FinOps à destination des équipes projets Règles d’alerting budgétaire automatisées POCs industrialisés et mis en production Reporting coûts et recommandations d’optimisation Profil de la mission Mission freelance longue durée Forte composante Cloud / Data / FinOps Environnement international – anglais professionnel Forte interaction avec équipes IT, Data et Finance
Freelance

Mission freelance
INGÉNIEUR(E) RÉSEAU & SÉCURITÉ CONFIRMÉ(E)

Publiée le
Ansible
Azure
Check Point

3 mois
320-710 €
Le Havre, Normandie
Télétravail partiel
MISSIONS PRINCIPALES 1. Audit et consolidation de l'existant (prioritaire) Réaliser un audit complet de l'architecture réseau et sécurité : cartographie des flux, segmentation réseau, politique de sécurité, configuration F5 et Check Point Valider et mettre à jour les documentations techniques, schémas de flux applicatifs et matrices de filtrage Réviser et proposer des amélioriations des configurations load balancing F5 (LTM, GTM, ASM/WAF) : VIPs, pools, health checks, SSL o]loading, iRules Réviser et proposer des amélioriations des configurations firewalls Check Point : règles de filtrage, NAT/PAT, VPN site-to-site et remote access, haute disponibilité ClusterXL Analyser les configurations BGP (annonces, policies, route-maps, geo-clusters DRP) et connectivités Azure ExpressRoute Identifier les vulnérabilités, points de fragilité et non-conformités, formuler des recommandations correctives priorisées 2. Transfert de compétences et accompagnement des équipes (prioritaire) Travailler en étroite collaboration avec les responsables d'infrastructure et l'équipe sécurité pour le transfert de connaissances Standardiser et documenter les configurations réseau/sécurité : runbooks MCO (Maintien en Condition Opérationnelle) / MCS (Maintien en Condition de Sécurité), procédures d'exploitation, guides de dépannage Former les équipes internes sur les bonnes pratiques d'exploitation F5 et Check Point 3. Accompagnement transformation microservices Contribuer à la définition de l'architecture réseau et sécurité pour la plateforme microservices cible Concevoir les patterns de sécurisation : segmentation réseau (East-West), service mesh (mTLS), ingress/egress, micro-segmentation Définir les politiques de filtrage, stratégies de load balancing applicatif, WAF et protection DDoS pour les services conteneurisés Accompagner les architectes sur les choix technologiques (ingress controllers, service mesh, network policies Kubernetes) Intégrer les principes de sécurité Zero Trust et defense-in-depth dans l'architecture microservices COMPÉTENCES TECHNIQUES REQUISES Obligatoires F5 BIG-IP : maîtrise confirmée LTM (load balancing), GTM (GSLB), ASM/Advanced WAF, configuration avancée VIPs/pools/nodes, SSL o]loading, iRules/iApps, haute disponibilité et monitoring Check Point : expertise firewalls (R80.x/R81.x), SmartConsole, règles de filtrage avancées, NAT/PAT, VPN (site-to-site, remote access), ClusterXL, logs et troubleshooting Routage et switching : LAN/WAN, protocoles BGP, OSPF, MPLS, segmentation VLAN/VRF, notions de SD-WAN, Azure networking : ExpressRoute, VNet, NSG, Azure Firewall, Application Gateway, Tra]ic Manager, Azure Monitor Architecture DRP : geo-clusters, réplication Appréciées Firewalls Fortinet, Palo Alto Network Load balancers alternatifs : Nginx, HAProxy, cloud-native ingress controllers Sécurité microservices : service mesh (Istio, Linkerd), mTLS, network policies Kubernetes, Zero Trust Outils d'automatisation réseau : Ansible, Terraform pour configurations réseau/sécurité CERTIFICATIONS SOUHAITÉES F5 Certified BIG-IP Administrator ou F5 Certified Technology Specialist Check Point Certified Security Administrator (CCSA) ou Check Point Certified Security Expert (CCSE) Cisco CCNP Enterprise ou équivalent Microsoft Certified : Azure Network Engineer Associate (AZ-700) ITIL Foundation
Freelance
CDD

Offre d'emploi
Data Engineer Microsoft Fabric (Azure Cloud) - Bruxelles

Publiée le
BI
Data Lake
Microsoft Fabric

9 mois
40k-45k €
540-650 €
Bruxelles, Bruxelles-Capitale, Belgique
Télétravail partiel
Dans le cadre de la modernisation de l'entrepôt de données de notre client , nous recherchons un Data Engineer expérimenté pour accompagner la migration vers Microsoft Azure et l’adoption de Microsoft Fabric et Power BI . Mission : Concevoir et développer des flux ETL dans Microsoft Fabric (Dataflows Gen2, Pipelines, Notebooks PySpark). Modéliser les données pour le BI selon Kimball / Snowflake (tables de faits, dimensions, agrégats). Assurer la qualité, fiabilité et performance des flux de données et mettre en place le monitoring. Automatiser les déploiements via CI/CD (Azure DevOps ou GitHub). Collaborer avec l’équipe ICT pour assurer la cohérence et la gouvernance des systèmes.
Freelance

Mission freelance
Lead Data Quality Analyst

Publiée le
Dataiku
Qlik
ServiceNow

12 mois
600-700 €
Paris, France
Télétravail partiel
En tant que Lead Data Quality Analyst , vous êtes le garant de la fiabilité et de l'intégrité de nos actifs data. Votre rôle central consiste à définir, mesurer et mettre en œuvre les stratégies et processus assurant une haute qualité des données, indispensable à la prise de décision et au succès de nos initiatives métier. Vous pilotez l'ensemble du cycle de vie de la qualité des données : Gouvernance et Stratégie Data Quality : Définir et maintenir les règles de qualité des données (complétude, unicité, validité, cohérence et format). Établir les indicateurs clés de performance (KPI) de la qualité des données et s'assurer de leur suivi régulier. Analyse et Audit des Données : Analyser la qualité des données au sein de nos systèmes sources et cibles (Data Warehouse, Data Lake). Identifier les anomalies, les causes racines des problèmes de qualité (système, processus, ou saisie) et recommander des actions correctives. Implémentation Technique : Mettre en œuvre des contrôles de qualité automatisés directement dans les outils d'entrepôt de données (notamment Snowflake ). Développer des tableaux de bord de monitoring de la qualité pour visualiser les scores et les tendances (via Qlik ou d'autres outils de visualisation). Coordination et Amélioration Continue : Collaborer étroitement avec les Data Engineers, les Data Scientists et les équipes métier pour garantir la bonne application des règles de qualité. Gérer la priorisation des tickets et des actions d'amélioration de la qualité des données.
Freelance

Mission freelance
Data Lead (H/F)

Publiée le
Data management

1 an
500-550 €
Lille, Hauts-de-France
Télétravail partiel
Véritable chef de projet, tu es le facilitateur de l’orchestration des sujets Data dans ton domaine métier. Tu apprécies comprendre les enjeux d’une direction métier et son environnement IT afin de proposer des solutions data adaptées et alignées avec la stratégie Data, en collaboration avec un Product Owner. Tu vas à la rencontre des utilisateurs pour comprendre, challenger et cadrer les besoins métier. Tu assumes la responsabilité d’un portefeuille de projets : rédaction, planification, pilotage et livraison. Tu pilotes et accompagnes une équipe data pluridisciplinaire : Data Analytics, Data Science, Data Engineering. Avec ton équipe, tu participes à la construction, l’évolution et l’amélioration continue des produits data, tout en contribuant à la consolidation de la plateforme data. Tu es garant de la cohérence technique et fonctionnelle de ton domaine, en collaboration avec l’ensemble de l’écosystème. Tu apportes ton soutien à ton équipe et à tous les acteurs (IT, métiers, data) de ton environnement de travail. Tu fais preuve de leadership et t’impliques sur des sujets transverses. Tu restes attentif aux enjeux de l’entreprise, à l’évolution du marché et aux avancées technologiques pour être force de proposition.
1661 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous