L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 656 résultats.
Offre d'emploi
ALTERNANCE - BAC+5 : DATA ANALYST et préparation/réalisation d'arrêt de tranche F/H
█ █ █ █ █ █ █
Publiée le
Microsoft Excel
Montévrain, Île-de-France
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Offre d'emploi
Data Engineer GCP
KLETA
Publiée le
BigQuery
Google Cloud Platform (GCP)
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Data Engineer GCP pour concevoir, optimiser et industrialiser des plateformes data cloud natives sur Google Cloud. Vous analyserez des architectures existantes, proposerez des trajectoires d’évolution (refonte des pipelines, migration vers des traitements serverless, optimisation des modèles analytiques) et guiderez leur mise en œuvre avec BigQuery, Dataflow, Pub/Sub et Cloud Storage. Vous serez responsable de la conception et de la fiabilisation des pipelines d’ingestion et de transformation, de l’amélioration des performances et de l’intégration de mécanismes d’observabilité et de qualité des données. Vous travaillerez main dans la main avec les équipes Cloud et DevOps pour intégrer les traitements dans des pipelines CI/CD robustes et adaptés aux contraintes d’exploitation. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes client sur les meilleures pratiques de data engineering cloud native et d’usage avancé de GCP. Votre mission combinera expertise technique, rigueur méthodologique et capacité à structurer des solutions scalables et pérennes.
Mission freelance
Data Engineer Senior / Lead Data
Tenth Revolution Group
Publiée le
AWS Cloud
Collibra
Databricks
6 mois
620-660 €
Paris, France
Dans le cadre d'une mission chez un grand acteur du secteur de l'énergie en France, nous recherchons des profils Data Engineer Senior++ / Lead Data disponibles entre mi-mars et mi-mai 2025. Le client, accompagné par un cabinet de conseil top tier, recherche des consultants capables de s'emparer d'un périmètre data, de le cadrer et de le développer en toute autonomie. Plusieurs positions sont à pourvoir. La maîtrise et l'usage quotidien de l'IA dans le travail est un critère indispensable.
Mission freelance
Chef de Projet Marketing éditorial / d’Influence
Cherry Pick
Publiée le
Branding
Market data
Marketing
12 mois
300-380 €
Île-de-France, France
Responsabilités clés Définir la feuille de route Influence et Opérations Spéciales alignée avec les objectifs éditoriaux. Imaginer et concevoir des dispositifs d’influence et des opérations spéciales innovants à fort impact. Négocier, cadrer et piloter les collaborations avec partenaires et créateurs. Mettre en place et suivre les campagnes d’influence et opérations spéciales. Analyser les résultats, formuler des recommandations et produire des bilans numériques. Assurer une veille active sur les tendances social media, plateformes et créateurs. Maintenir à jour le planning prévisionnel des temps forts et programmes phares. Contribuer à l’amélioration du suivi des performances en collaboration avec la data. Compétences et expertises requises Expérience confirmée (4-5 ans minimum) en marketing d’influence, social media, brand content. Connaissance approfondie des médias, plateformes digitales, VOD et enjeux éditoriaux. Excellentes qualités rédactionnelles, orthographe et grammaire irréprochables. Capacité à travailler de manière transversale et en équipe. Esprit analytique et de synthèse, gestion de projet structurée et rigoureuse. Maîtrise des outils collaboratifs : Trello, Slack, Teams, Klaxoon. Connaissance d’outils d’analytics (AT Internet / Piano Analytics) appréciée.
Mission freelance
Cyber Operation Expert Cloud
Codezys
Publiée le
Azure
Azure Data Factory
Azure DevOps Services
12 mois
Les Ulis, Île-de-France
Contexte de la mission [Ne pas se positionner si consultant ou freelance basé en France. Cette mission s’inscrit dans le cadre d’une opération de nearshore ou offshore.] Le consultant interviendra de manière transverse au sein des équipes Cloud et Cybersécurité, afin d’accompagner les squads dans la sécurisation, l’évolution et la mise en conformité de leurs produits. Cette mission se déroule dans un environnement orienté produit/running, avec un enjeu majeur autour de la sécurité opérationnelle et de la montée en maturité des pratiques cloud. Objectifs et livrables Objectifs de la mission Renforcer la sécurité des environnements cloud Azure. Accompagner les squads dans la conception et la sécurisation des produits cloud. Analyser les risques associés aux évolutions techniques. Définir et déployer des mesures de remédiation adaptées. Assurer la conformité aux référentiels internes de cybersécurité. Contribuer à l’amélioration des pratiques de sécurité cloud et à leur montée en maturité. Expertise technique Cloud Fournir une expertise sur l’élaboration d’architectures sécurisées sur Azure. Définir des modèles de sécurité (Entra ID, RBAC, Key Vault, gestion des secrets, etc.). Intervenir sur les sujets liés au réseau, à l’identité et à la gouvernance cloud. Utiliser les outils natifs Azure tels que Defender for Cloud, Azure Policy, Monitor et Log Analytics. Réaliser des analyses de risques techniques et élaborer des plans de remédiation. Accompagnement des squads (RUN / Mode produit) Revoir et qualifier les évolutions techniques (nouvelles fonctionnalités, infrastructure, architecture). Identifier les impacts en matière de cybersécurité et proposer des stratégies de mitigation. Participer aux ateliers, revues d’architecture et réunions d’avancement. Supporter la mise en œuvre des mesures de sécurité. Anticiper les risques liés aux évolutions des produits. Transversalité & coordination Collaborer avec les équipes Cloud, DevSecOps, Architecture et Cybersécurité. Remonter les risques, alertes et éventuels points de blocage. Proposer des améliorations sur les pratiques et processus en place. Intervenir sur des sujets transversaux selon les priorités. Livrables attendus Revues de sécurité suite aux changements cloud. Analyses de risques techniques. Recommandations et bonnes pratiques en matière de sécurité. Contribution à l’enrichissement des référentiels cybersécurité cloud. Participation active aux comités techniques et de sécurité.
Offre d'emploi
Analyste Data
CAT-AMANIA
Publiée le
Big Data
Microsoft Power BI
PySpark
2 ans
40k-48k €
400-550 €
Bordeaux, Nouvelle-Aquitaine
Nous recherchons un Analyste Data pour intégrer l’équipe Analyse de la Donnée. Rattaché à l’équipe, vous serez en charge de mettre en œuvre des cas d’usage métier via le croisement de données, développer et maintenir des produits DATA réutilisables, et restituer vos analyses à travers des dashboards et dataviz. Vous accompagnerez également les équipes métiers dans l’acculturation DATA tout en respectant les normes et bonnes pratiques de l’équipe. Maîtrise de Python, PySpark, SQL , expérience sur Big Data Hadoop (Cloudera) et compétences en Power BI sont requises, ainsi qu’une solide expertise en data science et analyse de données.
Mission freelance
EXPERT SPARK DATA ENGINEER H/F
CELAD
Publiée le
1 an
500-600 €
Rennes, Bretagne
Nous poursuivons notre développement et recherchons actuellement un(e) Expert Spark Data Engineer H/F pour intervenir chez un de nos clients. Contexte : La mission s’inscrit dans le cadre d’une solution de traitement de données à des fins de statistiques et de Business Intelligence. Vous interviendrez sur une architecture Data moderne reposant notamment sur Kafka Connect, Spark, Kubernetes et MongoDB, avec des enjeux de volumétrie importants : 350 bases de données 5 000 requêtes par seconde 1 To de données par an L’objectif est de réaliser un audit technique et de proposer des axes d’optimisation de la plateforme existante. Votre mission : Au sein d'une équipe projet, vous serez en charge de : - Réaliser un audit et un état des lieux technique de l’existant - Identifier les axes d’amélioration des traitements Spark (batch et streaming) - Optimiser les performances pour les flux temps réel - Définir les recommandations de dimensionnement de l’infrastructure - Proposer des améliorations sur MongoDB (modélisation et structuration des données) - Rédiger un document d’architecture cible et de préconisations
Offre d'emploi
Expert Data spécialisé sur Semarchy
OBJECTWARE
Publiée le
Semarchy
6 mois
Indre-et-Loire, France
Nous recherchons un Expert Data spécialisé sur Semarchy pour intervenir sur un projet autour de la gestion et de la gouvernance des données . Vos missions : Mise en place et évolution de solutions Semarchy (MDM) Modélisation et gestion des référentiels de données Participation à la gouvernance et à la qualité des données Collaboration avec les équipes techniques et métiers Profil recherché : Expérience sur Semarchy xDM / MDM Bonne compréhension des enjeux data / gouvernance des données Autonomie et capacité à intervenir sur des environnements data 📍 Poste basé en Indre-et-Loire (37) 📅 Démarrage : dès que possible
Mission freelance
[SCH] Analytics Engineer / Data Engineer Conformité – Lutte contre la fraude - 1413
ISUPPLIER
Publiée le
10 mois
400-450 €
Saint-Denis, Île-de-France
Dans le cadre de la plateforme SPIDER, dédiée à la lutte contre la fraude, le blanchiment et le financement du terrorisme, notre client recherche un Analytics Engineer / Data Engineer orienté conformité. Intégré à la squad compliance de solutions cognitives, le consultant interviendra sur une plateforme d’investigation s’appuyant sur des technologies graphes comme Neo4j et Linkurious, permettant de centraliser les données issues de multiples applications internes et d’offrir une vision 360° des personnes et de leurs interactions. La mission porte plus particulièrement sur le socle d’ingestion de données alimentant la base graphe, avec un fort enjeu de qualité, de modélisation, d’industrialisation et de collaboration avec les métiers fraude et LCB-FT. Missions : -Transformer, modéliser et documenter les données brutes pour les rendre exploitables -Développer des modèles et produits de données orientés conformité pour alimenter la base graphe -Maintenir en condition opérationnelle les flux d’ingestion vers la base de données graphe -Améliorer les processus de traitement des données afin de gagner en rapidité et efficacité -Créer et mettre à jour la documentation des produits de données -Automatiser les contrôles et tests de qualité pour garantir l’intégrité des données -Produire des analyses à destination des métiers pour le calibrage de scénarios de fraude et de vigilance LCB-FT -Collaborer avec les Data Engineers et les métiers de la fraude / conformité pour enrichir la base graphe -Participer à la mise en production des produits de données avec l’équipe Data Platform -Contribuer à la structuration des flux dans une logique ELT / ETL et architecture data moderne Profil attendu : -Expérience confirmée en Analytics Engineering / Data Engineering -Très bonne maîtrise de SQL et Python -Bonne connaissance des concepts ETL / ELT -Expérience en modélisation de données -Connaissance de Snowflake et Dataiku -Bonne compréhension des architectures data modernes (médaillon, data mesh) -Capacité à travailler sur des sujets de qualité, documentation et industrialisation -Aisance à collaborer avec des équipes techniques et métiers -Sensibilité aux enjeux de fraude, conformité et LCB-FT appréciée -Rigueur, autonomie et bon niveau d’analyse
Offre d'emploi
Business Data Analyst Pré‑Trade Énergie & Commodities
WHIZE
Publiée le
Big Data
Finance
3 ans
Paris, France
Le Business Analyst Pré‑Trade intervient au cœur des activités Front‑to‑Middle sur les marchés de l’énergie (électricité, gaz, pétrole, émissions, garanties d’origine). Il accompagne les desks trading dans l’analyse, la structuration et l’évolution des processus pré‑trade, ainsi que dans la gestion et la qualité des données de marché. Ses missions couvrent l’analyse fonctionnelle, la compréhension des produits énergie, la modélisation des données, et l’amélioration continue des systèmes ETRM/CTRM. Le rôle est orienté trading, opérationnel et data , sans dimension Risk. Missions principales Analyser les besoins des desks Power, Gas, Oil, Emissions et Renewables. Étudier les mécanismes des marchés spot, intraday, day‑ahead, balancing et dérivés énergie. Documenter et optimiser les workflows pré‑trade : saisie d’ordres, enrichissement, contrôles, validation. Analyser les contract features des produits énergie : profils horaires, règles de livraison, indexations, contraintes physiques. Structurer et fiabiliser les market data énergie : prix spot/forward, courbes, données fondamentales, données issues des plateformes (EPEX, ICE, NordPool…). Comprendre et documenter le fonctionnement de l’ order book : profondeur, liquidité, matching. Réaliser des analyses data (SQL, Python) et produire des dashboards pour les équipes trading. Rédiger des spécifications fonctionnelles (user stories, règles métier, mapping de données). Participer aux phases de tests (UAT, non‑régression) et accompagner les utilisateurs lors des déploiements.
Mission freelance
[FBO] Product Owner Data sur des données RH - Saint Denis - 1419
ISUPPLIER
Publiée le
9 mois
300-430 €
Saint-Denis, Île-de-France
Contexte de la mission Product Owner Data dans le cadre du projet DataSmart RH Les données RH sont actuellement exploitées manuellement via Excel, ce qui engendre un risque d'incohérences et une sécurité limitée. Le besoin est de disposer d'une base unique, automatisée, sécurisée et actualisée quotidiennement. Nature de la prestation à effectuer : Il/Elle adressera les actions suivantes : - Designer les alimentations des données (fréquence, groupes de données, mode delta et/ou full, stockage et data préparation) - Réaliser les spécifications détaillées des besoins d’extraction vis-à-vis de ADP et SuccessFactors afin de répondre aux besoins métier et de respecter ceux de l’environnement Data de Generali (pour la création du Data Domain) - Prendre en compte les autres systèmes providers de données (bases mortes et autre système opérationnel de formations, WeLearn/Cornerstone) - Être force de proposition pour la gestion des habilitations sur les données - Participer à la recette des extractions et des imports dans le Data Domain Il/Elle sera sous la responsabilité du manager de l'équipe Pilotage SIRH et travaillera avec l’ensemble des parties-prenantes : - L’équipe métier : Pilotage RH - L’équipe AMOA Pilotage SIRH - L’équipe IT RH - L’équipe IT DATA - Les éditeurs 2. Management de projets product owner Référent de la vision métier au sein des équipes agiles : - Collabore avec les métiers pour élaborer la vision du produit - Partage cette vision avec les équipes de développement agile - Mène une réflexion stratégique préparatoire des versions à venir Priorisation par la valeur du contenu métier : - Identifie les fonctionnalités et exigences attendues - Priorise toutes les users stories au sein du Product Backlog - Maintien le product backlog et cherche en permanence à maximiser la valeur métier pour les utilisateurs Transmission aux équipes agiles pour assurer la compréhension du besoin métier : - Découpe chaque fonctionnalité en user story pouvant être implantée en une seule itération - Définit les critères d'acceptation indispensables à sa bonne compréhension par les équipes agiles - Intègre et suit la prise en compte des exigences non fonctionnelles (ENF : accessibilité, sécurité IT, RGPD, RSE...) dès l'étape de conception - Contribue aux réunions agiles avec les équipes de développement et le Scrum Master Recette des éléments métiers produits par l'équipe agile : - Réalise ou organise le déroulement des tests utilisateurs - Récolte les feedbacks des utilisateurs pour les équipes de développement Objectifs et livrables Indispensables • Expertise dans la création de Datalake RH • Connaissance des outils de l’environnement technique Generali Data, spécifiquement Snowflake, Dataiku et PowerBI • Connaissance du modèle de données standard ADP •
Offre d'emploi
Data analyst Qlik Sense H/F
Le Groupe SYD
Publiée le
Python
Qlik Sense
SQL
12 mois
40k-52k €
375-450 €
Angers, Pays de la Loire
🌟 Dans le cadre de notre développement, nous recherchons pour l’un de nos clients à Angers (49), un Data Analyst Qlik Sense H/F . Démarrage : ASAP Contrat : CDI dans le cadre d’une pré-embauche, ou prestation (indep/portage) Lieu : Angers (49) Télétravail : 2 jours/semaine (non-négo) Dans le cadre d’un renfort d’équipe, vous interviendrez en tant que Data Analyst Qlik Sense H/F . À ce titre, vos missions seront : Projets Recueillir et analyser les besoins métiers, piloter les développements et analyser ad hoc BI & Data Créer des tableaux de bord, contribuer à la modélisation, à la gouvernance et aux outils data Accompagnement Participer au support des utilisateurs, animer le réseau et participer à la stratégie data
Mission freelance
Consultant Senior Process Data / Process Management (Anglais courant) H/F
HC
Publiée le
Conduite du changement
Data governance
Data management
6 mois
680 €
Charenton-le-Pont, Île-de-France
La mission consiste à : Définir une stratégie process data Identifier et formaliser les process critiques Structurer une cartographie cohérente et maintenable Définir une stratégie de maintenance des process dans le temps Profil recherché : Profil senior , capable de : Parler à des niveaux senior management Porter des sujets de change management Embarquer des communautés hétérogènes Compétences clés : Expertise avérée en cartographie de process Définition et gouvernance de process critiques Mise en place de frameworks de process management Forte capacité de pédagogie et d’accompagnement au changement Natixis est ouverte à des profils hors banque , notamment : • Industrie • Aéronautique • Automobile perçus comme plus matures sur la rigueur et l’industrialisation des process. Outils • iGrafx utilisé aujourd’hui • Étude d’autres outils (Harris, etc.) • Pas de dépendance forte à un outil Enjeux humains et organisationnels • Existant côté OPS, mais adhésion inégale • Process owners nommés, mais engagement variable • Difficulté à embarquer : Le Front (peu sensible aux sujets process) Les Risques (contraints par le réglementaire mais peu structurés) Le rôle inclut fortement : L’animation de communautés (≈ 20 personnes) La démonstration de valeur concrète La création de liens entre OPS, Front et Risques
Offre d'emploi
TECH LEAD DATA – PALANTIR / PYSPARK / PYTHON
OCTOGONE
Publiée le
PySpark
Python
6 mois
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Dans le cadre d’un projet stratégique chez l’un de nos clients grands comptes, nous recherchons un Tech Lead Data disposant d’une forte expertise sur l’écosystème data moderne et les technologies Palantir. En tant que référent technique, vous interviendrez sur la conception, l’industrialisation et l’optimisation de pipelines data à forte volumétrie, tout en accompagnant les équipes dans la mise en œuvre des bonnes pratiques de développement et d’architecture. Responsabilités principales • Concevoir et piloter l’architecture des pipelines data • Développer et optimiser des traitements distribués en PySpark • Développer des composants et scripts en Python pour le traitement et l’orchestration des données • Intervenir sur les environnements Palantir (Foundry ou équivalent) • Encadrer techniquement les équipes data (data engineers / analysts) • Garantir la qualité, la performance et la fiabilité des pipelines • Participer aux choix d’architecture et aux décisions techniques • Collaborer avec les équipes métiers et les architectes data Compétences requises • Forte expertise Python et PySpark • Expérience confirmée sur des architectures data distribuées • Expérience sur la plateforme Palantir (Foundry idéalement) • Maîtrise des problématiques d’industrialisation data (ETL, orchestration, performance) • Expérience en rôle de Tech Lead ou référent technique • Bonne compréhension des enjeux data à grande échelle
Offre d'emploi
Data Analyst
CAT-AMANIA
Publiée le
Business Object
Qlik Sense
40k-61k €
Maisons-Alfort, Île-de-France
Element de contexte et organisation : Bpifrance a lancé un large programme de transformation autour des données et de l’Intelligence Artificielle dans un contexte de transformation globale de la DSI. Le programme, piloté par le Chief Data Officer (CDO) et sous sponsoring de la Direction Générale, comporte plusieurs objectifs, dont celui de la mise en place de la plateforme Data & IA, qui a vocation à devenir le cœur du SI. En parallèle, le chantier de transformation Cloud en cours induit d’importantes adhérences avec les travaux d’industrialisation de la plateforme Data & IA. L'organisation projet est réalisée avec SAFE. Objectif poursuivi pour cette mission : La mission porte sur la réalisation du socle Financement et contentieux dont il s'agira d'assurer un rôle de Data Analyst avec pour objectif de: - spécifier les besoins en terme de données Financement et Contentieux permettant de servir les usages bancaires des filières : -- Crédit Bail équipement, -- Crédit Immobilier, énergie & environnement, -- Court terme, -- Immatériel - modéliser les entités permettant de représenter les données des métiers du Financement et du Contentieux - spécifier les Data Product nécessaire pour couvrir : -- les besoins des filières (Reporting opérationnels, Agents opérationnels, suivi d'activité, reporting conventionnels,...) -- les besoins de l'équipe chargée d'exploiter le socle Financement et Contentieux (Reporting transverses, études de prospection, cross-selling, ...) - définir et contrôler la Qualité des données véhiculées au sein du socle - réaliser les recettes des données collectées Compétences métier souhaitables : Mission(s) réussie(s) dans le domaine Bancaire dans le cadre de reportings de Financement. Bonne connaissance des métiers bancaires (Crédit, crédit bail, court terme, ...) Très bonne connaissance des données bancaires du financement Forte appétence pour la donnée La connaissance de l'écosystème (notamment le Legacy) serait un plus Liste des technologies : Le comptoir de données est réalisé sur le Cloud AWS. Outil de restitution de la donnée : Business Objects, QlikSense Bon niveau en SQL
Offre d'emploi
Senior IT Production Data Analyst / Incident Manager
OBJECTWARE
Publiée le
ServiceNow
2 ans
Île-de-France, France
Contexte de la mission : Dans le cadre de l’évolution de la Group Control Tower , nous recherchons un Senior IT Production Data Analyst / Incident Manager afin d’accompagner l’exploitation et la valorisation des différents modules de la plateforme. Le consultant interviendra en étroite collaboration avec les Product Owners et les équipes techniques (Réseaux, Sécurité, Flux, Développement) afin d’analyser les données de production, améliorer les performances des environnements et identifier des leviers d’optimisation basés sur l’analyse des données. Missions principales :Analyse et optimisation des environnements de production Recommander des axes d'amélioration dans l’exploitation et la valorisation des modules de la Group Control Tower Analyser les données techniques de production afin d’identifier des leviers d’optimisation Produire des analyses et dashboards permettant d’améliorer la performance des environnements Travailler avec les Product Owners afin d'améliorer l'utilisation et la performance du produit Gestion des incidents et support opérationnel : Piloter la gestion des incidents de production Assurer le suivi du cycle de vie des incidents jusqu’au rétablissement du service Coordonner les actions avec les équipes techniques (Réseaux, Sécurité, Flux, Développement) Analyser les causes racines et proposer des plans d'amélioration Gestion des changements et support aux équipes : Garantir la bonne exécution des changements en production Assurer le suivi, le reporting et la communication autour des changements Contrôler les environnements et les changements de version Intervenir en support des équipes de développement Communication et coordination : Assurer la communication auprès des Product Owners et de la hiérarchie Participer aux cérémonies Agile Produire les reportings et tableaux de bord de suivi Environnement technique Microsoft O365 SQL Outils BI / Analytics ServiceNow Dynatrace (apprécié) Outils de monitoring et d'analyse de production Analyse de données techniques de production Statistiques appliquées aux environnements IT
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
2656 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois