L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 6 419 résultats.
Offre d'emploi
Acheteur Market Data
OBJECTWARE
Publiée le
Market data
6 mois
Paris, France
Dans le cadre de projets stratégiques chez nos clients grands comptes (banque, asset management, services financiers), nous recherchons un(e) Acheteur(se) Market Data expérimenté(e) pour intervenir sur des enjeux à forte valeur ajoutée. 🎯 Vos missions Au sein des équipes achats / market data, vous interviendrez notamment sur : La gestion des fournisseurs de données de marché (éditeurs, vendors) Le pilotage des appels d’offres (France et/ou international) La négociation contractuelle et tarifaire Le suivi des renouvellements de contrats La maîtrise des dépenses Market Data La coordination avec les équipes métiers, juridiques et IT La contribution aux projets d’optimisation et de conformité (RGPD, gouvernance data)
Mission freelance
Ingenieur Data RH
Comet
Publiée le
Azure Data Factory
BI
Databricks
12 mois
400-620 €
Île-de-France, France
Compétences techniques : Python / Pyspark / SQL - Expert - Impératif Databricks - Expert - Impératif Datafactory - Confirmé - Important Modélisation BI - Confirmé - Souhaitable Description détaillée Contexte : Le projet Data-RH vise à centraliser et modéliser les données issues des systèmes dans un modèle unifié, permettant des analyses transverses et une exploitation optimale des données métier. Environnement technique : Azure Data Factory, Databricks, Python, PySpark, SQL, Azure DevOps et Power BI. Missions : - Concevoir et développer des pipelines d’ingestion de données via Azure Data Factory. - Créer et optimiser des flux de transformation de données en PySpark/Python. - Maintenir et développer de nouveaux indicateur de qualité de données - Mettre en œuvre et industrialiser les pipelines CI/CD avec Azure DevOps. - Participer au refactoring du code existant pour améliorer sa performance et sa maintenabilité. - Garantir la qualité du code et veiller au respect des normes de développement au sein de l’équipe. - Implémenter des tests unitaires et assurer la fiabilité des solutions. - Mettre en place des solutions de monitoring et de supervision pour l’application Data-RH. Profil recherché : - Maîtrise avérée de SQL, Python, PySpark et Spark. - Expérience confirmée sur l’écosystème Microsoft Azure (Data Factory, Databricks, DevOps). - Bonne connaissance de Git et des pratiques DevOps. - Sens de la communication, force de proposition et capacité à travailler en équipe. - Rigoureux, attaché aux bonnes pratiques de développement et à la qualité du code. Définition du profil : Il est garant du bon fonctionnement et de la disponibilité des données dont il a la responsabilité. Il assure la prévention des dysfonctionnements des données et contribue à la bonne utilisation de celles-ci
Mission freelance
Senior Data Analyst
SILAMIR
Publiée le
Tableau Desktop
Tableau software
1 an
Paris, France
Vous intervenez en tant que référent analytique auprès des équipes Métiers (Produit, Business Development, Sales, Marketing, Fraude, etc.). Votre rôle consiste à assurer le suivi de la performance, produire des analyses à forte valeur ajoutée et accompagner les équipes dans leurs prises de décision. Vos missions : Piloter la performance business à travers le suivi et l’analyse des KPI stratégiques Réaliser des analyses ad hoc afin de répondre aux problématiques métiers Collaborer avec les équipes Métiers pour mesurer l’impact des évolutions et identifier des opportunités d’optimisation Mettre à jour, fiabiliser et améliorer les dashboards existants (Tableau, Metabase…) Définir et suivre les indicateurs de performance pertinents avec les parties prenantes (Business, Sales, Product) Contribuer activement à la diffusion d’une culture data et aux bonnes pratiques analytiques
Offre d'emploi
Administrateur Système Linux H/F
Audensiel
Publiée le
Administration linux
Administration système
Administration systèmes et réseaux
35k-55k €
Sophia Antipolis, Provence-Alpes-Côte d'Azur
Au sein de l'équipe systèmes, pour un client opérant dans l‘industrie du voyage, vous intervenez sur l'administration, l'exploitation et l'évolution des infrastructures Linux. Vos principales responsabilités sont : - Administrer et maintenir les services systèmes Unix/Linux en conditions opérationnelles - Déployer, exploiter et faire évoluer les infrastructures (stockage, virtualisation, conteneurs) - Gérer des services d'infrastructure et des outils collaboratifs (messagerie, GitLab, Nextcloud, monitoring, certificats) - Contribuer au support utilisateurs et à l'amélioration continue des performances, de la sécurité et de la fiabilité des systèmes
Mission freelance
Data Engineer Semarchy ou stambia xDI Full remote ASAP
WorldWide People
Publiée le
Semarchy
6 mois
330-350 €
France
Data Engineer Semarchy ou stambia xDI Full remote ASAP Missions Développer et industrialiser les flux Data Integration avec Semarchy xDI. Assurer la qualité, la fiabilité et la gouvernance des données. Automatiser les traitements (CI/CD, DataOps) et collaborer avec les équipes IA et Data Science. Participer aux rituels Agile et rédiger la documentation technique. Profil Bac+5 en informatique / Data, 3 à 5 ans d’expérience en Data Engineering. Maîtrise Semarchy xDI , SQL avancé, Python/Java, ETL/MDM, Git, Docker, Kubernetes. Connaissance des bases SQL / NoSQL et orchestration (Kafka, Airflow…). Autonomie, travail en équipe, force de proposition.
Mission freelance
SAP MASTER DATA
KUBE Partners S.L. / Pixie Services
Publiée le
SAP
6 mois
Paris, France
Je cherche activement un consultant SAP Master Data,côté production, dans le cadre de la construction d'un core modele. Pour la phase de cadrage, design et conception : démarrage ASAP Tâches Base article et non article Fiche info achats Fiche info fournisseurs Nomenclature production Gamme de production Costing Migration avec interfaces PLM vers SAP basées sur des Idocs et LSMW Lien avec metier Leadership Compétences requises : Master Data SAP (min 5 ans exp) Expérience conception générale indispensable, paramétrage, custo Orienté best practice Langues : français et anglais mandatory
Mission freelance
Consultant Audit Réseau LAN H/F
HAYS France
Publiée le
Audit
Cisco
LAN
10 jours
600-630 €
Saint-Sauveur, Hauts-de-France
Notre client, est une entreprise dynamique dans le secteur Fabrication de matériaux en bois, recherche un consultant expert en réseaux pour réaliser un audit complet de leur infrastructure LAN dans un objectif de performance et de sécurité. Missions principales : Réaliser un audit complet du réseau LAN et établir un schéma d'architecture (topologie physique et logique). Vérifier la configuration des équipements réseau (routeurs, switches, bornes Wi-Fi). Identifier les anomalies, incohérences et risques (performance et sécurité). Proposer des recommandations pour optimiser et sécuriser le réseau. Périmètre technique de la mission : Routeurs : configuration, routage, gestion des firmwares. Switches : VLAN, trunking, spanning-tree, QoS. Bornes Wi-Fi : gestion des SSID, sécurité (WPA2/WPA3), couverture. Câblage et topologie : vérification des liens, redondance des connexions. Sécurité réseau : segmentation, filtrage, contrôle des accès.
Offre d'emploi
Architecte Data AWS
KLETA
Publiée le
Amazon Redshift
AWS Cloud
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Architecte Data AWS pour définir et piloter l’évolution des plateformes de données cloud natives sur Amazon Web Services. Vous analyserez les architectures existantes, identifierez les limites techniques et proposerez des trajectoires cibles adaptées aux enjeux métiers, techniques et opérationnels. Vous guiderez la conception de nouvelles architectures en intégrant des services et technologies AWS tels que S3, Glue, Redshift, Athena, EMR, Kinesis ou des approches lakehouse lorsque pertinent. Vous serez responsable des choix structurants en matière de stockage, de traitement, de gouvernance, de sécurité et de qualité des données, en veillant à la performance, à la scalabilité et à la résilience des plateformes. Vous travaillerez étroitement avec les équipes Data Engineering, Cloud et DevOps pour garantir une mise en œuvre industrialisée, alignée avec les standards d’entreprise et les contraintes d’exploitation. Vous aurez également un rôle clé dans l’animation d’ateliers techniques, la formalisation de patterns d’architecture et l’accompagnement des équipes dans l’adoption des meilleures pratiques data sur AWS.
Offre d'emploi
Chef(fe) de projet Master Data
adbi
Publiée le
BigQuery
Looker Studio
SQL
45k-55k €
Île-de-France, France
Contexte de la mission Au sein du Pôle DATA de la DSI, le domaine Gouvernance des Données assure le pilotage des données de référence de la Business Unit. Cette gouvernance sur notre solution de Master Data Management (MDM) développée en interne, qui centralise et administre l'ensemble du référentiel d'entreprise : organisation, centres opérationnels, matières, matériels, activités, sociétés, etc. Nous recherchons un/une chef(fe) de projet Master Data. Objectifs et livrables Gestion et administration du référentiel d'entreprise (50%) Outil principal : REFMET Traiter les demandes utilisateurs dans les délais convenus Accompagner et animer le réseau des référents dans l'appropriation des outils et workflows Maintenir la cohérence et l'intégrité du référentiel de données Amélioration de la qualité des données (30%) Outils : BigQuery, Looker Studio, Google Sheets Réaliser des analyses croisées multi-sources pour identifier les anomalies et incohérences Définir et prioriser les plans d'action qualité en collaboration avec les métiers Évaluer les impacts sur les systèmes consommateurs et coordonner les actions correctives Planifier et synchroniser les interventions avec l'ensemble des parties prenantes Conduite de projets d'amélioration continue (20%) Recueillir et analyser les besoins d'évolution exprimés par le Business Proposer des solutions innovantes et les soumettre à validation hiérarchique Piloter les projets validés de bout en bout (cadrage, spécification, réalisation, déploiement) LIVRABLES ATTENDUS Documentation Spécifications fonctionnelles et recette des évolutions (REFMET) Comptes-rendus de réunions et présentations (Google Workspace) Développements Requêtes SQL (BigQuery) Tableaux de bord (Looker Studio) Accompagnement Animation d'ateliers avec les parties prenantes Support à la conduite du changement, guides utilisateurs et formations
Offre d'emploi
Développeur Talend / Data Analyst H/F
ADSearch
Publiée le
40k-50k €
Villeneuve-Loubet, Provence-Alpes-Côte d'Azur
[En Bref] CDI - Développeur Talend / Data Analyst H/F - Cagnes-sur-Mer - Télétravail 3 jours/sem Je recrute pour une entreprise historique qui a su évoluer avec son temps, un Développeur Talend / Data Analyst H/F pour accompagner sa transformation data-driven. TON POSTE Avec pour objectif de structurer, analyser et valoriser la donnée au service des métiers, au côté d'une équipe spécialisée en analyse de données et Business Intelligence, tu participeras à l’ensemble du cycle de vie de la donnée, en lien étroit avec les équipes métiers, IT, data et BI. Ton rôle consistera à transformer la donnée brute en indicateurs fiables et exploitables pour le pilotage et la prise de décision. En claire : - Accompagner les équipes métiers dans la formalisation de leurs besoins décisionnels, - Analyser les données issues de différentes sources internes et externes - Concevoir, développer et optimiser des tableaux de bord et rapports à forte valeur ajoutée (Power BI, SAP BO WebI), - Participer à la modélisation et à la transformation des données via des processus ETL (notamment SAP BODS), - Contribuer aux projets de fiabilisation, de gouvernance et d’évolution du datawarehouse, - Suivre l’avancement des projets data et assurer le reporting associé, - Participer à l’amélioration et à l’industrialisation des méthodes et outils décisionnels, - Réaliser les évolutions dans le respect des normes et standards de développement en place.
Offre d'emploi
Techlead Data Engineer | AWS | Databricks | Big Data
Hexateam
Publiée le
AWS Cloud
Databricks
Python
36 mois
Île-de-France, France
Contexte Dans le cadre de la mise en place et de l’évolution d’une plateforme DATA centralisée, nous renforcons son équipe avec un Data Ingénieur confirmé. Cette plateforme permet l’intégration, la mise en qualité et la mise à disposition de données brutes ou retravaillées issues de différents producteurs, afin de répondre à des besoins métiers opérationnels et analytiques à grande échelle. Rôle et responsabilités Développement et ingestion de données Concevoir, développer et optimiser des jobs d’ingestion et de transformation de données en Python et Spark sur Databricks , avec gestion de gros volumes. Mettre en place et maintenir des flux de données entre sources externes (ex. bases Oracle) et Delta Lake sur AWS S3 . Orchestration et supervision Créer et orchestrer des workflows avec AWS Airflow et automatiser les traitements. Mettre en place des mécanismes de contrôle qualité et de validation des données pour garantir cohérence et fiabilité. Développer des jobs de monitoring pour détecter et corriger automatiquement les anomalies. Maintien en condition opérationnelle Assurer la disponibilité et la performance des jobs en production. Analyser et corriger les incidents et anomalies détectées. Contribution stratégique Participer aux ateliers de conception technique et fonctionnelle. Promouvoir les bonnes pratiques de développement et d’optimisation Big Data. Documenter les processus, architectures et scripts. Compétences techniques requises MUST : Python Spark Databricks SQL SHOULD : AWS (S3, Glue, Airflow, CloudWatch, Lambda, IAM) COULD : Big Data (gestion et traitement de très gros volumes de données) WOULD : Git Méthodologies et outils : CI/CD avec GitLab JIRA / Confluence Méthodologie agile Scrum
Mission freelance
Data Analyst experimenté - Nantes
VISIAN
Publiée le
SQL
3 ans
400 €
Nantes, Pays de la Loire
Contexte Au sein d’une entité Data d’un grand groupe bancaire, la mission s’inscrit dans une équipe chargée de la conception, de la fabrication et de la mise à disposition de jeux de données à destination de multiples entités internes. L’activité s’appuie sur plusieurs plateformes décisionnelles et entrepôts de données et s’exerce dans un cadre réglementaire et sécuritaire strict (protection des données, conformité, éthique d’usage). L’équipe intervient notamment pour des besoins d’audit, de conformité réglementaire, d’analyses exploratoires ou de soutien à des projets métiers (innovation, data science, nouveaux produits). Missions Cadrage et analyse des besoins Recueillir et analyser les demandes d’extraction ou de mise à disposition de données Accompagner les utilisateurs dans la formalisation des besoins et des règles de gestion associées Réaliser les analyses d’impact sur les systèmes existants Identifier les sources de données pertinentes et les outils d’extraction adaptés Production et livraison des jeux de données Concevoir et piloter la fabrication de jeux de données ou requêtes d’extraction Garantir la qualité, la cohérence et l’exploitabilité des données livrées Organiser la phase de recette avec les équipes métiers et utilisateurs Contribuer à l’industrialisation de certains cas d’usage Gouvernance, conformité et sécurité Veiller au respect des contraintes réglementaires et de protection des données Mettre en œuvre les contrôles d’accès et d’usage appropriés Collaborer avec les acteurs de gouvernance Data pour valider l’exploitabilité et la diffusion des données Coordination et communication Assurer l’interface avec les entités demandeuses et les parties prenantes internes Animer des ateliers d’étude multi-acteurs Promouvoir l’offre de services de l’équipe et produire les supports associés Mettre en place et suivre les indicateurs de performance du service Capitalisation et documentation Structurer et maintenir la documentation des dossiers traités Contribuer au partage de connaissances et à la montée en compétence collective Environnement technique Bases de données relationnelles et décisionnelles SQL (dont environnements décisionnels) Outils de reporting et de BI Outils d’extraction et de traitement de données Outils de gouvernance et de documentation de la donnée Outils bureautiques avancés Informations complémentaires Mission en environnement fortement réglementé Interactions fréquentes avec des interlocuteurs variés (métiers, data, gouvernance, conformité) Accès à des données sensibles nécessitant le respect strict des procédures de sécurité
Mission freelance
Business Analyst Data & Paiements | SQL Expert | Power BI | Agile
CAT-AMANIA
Publiée le
Azure
Confluence
Google Cloud Platform (GCP)
6 mois
470-530 €
Île-de-France, France
Nous recherchons un Business Analyst Data pour rejoindre une Squad Data au sein d'un grand groupe financier de premier plan. Votre mission principale sera de piloter la chaîne de valeur de la donnée de paiement, de la collecte à la restitution décisionnelle. Vos missions : Recueillir et analyser les besoins des équipes métiers et des autres squads data. Traduire ces besoins en spécifications fonctionnelles et techniques détaillées (User Stories) dans un environnement Agile. Assurer la qualité et l'intégrité des flux de données de paiement via des requêtes SQL avancées. Concevoir, générer et diffuser des reportings et tableaux de bord via Power BI pour le pilotage des activités. Réaliser les tests de recette des traitements d'intégration et de transformation de données. Accompagner et former les utilisateurs finaux dans l'exploitation de leurs données de paiement. Profil recherché : Expertise confirmée en SQL (indispensable pour l'exploration et la validation de données). Solide connaissance du domaine des Moyens de Paiement ou de la Monétique. Maîtrise des outils de Data Viz (Power BI) et de la rédaction de documentation projet (Jira, Confluence). Expérience en environnement Big Data ou Cloud (Azure, GCP). Capacité à travailler en méthodologie Agile (Scrum). Excellente communication et capacité à vulgariser des sujets techniques complexes.
Mission freelance
Product manager Référentiel & Data (5-10 ans)
ABSIS CONSEIL
Publiée le
Safe
3 ans
470-570 €
Maisons-Alfort, Île-de-France
Nous recherchons pour notre client en assurance un Product Manager intervenant sur deux périmètres clés : Référentiel Data / Infocentres Votre rôle s’inscrit dans un environnement SAFe , en interaction avec différentes équipes du train et potentiellement d’autres trains de la DSI. Vous contribuerez également à l’intégration de l’IA , notamment des IA agentiques , au service de la performance collective. Vos principales responsabilités Définir une vision produit claire, durable et alignée sur les besoins métier et utilisateurs. Construire et maintenir les roadmaps (Solution & PI). Gérer et prioriser le backlog produit (features, enablers). Collaborer avec les équipes métier, techniques et agiles pour garantir la cohérence des solutions . Piloter des projets transverses , tels que la migration DataStage. Recueillir et analyser les besoins clients pour guider les évolutions produits. Promouvoir et intégrer l’IA dans les pratiques opérationnelles. Compétences attenduesCompétences métier Maîtrise de la méthodologie SAFe (certification PM/PO souhaitée). Expérience en mise en œuvre de SI , conception fonctionnelle, animation d’ateliers, gestion de backlog. Connaissance de la modélisation des données . Pratique de l’ IA dans un contexte opérationnel. Compétences techniques Outils : Jira , Confluence , Suite Office. Bases de données & requêtage SQL . Tests : rédaction Gherkin , outils Selenium , Xray . Connaissance de l’environnement On Premise .
Offre d'emploi
Data Scientist ‒ Fraud & Payment Analytics
Ela Technology
Publiée le
Machine Learning
Python
SQL
6 mois
Paris, France
Dans le cadre du renforcement des dispositifs de sécurisation des paiements électroniques et de la lutte contre la fraude, il est recherché un Data Scientist capable d’intervenir sur des problématiques de détection de fraude bancaire, scoring et authentification forte, analyse massive de données transactionnelles et optimisation de modèles prédictifs en environnement critique. Le poste s’inscrit dans un contexte à forts enjeux réglementaires et opérationnels, avec des traitements en temps réel et des volumes de données importants. Le contexte fonctionnel couvre : Paiement électronique & cartes bancaires Lutte contre la fraude Authentification forte Conformité réglementaire Analyse de risques transactionnels 🧩 MissionsAnalyse & Modélisation Analyse exploratoire et statistique de données transactionnelles massives Conception et amélioration de modèles de Machine Learning pour la détection de fraude Feature engineering sur données temporelles et comportementales Optimisation des performances des modèles (précision, recall, stabilité) Industrialisation & Production Déploiement et suivi de modèles de scoring en environnement de production Monitoring des performances des modèles (drift, précision, recall) Automatisation des traitements et du reporting analytique Participation à l’amélioration continue des pipelines data Collaboration métier Interaction avec les équipes sécurité, fraude et conformité Traduction des besoins métier en solutions data Création de tableaux de bord et visualisations exploitables par les métiers Documentation et présentation des résultats 🛠️ Environnements techniquesLangages & Data Science Python R SQL Machine Learning & IA Scikit-learn XGBoost / LightGBM / Random Forest PyTorch (optionnel) Approches RAG / NLP (bonus) Data Engineering & Big Data PySpark Écosystème Hadoop Traitements batch et temps réel Data & Visualisation Power BI Pandas NumPy Excel avancé Environnements complémentaires Elasticsearch PostgreSQL API Data / JSON Industrialisation de modèles ML Outils métiers (paiement / fraude) Plateformes de scoring temps réel (type Feedzai ou équivalent) Outils d’authentification forte Analyse comportementale fraude
Offre d'emploi
Architecte Data (Snowflake - IA Gen) H/F
STORM GROUP
Publiée le
Apache Airflow
AWS Cloud
CI/CD
3 ans
55k-65k €
550-680 €
Lille, Hauts-de-France
Principales missions : - Contribuer aux cadrages des nouveaux besoins techniques des métiers liés à la plateforme SNOWFLAKE - Participer à l’évolution de la plateforme Data (gouvernance, contrôles, automatisation, etc) - Participer aux choix technologiques de l’offre à mettre en place - Analyser les documents d’architecture des assets à faire évoluer et définir les nouveaux PATTERN (architecture fonctionnelle, applicative, technique) - Analyser, définir et cadrer les adaptations nécessaires de l’offre proposée - Documenter les PATTERN retenus à un niveau plus détaillé, de sorte à la rendre exécutable pour les autres Business Units - Être l’interlocuteur privilégié des équipes portant les besoins d’agent/usages IA GEN au sein du pôle DATA - Accompagner au déploiement de la solution définie auprès de la BU et des autres Business Units - Accompagner à la prise en main de la plateforme Data
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
6419 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois