L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 3 140 résultats.
Mission freelance
Data Engineer/Analyst GCP
Deodis
Publiée le
Google Cloud Platform (GCP)
6 mois
400-500 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Mission sur site Aix en Provence, télétravail 2 jours / semaine Contexte : Renforcement d'une équipe projet chargée de migrer des rapports Power BI et des flux SSIS vers GCP Description: • Migrer les flux de données SSIS existants vers des pipelines GCP orchestrés avec Cloud Composer (Airflow) • Réécrire et industrialiser les transformations de données avec dbt sur BigQuery • Collaborer à la migration des rapports Power BI et à l'adaptation des modèles de données sous-jacents • Garantir la qualité des données : tests, documentation, lineage dbt • Contribuer à la modélisation et à l'architecture du data warehouse BigQuery • Travailler en mode agile avec les équipes métier et data pour prioriser les flux à migrer
Mission freelance
Data Engineer
SKILL EXPERT
Publiée le
DBT
Microsoft Power BI
Python
6 mois
450 €
Bordeaux, Nouvelle-Aquitaine
A l'écoute de nos clients, vous comprenez leurs attentes techniques et vous faites évoluer les process, outils, codes, plateformes permettant de répondre au mieux à leurs besoins. Vous serez notamment chargé de : • Effectuer des alimentations de données, • Travailler en binome avec un Data Analyst sur un sujet IA/Data. • Travailler autour d'agent IA pour du requetage SQL en langage naturelle • Mise à dispo d'outillage d'aide aux développement, monitoring… , • Faire une veille technologique autour des architectures data,
Offre premium
Offre d'emploi
BA Produits Structurés (Equity) - 9 ans et plus
Digistrat consulting
Publiée le
Agile Scrum
Business Analysis
Business Analyst
3 ans
58k-73k €
500-600 €
Paris, France
🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 💡 Contexte /Objectifs : Compétence intégration Produits Structurés FI , Exotiques & Hybrides Rates, Credit FX, Equities. Analyse des besoins Front Office et Structuration et conception des solutions Intégrations dans le nouvelle plateforme de pricing et booking. Capacité à monter en compétence sur le Structured Product Language pour effetcuer la modelisation produit en lien avec les quants. Les développements seront effectués à Paris - Méthodologie Agile
Offre d'emploi
Gestionnaire Data Power BI H/F
FED SAS
Publiée le
6 mois
Lyon, Auvergne-Rhône-Alpes
Fed IT, cabinet de recrutement dédié aux fonctions informatiques, recrute pour son client, industrie pharmaceutique, un(e) Gestionnaire Data Power BI H/F. Au sein de ce grand groupe, vous êtes rattaché(e) au service finance et vos missions sont les suivantes : -Production et mise à disposition des tableaux de bord Power BI auprès des utilisateurs, -Garantie du bon fonctionnement et de la délivrance des services Power BI (Service, Desktop, Query SQL), -Gestion administrative des contrats clients (publipostage), Rémunération : 35 à 40 K€ bruts/an (fixe selon expérience) + tickets restaurant + avantages CSE + télétravail possible.
Offre d'emploi
Développeur Power BI / Consultant Data
HN SERVICES
Publiée le
Microsoft Power BI
1 an
40k-43k €
290-330 €
Paris, France
Contexte de la mission Dans le cadre d’une mission au sein d’un acteur majeur du secteur bancaire, nous recherchons un Développeur Power BI / Consultant Data afin d’intervenir sur plusieurs plateformes décisionnelles. Vos missions Vous interviendrez sur des sujets variés autour de Power BI, notamment : Création de rapports et tableaux de bord décisionnels Maintien en conditions opérationnelles (MCO) des solutions existantes Support et amélioration continue des environnements Power BI Suivi de l’obsolescence des infrastructures, progiciels et Framework Contribution à la qualité des référentiels applicatifs Participation aux sujets d’usine logicielle et qualité logicielle
Offre d'emploi
Data Analyst DATA/ AMOA
KEONI CONSULTING
Publiée le
AMOA
Big Data
Business Analyst
18 mois
20k-60k €
100-500 €
Niort, Nouvelle-Aquitaine
Contexte de la mission : Dans le cadre de Solutions Data, nous avons besoins d’un profil de Business Analyst DATA/ AMOA pour intervenir rapidement et venir renforcer l’équipe Conseil et Valorisation Data . MISSIONS : Principales missions : - Assurer une proximité et accompagner les direction métiers sur les usages autour de la donnée - Réaliser les études et apporter le bon conseil vers les métiers sur le volet Data - Assurer le support et l’assistance métier des usages Data - Contribuer à la production des livrables de niveau fonctionnel En détail : • Recueillir et analyser les besoins métiers, • Apporter le conseil nécessaire aux direction Métier sur l’exploitation de la donnée, • Participer au cadrage des projets Data (études d’impacts, faisabilité) • Contribuer aux études d’opportunité et de faisabilité sur le volet Data, • Garantir la cohérence fonctionnelle et technique du SI • Réaliser les recettes fonctionnelles, qualifier les anomalies et suivre les corrections • Produire des livrables fonctionnels (modélisations de données, SFG, SFD), • Tenir à jour la base documentaire du patrimoine, • Garantir la bonne satisfaction métier Data (qualité, engagement, cout, délai). Environnement technique : • Ecosystème DATA SI Décisionnel (ORACLE/Informatica) et plateforme Big Data (Cloudera) Pré-requis : • Expérience dans des projets Data (SI Décisionnel, plateforme Big data) • Sensibilité aux enjeux de gouvernance et qualité des données • Connaissance du secteur assurance
Offre d'emploi
Lead Architecte Data Senior (H/F)
█ █ █ █ █ █ █
Publiée le
Big Data
CI/CD
SQL
55k-70k €
Niort, Nouvelle-Aquitaine
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Mission freelance
Tech Lead Power Platform - Expérimenté
CAT-AMANIA
Publiée le
OWASP
Power Apps
3 ans
Lyon, Auvergne-Rhône-Alpes
- Concevoir / Développer / Tester / Déployer des applications Power Apps - Concevoir / Développer / Tester / Déployer des workflows via Power Automate - Contrôler et garantir le bon fonctionnement de ces éléments en tenant compte des paramètres de cohérence, de qualité et de sécurité - Veiller à la disponibilité des informations et à leur facilité d’utilisation - Prendre en considération les besoins et attentes des utilisateurs Développement - Support technique - Rédaction de la documentation - Appétence pour la rédaction/traduction des besoins
Offre d'emploi
Data analyst (Databricks) H/F
HAYS France
Publiée le
La Ferté-Bernard, Pays de la Loire
Vos responsabilités incluent notamment : Concevoir et développer un modèle de données global pour le périmètre France Exploiter les bases de données Corporate sous Databricks (couche Silver) Réaliser les transformations de données jusqu'à la couche Gold Consolider des données métiers variées : Finance, Comptabilité, Logistique, Qualité, Production, RH Participer à la conception des modèles analytiques, au développement des indicateurs, ratios financiers et KPI métiers Développer et maintenir des dashboards Power BI à destination des équipes opérationnelles et managériales Contribuer à la standardisation, à la fiabilité et à la gouvernance de la donnée au niveau France Collaborer étroitement avec le futur profil Contrôle de Gestion / BI
Mission freelance
Développeur(se) Microsoft Power Platform / Power Apps
K2 Partnering Solutions
Publiée le
microsoft
Microsoft Fabric
6 mois
400-570 £GB
France
Mission Nous recherchons un(e) développeur(se) Microsoft Power Platform / Power Apps pour contribuer au développement d’une solution interne stratégique. Cette solution permettra d’apporter à notre organisation commerciale des analyses basées sur les données ainsi que des outils intelligents afin de soutenir la croissance. Localisation 100% Télétravail – Europe Durée 6 mois + Extension Début: ASAP Compétences & Expérience Développement avancé Power Apps : Expertise dans la création d’applications Canvas et Model-Driven avec Power Fx, en intégrant des principes de design responsive. Intégration Microsoft Fabric : Expérience dans la conception d’intégrations performantes avec OneLake, Lakehouses et Data Warehouses via des endpoints SQL. Logique complexe Power Automate : Conception de workflows d’entreprise avec gestion avancée des erreurs, exécutions parallèles et architectures parent-enfant. Dataverse & modélisation relationnelle : Maîtrise de Dataverse, incluant les variables d’environnement, les rôles de sécurité et l’alignement avec l’architecture Medallion. Extensibilité pro-code : Développement de composants et contrôles UI personnalisés en TypeScript/JavaScript via le framework PCF. API & connecteurs personnalisés : Capacité à intégrer des API REST et des systèmes externes, notamment avec les services Azure. ALM & DevOps : Expérience dans la gestion des pipelines de déploiement automatisés et la synchronisation des environnements via Azure DevOps ou GitHub. Optimisation des performances : Résolution des limites de délégation et optimisation des requêtes pour des datasets volumineux sous Microsoft Fabric. Sécurité entreprise : Mise en œuvre de la sécurité au niveau des lignes (RLS), des politiques de prévention des pertes de données (DLP) et de l’authentification Entra ID. UI/UX & accessibilité : Conception d’interfaces performantes, intuitives et conformes aux standards d’accessibilité (WCAG). Compétences requises PowerApps : Expert Microsoft Fabric : Avancé Microsoft Azure : Confirmé
Mission freelance
Data Quality Analyst (H/F)
Freelance.com
Publiée le
BigQuery
DBT
ETL (Extract-transform-load)
3 mois
400-550 €
Paris, France
Dans le cadre d’un programme de transformation Data B2B sur une plateforme Cloud Data moderne, nous recherchons un Consultant Recette Data & Qualité des Données (QoD) expérimenté. Intégré à une équipe transverse en environnement Agile/Scrum, le consultant interviendra comme référent qualité des données afin de sécuriser les livrables Data produits par les équipes techniques et métiers. Les principales missions seront : Réaliser la recette des produits data et valider la conformité des tables générées Effectuer des analyses de Data Profiling sur les données sources et cibles Détecter les anomalies de données : doublons valeurs nulles incohérences de formats ruptures d’intégrité référentielle Développer des requêtes SQL avancées pour les contrôles qualité Traduire les règles métier en contrôles techniques automatisés Implémenter des scripts de contrôle qualité dans le framework ELT Produire les cahiers de recette technique et bilans Go / No-Go Mettre en place des dashboards et indicateurs de suivi de la qualité des données Créer et suivre les tickets d’anomalies dans JIRA Remonter les anomalies et risques liés à la qualité des données auprès des équipes métiers et techniques Participer aux cérémonies Agile et aux Sprint Reviews L’objectif du poste est d’assurer la fiabilité, la cohérence et la qualité des données exposées aux équipes métiers.
Offre d'emploi
Tech Lead Data & BI (H/F)
1G-LINK CONSULTING
Publiée le
PowerBI
Snowflake
8 mois
Île-de-France, France
Contexte Dans le cadre du développement de ses activités Data & Analytics, notre client renforce ses équipes avec un(e) Data & BI Tech Lead. Vous interviendrez sur des projets stratégiques impliquant des sources de données variées (ERP, CRM, applications métiers), avec pour objectif de structurer les modèles de données, industrialiser les pipelines et garantir la qualité des solutions BI. Vous jouerez un rôle central de référent technique, en accompagnant les équipes Data Engineers et BI Engineers. Missions Traduire les besoins métiers en solutions techniques Concevoir les modèles physiques de données dans Snowflake Définir les choix de modélisation, d’intégration et de transformation Accompagner les Data Engineers sur les pipelines data Encadrer les BI Engineers sur les développements Power BI Promouvoir les bonnes pratiques (qualité, performance, maintenabilité) Mettre en place des pipelines robustes et automatisés Garantir la documentation et la réutilisation des patterns Déployer les pratiques CI/CD et standards de développement Superviser la conception des datasets et rapports Power BI Assurer la performance et la cohérence des solutions livrées Sécuriser les choix techniques sur les sujets sensibles Accompagner la montée en compétence des équipes Assurer le transfert de connaissances Collaborer avec des équipes distribuées (international) Compétences techniques Snowflake Power BI (modélisation, datasets, performance) Data modeling Pipelines data & automatisation Airflow / Astronomer GitHub & CI/CD Connaissance de sources type ERP / CRM (SAP, Salesforce) Expérience en environnement Azure Contexte
Mission freelance
Business Analyst Compliance Marchés financiers- Paris
Net technologie
Publiée le
Big Data
Business Analysis
Business Analyst
6 mois
500-530 €
Paris, France
Dans le cadre d’un programme réglementaire stratégique, nous recherchons un(e) Business Analyst pour accompagner l’industrialisation d’une plateforme de surveillance des activités Front Office (trading & sales). 🎯 Objectif : développer une solution globale de monitoring couvrant communications, ordres et transactions , avec intégration de technologies avancées ( data, NLP, IA ). 🌍 Environnement international – Agile – délais réglementaires exigeants 🚀 Missions Recueil et formalisation des besoins métiers & use cases Rédaction des spécifications fonctionnelles & techniques Coordination avec les équipes Data, IT et Compliance Participation aux sprints Agile et suivi des livraisons Contribution à la stratégie data (analyse multi-sources, NLP/ML) Organisation et pilotage des tests UAT Animation des échanges avec les parties prenantes
Offre d'emploi
Data Engineer GCP Python, Spark, SQL Senior
KEONI CONSULTING
Publiée le
Agile Scrum
Data Engineering
Python
18 mois
20k-40k €
110-550 €
Paris, France
Contexte : La mission se déroulera en collaboration avec les autres équipes de la Data, au cœur de la plateforme Data. Cette équipe est composée d’un product owner, d’un data steward et de deux autres data ingénieurs. Notre stack technique est principalement constituée de Python, Spark, SQL pour les traitements de données, Airflow pour l’orchestration et Cloud Storage et Delta lake pour le stockage. La stack inclut aussi les services BigQuery, Dataproc, PubSub et Cloud Storage de la Google Cloud Platform et Terraform et Terragrunt pour la gestion de l’infrastructure. MISSIONS : 1. Collecter et centraliser les différentes sources de données non homogènes 2. Assurer la conformité et la sécurité des données 3. Participer aux initiatives de gouvernance des données En interaction avec les membres de l’équipe, la prestation consiste à : • Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l’équipe • Construire et maintenir de pipelines data robustes et scalables • Accompagner les membres de l’équipe dans l’exploitation et le requêtage des données • Organiser et structurer le stockage des données • Mettre en place et maintenir des infrastructures scalables capable de répondre aux besoins et à l’accroissement rapide du volume de données • Construire et maintenir les workflows de la CI/CD • Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur • Assurer l’évolutivité, la sécurité, la stabilité des environnements • Participer aux différentes instances des data ingénieurs • Contribuer et veiller à la mise à jour de la documentation • Faire de la veille technologique active dans le domaine Profil & Expertises demandées : • Au moins 3 ans d’expérience en tant que Data Ingénieur dans un environnement data • Compétences solides en data : structures de données, code, architecture • Expériences dans la conception et la réalisation de pipelines data • Expériences dans un environnement du cloud Google (GCP) • Expériences intégrant BigQuery et Dataplex Universal Catalog • Expériences intégrant les langages Python et SQL • Expériences intégrant Spark • Expériences intégrant delta lake • Expériences intégrant Terraform et Terragrunt • Expériences intégrant Gitlab et Gitlab CI/CD • Expériences intégrant les méthodologies Agile : Scrum ou Kanban • Capacité à vulgariser et à communiquer sur des aspects purement techniques Niveau d’expertise attendu : Sénior : plus de 5 ans d’expérience significative dans le type d’expertise demandé dans le type d’expertise demandé
Mission freelance
Architecte Entreprise IA — Mission de conseil (Liège, Belgique)
Cogniwave dynamics
Publiée le
Data governance
2 mois
Liège, Belgique
Contexte Pour une organisation industrielle basée dans la région de Liège, nous recherchons un Architecte Entreprise IA pour une mission de cadrage et de structuration de la trajectoire IA. La mission s'effectue 2 jours par semaine sur site , pour une durée initiale de 6 à 8 semaines , avec extension possible selon les conclusions. Modalités Présence sur site : 2 jours par semaine à Liège (Belgique) Durée initiale : 6 à 8 semaines , extension possible Démarrage : Fin Mai 2026 TJM : selon profil + 2 nuits d’hôtel par semaine pris en charge Mission Poser les fondations d'une trajectoire IA d'entreprise cohérente avec la stratégie industrielle du client, son SI existant et les contraintes propres au monde IT/OT. Le ou la titulaire dresse l'état des lieux, formalise une architecture cible, propose une feuille de route et un cadre de gouvernance permettant de prioriser et sécuriser les premiers cas d'usage IA. Responsabilités sur la mission Cartographier les cas d'usage IA existants ou potentiels (maintenance prédictive, contrôle qualité par vision, optimisation énergétique, supply chain, jumeau numérique, assistant documentaire technique) Réaliser un état des lieux du paysage data, IA et IT/OT Définir une architecture IA cible alignée sur le SI et les systèmes industriels existants Établir les principes de gouvernance IA : conformité EU AI Act, .. , gestion des risques modèles Arbitrer les choix structurants : cloud vs on-premise / edge, make or buy , plateformes data et MLOps Élaborer une feuille de route IA priorisée et chiffrée Restituer aux directions générale, industrielle et SI
Mission freelance
Administrateur N2 DATALAKE H/F
Cheops Technology
Publiée le
Data Lake
12 mois
400-410 €
Issy-les-Moulineaux, Île-de-France
Description Pour intervenir chez notre client : o Administration & Exploitation N1/N2 des socles composant la plateforme Datalake o Gestion des incidents de niveaux 1 et 2 (PVC, socle technique, outil, source, DAG, Backend, frontend, Cloudera) o Contribution à la GDP, diminuer significativement les incidents o Gestion des demandes de travaux o Déploiement des certificats et patch management pour les montées de version procédurées Livrables Production de documentation Astreintes permanentes et HNO selon planning
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
3140 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois