Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 2 830 résultats.
Freelance
CDI

Offre d'emploi
📩 Data Engineer Microsoft Fabric

Gentis Recruitment SAS
Publiée le
Apache Spark
Azure Data Factory
Azure Synapse

12 mois
40k-45k €
400-500 €
Paris, France
Nous recherchons actuellement un Data Engineer pour intervenir au sein d’un grand groupe international du secteur du luxe (cosmétique & parfums), dans le cadre du renforcement de ses équipes data. Contexte Vous interviendrez sur la mise en place et l’optimisation d’une plateforme data moderne basée sur Microsoft Fabric, avec des enjeux autour de la centralisation, de la transformation et de la valorisation des données métiers. Missions principales Développer et maintenir des pipelines de données sur Microsoft Fabric Participer à la conception de l’architecture data (Lakehouse, Data Warehouse) Intégrer et transformer des données issues de multiples sources Assurer la qualité, la fiabilité et la performance des flux de données Collaborer avec les équipes Data, BI et métiers Contribuer aux bonnes pratiques Data Engineering (CI/CD, monitoring, documentation) Stack technique Microsoft Fabric Azure Data Factory / Synapse (ou équivalent) Python / SQL Data Lake / Lakehouse Git / CI-CD Profil recherché 3 à 4 ans d’expérience en Data Engineering Première expérience sur Microsoft Fabric ou forte appétence sur l’écosystème Microsoft data Bonne maîtrise de Python et SQL Expérience sur des environnements cloud (idéalement Azure) Bon niveau d’anglais Soft skills Esprit analytique Autonomie Capacité à monter rapidement en compétence Bonne communication avec les équipes métiers
Freelance

Mission freelance
Consultant MSBI ( Snowflake, DBT, Terraform)

TAHYS RECRUITMENT SOLUTIONS
Publiée le
DBT
Microsoft Analysis Services (SSAS)
Microsoft SSIS

12 mois
Paris, France
Contexte de la mission Mon client est engagé dans une transformation data ambitieuse. Cette évolution les amène aujourd'hui à répondre à des besoins métiers croissants côté Snowflake. Pour renforcer leur équipe de 2 consultants experts BI déjà en place, ils recherchent un consultant BI/Data senior capable de monter rapidement en autonomie sur un environnement technique exigeant. Missions principales Répondre aux besoins métiers en matière de reporting et d'analyse de données Développer et maintenir des pipelines de données via dbt et Snowflake Contribuer à l'infrastructure data avec Terraform Produire et déployer des rapports Power BI (SSIS/SSAS, Power BI Services) Gérer les déploiements via GitHub Collaborer étroitement avec les équipes métier et technique
Freelance

Mission freelance
Consultant SAP FI/CO + Data Migration

ALLEGIS GROUP
Publiée le
SAP FICO

1 an
400-550 €
Clamart, Île-de-France
Dans le cadre d’un projet SAP Finance en cours, notre client recherche un Consultant SAP FI/CO confirmé , capable d’intervenir à la fois sur la conception fonctionnelle , l’accompagnement des métiers et les travaux de migration de données . Le consultant interviendra en renfort sur un périmètre critique pour la bascule de fin d’année . Responsabilités principales Participation aux ateliers avec les équipes Finance & Controlling Analyse des besoins et rédaction de la documentation fonctionnelle (spécifications, process…) Contribution aux activités de Data Migration : mapping, validation, reprise, contrôle de cohérence Accompagnement des utilisateurs, support UAT, correction des anomalies Collaboration étroite avec les équipes techniques (ABAP, Data, Basis) Suivi d’avancement et reporting auprès du chef de projet
Freelance

Mission freelance
Data Analyst (H/F) - 92 + Remote

Mindquest
Publiée le
AI
CRM
ETL (Extract-transform-load)

3 mois
250-450 €
Neuilly-sur-Seine, Île-de-France
Contexte Au sein de la fonction IT Commercial Excellence, le poste s’inscrit dans la mise en œuvre de la stratégie et de la feuille de route Digital Front-End, en étroite collaboration avec les parties prenantes métiers. Le rôle contribue également à l’innovation sur les processus, les outils et les technologies afin de soutenir la performance commerciale et la transformation digitale Mission principale La mission prioritaire consiste à piloter de bout en bout les activités de reporting et d’analytics pour un projet stratégique Route to Market en France, de la phase de définition jusqu’à la mise en œuvre opérationnelle. Le poste vise à fournir des solutions analytiques, stables, scalables et orientées métier, en s’appuyant sur les meilleures technologies du marché Responsabilités principales Piloter les activités de reporting et d’analytics de bout en bout sur des projets stratégiques Mettre en œuvre des solutions analytiques et technologiques en approche Agile Développer les capacités analytics et enrichir le portefeuille applicatif Concevoir des solutions adaptées aux besoins métiers, avec une forte orientation utilisateur Intégrer les technologies avancées de Data & AI dans les plateformes et processus Garantir la qualité, l’exploitabilité et l’organisation des données Définir les processus cibles et accompagner leur adoption par les métiers Identifier les tendances du marché, les meilleures pratiques et proposer des axes d’amélioration Évaluer les solutions aussi bien d’un point de vue conceptuel qu’opérationnel Soutenir les projets commerciaux clés au niveau local et européen Gérer les priorités locales et porter une vision régionale sur les processus et leur adoption Faire le lien entre la conception des processus et la capacité de delivery des solutions Interactions clés En interne : Parties prenantes Digital Front-End des différentes BU et BPO Équipes régionales centrales, solutions et digitales Responsables IT locaux et membres de l’équipe de direction IT Centre d’excellence Commercial Excellence Responsable IT Commercial Excellence Analyste IT Commercial Excellence En externe : Fournisseurs tiers AMS Parties prenantes Enjeux du poste Assurer un delivery agile et rapide de solutions adaptées aux besoins Stimuler l’innovation sur la donnée, les outils et les modes de fonctionnement Tirer parti des capacités digitales et analytiques internes et externes Concevoir une expérience utilisateur de qualité Mettre la donnée au cœur des dispositifs de pilotage et de transformation Intégrer l’analytics avancée et l’IA dans les usages métiers
CDI

Offre d'emploi
Lead Développeur Java F/H - Informatique de gestion (H/F)

█ █ █ █ █ █ █
Publiée le
Angular
AngularJS
Apache Kafka

Saint-Herblain, Pays de la Loire

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Business Data Analyst – Référentiel produits (F/H)

CELAD
Publiée le

1 an
400-500 €
Clermont-Ferrand, Auvergne-Rhône-Alpes
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 2 jours de télétravail / semaine - Clermont-Ferrand - Expérience de 5 ans minimum Envie de rejoindre une équipe où la tech et les projets stimulants sont au rendez-vous ? Cette opportunité est faite pour vous ! Nous poursuivons notre développement et recherchons actuellement un.e Business Data Analyst – Référentiel produits pour intervenir chez un de nos clients, dans le secteur industriel. Contexte : Dans le cadre d’un programme qui refond les référentiels produits et services du groupe, vous participerez à la construction et au déploiement d’une application stratégique pour la gestion du portefeuille produit Marketing. Voici un aperçu détaillé de vos missions : - Recueillir les besoins des partenaires et concevoir les processus et outils adaptés - Structurer l’étude et piloter le projet selon la méthodologie projet (General Design, Detail Design, Plan de tests). - Suivre la construction des référentiels et accompagner la migration des données (préparation, réalisation, analyse et traitement des écarts). - Produire les documents de changement, former les key-users et adapter la gestion du changement au contexte local - Assurer la qualité des données et coordonner les tests et validations avec l’architecture et les Data Owners
Freelance
CDI

Offre d'emploi
Data Analyst (H/F) – Big Data / Lutte contre la fraude

QODEXIA
Publiée le
Hadoop
PowerBI
PySpark

10 jours
Aix-en-Provence, Provence-Alpes-Côte d'Azur
QODEXIA est une société de services informatiques implantée en France et en afrique du nord. Partenaire performant, innovant, agile pour aider les entreprises dans leur transforamtion digitale. QODEXIA s'est spécialisée dans le digital, SAP et les nouvelles technologies, accompagne au quotidien les plus grands acteurs de l'industrie, de l'énergie, du Luxe, de la Banque et de l'Assurance sur leurs projets. L’IT est notre passion, les valeurs humaines sont notre capital, c'est de quoi notre ADN est composé. Data Analyst (H/F) – Big Data / Lutte contre la fraude Localisation : Aix-en-Provence Démarrage : ASAP Type de mission : Mission longue durée Contexte Dans le cadre d’un projet stratégique autour de la lutte contre la fraude , nous recherchons un Data Analyst capable d’exploiter et d’analyser les données du système d’information afin d’identifier des incohérences, détecter des comportements suspects et proposer des analyses à forte valeur ajoutée pour les équipes métiers. Le consultant interviendra dans un environnement Big Data et contribuera à la mise en place de cas d’usage analytiques et prédictifs.
Offre premium
Freelance

Mission freelance
Data Analyst - Expert Excel VBA

Keros group
Publiée le
Microsoft Access
Microsoft Excel
VBA

12 mois
300-450 €
Paris, France
Secteur : immobilier Dans le cadre d’un programme stratégique d’intégration de sociétés récemment acquises, nous recrutons un(e) Analyste Préparation de Données & Migration . Intégré(e) à la direction en charge des projets d’intégration, vous jouez un rôle clé dans : L’analyse et la compréhension des données sources Leur normalisation et préparation Leur migration vers les systèmes internes cibles Vous intervenez en interaction étroite avec les équipes IT, comptables, chefs de projets et équipes locales. Rattachement hiérarchique Poste rattaché à la Direction des Projets d’Intégration. Vos missions 1️⃣ Analyse, structuration et préparation des données Analyse des exports issus des outils métiers des sociétés intégrées Identification des spécificités et cas particuliers propres à chaque environnement Nettoyage, normalisation et organisation des données selon les standards internes Vérification de la complétude et de la cohérence des jeux de données 2️⃣ Réalisation des opérations de migration Préparation des jeux de données destinés aux imports Constitution des fichiers structurés par lots fonctionnels Réalisation des transcodages et enrichissements nécessaires Génération des fichiers destinés aux outils/kits de migration Tenue d’un journal des corrections et ajustements Contrôles post-migration : Rapprochements volumétriques (lots, contrats, interventions…) Rapprochements comptables (budgets, quittancement…) Contrôle de cohérence des références métiers Établissement d’une check-list finale et recensement des écarts 3️⃣ Contrôle qualité & sécurisation des données Mise à jour des tableaux de bord de contrôle Suivi des indicateurs qualité (taux de complétude, erreurs, écarts avant/après mapping) Identification, correction et documentation des anomalies Tenue d’un registre des écarts et actions correctives 4️⃣ Collaboration transverse Coordination avec les équipes IT, comptabilité et chefs de projets Interaction avec les agences locales pour clarifier et collecter les données Accompagnement et vulgarisation des besoins data 5️⃣ Standardisation & amélioration continue Documentation des règles, processus et modèles utilisés Optimisation continue des méthodes de transformation Proposition d’améliorations pour réduire les délais et fiabiliser les traitements Participation aux retours d’expérience post-migration Mise à jour des guides et templates opérationnels 6️⃣ Partage & montée en compétence Transmission des bonnes pratiques Contribution à la montée en compétence des équipes Modalités Déplacements ponctuels en agence possibles (audit et migration)
Freelance

Mission freelance
Data Engineer Informatica Talend Power B.I SQL (F/H)

CELAD
Publiée le
Big Data
Informatica
Microsoft Power BI

12 mois
400-460 €
Paris, France
Envie d’un nouveau challenge... CELAD vous attend ! 🚀 Nous poursuivons notre développement et recherchons actuellement un Data Engineer – Plateforme Epargne Financière pour intervenir chez un de nos clients du secteur bancaire. 💻💼 Voici un aperçu détaillé de vos missions 🎯 : - Sécuriser la gestion de l’actualisation de l’offre Epargne Financière en lien avec les équipes partenaires distributeurs et producteurs. - Faire évoluer la solution en respectant les standards à jour : implémentation de changements à valeur ajoutée pour le business et traitement de la dette technique. - Contribuer à la gestion du RUN et renforcer la robustesse de la solution. - Renforcer la supervision et la qualité des données.
Freelance

Mission freelance
Data Engineer Sénior (Hadoop / Python)

Les Filles et les Garçons de la Tech
Publiée le
Apache Spark
Hadoop
Python

12 mois
150-650 €
Lyon, Auvergne-Rhône-Alpes
Au sein du pôle Big Data d'un grand groupe, l'objectif principal de ce poste est de réaliser et de maintenir les développements nécessaires à l'alimentation du Datalake sur une plateforme Cloudera Hadoop, de mettre en place des extractions de données et d'accompagner les utilisateurs. Rattaché(e) au responsable Big Data, vous évoluerez dans un contexte de production à fortes attentes où la tenue des délais de livraison et le pilotage opérationnel sont primordiaux. Vos principales missions seront les suivantes : Développement et intégration : Prendre en charge les évolutions des données à intégrer et reprendre les développements existants pour l'alimentation du Datalake. Vous développerez également des extractions avec un niveau d'expertise en SQL et créerez des scripts Shell avancés pour l'automatisation. Expertise technique et mentorat : Spécifier techniquement les tâches, fournir des requêtes de référence, effectuer des revues de code et accompagner les collaborateurs juniors, stagiaires ou alternants. Support et accompagnement : Assurer le support de niveau 2, faire appliquer les bonnes pratiques et consignes aux utilisateurs, et rédiger la documentation requise (guides, description de processus). Optimisation et maintenance : Garantir la maintenabilité, les performances et l'exploitabilité de la plateforme en respectant l'utilisation des modèles référencés par la Gouvernance de la Donnée. Vous optimiserez les traitements de la plateforme et ceux des utilisateurs, et mènerez des investigations (reverse engineering) dans une architecture héritée complexe
CDD
CDI
Freelance

Offre d'emploi
 Ingénieur Marchine Learning (ML)

KEONI CONSULTING
Publiée le
Gitlab
Python
SQL

18 mois
20k-60k €
100-500 €
Paris, France
Contexte La Direction Data a 3 grandes missions : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l’expérience utilisateur et mettre à disposition auprès des équipes internes des outils de pilotage et d’aide à la décision. Afin d’améliorer la personnalisation de l’expérience utilisateurs, nous souhaitons créer une équipe dédiée, travaillant sur des sujets de recommandation et de machine learning en production. Cette équipe est composée d’un Product Owner, un Data Scientist, un lead ML ingénieur et un ML ingénieur. Notre stack technique est basée sur Google Cloud et constituée, entre autres, de Python, Vertex AI, BigQuery, Cloud Run et Airflow pour l’orchestration des traitements. La stack inclut aussi d’autres services de la Google Cloud Platform. MISSIONS : 1. Créer un premier cas d’usage en lien avec la personnalisation de l’expérience utilisateur 2. Déployer ce projet et AB tester en production 3. Mettre en place un monitoring et un contrôle des performances En interaction avec les membres de l’équipe, la mission consiste à : Concevoir, construire et maintenir des pipelines ML robustes et scalables de la collecte des données à l’exposition des modèles via des API Rest Organiser et structurer le stockage des données Assurer l’évolutivité, la sécurité, la stabilité des environnements Mettre en place et maintenir les infrastructures scalables capable de répondre aux besoins et au volume de données Industrialiser les modèles IA en lien avec les data scientists Construire et maintenir les workflows de la CI/CD Collaborer avec les data ingénieurs et les autres équipes techniques pour appliquer les bonnes pratiques en vigueur Contribuer et veiller à la mise à jour de la documentation Faire de la veille technologique active dans le domaine Participer activement aux différentes phases de cadrage, de planification et de réalisation des tâches avec l’équipe Expertises demandées pour la réalisation de la prestation : Au moins 3 ans d’expérience dans un environnement data / machine learning Expériences dans le déploiement en production de modèles de machine learning Expériences sur la Google Cloud Platform Expériences avec des technologies de type Flask ou FastAPI Maîtrise des langages Python et SQL Solides connaissances en data : structures de données, code, architecture Connaissances de l’infrastructure-as-code (Terraform) Connaissances du Machine Learning, des concepts liés à l’IA Connaissances des technologies liées à l’IA : tensorflow, sklearn etc Connaissances de Gitlab et Gitlab CI/CD Capacité à vulgariser et à communiquer sur des aspects purement techniques Pratique des méthodes Agile : de préférence Scrum ou Kanban
CDI

Offre d'emploi
Ingénieur Devops & production H/F

ECONOCOM INFOGERANCE ET SYSTEME
Publiée le

40k-50k €
Saint-Paul-lès-Durance, Provence-Alpes-Côte d'Azur
L'activité Services en région Provence-Alpes-Côte d'Azur accompagne plus de 40 clients grands comptes et institutions publiques dans tout secteur d'activité dans la transformation de leur système d'information, à travers la mise à disposition de moyens humains et techniques. Au sein de l'équipe Application Management de notre client, grand acteur dans le domaine de l'énergie, vous contribuez à la fiabilité, l'automatisation et l'amélioration continue des environnements applicatifs. Vos responsabilités : • Conception collaborative : Intervenir en amont des projets en collaboration avec les équipes de développement et d'architecture afin d'intégrer les contraintes d'exploitation dès la phase de conception et garantir la robustesse et la maintenabilité des solutions • Veille technologique : Assurer une veille active et être force de proposition sur les nouvelles technologies et pratiques (Infrastructure as Code IaC, Kubernetes, observabilité, automatisation de la sécurité et outils DevOps) • Automatisation avancée : Concevoir, développer et maintenir des pipelines CI/CD robustes et sécurisés afin d'accélérer et fiabiliser le déploiement des applications sur des environnements complexes (cloud, on-premise et conteneurisés) • Ingénierie de production : Piloter les mises en production et assurer le bon fonctionnement des applications (surveillance, gestion des incidents, optimisation des performances et amélioration de la scalabilité des systèmes) • Support et collaboration : Accompagner les équipes d'exploitation et de développement, faciliter la résolution des incidents et contribuer à la diffusion des bonnes pratiques DevOps au sein de l'organisation • Intégration & qualification : Valider et qualifier les packages applicatifs (.NET, Java, microservices) dans un environnement multi-plateformes avant leur déploiement en production L'environnement technique : Kubernetes, Jenkins, GitLab CI, GitHub Actions, Terraform, Ansible, Puppet, Chef, Terraform, Docker, OpenShift, Cloud (AWS, Azure, GCP), Python, Bash, Java, Prometheus, Grafana, ELK Stack, Git (GitFlow), SonarQube, Maven, Nexus • La qualité de vie au travail : télétravail avec indemnité, évènements festifs et collaboratifs, accompagnement handicap et santé au travail, engagements RSE Référence de l'offre : 0w58lqbmiz
Freelance

Mission freelance
Offre d’emploi – Développeur Confirmé Python / React – Bordeaux

Tenth Revolution Group
Publiée le
Python
React

12 mois
350-540 €
Bordeaux, Nouvelle-Aquitaine
Nous recherchons un Développeur Confirmé Python / React pour renforcer l’équipe tech d’une entreprise innovante basée à Bordeaux . Vous interviendrez sur des projets web à forte valeur ajoutée, avec un fort niveau d’autonomie et de responsabilité technique. 🎯 Missions Développer et maintenir des applications web en Python (FastAPI, Django ou Flask) . Concevoir et améliorer des interfaces frontend modernes en React . Participer aux choix techniques et à l’architecture applicative. Écrire du code propre, testé, maintenable (tests unitaires, CI/CD). Optimiser les performances backend et frontend. Collaborer avec les équipes produit, design et data. Contribuer aux bonnes pratiques : revues de code, documentation, veille. 🧰 Compétences requises Python : maîtrise confirmée, API REST, bonnes pratiques. React : composants fonctionnels, hooks, état global (Redux/Zustand). Expérience avec une stack moderne : Docker, Git, CI/CD. Bonne compréhension des architectures cloud (AWS, GCP ou Azure). Capacité à analyser des problèmes complexes et proposer des solutions robustes. Connaissance SQL / NoSQL appréciée. ⭐ Profil recherché 3 à 5 ans d’expérience en développement web. Autonomie, rigueur et sens du produit. Culture de la qualité et de la performance. Capacité à travailler dans un environnement agile (Scrum/Kanban).
Freelance

Mission freelance
Administrateur Plateforme Data (Cloudera & Open Source)

VISIAN
Publiée le
Administration linux
Bash
Cloudera

1 an
400-470 €
Île-de-France, France
Contexte Dans le cadre du développement d’une plateforme Data & IA au sein d’un grand groupe du secteur financier , nous recherchons un Data Platform Engineer / Administrateur Data pour assurer l’administration, l’évolution et la fiabilité des infrastructures Data. Vous interviendrez sur des environnements Big Data basés sur l’écosystème Cloudera et Open Source , au sein d’équipes techniques et métiers. Missions Administration et exploitation des plateformes Data Administrer et maintenir les plateformes Big Data en condition opérationnelle Superviser les systèmes et assurer la maintenance corrective et évolutive Intervenir sur la résolution d’incidents complexes sur les plateformes Data Conception et gestion des flux de données Identifier les besoins métiers en matière de collecte et stockage de données Développer des solutions d’ingestion de données (API, pipelines) Concevoir des architectures de stockage robustes (Data Lake / Big Data) Automatiser les traitements via batchs et pipelines de données Valorisation et gouvernance des données Industrialiser les processus de transformation et de nettoyage des données Gérer des bases de données hétérogènes et multi-sources Garantir la conformité et la gouvernance des données Industrialisation Data Science / IA Industrialiser le déploiement de modèles statistiques et machine learning Mettre en place des mécanismes de validation et monitoring des modèles Assurer le suivi opérationnel des modèles intégrés aux applications Contribution aux projets Data Définir les spécifications techniques Assurer le reporting d’avancement auprès du pilotage projet Apporter un support technique aux équipes métiers et applicatives Le poste peut inclure des astreintes par rotation et une participation à la continuité de service des plateformes Data .
Freelance

Mission freelance
Architecte Technique Intégration de Flux – MuleSoft / Kafka / MQTT

Groupe Ayli
Publiée le
Apache Kafka
API
ArchiMate

12 mois
400-600 €
Malakoff, Île-de-France
🎯 Contexte Dans le cadre d’un vaste programme de transformation digitale, la DSI d’un grand groupe industriel international renforce sa gouvernance des flux applicatifs entre les systèmes Enterprise et les systèmes Industriels. Ces environnements – bien que segmentés pour des raisons de sécurité – sont fortement interconnectés. Le groupe souhaite donc disposer d’architectures d’intégration robustes, sécurisées et conformes aux standards d’urbanisation IT définis à l’échelle internationale. Le consultant rejoindra l’équipe Solution Design & Architecture as a Service , au sein du département Enterprise Architecture , afin d’intervenir sur la conception d’architectures d’intégration et l’accompagnement des projets. 🔧 Environnement technique AWS (services natifs, data transfer) MuleSoft Kafka MQTT Architecture d’intégration inter-systèmes Urbanisation du SI CI/CD Environnements industriels sécurisés 🎯 Objectif de la mission L’objectif est de prendre en charge la conception et la structuration des architectures d’intégration applicative sur les projets nécessitant l’échange de données entre SI Enterprise et SI Industriels. 💼 Missions principales Concevoir les architectures techniques de flux applicatifs Garantir la cohérence et l’ urbanisation des échanges inter-systèmes Produire les livrables d’architecture (HLD / LLD) Accompagner les équipes techniques lors de la mise en œuvre Assurer la conformité avec les standards IT & sécurité du groupe Participer aux comités et validations d’architecture Contribuer à l’évolution des standards techniques globaux 📌 Prestations attendues 🧩 Architecture & Design Analyse des besoins métiers Conception d’architectures d’intégration inter-applicatives Modélisation des composants et flux techniques Urbanisation des flux Définition de patterns d’intégration Participation aux comités d’architecture 🧠 Conseil & Expertise Support aux équipes projets et delivery Accompagnement au déploiement des solutions Contribution aux normes et standards IT Support aux équipes sécurité / architecture Contrôle de la conformité technique 📊 Gouvernance & Delivery Participation aux comités techniques Support aux phases de validation Accompagnement à la mise en production Suivi des activités et reporting 📄 Livrables attendus HLD (High Level Design) LLD (Low Level Design) / Design technique détaillé Patterns & modèles d’architecture Documentation technique d’intégration Recueil des besoins métiers Rapports hebdomadaires Contribution aux comités de validation
CDI
Freelance

Offre d'emploi
Consultant Power BI / Azure Data Factory (H/F)

Webnet
Publiée le
Azure
Azure Data Factory
BI

12 mois
48k-55k €
480-550 €
Paris, France
Dans le cadre du renforcement d’une équipe Data, nous recherchons un Consultant Power BI / Azure Data Factory pour intervenir sur des projets décisionnels dans un environnement Microsoft Azure . Vous aurez pour missions : Au sein de l’équipe Data et en collaboration avec le chef de projet, vous interviendrez sur les activités suivantes : Développer et faire évoluer des rapports et tableaux de bord Power BI Concevoir et maintenir des pipelines de données avec Azure Data Factory Développer et optimiser des scripts SQL, vues et procédures stockées Participer à la modélisation des données Proposer des optimisations de performance et d’architecture Data Rédiger la documentation technique et les spécifications Gérer le versionning du code via Git / TFS Participer aux processus de déploiement CI/CD Préparer les livrables pour les mises en production

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

2830 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous