Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 4 154 résultats.
CDI
Freelance

Offre d'emploi
Développeur Python (H/F)

Aleysia
Publiée le
Agile Scrum
Big Data
Docker

12 mois
Grenoble, Auvergne-Rhône-Alpes
Tu as l'esprit d'initiative et tu aimes travailler dans un environnement stimulant, postule sans attendre à cette offre de Développeur·se Python qui est faite pour toi ! 🚀 Ton challenge si tu l’acceptes : Développer des solutions innovantes en Python, avec un code optimisé, clair et bien documenté. Intégrer des API et interagir avec des bases de données relationnelles et / ou non relationnelles Contribuer à la pérennité et à l'évolution des applications en assurant leur maintenance et en proposant des améliorations continues. Être un acteur clé de la qualité du code en concevant et en mettant en œuvre des tests unitaires et d'intégration robustes. Suivre les bonnes pratiques de développement et participer au revue de code Travailler en méthodologie Agile/Scrum et participer aux réunions d’équipe
CDI

Offre d'emploi
Consultant DataOps / Administrateur Hadoop

Craftman data
Publiée le
Ansible
CI/CD
Docker

La Défense, Île-de-France
Dans le cadre de ses projets Big Data internes, notre client recherche un Consultant DataOps & Administrateur Hadoop confirmé , intégré à l’équipe BDP (Big Data Platform) . Le consultant interviendra sur le déploiement, l’industrialisation, l’exploitation et le maintien en condition opérationnelle de clusters Big Data personnalisés, basés sur la TOSIT Data Platform (TDP) , au service des projets data et métiers. 🎯 Rôle et responsabilités 1. Déploiement & industrialisation des clusters Big Data Déploiement automatisé de clusters via pipelines Jenkins Installation et configuration des composants Hadoop via Ansible Adaptation des architectures selon les besoins projets (sécurité, performance, capacité) Contribution aux pratiques CI/CD et Infrastructure as Code Déploiement et administration du TDP Manager Mise en place de Hue pour les environnements Datalab 2 . Administration avancée de la stack Hadoop / TDP Le consultant est responsable de l’installation, la configuration et l’exploitation de : Sécurité & identités : OpenLDAP Kerberos Ranger (politiques de sécurité) Stockage & calcul distribué : HDFS (baie Huawei) Hadoop (YARN, services core) Traitement & accès aux données : Spark Hive Services transverses : ZooKeeper PostgreSQL Responsabilités associées : Gestion des dépendances inter-services Cohérence des versions Optimisation des performances et de la stabilité Résolution des incidents complexes 3. Provisionnement & automatisation des environnements Provisionnement de VM sous VMware Préparation des prérequis systèmes (OS, réseau, stockage) Automatisation via Ansible et scripts Bash Gestion des environnements DEV / RECETTE / PROD 4. Observabilité, supervision & anticipation Mise en œuvre et maintien de la stack d’observabilité : Prometheus Alertmanager Loki / Promtail Grafana Définition des indicateurs de supervision Analyse proactive des alertes Diagnostic et résolution d’incidents 5. Maintien en Condition Opérationnelle (MCO) Administration quotidienne des clusters Hadoop Support aux équipes projets et utilisateurs Datalab Gestion des incidents, demandes d’évolution et correctifs Montées de version Suivi de capacité (CPU, RAM, stockage) Rédaction et mise à jour de la documentation technique 🤝 Interaction & posture attendue Participation active aux rituels d’équipe Coordination avec : Équipes infrastructure Équipes projets data / métiers Référents sécurité Capacité à accompagner et conseiller les équipes dans l’usage de la plateforme Forte capacité de communication transverse 🧠 Compétences clés attendues Techniques Expertise Hadoop / Big Data on-prem Solide expérience DataOps / DevOps Maîtrise de : Jenkins, GitLab CI/CD, SonarQube Ansible, Bash VMware, Docker Stack d’observabilité (Prometheus, Grafana, Loki) Méthodologiques & soft skills : Rigueur et sens de la qualité Forte sensibilité aux enjeux de sécurité Capacité d’anticipation (supervision, performance, capacité) Autonomie et esprit d’équipe Aisance dans des environnements complexes et critiques ⚠️ Points de vigilance Forte interdépendance des composants Hadoop Exigences élevées en matière de sécurité (Kerberos, Ranger) Enjeux de performance et de disponibilité Nécessité d’une coordination transverse permanente
Freelance

Mission freelance
Développeur Data ETL

Lùkla
Publiée le
ETL (Extract-transform-load)

2 ans
400-600 €
Paris, France
En tant que Développeur Data ETL: Contribuer au développement, à la livraison et à la maintenance des applications Talend ou Informatica Participer à la conception, aux tests et la documentation de la nouvelle solution Veiller à la conformité selon les meilleures pratiques de développement et directives de sécurité. Livrables attendus: Atelier, conception et documentation de conception Développement d’applications, tests unitaires et livraison Prise en charge des phases UAT Technologies : Talend, Informatica PowerCenter & IDMC, Oracle, Unix.
Freelance

Mission freelance
Data Engineer

Freelance.com
Publiée le
Amazon Redshift
Apache NiFi
API

1 an
400-480 €
Saint-Denis, Île-de-France
Dans le cadre du développement de son système d’information décisionnel, un grand groupe français renforce sa plateforme data dédiée au pilotage des activités immobilières. La mission s’inscrit dans l’évolution d’un hub de données centralisé , permettant de consolider, partager et valoriser les données métiers pour des usages analytiques avancés : pilotage opérationnel, reporting, data visualisation et ouverture vers des cas d’usage d’intelligence artificielle. Cette plateforme data, déployée depuis 2022, repose sur une architecture Lakehouse moderne dans le cloud AWS , et s’appuie sur des technologies telles que Databricks, NiFi, Redshift et Power BI . L’équipe data actuelle développe et maintient plusieurs applications analytiques visant à améliorer l’exploitation et la qualité des données au service des métiers. En tant qu’ Expert Data Engineer , vous interviendrez sur la conception, l’évolution et l’exploitation du hub de données. Vos principales responsabilités seront : Engineering & Data Platform Assurer la maintenance et l’optimisation des chaînes de traitement existantes (Python, SQL, Databricks, Power BI) Développer de nouveaux pipelines de données pour intégrer de nouvelles sources dans le Data Lake (Batch, API) Participer aux travaux de modélisation et d’urbanisation du hub de données Identifier, collecter, transformer et stocker les données nécessaires à l’alimentation des modèles analytiques Implémenter des algorithmes et traitements avancés exploitant les données du Data Lake Analyse & accompagnement métier Participer aux ateliers avec les métiers afin de formaliser les besoins Rédiger les expressions de besoins et spécifications fonctionnelles Définir les règles de calcul et d’agrégation des indicateurs Proposer des solutions adaptées aux enjeux d’analyse et de pilotage Descriptif de la mission Data visualisation & reporting Concevoir et développer des tableaux de bord et rapports Power BI Automatiser les processus de reporting Produire des indicateurs et restitutions analytiques pour les utilisateurs métiers Documentation & gouvernance Rédiger les spécifications techniques et fonctionnelles Documenter les règles d’alimentation du datawarehouse et les modèles de données Contribuer à la documentation des règles de sécurité et de gouvernance des données Participer aux plans de tests, recettes et supports utilisateurs
Freelance

Mission freelance
Développeur BOARD (H/F)

Nicholson SAS
Publiée le
Azure
Board
Data Lake

1 an
350 €
Clermont-Ferrand, Auvergne-Rhône-Alpes
Nous recherchons un Développeur BOARD pour intégrer des projets Data d'envergure. Vous interviendrez de la conception jusqu'au déploiement en production, tout en assurant un support de niveau 3. 📍 Modalités Lieu : Clermont-Ferrand (Hybride : 3 jours/semaine sur site) Date de début : 04/05/2026 Durée : Jusqu'au 03/05/2027 (renouvelable) Budget TJM : 350 € 🎯 Missions principales Conception et configuration d'applications via la solution BOARD. Accompagnement du cycle de vie : du développement jusqu'à la mise en production. Support L3 : support aux tests d’acceptation utilisateurs (UAT) et résolution d'incidents complexes. Communication : vulgarisation de concepts techniques auprès des métiers. 🛠 Compétences techniques Incontournables (Mandatory) : BOARD (Expertise outil) Ecosystème Data : Databricks, Azure Data Lake, Power BI Fondamentaux : Concepts BI, analyse de données. Langues : Anglais opérationnel. Souhaitées (Nice to have) : Méthodologie AGILE. Appétence pour l'analyse fonctionnelle (Business Analysis).
Freelance

Mission freelance
Senior Data Product Manager/ Data Mesh/ Cloud AWS & AZURE / Anglais (H/F)

Octopus Group
Publiée le
BI
Dataiku
Finance

6 mois
550-680 €
La Défense, Île-de-France
Nous recherchons pour le compte de notre client grand-compte en finance, Senior Data Product Manager Contexte de la mission : Il s'agit d'un poste à la fois stratégique et hautement opérationnel, chargé de la mise en œuvre concrète et du déploiement de la plateforme de données en libre-service du Groupe, fondée sur les principes du Data Mesh. Le Senior Data Product Manager est responsable de la mise en œuvre pratique, de l'industrialisation et de l'adoption à l'échelle de l'entreprise de la plateforme dans l'ensemble des domaines d'activité. Ce poste requiert un profil orienté vers la construction et l'exécution, capable de définir la vision et de la traduire en une plateforme évolutive, de qualité production et utilisable à grande échelle. Mission Principale : Concevoir, construire, déployer et exploiter la plateforme Data Mesh du Groupe (appelée Group Data Platform - GDP) en tant que produit interne, en garantissant sa mise en œuvre technique, son adoption par l'entreprise, l'excellence opérationnelle et l'amélioration continue. Gestion de produit (axée sur l'utilisation) et amélioration continue Responsabilités : Identifier les besoins des utilisateurs et les exigences de la plateforme Définir la vision du produit et la feuille de route Mesurer l'utilisation et la création de valeur Améliorer l'expérience des développeurs et des utilisateurs Résultats attendus : Vision du produit et proposition de valeur Indicateurs clés de performance (KPI) de la plateforme et mesures d'adoption Boucles de retour d'information des utilisateurs et liste des améliorations à apporter Feuille de route pour l'amélioration de la plateforme Fourniture de la plateforme (responsabilité principale) Responsabilités : Définir les capacités de la plateforme (produits de données, pipelines, gouvernance, observabilité, accès en libre-service) Définir et faire respecter les normes techniques et les modèles d'architecture Prendre des décisions techniques concrètes et valider les solutions Livrables attendus : Comptes rendus des décisions d'architecture (ADR) Modèles d'architecture de référence et gabarits réutilisables Feuille de route des capacités de la plateforme Normes techniques de la plateforme Architecture et infrastructure cloud Responsabilités : Coordonner la conception et l'exploitation de l'architecture cloud et hybride en collaboration avec l'architecte de données du groupe Coordonner avec l'équipe de mise à disposition des données du groupe la mise en œuvre sur Amazon Web Services et Microsoft Azure Diriger l'intégration des systèmes sur site Veiller au respect des exigences en matière de sécurité et de conformité Résultats attendus : Plan directeur de l'architecture cloud (avec l'aide de l'architecte de données du groupe) Cadre de sécurité et de gestion des accès Gestion de la livraison et de l'exécution Responsabilités : Gérer le cycle de vie de la livraison de la plateforme Définir le backlog et le processus de hiérarchisation des priorités Gérer les versions et le déploiement en production Suivre les performances et la fiabilité Gérer les risques et les problèmes techniques Livrables attendus : Feuille de route de la plateforme (court / moyen / long terme) Backlog produit et cadre de priorisation Plan de lancement et processus de gestion des versions Tableaux de bord de suivi des livraisons SLA de la plateforme / indicateurs de fiabilité Déploiement et adoption par les domaines métier Responsabilités : Déployer la plateforme dans l'ensemble des domaines métier Permettre aux équipes métier de créer des produits de données Mettre en œuvre le modèle opérationnel Data Mesh Accompagner l'intégration et l'adoption Résoudre les difficultés opérationnelles liées à l'adoption Résultats attendus : Cadre et processus d'intégration des domaines métier Directives relatives au cycle de vie des produits de données Guides de mise en œuvre pour les domaines métier Indicateurs d'adoption et d'utilisation Supports de formation et documentation d'intégration Documentation, normalisation et gouvernance Responsabilités : Documenter les capacités et les processus de la plateforme Veiller au respect de la gouvernance fédérée des données computationnelles du groupe Résultats attendus : Référentiel de documentation de la plateforme Normes techniques et directives de mise en œuvre Cadre de gouvernance et de conformité Guides des meilleures pratiques Communication opérationnelle et rapports à la direction Responsabilités : Communiquer sur l'avancement et l'impact de la plateforme Fournir des rapports destinés à la direction Assurer la coordination entre les parties prenantes Livrables attendus : Tableau de bord du projet destiné à la direction Tableaux de bord sur les performances de la plateforme Présentations au comité de pilotage Suivi des décisions, des risques et des problèmes Promotion interne et évangélisation Responsabilités : Promouvoir la valeur de la plateforme au sein de l'organisation Soutenir les initiatives d'adoption en interne Développer la communauté autour de la plateforme Livrables attendus : Supports de communication internes relatifs à la plateforme Stratégie d'adoption et plan de déploiement Démonstrations de la plateforme et recueil de cas d'utilisation
Freelance

Mission freelance
Tech Lead GCP / Data Engineering Senior (H/F)

HOXTON PARTNERS
Publiée le
BigQuery
Google Cloud Platform (GCP)
SQL

12 mois
Paris, France
Description du poste Dans le cadre d’un programme de transformation data de grande ampleur au sein d’un acteur international du secteur du luxe, nous recherchons un Tech Lead GCP senior pour intervenir sur des use cases commerce à forte valeur métier. L’enjeu principal de la mission est de concevoir et piloter des architectures data sur Google Cloud Platform afin de unifier l’expérience client online et offline , en structurant des socles de données capables d’alimenter les usages analytiques, les KPIs business et les dispositifs de pilotage associés. Le consultant ne sera pas positionné comme un simple data engineer, mais bien comme un profil expert GCP / Tech Lead , capable de porter la vision technique, de guider les choix d’architecture et d’accompagner les équipes sur la mise en œuvre. Il interviendra dans un environnement où la donnée doit permettre de mieux comprendre les parcours clients, de rapprocher les interactions digitales et physiques, et de renforcer la performance des usages commerce. Les responsabilités incluent notamment : Concevoir et faire évoluer des architectures data sur Google Cloud Platform Piloter techniquement la mise en place de solutions permettant de connecter et valoriser les données online et offline Définir et structurer des pipelines de données robustes, industrialisés et scalables Exploiter et optimiser BigQuery pour le stockage, la transformation et l’analyse de données à grande échelle Participer à la modélisation des données nécessaires aux indicateurs business et aux cas d’usage commerce Encadrer les choix techniques autour des flux de données, de la qualité, de la performance et des coûts Collaborer avec les équipes data, analytics et métiers pour produire des jeux de données exploitables Accompagner techniquement une équipe et jouer un rôle de référent sur les sujets GCP Contribuer à la mise à disposition des données pour les dashboards et outils de visualisation Participer à l’amélioration continue des architectures et des pratiques d’industrialisation
Freelance

Mission freelance
Data Analyst

PARTENOR
Publiée le
Dataiku
Google Cloud Platform (GCP)
Gouvernance

1 an
Puteaux, Île-de-France
Notre client réalise une transformation de sa plateforme Data vers la Google Cloud Plateform avec l'adoption de Dataiku en outil de data préparation. Au sein de la direction Intelligence de la donnée, le département Data Management et Business Intelligence a pour objectif de réaliser sa propre transformation et d'accompagner les directions utilisatrices de GCP/Dataiku à exploiter la plateforme dans le cadre défini, de déployer la gouvernance associée et de l'ajuster dans une démarche d'amélioration continue. Nous recherchons un(e) Data analyst pour aider à accompagner cette transformation. Ces travaux mixent des aspects de pilotage, d'accompagnement au changement et de développements BI Data management, Accompagnement au changement, Data-préparation (Dataiku), plateforme GCP.
Freelance

Mission freelance
Développeur confirmé DATABRICKS (Lyon)

SQLI
Publiée le
Azure Data Factory
Java

1 an
450-560 €
Lyon, Auvergne-Rhône-Alpes
Hello, Pour le compte de l'un de mes clients Lyonnais, je suis à la recherche d'un développeur confirmé Databricks. QUALITES RECHERCHEES : • Connaissances avancées fonctionnelles des technologies suivantes : Postgres, PowerBI, Databreaks, Angular/React en mode Cloud et On Primise au possible • Pilotage / Supervision technique haut niveau de l’équipe en fonction des besoins • Expérience significative dans la mise en oeuvre de besoin impliquant plusieurs SI • Force de proposition sur l’amélioration de la surveillance de l’application et sur les évolutions techniques de l’application • Capacité à prendre du recul et à avoir une vision globale sur les technologies utilisées • Capacité à gérer les contraintes de délai et les périodes de stress inhérentes au projet • Expérience dans l’analyse des besoins techniques et dans l’animation d’ateliers techniques • Bonne communication et bonne capacité à s’adapter à ses interlocuteurs • Une expérience dans l'énergie serait un plus
CDI

Offre d'emploi
Tech Lead - Développeur Java H/F

█ █ █ █ █ █ █
Publiée le
Apache Kafka
Big Data
CI/CD

Brest, Bretagne

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Data Base Administrator

VISIAN
Publiée le
Database
MariaDB
Microsoft SQL Server

1 an
300-380 €
Île-de-France, France
L’administrateur/administratrice de base de données conçoit, gère et administre les systèmes de gestion de bases de données. Sa principale mission est de garantir la cohérence, la qualité, la sécurité et l’accessibilité permanente des informations. Périmètre détaillé : Administration : Effectue le choix d'implémentation des bases de données. Crée les bases en liaison avec l’administrateur système et les chefs de projets concernés. Met en œuvre les logiciels de gestion de bases de données. Effectue l'adaptation, l'administration et la maintenance de ces logiciels. Met en exploitation et en gestion les serveurs de données (administration, automatisation, développement des procédures, sécurité et autorisation d’accès, optimisation des traitements et des requêtes…). Crée, à la demande des domaines ou de l’exploitation, les outils spécifiques d’aide à l’exploitation. Exploitation : Assure l’intégrité des bases de données existantes en garantissant la sécurité physique (procédures de sauvegarde, restauration, journalisation, démarrage après incidents…) et logique (confidentialité, accès). Met en œuvre les outils de surveillance. Règle les paramètres des bases de données pour une utilisation optimale. Support : Assiste les utilisateurs (formation, requêtes techniques…). Effectue un support technique de second niveau pour l’ensemble des bases de données. Possède un rôle de correspondant technique entre les chefs de projets et le support technique des éditeurs. Études et contrôles : Assure une veille technologique sur les SGBD et les progiciels retenus par l’entreprise. Suit et contrôle les évolutions de version des bases existantes et progiciels retenus par l’entreprise. Teste, valide, pour les aspects techniques, tous les logiciels et progiciels. Définit les normes et standards d’utilisation et d’exploitation des SGBD. Livrables : Bases de données avec des temps d'accès raisonnables. Documentation sur la structure de la base et les procédures d'exploitation et de production.
Freelance

Mission freelance
Ingénieur IA GenAI/ Knowledge Graph/ Mcp Service 600 e par j

BI SOLUTIONS
Publiée le
GenAI
MCP

2 ans
400-600 €
Île-de-France, France
Ingénieur IA GenAI/ Knowledge Graph/ Mcp Service 600 e par j Développement d’agents intelligents Le consultant interviendra sur la conception et l’amélioration d’agents basés sur des frameworks comme Google ADK ou LangChain / LangGraph. Ces agents devront être capables de comprendre des besoins métier (optimisation de contenu), d’interagir avec des sources de données et de générer du contenu pertinent et contextualisé. Exploitation de la donnée (RAG / Knowledge Graph) La mission inclut la mise en place de pipelines de données depuis BigQuery vers un Knowledge Graph. L’objectif est d’alimenter les agents avec des données structurées et fiables, dans une logique de Retrieval-Augmented Generation (RAG), afin d’améliorer la pertinence des outputs générés. Orchestration et intégration (MCP servers) Le consultant devra développer ou refondre des serveurs MCP qui servent de couche d’orchestration entre les agents GenAI et les systèmes externes. Cela permet aux agents d’accéder à des APIs, de manipuler des données et d’exécuter des actions dans l’écosystème existant. Finalité Mettre en place une IA capable de générer, enrichir et optimiser automatiquement du contenu web, en s’appuyant sur des données internes et en étant intégrée aux outils métiers. 600 e par jour
Freelance

Mission freelance
249595/DATA Q Ingenieur - Snowflake , Dataiku , 'ELT ou ETL, Python et SQL

WorldWide People
Publiée le
Snowflake

6 mois
Saint-Denis, Île-de-France
DATA Q Ingenieur - Snowflake Confirmed, Maitrise de Dataiku Confirmed, Familier avec le concept d'ELT ou ETL Expert, Modélisation de données Confirmed, Expertise SQL, Python Expert, Connaissance technique de l'environnement Data (architecture medaillon, principe des data mesh) Confirmed , Votre rôle axé Analytics Engineer sera de : - Transformer, modéliser et documenter les données brutes pour les rendre exploitables - Développer des modèles et produits de données axés conformité pour alimenter la base graphe en partant des données brutes des applications - Maintenir en condition opérationnel nos flux d'ingestion vers la base de données graphes - Améliorer des processus de traitement des données pour gagner en rapidité et en efficacité. - Créer et mettre à jour de la documentation pour aider à l’utilisation des produits de données. - Automatiser des tests de contrôle et surveillance de la qualité pour garantir l’intégrité des données traitées. - Produire des analyses à destination de nos métiers pour le calibrage de scénarios de fraude ou vigilance LCB-FT - Collaborer avec les différentes parties prenantes (notamment les Data Engineers et les métiers de la fraude et LCB-FT) pour enrichir les données de la base de données graphes en fonction de leur besoin - Collaborer avec l'équipe Data Plaform en mettre en production les différents produits de données"
CDI

Offre d'emploi
Développeur IA H.F

NSI France
Publiée le
Agent IA
IA Générative
Python

Paris, France
Acteur majeur dans le domaine IT, depuis notre création en 1993, nous n'avons cessé de croître et d'évoluer. Avec une équipe dévouée de près de 1.400 collaborateurs répartis sur plusieurs sites en Belgique, au Luxembourg, en France et au Canada, NSI a suivi une trajectoire exceptionnelle. Notre entreprise est à la pointe de la révolution numérique, offrant une gamme complète de services IT, de l'analyse au développement de logiciels, en passant par l'architecture et la gouvernance IT. Votre rôle au sein de NSI Le/la consultant(e) travaillera pour différents clients de NSI France basé en IDF avec de gros enjeux sur le développement d’agent IA. Vous intervenez notamment pour : Concevoir et développer des agents IA basés sur des LLM Implémenter des mécanismes de raisonnement, planification et prise de décision (agents autonomes / multi-agents) Intégrer des agents IA capables d’interagir avec : APIs et services internes, Bases de données et outils métiers, Pipelines data et systèmes d’information Orchestrer les agents (workflows, chaînes d’actions, mémoire, contexte) Industrialiser et déployer les agents IA en environnement de production Collaborer avec les équipes Data/Produit/Métier pour concevoir des cas d’usage concrets
Freelance

Mission freelance
SAP Tech Lead BTP / Integration & Data Conversion

Intuition IT Solutions Ltd.
Publiée le
SAP ABAP
SAP S/4HANA

2 ans
Versailles, Île-de-France
Nous recherchons un SAP Tech Lead BTP / Integration & Data Conversion pour une mission de très longue durée dans le cadre d'une implémentation SAP S/4 Hana Cloud. Vous participerez à toutes les étapes du projet. Vous devez être capable de piloter techniquement les projets d'intégration et de conversion de données, tout en contribuant à la mise en œuvre de solutions autour de SAP BTP, des APIs et des flux entre SAP, Legacy Systems et les différents systèmes. Mission: Gérer techniquement le travail autour de SAP BTP, Integration Suite, APIs et l'interfaçage avec les systèmes legacy. • Définir et sécuriser les solutions d'intégration : APIs, événements, fichiers, middleware et sécurité des échanges. • Superviser les activités de conversion de données : mappage source/cible, règles de transformation, qualité, reprises et basculement. • Contribuer à la mise en œuvre de sujets critiques et soutenir les équipes projet sur les normes techniques. • Produire des recommandations de gouvernance d'architecture et de développement en ligne avec les principes Clean Core. Livrables: • Dossier d'intégration technique/cadre de données. • Mappage d'interface et stratégie API/BTP. • Documents de conception technique détaillée sur les flux et conversions critiques. • Stratégie et plan de conversion de données avec mappage, règles de transformation et séquencement. • Support pour les tests d'intégration, les cycles de validation et le basculement. • Documentation et transfert de connaissances aux équipes internes.
Freelance

Mission freelance
Consultant Power BI/Azure Data Factory

OAWJ CONSULTING
Publiée le
Azure Data Factory
Microsoft Power BI

1 an
450-500 €
Paris, France
BESOIN URGENT !!! Dans le cadre d’un projet de transformation data, notre client recherche un consultant data orienté BI et data engineering. Secteur immobilier. Missions Développement et maintenance de pipelines avec Azure Data Factory Modélisation de données pour les besoins analytiques Création de dashboards Power BI (DAX, performance) Amélioration de la qualité et des flux de données Participation à l’industrialisation (CI/CD, DevOps) Interaction avec les équipes métiers Profil recherché 3 à 5 ans d’expérience en Data Engineering / BI Très bonne maîtrise d’Azure Data Factory Bonne maîtrise de Power BI (modélisation, DAX) Connaissance des environnements DevOps Autonomie et bon relationnel

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

4154 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous