L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 744 résultats.
Offre d'emploi
Data Ops
Publiée le
Apache Spark
1 an
40k-45k €
400-550 €
Quartier du Montparnasse, France
Télétravail partiel
· Déploiement et administration avancée des applications Spark, Trino ou Jupyter sur Kubernetes. · Tuning et optimisation des performances : ajustement des configurations, analyse des logs, debugging avancé, optimisation des requêtes SQL (Trino), tuning des jobs Spark. · Gestion du RUN et support applicatif : diagnostic et résolution des incidents, amélioration continue des performances, accompagnement des utilisateurs sur l’optimisation des requêtes. · Mise en place de l’approche GitOps : automatisation complète du déploiement et de la gestion des applications avec Terraform, Ansible, Git, ArgoCD/FluxCD. · Sécurisation et monitoring avancé : implémentation de métriques et alertes sur Prometheus, Grafana, Loki, gestion des accès et des logs applicatifs.
Offre d'emploi
DATA ENGINEER SENIOR SCALA / PYSPARK / DATABRICKS / POWER BI
Publiée le
Dataiku
Microsoft Power BI
Python
3 ans
40k-60k €
400-550 €
Paris, France
Bonjour, Pour le compte de mon client, nous recherchons un data engineer. L’équipe de BUILD (qui gère les données du socle relation client et du socle connaissance client. Cette équipe est en charge de mettre à disposition des données en fraicheur pour deux équipes business. Le Data Ingénieur sera intégré dans une équipe Marketing d’une dizaine de personnes. La ressource doit accompagner la direction dans la réalisation des outils BI et analyses ad hoc pour leur permettre la réalisation de leurs usages. La mission se décompose en deux volets : 1. DIR DATA : Apporter un appui à la capacité à faire de l’équipe BUILD du projet et d’épauler la capacité à faire des métiers sur des montées de versions de leurs produits data métiers. Contexte de migration des projets métiers data basé actuellement sur Synapse vers Unity Catalog (Databricks). 2. DIR MKT : L'objectif de la mission est de permettre à la direction de piloter les offres par la réalisation d'analyse et la construction de tableaux de bord. Les indicateurs mis en visibilité permettront à la direction de suivre l'adoption des offres et services et de prendre les décisions stratégiques. Actiivités du poste : Partie direction Data Participation active à l’appui des équipes métiers lors de la migration vers Unity Catalog / suppression de synapse. Appui aux métiers pour assurer la MCO de leurs produits data métiers Participation active à l’équipe de développement BUILD du projet et aux phases de recette et de validation sur les différentes livraisons des traitements de données en lien avec l’équipe de build projet. - Participation ponctuelle aux analyses d’écarts et à l’identification des causes racines sur des problèmes de qualité et incohérences de données remontées via les clients auprès de la Relation Client, l’équipe RGPD ou par d’autres canaux internes (ex : incohérences sur les dates de naissance, doublons de clients, de segments de voyages, problèmes de référentiels, etc.) - Participation ponctuelle à la construction et évolutions sur des tableaux de bord Power BI en lien avec les besoins de monitoring de la donnée des socles sous responsabilité de la direction Data . Partie Direction MKT : Construction et maintien de tableaux de bord : Élaboration et implémentation de modèles de données optimisés pour les tableaux de bord Construction du tableau de bord Validation de la conformité et de la fiabilité des données présentées dans les tableaux de bord Traitements de données Développement et maintien d’indicateurs Optimisation des performances des traitements de données Interne Automatisation de la chaine de traitements des données depuis le socle Data TGV-IC ou d'autres sources Supervision de la chaine de traitements Réalisation d’analyse Réalisation d'extractions et analyses data ad hoc pour répondre aux besoins spécifiques des métiers Actions de gouvernance de la donnée Catalogage de la donnée : Documentation des dictionnaires de données, du lineage et des produits data business Suivi de la qualité des données Mise en place d’un outil de supervision de la qualité des données Identification des anomalies et investigations
Offre d'emploi
DATA ENGINEERING sur KAFKA
Publiée le
Apache Kafka
API REST
Elasticsearch
3 ans
40k-45k €
400-550 €
Île-de-France, France
Télétravail partiel
Pour notre client dans le secteur bancaire, nous recherchons un expert Kafka : Dans le cadre de l'équipe Data Analytic , nous créons et maintenons des architectures Big Data pour les besoins internes de l’entreprise. Pour renforcer notre équipe support, nous proposons une mission de DATA ENGINEERING sur KAFKA. Les principales technologies utilisees • Kafka • Open Search • Elastic Stack (Elasticsearch / Logstash / Kibana / Beats) L'équipe mettant en avant une approche d'automation, les technologies suivantes sont notamment couramment utilisées • Ansible • Git/Bitbucket • Développement Python et REST APIs
Offre premium
Offre d'emploi
Expert Colibra
Publiée le
AWS Cloud
Collibra
Databricks
3 mois
45k-55k €
500-600 €
Hauts-de-Seine, France
Télétravail partiel
Profil : Expert Collibra Responsabilités principales : Métadonnées & Traçabilité Vérifier si Collibra propose des connecteurs pour interagir avec les catalogues SMUS (AWS) et DBX. Définir comment Collibra peut ingérer les métadonnées et la traçabilité depuis AWS SMUS et le Unity Catalog de DBX. Déterminer la gestion de la traçabilité inter-systèmes (exemple : début d’une transformation sur AWS et fin sur DBX). Gestion des accès Définir l’intégration de Collibra avec AWS IAM / IDC / Lake Formation via les API de SMUS et avec le Unity Catalog de Databricks. Évaluer si Collibra peut automatiser l’octroi et la révocation des accès via des connecteurs existants ou via un développement dédié basé sur des API. Vérifier si Collibra propose un workflow de gestion des accès prêt à l’emploi et s’il est personnalisable. Déterminer si Collibra peut appliquer des règles d’accès au niveau des tables, colonnes ou lignes via une intégration avec les plateformes sous-jacentes. Définir comment les audits et journaux seront capturés lors des changements d’accès et si Collibra propose des revues périodiques des accès. Compétences requises : Collibra AWS Databricks Data Intelligence Platform
Mission freelance
ARCHITECTE DATA / POWER BI & AZURE
Publiée le
Azure
BI
24 mois
275-550 €
Massy, Île-de-France
Télétravail partiel
Nous recherchons un(e) DATA ARCHITECTE POWER BI / AZURE Dans le respect de la stratégie IT établie par le DSI, votre mission consiste à : Responsabilités : • Analyser les besoins fonctionnels. • Localiser les données de production. • Déterminer les spécifications techniques. • Définir l'architecture. • Modéliser les datawarehouse (entrepôts de données) et les datamarts (magasins de données) dédiés à une fonction particulière dans l'entreprise. • Accompagner le client dans la réalisation du projet. • Maintenir les sources de données à jour • Mettre à disposition les données aux métiers • Superviser les flux de données et en contrôler l'intégrité
Offre d'emploi
Data Analyst Confirmé – Power BI & SSIS (On-Premise) - Toulouse (H/F)
Publiée le
Microsoft Power BI
Microsoft SSIS
45k-50k €
Toulouse, Occitanie
Mission à réaliser Le consultant rejoindra le service ODS (Outillage Data Support) et interviendra sur l’ensemble de la chaîne BI , du recueil du besoin à la livraison et au support des dashboards Power BI. 1. Recueil & analyse des besoins Comprendre, analyser et formaliser les besoins des équipes support Identifier les sources de données (ITSM, ServiceNow) 2. Intégration & modélisation des données Intégrer et transformer les données dans l’entrepôt de données Concevoir des modèles de données et des bases agrégées Industrialiser les flux de données via SSIS 3. Développement des dashboards Concevoir et développer des rapports Power BI Produire des dashboards (cycle de vie des incidents, flux inter-équipes, KPI ITSM/ServiceNow) Livrer, documenter et administrer les rapports 4. Support & amélioration continue Assurer le support utilisateurs Former les équipes à l’utilisation des dashboards Suivre les tickets et évolutions dans Jira Contribuer à l’amélioration continue des process et de la qualité des données Environnement technique Power BI (On-premise) SQL / PL-SQL SSIS (Expert) ITSM / ServiceNow Entrepôt de données interne Jira Environnement 100% On-premise
Offre d'emploi
Product Owner Data – Expertise Power BI, Dataiku & Tableau
Publiée le
Data analysis
Dataiku
Product management
2 ans
40k-70k €
400-550 €
Île-de-France, France
Missions principales Définir la vision produit et la roadmap Data en lien avec les métiers. Prioriser le backlog et rédiger les user stories (méthodologie Agile). Superviser la préparation, la transformation et la qualité des données dans Dataiku. Piloter la production de dashboards et rapports dans Power BI et Tableau. Garantir la gouvernance et la cohérence des modèles de données. Collaborer avec data engineers, data scientists et équipes métier. Suivre les KPI, mesurer la valeur et assurer l’amélioration continue du produit. Compétences requises Excellente maîtrise : Power BI : Modèle tabulaire, DAX, dataprep, publication & sécurité Dataiku : Data pipelines, recipes, automation Tableau : Visualisation avancée, storytelling, calculs Solides compétences en modélisation de données (SQL, Star/Snowflake schema). Très bonne compréhension des enjeux Data et BI.
Mission freelance
Ingénieur étude décisionnel Datastage / Power BI
Publiée le
Teradata
Test unitaire
Ticketing
18 mois
150-400 €
Paris, France
Contexte du besoin le client dans le cadre de son activité Décisionnel, recherche un profil en développement Datastage / Power BI afin d'intégrer l'équipe développement Expérimenté (profil ayant une expérience de 3 à 7 ans dans la même famille de prestations, sur justification des références clients) renforcement de l'équipe de développement avec l'intégration d'une resource maitisant la partie alimentation (ods, dwh, datamart) et la partie restitution avec l'outil Power BI, . Fort de ses expériences techniques sur cette technologie, le prestataire devra également montrer ses connaissance des méthodes Agiles (plus particulierent SCRUM ) MISSIONS Rattaché au responsable développement du SI Décisionnel, l'intervenant aura pour principales missions : - Développement de programme dataware, datamart (Datastage et SQL) - Développement de dataset, dataflow et rapports sous l' outil Power BI - Test unitaire et livraison - Respect des normes et bonnes pratiques au sein du SID - Prise en compte d'anomalie, d'évolution en lien avec le BE et la qualification - Optimisation de requêtes SQL Technologie ou les certifications attendues : POWER BI dans un environnement Datastage Teradata, et PostgreSQL Définition des prestations attendues : Prestation de développement en coordination avec équipe BE , qualification et scrum master Environnement technique - technologique "ETL/ELT/Traitement : Datastage/SQL Restitution : PowerBI (dataset, dataflow, rapports) Stockage : Teradata, PostgreSQL" Compétences techniques Connaissance d'ETL/ELT décisionnel : DATASTAGE plus particulièrement Requêtage SQL Développement de restitution Décisionnel POWER BI (Dataset, dataflow, rapports) Méthode SCRUM & Manipulation d’un gestionnaire de ticketing (type JIRA) Compétence métiers Expérience dans l'écosystème de la protection sociale Retraite Complémentaire des salariés du privé idéalement
Mission freelance
Data Engineer (F/H) - 56
Publiée le
Apache Kafka
Java
Shell
1 an
Vannes, Bretagne
Télétravail partiel
- Participer à la définition de l’architecture Data avec les architectes et la Squad - Concevoir, affiner et développer des solutions de collecte et de stockage multi-sources (batch et streaming) pour les usages métiers - Mettre en œuvre des tests unitaires et automatisés - Déployer le produit sur les différents environnements - Assurer le bon fonctionnement en production : suivi, assistance, gestion des incidents - Contribuer à l’amélioration continue et à la qualité du code //////////----------))))))))))
Mission freelance
Data ingénieur ( H/F) - Full remote
Publiée le
Apache Spark
Big Data
Google Cloud Platform (GCP)
1 an
370-500 €
France
Télétravail 100%
Contexte de la mission : Intégrez une équipe BI dédiée aux données de la relation client. Vous travaillerez dans un environnement en pleine transformation, avec une migration vers le cloud GCP en cours. Vos responsabilités : Intégrer une équipe agile et contribuer à la gestion et à l’évolution des données BI orientées CRM. Participer à la migration des environnements BI traditionnels vers GCP . Développer, maintenir et optimiser les flux de données (SQL, Big Data). Assurer la qualité, la performance et la fiabilité des traitements. Collaborer avec les équipes métiers et techniques pour répondre aux besoins de reporting et d’analyse.
Mission freelance
Data Engineer Spark/Scala
Publiée le
Apache Spark
Scala
3 mois
Paris, France
Télétravail partiel
Data Engineer Spark/Scala Au sein de la DSI Finance de la DSI, le poste recherché porte sur le besoin d’un Data Engineer Spark/Scala confirmé (5-6 ans d’expérience). Objectifs et livrables Objectifs Le prestataire intégrera le projet d’intégration en coordination avec le chantier assiette comptable de référence en tant que Data Engineer. Les développements sur ce chantier s’appuient sur la plateforme Datalake Finance, basée sur la distribution Hadoop HortonWorks qui collecte les données des différents systèmes de synthèse afin de répondre aux nouveaux besoins de reporting Finances & Risques (COREP, calcul RWA, IFRS9, etc.…) Les tâches seront les suivantes : • la mission consistera à prendre part aux développements, au sein du datalake pour acquérir les nouvelles sources de données, les assemblées et les distribuées aux consommateurs, tout en étant garant de la pérennité et la non-régression de l’outillage déjà en place • Vous participerez à la conception et à l’implémentation de ce projet et serez amené, à ce titre, à travailler en méthode Agile avec de nombreux acteurs métiers et les équipes de maintenance Compétences techniques o Expérience dans la mise en œuvre de technologies et frameworks Big Data et NoSQL (Hadoop, Kafka, Spark, Scala, Hive, SolR, HBase, Kerberos) o Spark / Scala : confirmé o A l'aise avec le programmation fonctionnelle (connaissance des librairies ZIO, MONIX, CATS appréciée) o Expérience de travail dans un environnement Agile ; avec outils et méthodologies associés (Confluence, Jira, Scrum, Kanban) Compétences demandées Compétences Niveau de compétence Apache Kafka Avancé Apache Hadoop Confirmé Apache Hive Avancé SCALA Confirmé Spark Confirmé
Offre d'emploi
Data Engineer AWS / Spark / Scala /Python
Publiée le
Apache Spark
PySpark
Scala
1 an
40k-56k €
400-600 €
Paris, France
Télétravail partiel
Bonjour ☺️ Nous recherchons un DATA ENGINEER orienté sur les technologies SPARK / SCALA / PYTHON/ AWS pour le compte de notre client ! Mission : Maintenir la plateforme en conditions opérationnelles : Garantir la disponibilité des données et des services de la plateforme, Assurer la communication avec les utilisateurs de la plateforme, Répondre aux demandes de données (données ad hoc, analyses d’anomalies), Développer les correctifs et évolutions nécessaires, Contribuer à la qualité des données et à l’industrialisation de leur exploitation. Concevoir et développer des services et pipelines de données fiables et performants : Mettre en place des flux de données (acquisition, transformation, export), Concevoir et modéliser les données, Développer et optimiser les pipelines de transformation, Réaliser les tests unitaires et d’intégration, Garantir la qualité des développements via les revues de code, Ordonnancer et gérer les dépendances entre traitements, Déployer sur l’ensemble des environnements, Enrichir et maintenir la documentation de la plateforme. Profil recherché : Minimum 5 ans d'expériences dans un contexte de grande volumétrie de données, Capacité à collaborer avec une pluralité d'interlocuteurs en même temps, Excellent esprit d’équipe, Capacité d'adaptation, Maitrise impérative de : Spark Scala, Python et SQL, Expérience significative sur AWS. Apprécié : Connaissance de Dataiku, Méthodologie Scrum/Safe, Airflow N'hésitez pas à envoyer votre CV !
Mission freelance
Architecte Data GCP
Publiée le
Architecture
Google Cloud Platform (GCP)
Python
3 mois
620-700 €
Hauts-de-Seine, France
Nous recherchons un Architecte Data GCP senior pour accompagner une grande organisation française dans la structuration et l’évolution de sa Data Platform au sein d’équipes pluridisciplinaires (Data Engineers, Data Scientists, Product Owners, équipes techniques transverses…). Vos missions En tant qu’Architecte Data, vous interviendrez sur un périmètre stratégique incluant : Architecture Data Garantir la cohérence et la standardisation de la stack technique entre les différentes équipes. Auditer l’architecture existante et proposer des améliorations structurantes. Définir les contrats d’interface entre les équipes (data products / data mesh). Participer à l’introduction et aux tests de nouvelles technologies. Veille technologique continue sur les solutions Cloud & Data. Developer Experience Contribuer à la rédaction et à l’industrialisation de modules Terraform / Terragrunt. Accompagner les équipes dans la montée en compétence sur l’Infrastructure as Code. Définir les standards CI/CD applicables à l’ensemble des équipes Data. FinOps Suivi et contrôle du budget Data (multi-équipes). Mise en place d’outils de monitoring, alerting et optimisation des ressources. Identification et priorisation des optimisations de coûts Cloud.
Mission freelance
Lead Développeur Power BI expérimenté/ko
Publiée le
Microsoft Power BI
6 mois
370-400 £GB
Saint-Denis, Île-de-France
Télétravail partiel
Lead Développeur Power BI expérimenté Démarrage : 05/01/2026 Localisation : Saint-Denis (télétravail 2-3 jours/semaine possible) Compétences techniques indispensables : Expertise Power BI (Desktop & Service) Maîtrise du DAX et de la modélisation de données (modèles en étoile, relations) Connaissances avancées en SQL et bases de données Maîtrise de la Power Platform : PowerApps, Power Automate, DataVerse, DataFlow, MS365 Connaissance des normes de sécurité et gouvernance (RLS, gestion des accès) Expérience en développement web et intégration agile Veille technologique et optimisation des performances Power BI Compétences fonctionnelles et soft skills : Aisance relationnelle et esprit d’équipe Capacité à mentorer et former des développeurs juniors Autonomie, rigueur, sens de l’analyse et esprit de synthèse Capacité à gérer des projets multiples et à respecter les priorités et délais Discrétion et respect de la confidentialité des données Missions principales Accompagner et former les développeurs BI / Data Analysts Recueillir les besoins utilisateurs, analyser la faisabilité et rédiger des spécifications Concevoir, développer, déployer et maintenir des rapports et dashboards Power BI Modéliser, transformer et enrichir les données via Power Query Assurer la qualité et cohérence des données, tests DAX, optimisation des performances Respecter les standards Microsoft, normes de sécurité et gouvernance Documenter techniquement les modèles et indicateurs Participer à la veille technologique et au support utilisateur
Offre d'emploi
Consultant Expert Power BI (Gouvernance & Administration)
Publiée le
Microsoft Power BI
ServiceNow
3 ans
Île-de-France, France
Télétravail partiel
Consultant Expert Power BI (Gouvernance & Administration) Contexte L’équipe Data & Intégration pilote l’ensemble des projets liés à la data, à l’analyse et aux intégrations applicatives, en lien étroit avec les équipes opérationnelles, les fonctions support et la DSI. Elle contribue à améliorer les processus, méthodes et outils avec des objectifs de simplification, standardisation, efficacité et transparence . Dans ce cadre, l’équipe assure l’administration d’un nœud Power BI Premium comprenant un nombre important de workspaces aux usages variés. Aujourd’hui, il n’existe pas de vision globale permettant d’évaluer la qualité des développements, les performances des rapports ou la consommation des ressources du nœud. Objectifs de la mission La mission vise à professionnaliser, sécuriser et standardiser l’administration du nœud Power BI Premium selon les bonnes pratiques ITIL, tout en anticipant les impacts d’une éventuelle migration vers Fabric. Le consultant aura pour responsabilités de : 1. Cartographie et analyse des environnements Recenser et documenter tous les workspaces du nœud Premium. Collecter les informations clés : propriétaires, usages, criticité, volumétrie, typologie des rapports, etc. 2. Mise sous contrôle des déploiements Structurer les processus de mise en production. Définir et outiller des Change Standard dans ServiceNow. Produire les guides, procédures et bonnes pratiques nécessaires. S’assurer de la conformité des déploiements effectués par toutes les équipes. 3. Gouvernance et sécurité Proposer un modèle de gestion des accès et rôles, commun à l’ensemble des équipes. Standardiser la gestion des demandes, droits d’accès, responsabilités et supervision. Garantir l’administrabilité de tous les workspaces, quel que soit leur propriétaire. 4. Audit, performance et optimisation Réaliser un audit global des usages, de la performance et de la consommation du nœud Premium. Identifier des quick wins immédiatement activables. Formuler des recommandations structurelles pour une amélioration durable. Profil recherché Expertise confirmée en administration Power BI, gouvernance BI et gestion de plateformes Premium. Solide expérience des bonnes pratiques ITIL et des processus de gestion des changements. Compétences en audit, optimisation de performances et structuration de modèles de gouvernance. Compréhension des enjeux liés à la sécurité, aux accès et à la standardisation des environnements BI.
Offre d'emploi
Ingénieur Infrastructure & Big Data
Publiée le
Cassandra
Hadoop
Linux
1 an
40k-55k €
400-550 €
Nancy, Grand Est
Télétravail partiel
I. Contexte : Notre client connaît une forte croissance (+1,5 million de clients en un an) et renforce l’équipe Architecture Système/Réseaux (10 personnes) pour assurer la gestion et l’évolution de son infrastructure critique. L’environnement technique est 100% Linux, avec une architecture complexe : · Réseau : 2400 VM, 5-6 Data Centers, 100 applications Open Source · Datalakes : 2 PetaOctets de données · Organisation : Pas de PO, Scrum Master ni DevOps ; 4 équipes de développement (~30 projets) · Répartition des activités : o 1/3 MCO o 1/3 Obsolescence o 1/3 Build / Industrialisation II. Missions : Objectifs de la mission · Assurer la maintenance en conditions opérationnelles (Run 40%) et contribuer à la conception et industrialisation des infrastructures. · Participer à la mise en place d’un socle commun de provisioning, avec un focus sur Data et Sécurité. · Interagir avec les équipes BI pour les besoins de reporting réglementaire et autres. Enjeux techniques · Axes de conception : o Scalabilité o Résilience (site internet = point de contact unique) o Sécurité (chiffrement avancé, PKI, certificats) · Technologies & outils : o Système : Linux o Réseaux : TCP/IP niveau 2, HTTP, SNTP, DNS, zones, reverse proxy o Sécurité : PKI, certificats, chiffrement asymétrique o Containers & IaC : Kubernetes, Ansible (usage limité), Puppet, Terraform o Big Data : Hadoop, Spark, Cassandra, Zeppeli o Autres outils : Kafka, Cognos, Docker, Elasticsearch o Machine Learning : détection de fraude en temps réel · Cloud : utilisation très marginale (Infra as Code majoritairement on-premise)
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Le marché de l'IT est complètement déréglé ! STOP à cette mascarade ! Il faut s'unir et résister !
- Marché global Business Analyst / MOA / AMOA
- Logiciel facturation gratuit + experience demande acompte
- Avez-vous un logiciel de facturation ?
- changement statut juridique
- Avis cabinet L-expert-comptable.com
2744 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois