L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 431 résultats.
Mission freelance
Manager Data / R&D (H/F) - 81
Publiée le
Big Data
3 mois
460-750 €
Castres, Occitanie
Télétravail partiel
Context Dans le cadre d’un programme de transformation data au sein de la R&D, notre client souhaite être accompagné dans la définition de sa stratégie data avec un focus fort sur la modélisation. La mission vise à établir un état des lieux précis, à définir une vision cible réaliste et ambitieuse, puis à construire une roadmap priorisée sur les 12 à 24 prochains mois. Mission 1. Diagnostic & analyse * Réaliser un état des lieux rapide et structuré des usages actuels de la donnée et des pratiques de modélisation au sein de la R&D. * Identifier les forces, faiblesses, opportunités et irritants dans les processus, outils et interactions. 2. Vision & stratégie * Définir une vision cible data claire couvrant : * La gestion et l’exploitation de la donnée, * Les pratiques de modélisation et de data science, * Les besoins associés : compétences, organisation, méthodes, technologies. * Proposer un cadre stratégique cohérent avec les ambitions R&D du groupe. 3. Roadmap Data * Construire une roadmap data 12–24 mois comportant : * Les initiatives prioritaires, * Les projets structurants liés à la modélisation et à la donnée, * Les quick-wins permettant un impact rapide, * Les critères de priorisation et de pilotage. 4. Animation & restitution * Animer des ateliers avec les équipes R&D (scientifiques, data, IT). * Faciliter la convergence vers une vision commune. * Produire des recommandations concrètes, opérationnelles et priorisées. * Restituer les livrables à la direction R&D et/ou Data.
Mission freelance
Lead Data Quality Analyst
Publiée le
Dataiku
Qlik
ServiceNow
12 mois
600-700 €
Paris, France
Télétravail partiel
En tant que Lead Data Quality Analyst , vous êtes le garant de la fiabilité et de l'intégrité de nos actifs data. Votre rôle central consiste à définir, mesurer et mettre en œuvre les stratégies et processus assurant une haute qualité des données, indispensable à la prise de décision et au succès de nos initiatives métier. Vous pilotez l'ensemble du cycle de vie de la qualité des données : Gouvernance et Stratégie Data Quality : Définir et maintenir les règles de qualité des données (complétude, unicité, validité, cohérence et format). Établir les indicateurs clés de performance (KPI) de la qualité des données et s'assurer de leur suivi régulier. Analyse et Audit des Données : Analyser la qualité des données au sein de nos systèmes sources et cibles (Data Warehouse, Data Lake). Identifier les anomalies, les causes racines des problèmes de qualité (système, processus, ou saisie) et recommander des actions correctives. Implémentation Technique : Mettre en œuvre des contrôles de qualité automatisés directement dans les outils d'entrepôt de données (notamment Snowflake ). Développer des tableaux de bord de monitoring de la qualité pour visualiser les scores et les tendances (via Qlik ou d'autres outils de visualisation). Coordination et Amélioration Continue : Collaborer étroitement avec les Data Engineers, les Data Scientists et les équipes métier pour garantir la bonne application des règles de qualité. Gérer la priorisation des tickets et des actions d'amélioration de la qualité des données.
Offre d'emploi
Business Analyst Data Management - Nantes
Publiée le
Business Analyst
Data management
JIRA
1 an
40k-45k €
400-550 €
Nantes, Pays de la Loire
Nous recherchons un consulant(e) Business Analyste Data confirmé(e) pour intervenir chez notre client dans le secteur bancaire à Nantes. Informations sur la mission Tâches Recueil et analyse des besoins Déclinaison des besoins en récits Préparation des supports Animation des ateliers avec différents interlocuteurs (pôle utilisateur / pôle produit...) Embarquement sur les données essentielles Gestion du run Communication sur les produits Attendu : Qualité des récits Adapatabilité du discours en de l'interlocuteur Transcription claire pour la fabrication des besoins collectées Ecoute active Sens des responsabilité
Offre d'emploi
Ingénieur DevOps Confirmé Projet CKISA - Sophia Antipolis(H/F)
Publiée le
CI/CD
GED (Gestion Électronique des Documents)
Jenkins
1 an
Sophia Antipolis, Provence-Alpes-Côte d'Azur
🎯 Contexte & Mission Dans le cadre du lancement d’un nouveau logiciel destiné à la gestion de crise dans le secteur médical, nous recherchons un Ingénieur DevOps Confirmé pour intégrer une équipe de 5 à 10 personnes . La solution inclura plusieurs modules : Communication en situation de crise Gestion des patients Services bureautiques Consultation & GED Services applicatifs innovants Le DevOps sera fortement sollicité au début du projet pour installer les outils, configurer les environnements et mettre en place les CI/CD. 🛠️ Missions principales Mettre en place les pipelines CI/CD (Jenkins) Automatiser les processus de build, test et déploiement Concevoir et gérer l’orchestration Docker / Kubernetes Gérer les environnements et l’infrastructure technique Contribuer aux spécifications et à la documentation Participer aux cérémonies Agile (Scrum) Surveiller et optimiser les performances Documenter, partager et améliorer les bonnes pratiques DevOps 📦 Livrables attendus Code, scripts & charts Documentation technique Spécifications techniques 🧰 Compétences techniques indispensables 🔥 Impératives Kubernetes – Confirmé Jenkins – Confirmé ⭐ Importantes Docker / Containers – Confirmé Nexus – Junior 🔧 Autres compétences appréciées Git / Maven Splunk – OpenSearch OpenID Connect – Keycloak Bases de données relationnelles Jira – Confluence Agile Scrum Normes qualité & sécurité Expérience dans le domaine médical → plus apprécié 🌍 Langues Français courant (impératif) Anglais lu/écrit 👤 Profil recherché Bac+2/3 à Bac+5 (école d’ingénieur, master) Minimum 4 ans d’expérience en DevOps Expérience déjà prouvée en : Automatisation et pipelines CI/CD Gestion de configuration Infrastructure Docker/Kubernetes Excellent communicant, autonome, collaboratif Esprit agile, adaptabilité, curiosité technique Capacité à monter en compétence rapidement
Mission freelance
Data Engineer Senior
Publiée le
SAS
6 mois
Bruxelles, Bruxelles-Capitale, Belgique
Télétravail partiel
Nous recherchons un profil Senior Data Engineer très opérationnel, disposant d’une bonne compréhension du métier bancaire. Notre mission principale est de fournir des solutions digitales orientées métier (tableaux de bord, reporting ad hoc) pour les utilisateurs de la banque Corporate (Sales, Métiers, Management, etc.). Après la phase de staging, les données nécessaires sont fédérées dans un environnement de préparation destiné à alimenter les différentes solutions de visualisation via des flux Alteryx. Après avoir acquis une vue complète des systèmes existants, des flux de données et des objectifs métier de l’équipe, le Data Engineer Senior devra : - Améliorer et rationaliser les workflows Alteryx existants en appliquant les principes de clean code, en centralisant la logique, en supprimant les redondances et en améliorant la maintenabilité à long terme. -Mettre en œuvre ces améliorations de manière progressive à travers les environnements, en validant les impacts, en collaborant avec les utilisateurs et en garantissant l’absence de régression sur les tableaux de bord en aval. Description de la fonction : Les principaux axes d’amélioration porteront sur : -Intégration et qualité des données : Collaborer avec l’équipe Data Engineering pour ingérer les données provenant de différents systèmes, en assurant une intégration rapide des nouvelles sources avec un haut niveau de fiabilité et d’exactitude. -Simplification de la conception (design) : Simplifier les flux de données et les processus de conception existants afin d’améliorer l’efficacité, réduire la complexité et optimiser les performances globales du système. - Nettoyage (cleanup) : Identifier les jeux de données obsolètes, les fichiers inutilisés et les workflows abandonnés ; les refactoriser ou les supprimer et contribuer à l’harmonisation des règles d’historisation et de rétention afin de maintenir un paysage data propre et durable. -Conception de macros et de composants : Concevoir et maintenir des macros Alteryx réutilisables pour centraliser les schémas de transformation récurrents, garantir une logique cohérente entre les workflows et réduire la dette technique, tout en documentant et validant les changements avec les utilisateurs impactés. -Harmonisation des processus legacy : Rationaliser la coexistence SAS et Alteryx en supprimant les composants SAS obsolètes et en migrant les transformations utiles vers une logique Alteryx cohérente et maintenable. Réduire les duplications et la complexité multi-plateformes. -Opérations de release : Soutenir et améliorer les processus de déploiement et de mise en production en augmentant l’automatisation et les contrôles qualité afin de rendre les déploiements plus sûrs, plus rapides et plus prévisibles. -Documentation : Appliquer et renforcer les standards de documentation des jeux de données et des workflows, en assurant un nommage cohérent et des descriptions claires pour une compréhension partagée, une découverte facile et une utilisation efficace par tous les membres de l’équipe. -Monitoring : Mettre en place et maintenir des systèmes de surveillance robustes pour suivre la qualité des données et les performances, permettant une identification et une résolution rapides des incidents. -Gestion multi-instances : Superviser la gestion des batchs quotidiens afin d’assurer la cohérence, la synchronisation et une utilisation efficace des ressources à travers les différents environnements.
Mission freelance
Data & ML Ops Engineer
Publiée le
API
DevOps
Machine Learning
6 mois
300-450 €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Missions principales : Data Engineering Concevoir, développer et maintenir des pipelines de données robustes pour alimenter les applications. Garantir l’ingestion, la transformation et le stockage de volumes importants de données. Optimiser les traitements afin d’assurer des performances adaptées aux enjeux de volumétrie. Mettre en œuvre des dispositifs de qualité des données (contrôles, alertes, supervision). Travailler en étroite collaboration avec les équipes de développement pour définir et exposer les interfaces de données (API, bases). Documenter les flux et assurer la mise à jour du catalogue de données des projets. MLOps Industrialiser les processus d’entraînement des modèles de Machine Learning dédiés à l’optimisation du dimensionnement des structures. Déployer des pipelines CI/CD pour les modèles ML (gestion des versions des données et modèles, automatisation des entraînements). Suivre et analyser les performances des modèles en production (détection de dérives, indicateurs de performance). Accompagner les Data Scientists dans la mise en production des modèles.
Mission freelance
Un(e) Data Analyste - Maintenance évolutive d'une application de reporting
Publiée le
IBM DataStage
Microsoft Power BI
Microsoft SQL Server
6 mois
400-480 €
Bois-Colombes, Île-de-France
Télétravail partiel
Data Analyste Expert - Maintenance évolutive d'une application de reporting Contexte : Nous recherchons pour un(e) consultant(e) Data Analyste BI confirmé(e) pour assurer la maintenance évolutive et contribuer à l'amélioration continue d'une application de reporting interne dédiée au suivi commercial. Cette application joue un rôle clé en collectant des données stratégiques et en les mettant à disposition des utilisateurs internes afin de suivre et analyser la performance commerciale. Missions : En tant que Data Analyste confirmé, vous serez chargé(e) de la gestion opérationnelle de l’application de reporting et participerez activement à un projet stratégique visant à optimiser le processus de collecte et de mise à jour des données. Ce projet a pour objectif de simplifier les flux de données, réduire au minimum les traitements manuels, et accélérer le cycle de mise à jour des informations tout en garantissant une qualité de données irréprochable. Plus spécifiquement, vous serez amené(e) à : • Assurer la maintenance évolutive de l'application existante, en veillant à son bon fonctionnement et à l’intégration des évolutions nécessaires pour répondre aux besoins internes. • Contribuer à l'amélioration du processus de reporting en travaillant sur l’automatisation de la collecte de données et l'optimisation des traitements, afin de simplifier le processus tout en préservant la fiabilité et la précision des données. • Collaborer avec l’équipe interne pour définir les besoins fonctionnels et techniques, et pour déployer des solutions adaptées à l’amélioration de l'analyse de la performance commerciale. • Apporter une expertise technique et fonctionnelle pour l’optimisation des outils de reporting et pour le développement de nouvelles fonctionnalités. • Prendre en charge la maintenance des solutions déployées en apportant des améliorations continues et en veillant à leur adéquation avec les exigences métiers. • Effectuer une analyse détaillée des données afin d’identifier des axes d’amélioration dans les processus existants et proposer des solutions efficaces et adaptées aux enjeux commerciaux de l’entreprise. • Assistance aux utilisateurs en faisant preuve de pédagogie pour les autonomiser. Aide à la gestion du changement. Compétences techniques et linguistiques requises Profil recherché : • Expertise confirmée en Business Intelligence, avec une maîtrise des outils d’extraction et de traitement de données, et des technologies associées. • Maitrise de l’utilisation de SQL pour sélectionner des données • Compétences solides en analyse de données, avec une capacité à traduire des besoins métiers en solutions techniques. • La connaissance d’outils de reporting serait un plus. • Capacité à travailler de manière autonome et en équipe. • Rigueur et souci de la qualité des données, avec une forte orientation résultats. Les solutions BI mise en œuvre actuellement chez le client sont basées sur les technologies suivantes : • Oracle • IBM Datastage • Power BI • SAP Business Object 4.2 • Outil de data virtualization comme Denodo • Sqlserver Compétences requises • Une expérience significative d’un minima de 4 années dans l’intégration de systèmes décisionnels • Une expertise concrète en environnement BI • De solides connaissances ainsi qu’une expérience significative dans la manipulation de données. • Des compétences fonctionnelles • Un fort sens de l’analyse et de la pro activité • Capacité rédactionnelle • Excellent relationnel • Maîtrise de l’anglais indispensable (lu, parlé, écrit) Autres compétences appréciées • Connaissance du métier de l’assurance Durée de la Prestation Régie, pour une période de 6 mois renouvelable.
Offre d'emploi
Data Governance Lead
Publiée le
Data governance
Gouvernance, gestion des risques et conformité (GRC)
KPI
Boulogne-Billancourt, Île-de-France
Télétravail partiel
Dans le cadre du déploiement d’un domaine majeur de conformité réglementaire lié au partage de données, une organisation internationale recherche un consultant senior pour accompagner la structuration, la gouvernance et le pilotage des dispositifs de conformité Data. La mission vise à apporter un support méthodologique, organisationnel et opérationnel afin d’aligner les pratiques, processus et gouvernances existantes avec les exigences réglementaires européennes relatives au Data Sharing. Le consultant interviendra en interface avec des équipes pluridisciplinaires (Data, IT, Sécurité, Juridique, Conformité et Métiers) et évoluera dans un environnement complexe et international. Il contribuera à la définition des modèles de gouvernance, animera et coordonnera des groupes de travail transverses, produira les livrables nécessaires à la prise de décision (roadmaps, plans d’action, supports de gouvernance) et accompagnera la transformation des pratiques liées à la gestion et au partage des données.
Offre d'emploi
Ingénieur DevOps Confirmé Accompagnement Évolution Produit- Sophia Antipolis (H/F)
Publiée le
CI/CD
Kubernetes
1 an
Sophia Antipolis, Provence-Alpes-Côte d'Azur
🎯 Contexte Dans le cadre de l’évolution continue d’un produit stratégique, nous recherchons un Ingénieur DevOps Confirmé pour accompagner la construction, l’automatisation et l’optimisation des environnements techniques. La mission est orientée Kubernetes , CI/CD , Infrastructure as Code et observabilité . 📦 Livrables attendus Construction et maintien des environnements Automatisation complète des chaînes de delivery Documentation technique associée 🛠️ Missions principales Concevoir, déployer et administrer des clusters Kubernetes Intégrer et maintenir les outils de l’écosystème Kubernetes : Istio, Helm, ArgoCD, Prometheus, Grafana… Mettre en place et améliorer les pipelines CI/CD (GitLab CI, Jenkins, ArgoCD…) Surveiller les performances, la sécurité et la disponibilité des infrastructures Automatiser les tâches d’exploitation (Bash, Python, Terraform, Ansible…) Collaborer avec les équipes de développement pour optimiser les déploiements Assurer une veille technique et l’amélioration continue des pratiques DevOps 🧰 Compétences techniques requises (impératives) Kubernetes – Confirmé Jenkins – Confirmé Anglais professionnel – Impératif Compétences complémentaires recherchées Helm, Istio, ArgoCD, FluxCD Monitoring & observabilité : Prometheus, Grafana, Alertmanager, Loki CI/CD : GitLab CI, Jenkins, Argo Workflows IaC : Terraform, Ansible
Mission freelance
Contrôleur de Dépenses Commerciales et Paiements
Publiée le
Microsoft Excel
Microsoft Word
Power Query
3 mois
350-360 €
Île-de-France, France
Le consultant travaillera en étroite collaboration avec les Clients/KAM/Comptabilités Clients et fournisseurs et Business Contrôleur sur un portefeuille de client sur l’intégralité des divisions : contrôle, analyse et validation des paiements des accords commerciaux. Il participera activement à l'amélioration des processus et à la structuration des données, dans un contexte métier spécifique et exigeant Missions : Traitement en d’un fort volume de demandes de paiements clients âgées sur les comptes opérateurs et centralisés : - Contrôle de la conformité de la demande vs. contrat - Contrôle des quantités demandées vs. outils de suivi internes - Gestion des écarts à l’aide de supports internes ou externes Communication avec le client : - Amélioration de l’échange d’informations financières relatives aux promotions et coopérations commerciales avec les comptes concernés : - Fluidification du partage de balances promotionnelles - Fiabilisation des réconciliations d’opérations à traitées et de celles déjà payées - Fiabilisation des échanges de justificatifs - Documenter les best practices mises en place durant la mission afin de pérenniser et de sécuriser les procédures. La mission s’organise de la manière suivante : - Gestion d’un ou plusieurs comptes (suivi, gestion des demandes d’avoir/paiements, contrôle des paiements) - Analyse des supports actuellement utilisés et proposer des améliorations (communication interne/externe, suivi, contrôle des écarts) - Documentation des nouvelles procédures mises en place et ou améliorer par rapport à la situation initiale. Mission structurée autour de trois axes : - Amélioration de la gestion de la relation client : fluidification des échanges et fiabilisation des informations entre l’équipe et les clients. - Animation de l’équipe : participation à la structuration des processus internes et amélioration des méthodes de travail de l’équipe actuelle. - Structuration de la donnée : construction de solutions telles que Power Query pour organiser et structurer les données afin d’améliorer le reporting et l’analyse des écarts.
Mission freelance
Data analyst
Publiée le
SQL
12 mois
400-500 €
Paris, France
Télétravail partiel
Cherry pick est à la recherche d'un Data analyst pour l'un de ses clients dans le secteur de l'énergie. 🎯 Objectifs de la mission Travailler en collaboration directe avec le Data Lead TGP , les BPO , les Data Domain Owners et les équipes achats afin de : Développer et maintenir le backlog des cas d’usage Data Quality . Paramétrer l’outil Tale of Data pour identifier les anomalies, rapprocher les données provenant de différents systèmes achats et produire les outputs attendus. Suivre et améliorer en continu le niveau de qualité des données à l’aide d’indicateurs fiables et automatisés. Accompagner les équipes dans la conduite et le pilotage des campagnes de nettoyage . Être force de proposition sur l’amélioration des processus, formats et traitements des données. 📌 Responsabilités & Livrables attendus 1. Gestion des cas d’usage Data Quality Identifier et co-construire les cas d’usage avec les BPO et Data Domain Owners. Maintenir et prioriser le backlog (nouveaux besoins, évolutions, corrections). 2. Paramétrage de l’outil Tale of Data Configurer les règles de contrôle qualité (contrôles automatiques, seuils, business rules). Réaliser les rapprochements de données entre les différents outils achats. Produire les livrables opérationnels : listes d’erreurs, fichiers de référentiels, exports de données, emails d’alertes automatiques. 3. Production de KPI Data Quality Définir et documenter les indicateurs de qualité par périmètre. Construire des dashboards permettant le suivi régulier de la qualité des données. 4. Support aux campagnes de nettoyage Préparation et communication des jeux de données à nettoyer. Suivi de l’avancement et relances auprès des équipes concernées. Consolidation des résultats et reporting. 5. Amélioration continue & Expertise Recommander des améliorations sur la structuration des données, les processus de traitement ou la gouvernance. Proposer des optimisations sur l’utilisation de l’outil Tale of Data.
Offre d'emploi
Data Analyst Dataiku/Tableau/SAS
Publiée le
Dataiku
SAS
Tableau software
3 ans
40k-67k €
400-550 €
Île-de-France, France
Objectif de la mission Au sein du Pole Data & Analytics, dans l’équipe Data Monitoring Réseaux, dont la fonction principale est de délivrer les reportings et les Dashboard pour le réseau d’agence, nous étoffons notre équipe de data Analysts pour répondre aux demandes du Plan Stratégique 2026-2030. Prestations demandées Les missions sont : - Analyse, création, évolution et modification des traitements de données (création d'indicateurs & des codes références) - Uniformisation technique des processus de traitement de données - Supervision du bon déploiement des nouveaux processus de traitement - Vérification de la bonne intégration des données et de leurs référencements (mise à jour des glossaires associés) - Mise en place, maintenance et test des jeux de données - Automatisation des programmes avec DataIku - Prise en charge à la réalisation de la Visualisation avec Tableau (Desktop / Serveur) La maitrise de DataIku et de SQL sont indispensables. La maitrise de Tableau et SAS seraient de vrais plus.
Offre d'emploi
Data Analyst
Publiée le
MySQL
SAS
6 mois
29k-34k €
250-280 €
Le Mans, Pays de la Loire
Objectifs de la mission Dans le cadre d’activités de pilotage et d’analyse, nous recherchons un Chargé d’Études Statistiques maîtrisant SAS afin de réaliser des travaux d’extraction, de contrôle qualité, d’analyse et de restitution auprès des équipes métier. Livrables attendus Jeux de données fiables issus des extractions SAS Rapports d’analyses Contrôles de cohérence et de qualité des données Tableaux de bord de pilotage Notes de synthèse et documents de restitution Recommandations sur l’amélioration des processus Missions Réaliser des extractions de données via SAS Manipuler, structurer et nettoyer les données Effectuer les contrôles qualité sur les données produites Analyser les résultats et produire les indicateurs de pilotage Rédiger et présenter les analyses aux équipes métier Contribuer à la fiabilisation des référentiels data Échanger avec les équipes métier pour comprendre les besoins et restituer les résultats Profil recherché Bac +3 à Bac +5 en statistiques, mathématiques appliquées, data analysis ou domaine équivalent Expérience confirmée en tant que Chargé d’Études Statistiques, Data Analyst ou équivalent Maîtrise de SAS (SAS Base, Macro) Aisance dans la manipulation de données volumineuses Capacité d’analyse et de synthèse Bon relationnel et capacité à interagir avec les équipes métier Rigueur, autonomie, sens du contrôle et de la qualité des données Compétences techniques SAS Base / SAS Enterprise Guide SQL apprécié Connaissances en qualité de données et data management appréciées Connaissance du secteur assurance est un plus Soft skills Rigueur Autonomie Communication claire Travail en équipe Capacité d’adaptation
Offre d'emploi
Ingénieur de Production Applicatif (H/F)
Publiée le
CI/CD
Google Cloud Platform (GCP)
Maintien en condition opérationnelle (MCO)
3 ans
40k-45k €
400-550 €
Île-de-France, France
Nous recherchons pour notre client grands comptes dans le secteur bancaire un ingénieur de production applicatif qui interviendra sur les activités RUN , MCO , transferts de fichiers, déploiements de plateformes et sur un nouveau projet GCP . Périmètre technique moderne, mêlant CI/CD, cloud GCP, supervision et automatisation. Missions principales : Assurer le RUN et la MCO des applications. Superviser et gérer les transferts de fichiers . Réaliser les déploiements de plateformes applicatives . Participer au lancement d’un nouveau projet GCP . Maintenir et enrichir les pipelines CI/CD : XLR/XLD, Jenkins, Terraform GCP. Automatiser les tâches récurrentes (Python, Shell, Bash). Surveiller la production : Zabbix , Grafana . Intervenir sur l’ordonnancement : VTOM (migration vers Control-M ). Suivre les demandes et tickets via Jira . Ennvironnement technique : GCP (notamment Terraform) CI/CD : Jenkins, XL Release, XL Deploy Scripting : Python, Shell, Bash Supervision : Zabbix, Grafana Ordonnancement : VTOM (migration prévue vers Control-M ) Outils projet / ITSM : Jira
Mission freelance
POT8822 - Un Data Analyste Géolocalisation (GPS) sur Paris
Publiée le
GPS
6 mois
Paris, France
Télétravail 100%
Almatek recherche pour l'un de ses clients un Data Analyste Géolocalisation (GPS) sur Paris Mission : Nous recherchons un profil ayant EXP sur des problématiques GPS Rapprochement avec la voirie Détection des points aberrants et correction Rapprochement avec les adresses distribuées Détection des arrêts multi moyen de locomotion => Faire de l’analyse des parcours entre différentes journées. Ces expériences sont indispensables. Compétences requises : Connaissance de DataBricks souhaitable mais non indispensable
Offre d'emploi
Développeur PowerBI
Publiée le
MySQL
18 mois
10k-40k €
100-400 €
Paris, France
Télétravail partiel
CONTEXTE : Experience : 4 ans et plus Métiers Fonctions : Etudes & Développement, Développeur Spécialités technologiques : BI Intervention pour rejoindre l’équipe de développement BI. MISSIONS - Assurer la maintenance corrective et évolutive de plusieurs applicatifs BI existants. - Participer aux développements et optimisations des solutions Power BI pour répondre aux besoins métiers. Responsabilités : - Analyser les incidents et proposer des correctifs. - Développer de nouvelles fonctionnalités et améliorer les rapports existants. - Garantir la qualité des données et la performance des dashboards. - Collaborer avec les équipes internes pour comprendre les besoins et les traduire en solutions BI. Expertise souhaitée Compétences requises - Maîtrise de Power BI (DAX, Power Query, modélisation de données). - Connaissance des bases de données (SQL Server, Oracle). - Bonne compréhension des architectures BI et des flux de données. - Capacité à travailler en équipe et à communiquer avec les métiers.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Utiliser Qonto pour créer la microentreprise
- Service de comptabilité en ligne fiable et réactif pour une succursale de SASU
- Compte dédié micro-entreprise
- Gestion d’entreprise : astuces pour freelances IT
- Freelance : peu de retours sur mes candidatures – vos stratégies ?
- Entretiens et tests techniques developpeurs Java Angular junior
2431 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois