L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 6 308 résultats.
Offre d'emploi
Senior Data Analyst
AEROW
Publiée le
Microsoft Fabric
Microsoft Power BI
3 ans
Bruxelles, Bruxelles-Capitale, Belgique
Senior Data Analyst expert capable de transformer des besoins métier complexes en insights exploitables. Vous interviendrez dans un environnement Data Mesh / Medallion / Microsoft Fabric Lakehouse , avec un rôle clé sur la qualité des données, la création de KPI fiables et la production de dashboards avancés pour le management. Analyse des besoins métier et définition de KPI pertinents . Transformation et préparation des données via SQL (structurées & semi‑structurées). Travail dans une architecture Medallion (Bronze/Silver/Gold) . Approche data mesh & conception de data products . Contrôles de qualité des données & documentation. Création de dashboards avancés dans Power BI (DAX) . Compréhension du Microsoft Fabric Lakehouse pour la localisation et l’interprétation des données. Collaboration avec les équipes ICT et participation active à la gouvernance data.
Mission freelance
Architecte Data
PROPULSE IT
Publiée le
24 mois
350-700 €
Paris, France
PROPULSE IT recherche un Architecte DATA. Pour soutenir la sélection et la mise en œuvre d'un nouveau système CRM et d'une plateforme d'automatisation marketing, le client recherche un expert capable de préparer l'avenir et de développer davantage le modèle de données client et consommateur, et d'établir un plan d'intégration et une feuille de route. - Conception de bases de données Traduire le modèle consommateur canonique existant en une base de données concrète. Définir et documenter les entités, attributs et relations dans un dictionnaire de données. Assurer de la qualité des données et de la cohérence sémantique. Intégration et cartographie fonctionnelle Cartographier fonctionnellement les données des consommateurs à travers les différents systèmes B2C. Développer des cartographies et des transformations à partir des CRM, e-commerce, POS (physique), fidélisation et automatisation marketing vers la base de données consommateurs. Définir les approches de transformation et de standardisation. - Architecture et feuille de route Finaliser l'architecture de l'application autour des données des consommateurs : systèmes, processus et dépendances. Ajuster le modèle de données lorsque cela est nécessaire, en tenant compte des limites des systèmes existants. Élaborer une feuille de route pour relier les différents systèmes par phases.
Offre d'emploi
Technicien Réseau confirmé (H/F)
Experis France
Publiée le
28k-38k €
La Hague, Normandie
Technicien Réseau confirmé (H/F) - La Hague Vous savez que chaque geste compte ? Dans un environnement sensible et stratégique, votre expertise réseau contribue directement à la réussite d'un projet industriel d'envergure. Nous recrutons un Technicien Réseau confirmé (H/F) pour intervenir à 100% sur site, dans le cadre d'un projet d'agrandissement majeur d'un site industriel situé à La Hague. Votre mission : Au sein d'une équipe à taille humaine, vous participez à un projet structurant avec un fort enjeu d'implémentation réseau sur de nouveaux espaces. À ce titre, vous : Participez à l'installation et à l'implémentation des infrastructures réseaux sur les nouveaux sites Intervenez sur des environnements techniques exigeants Contribuez à la mise en œuvre d'architectures réseaux en lien avec les équipes expertes Assurez vos interventions dans le respect des normes de sécurité et des contraintes du site Environnement : Vous intervenez au sein d'une organisation structurée par domaines d'expertise. Vous êtes rattaché(e) à l'équipe en charge de l'intégration réseau et travaillez en étroite collaboration avec les équipes cybersécurité afin de concevoir et déployer des architectures sécurisées. Conditions : Localisation : La Hague (100% sur site) Horaires : 8h00 - 16h00 Démarrage : dès que possible Rémunération : 28K€ à 38K€ selon profil
Offre d'emploi
Chef Cheffe de projet Data/IA F/H - Informatique de gestion (H/F)
█ █ █ █ █ █ █
Publiée le
Flask
Git
Python
Paris, France
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Mission freelance
Business analyst ERP / data
Pickmeup
Publiée le
Business Analyst
6 mois
500-650 €
Bordeaux, Nouvelle-Aquitaine
Dans le cadre d’un programme de transformation structurant, notre client lance un projet d’harmonisation de ses systèmes de gestion à l’échelle internationale, avec la mise en place d’un ERP Cloud unique. L’objectif est de standardiser les processus métiers et les outils sur plusieurs zones géographiques (Europe, Amérique du Nord, filiales internationales), couvrant notamment les fonctions industrielles, financières ainsi que les activités commerciales liées aux pièces et consommables. Au sein de l’équipe projet, vous intervenez en tant que Business Analyst et assurez le lien entre les équipes métiers et les équipes techniques. Vous contribuez directement à la bonne compréhension des besoins et à la qualité de leur mise en œuvre. Description du poste Cadrage et conception Analyser les processus existants et contribuer à la définition des processus cibles Participer aux ateliers avec les équipes métiers afin d’aligner les besoins avec les standards de la solution Challenger les pratiques actuelles pour favoriser l’adoption de solutions pérennes Recueil et formalisation des besoins Rédiger les spécifications fonctionnelles sous forme de user stories Structurer et prioriser les demandes en lien avec les parties prenantes Assurer la bonne compréhension des besoins par les équipes techniques Recette et validation Définir les scénarios de test et organiser les campagnes de recette Participer aux phases de tests (intégration et acceptation utilisateur) Suivre les anomalies et valider les correctifs Data et migration Contribuer aux travaux de reprise de données (analyse, mapping, nettoyage) Veiller à la qualité et à la cohérence des données migrées Coordination et accompagnement Assurer le rôle d’interface entre les équipes métiers et IT Suivre l’avancement des développements et communiquer auprès des parties prenantes Accompagner les utilisateurs dans la conduite du changement Support et documentation Participer au support fonctionnel de premier niveau Maintenir une documentation projet claire et à jour Livrables attendus Backlog fonctionnel (user stories, règles de gestion, mapping) Plans de test et cahiers de recette Dossiers d’arbitrage pour les évolutions Documentation projet structurée Langues Anglais professionnel requis Qualités Bon relationnel et sens de la communication Capacité à synthétiser et vulgariser Rigueur et sens de l’organisation Esprit d’équipe
Mission freelance
Ingénieur reseau SDWAN 370 e par j Toulouse
BI SOLUTIONS
Publiée le
Administration systèmes et réseaux
SD-WAN
3 ans
300-370 €
Toulouse, Occitanie
Ingénieur reseau SDWAN 370 e par j Toulouse Nous recherchons un expert réseau WAN,/SDWAN disposant d’une solide expertise technique et d’une forte capacité de troubleshooting niveau 3, pour intervenir sur des environnements critique Vous avez une expérience réussie dans des fonctions similaires réalisées chez un opérateur télécom, un intégrateur ou dans un environnement grand compte. Vos missions seront les suivantes : - Intervention sur du SD-WAN Fortinet - Intervention sur du Versa Networks - Connaissance des backbones opérateurs - Intégration des architectures réseaux WAN/SDWAN - Troubleshoot niveau 3 des solutions - Automatiser le build et le run via du développement Python Contexte technique : Double éditeurs sdwan Forti, Versa sur + de 6000 sites Collecte MPLS, Internet Automatisation indispensable du parc Python Routage dynamique BGP 370 e par jour
Mission freelance
Data Governance Specialist - Data Catalog
Codezys
Publiée le
Apache Airflow
Collibra
Databricks
6 mois
Lille, Hauts-de-France
Contexte de la mission Le Data Governance Specialist rejoint l’équipe Expertise du Centre d’Expertise (CoE) Data Governance . Cette équipe a pour mission d’élaborer des principes communs, de favoriser la transversalité des rôles et des processus de gouvernance des données, ainsi que d’industrialiser l’utilisation de l’expertise afin de résoudre les problématiques rencontrées par les Digital Units lors de l’exécution des processus de gestion des données. La mission consiste à assurer une expertise à la fois fonctionnelle et technique concernant la solution de Data Catalog de Decathlon ( Collibra ) et son intégration dans l’écosystème de la Data & Agentic Platform . Elle inclut également une participation active aux chantiers stratégiques de transformation, tels que le AI Governance Framework , la Trust AI et la Data Quality by Design . Objectifs et livrables Développement produit / Configuration du Data Catalog Collibra : Conception de solutions pour répondre aux problématiques des utilisateurs de Collibra et mise en œuvre de ces solutions dans l’outil (administration, configuration, développements spécifiques si nécessaire). Validation des spécifications, développement et déploiement des workflows. Assistance pour la collecte des demandes et des requêtes des utilisateurs, ainsi que leur tri. Intégration du Data Catalog (Collibra) avec l’écosystème technologique de la donnée : Participer à la conception, à la mise en œuvre et à l’exploitation du système d’échange de métadonnées entre le Data Catalog, les solutions composant la Data Platform de Décathlon et les différents référentiels de métadonnées de l’entreprise. Collaborer avec l’équipe d’architecture pour assurer une intégration fluide. Configurer les capacités Edge en vue de la collecte des différentes zones de données. Développer et maintenir les connexions (crawling, APIs, connecteurs), assurer l’échange d’informations entre les systèmes IT et le Data Catalog (en interaction avec le support technique de Collibra). Intégrer le Data Catalog au sein du Data Quality Metrics Store. Participer activement au programme de Data Contract.
Mission freelance
Ingénieur Data à Niort (3 jours sur site)
NEO SOFT SERVICES
Publiée le
Agile Scrum
Dataiku
Modèle Conceptuel des Données (MCD)
24 mois
400-550 €
Niort, Nouvelle-Aquitaine
Présentation de l’organisation Au sein d’une organisation spécialisée dans les services financiers et l’assurance vie, la Direction des Systèmes d’Information Métier est en charge du maintien en conditions opérationnelles et de l’évolution stratégique du système d’information dédié aux activités d’épargne et de finance. Enjeux stratégiques La valorisation de la donnée constitue un axe majeur de la stratégie de transformation pour les années à venir. Dans ce cadre, l’organisation recherche un Ingénieur Data expérimenté (niveau III) afin de rejoindre l’équipe de développement Data. Le consultant intégrera une équipe Data récemment constituée, avec pour objectif de construire, maintenir et optimiser les plateformes et pipelines de données , afin de garantir la fiabilité, la qualité et l’accessibilité des données pour l’ensemble des métiers de l’entreprise. Missions principales Le consultant Data sera rattaché au chef de projet de l’équipe et interviendra comme contributeur technique clé dans le cycle de vie de la donnée . Il participera activement à la mise en œuvre du modèle Data de l’organisation. Les principales missions seront les suivantes : Conception de pipelines de données (ETL / ELT) Concevoir, développer et optimiser des flux de données robustes et performants. Alimenter les entrepôts de données et les DataMarts. Modélisation des données Participer à la conception et à la mise en œuvre de modèles de données (MCD, modélisation dimensionnelle). Adapter ces modèles aux besoins métiers du secteur financier et de l’assurance. Industrialisation des processus Data Industrialiser les processus de préparation, de transformation et de gouvernance de la donnée. Utiliser des outils spécialisés de data science et de data engineering pour automatiser les flux. Visualisation et reporting Assurer l’intégration des données dans les outils de Business Intelligence pour leur exploitation par les équipes métiers. Maintenance et optimisation Garantir la performance et la qualité des flux de données. Maintenir l’infrastructure data en conditions opérationnelles. Compétences techniques recherchées Profil technique disposant d’une forte appétence pour les outils d’industrialisation et de traitement de la donnée . Compétences clés Niveau de prestation : Niveau III exigé Maîtrise avancée du langage SQL Expérience dans la conception et l’implémentation de processus ETL / ELT Expertise en modélisation de données (MCD, dimensionnelle) Capacité à challenger les solutions techniques , estimer les charges et piloter les phases de qualification Connaissance des outils de Business Intelligence (ex : Tableau ou équivalent) Compétences appréciées Maîtrise d’un outil de data science / data préparation (ex : Dataiku ou équivalent) Expérience sur des outils historiques de reporting ou d’analyse de données Connaissance du secteur assurance / finance Organisation de la mission Présence sur site : minimum 3 jours par semaine Télétravail possible le reste du temps Mission nécessitant une bonne autonomie et une capacité d’intégration dans une équipe Data
Offre d'emploi
Expertise Kafka / DATA ENGINEERING
Digistrat consulting
Publiée le
Apache Kafka
ELK
3 ans
40k-70k €
450-600 €
Paris, France
🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 💡 Contexte /Objectifs : 💡Objectif global : Expert kafka 💡Description détaillée Le contexte de la mission : Dans le cadre de l'équipe Data Analytic , nous créons et maintenons des architectures Big Data pour les besoins internes de l’entreprise. Pour renforcer notre équipe support, nous proposons une mission de DATA ENGINEERING sur KAFKA 💡Principales technologies utilisées : • Kafka • Open Search • Elastic Stack (Elasticsearch / Logstash / Kibana / Beats) L'équipe mettant en avant une approche d'automation, les technologies suivantes sont notamment couramment utilisées • Ansible • Git/Bitbucket • Développement Python et REST APIs
Mission freelance
Data Engineer GCP H/F
LOMEGARD
Publiée le
Ansible
Apache Airflow
Google Cloud Platform (GCP)
6 mois
400-480 €
Île-de-France, France
Dans le cadre d’un accroissement d’activité et afin de renforcer l’équipe Data d’un grand acteur bancaire, notre client recherche un Data Engineer GCP expérimenté. La mission s’inscrit dans un environnement Big Data / Cloud GCP en pleine transformation, avec des enjeux forts autour de l’industrialisation des pipelines, de la qualité de données et de la mise à disposition de datasets fiables pour les équipes métiers et analytiques. La mission est basée en Île-de-France (IDF) avec 2 jours de TT par semaine. Votre rôle consiste à: Mettre en place les chaînes d’ingestion, validation, croisement et enrichissement des données. Alimenter et exploiter le Data Lake GCP (GCS) et produire des agrégats (J/H/M). Développer des pipelines batch & streaming (Spark, Kafka, Scala). Industrialiser les traitements via Airflow / Composer et CI/CD. Mettre à disposition les données (API, fichiers, dashboards). Participer à la mise en production de modèles statistiques. Documenter, corriger les anomalies, assister les équipes d’exploitation. Travailler en mode Agile (Scrum/Kanban) .
Offre d'emploi
Senior Consultant Business Data Analyst
VISIAN
Publiée le
Data analysis
Python
1 an
Lille, Hauts-de-France
Contexte Nous recherchons un(e) Expérimenté ou Senior Consultant Business Data Analyst pour analyser notre base client afin d’orienter les décisions stratégiques de l’entreprise. Vous jouerez un rôle clé dans l’étude de la connaissance client, et dans la propagation de celle-ci au sein de l’entreprise. Pour ce faire, vous devrez à la fois être doté d’une forte appétence métier, du bagage méthodologique et technologique adéquat. Missions Animer le recueil de besoins métiers, le challenger puis le cadrer afin de s’assurer que les prérequis au développement sont bien réunis Analyser le portefeuille clients (segmentation, comportements, valeur, churn, fidélisation) Concevoir et piloter des études ad hoc à visée stratégique sur nos clients directs et ceux recrutés via nos partenaires afin d’apporter à l’entreprise une vision globale de son portefeuille Identifier des opportunités de croissance, d’optimisation et de ciblage Formuler des recommandations actionnables aux équipes métiers et à la direction Restituer les travaux en s’adaptant à l’audience (chef de projet, CODIR, COMEX), en faisant preuve de vulgarisation et d’impact, en ayant une posture adaptée au travers de supports de qualité Garantir la qualité, la fiabilité et la cohérence des données utilisées Construire et maintenir des tableaux de bord Power BI orientés exécutif (KPI stratégiques, storylines, pages synthèse) et animer des revues de performance auprès du COMEX/CODIR Assurer la maintenance et la documentation des travaux réalisés
Mission freelance
Data & Analytics Engineer (SQL / DBT)
Nicholson SAS
Publiée le
BigQuery
DBT
Google Cloud Platform (GCP)
6 mois
270 €
Lyon, Auvergne-Rhône-Alpes
Secteur : Grande Distribution Localisation : Lyon (Rythme : 3 jours de présence sur site par semaine) Durée : Mission longue visibilité (jusqu’au 16/10/2026) TJM Max : 270 € 🎯 Mission & Contexte Au sein d'une équipe dynamique dédiée au pilotage du secteur Non-Alimentaire , vous participerez à l'automatisation des analyses stratégiques. Votre mission consiste à transformer les données brutes en outils d'aide à la décision (cockpits de performance) pour les Category Managers. 🛠️ Vos responsabilités Data Preparation : Construire les pipelines de données nécessaires aux analyses récurrentes. Développement de Dashboards : Participer à la création et à l'évolution du cockpit de performance (Data Viz). Maintien Opérationnel (Run) : Assurer le bon fonctionnement quotidien des flux (extractions, scripts d'automatisation, vérification des rapports). Collaboration : Travailler en étroite collaboration avec les équipes métiers pour comprendre leurs besoins analytiques. 📦 Livrables Modèles de données structurés sur BigQuery . Tableaux de bord opérationnels sur Tableau . Documentation technique et scripts de maintenance. 💻 Stack Technique Environnement : Google Cloud Platform (GCP). Data : Maîtrise de SQL (requêtes complexes, optimisation). Transformation : Utilisation de DBT (ou forte volonté d'apprendre l'outil). Outils : Git (versioning), environnement Agile (Scrum).
Mission freelance
Senior Data Ops Engineer
CAT-AMANIA
Publiée le
Apache Spark
CI/CD
Databricks
1 an
160-500 €
Lille, Hauts-de-France
Ta mission sera de Garantir la robustesse de la platforme Monitorer et prendre des actions proactive de management de la plateforme de compute Assurer le support et l'accompagnement d'équipes sur Spark, Databricks et EMR Travailler sur les optimisations des traitements Athena/Pyspark Accompagner et former Définir et promouvoir les bonnes pratiques de software engineering et de data engineering sur les technologies proposées au sein de l'équipe participer et conseiller lors de la conception des pipelines de données des équipes Développer le futur Travailler sur le concept d'accessibilité et de gouvernance de la donnée Tester de nouveaux outils / features intéressants à intégrer dans notre stack
Mission freelance
Business Analyst / Data – AML Monitoring - Paris
Net technologie
Publiée le
AML (Anti-Money Laundering)
Business Analysis
Data governance
1 an
Paris, France
Dans le cadre du programme AML Monitoring , nous recherchons un(e) Business Analyst orienté Data pour accompagner les initiatives d’amélioration de la couverture des risques AML sur plusieurs lignes métier. 🎯 Enjeux : amélioration de la résolution d’entités et de la qualité / enrichissement des données au sein de la chaîne AML. 🚀 Missions Définition des Business Requirements et rédaction des spécifications fonctionnelles Définition et exécution de la stratégie de tests Coordination avec les équipes de développement Reporting d’avancement, gestion des risques et des incidents 📊 Sur les initiatives Data : Intégration des solutions de Entity Resolution dans la chaîne AML Mise en place du référentiel d’entités et suivi de la qualité des données Définition et implémentation de contrôles automatiques Analyse des incidents et rédaction de Production Incident Reports
Mission freelance
Cloud Automation & Data Ingénieur junior (H/F)
Insitoo Freelances
Publiée le
AWS Cloud
Bash
Python
2 ans
350-400 €
La Ciotat, Provence-Alpes-Côte d'Azur
Basée à Lille, Lyon, Nantes, Grenoble, Marseille, Paris et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Cloud Automation & Data Ingénieur junior (H/F) à La Ciotat, France. Les missions attendues par le Cloud Automation & Data Ingénieur junior (H/F) : Automatiser l’intégralité des infrastructures Cloud et des services de données. Industrialiser les déploiements via des pratiques DevSecOps rigoureuses. Concevoir des architectures orientées données (Data Lakes, Streaming) hautement disponibles. Accompagner les équipes projets dans l’adoption des meilleures pratiques Cloud & Data. Responsabilités Principales 1. Automatisation & Infrastructure as Code (IaC) Concevoir et déployer des infrastructures via Terraform. Gérer le cycle de vie complet des ressources sur AWS. Automatiser les services Data (S3, Glue, Kinesis, etc.) et optimiser la performance des environnements. 2. DevSecOps & CI/CD Construire et maintenir des pipelines CI/CD (GitLab, GitHub ou Jenkins). Intégrer nativement la sécurité (contrôles de conformité, scans de vulnérabilités). Automatiser les tests de qualité de données et la validation des schémas. 3. Platform Engineering & Architecture Data Développer des frameworks internes pour faciliter l'usage du Cloud (Serverless, Conteneurs). Mettre en œuvre des architectures orientées événements (Kinesis, Lambda). Assurer l'ingestion, le stockage et la fluidité des flux au sein du Data Lake. 4. Sécurité, Gouvernance & Conformité Piloter la gestion des identités et des accès (IAM) et le chiffrement (KMS). Appliquer les politiques de gouvernance : catalogage, traçabilité et rétention des données. Garantir l'auditabilité et le monitoring des données sensibles. Compétences Requises Cloud : Maîtrise approfondie d'AWS (Core services & Data stack). IaC : Expertise confirmée sur Terraform. Conteneurisation : Docker, Kubernetes. Data Engineering : ETL/ELT, modélisation de données, cycle de vie de la donnée. Développement : Python (avancé), Bash, SQL. Outils : Écosystème CI/CD, la connaissance de Snowflake est un plus significatif.
Offre d'emploi
Data Engineer - Semarchy xDI (H/F)
Degetel
Publiée le
ETL (Extract-transform-load)
PowerBI
Sap BO
Strasbourg, Grand Est
💼 À propos de l’entreprise Créée en 2008, Technology & Strategy est une société de conseil franco-allemande qui accompagne ses clients sur des projets d’engineering, de digital et de consulting. Avec plus de 3 500 collaborateurs , répartis dans 27 agences et plus de 10 pays , nous évoluons dans un environnement international 🌍 Ce qui fait notre force : Une expertise technique reconnue Des valeurs fortes : Respect, Partage, Initiative, Excellence Une vraie diversité avec plus de 45 nationalités Des équipes engagées, communicantes et solidaires Un accompagnement clair pour faire évoluer votre parcours Un environnement de travail certifié #HappyAtWork Des projets innovants, concrets et à impact 💼 À propos du poste – Data Engineer (H/F) – Strasbourg Dans le cadre de nouveaux projets data, nous recherchons un Data Engineer pour rejoindre notre équipe strasbourgeoise et intervenir sur des projets dans le domaine bancaire . Vous évoluerez dans un contexte orienté data décisionnelle / BI , avec des enjeux forts autour de l’intégration, de la structuration et de la valorisation des données. 🛠️ Vos missions Concevoir, développer et maintenir des flux d’intégration de données ( ETL / ELT ) Intervenir sur des outils d’intégration, idéalement Semarchy xDI (ex-Stambia) Participer à la modélisation des systèmes décisionnels Travailler sur les bases de données et rédiger des requêtes SQL performantes Contribuer à l’alimentation et à l’exploitation des outils de Business Intelligence Collaborer étroitement avec les équipes data, BI et métiers Garantir la qualité, la fiabilité et la performance des données 🚀
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
6308 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois