L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 6 015 résultats.
Mission freelance
Data Architect
Codezys
Publiée le
API
Azure
Azure Data Factory
12 mois
Lyon, Auvergne-Rhône-Alpes
Nous recherchons un Data Architect qui intégrera l'équipe stable dédiée à la Business Intelligence (BI) et à l'Analyse, avec un focus particulier sur le domaine Achats. Objectifs et livrables Ce que vous aurez à réaliser : En tant que Data Architect, vous veillerez à ce que les produits délivrés par votre équipe soient conformes à notre architecture cible globale. Pour soutenir cette fonction, nous cherchons un Data Architect spécialisé dans Azure, possédant une bonne compréhension des services disponibles dans la stack analytique Azure. Vous collaborerez avec le DPO, les Data Analysts, Data Engineers & Data Scientists de l'équipe, ainsi qu'avec la communauté d'architectes, afin de définir une architecture de qualité, apportant une valeur métier pertinente et assurant la maintenabilité à long terme. De plus, vous devrez faire preuve de compétences en leadership pour prendre en charge le rôle de lead technique et participer aux discussions avec les parties prenantes métier et l’architecture d’entreprise. Vous apportez un leadership technique, participez aux efforts de développement et représentez l’ensemble des capacités internes et externes de la plateforme. Vous êtes un membre actif de la guilde des architectes, chargé de superviser le processus de gestion des données et de fournir guidance et orientation aux équipes de développement. Vous êtes responsable de la conception et de la documentation des solutions dans votre domaine. Vous avez une expérience avec Databricks, ADLS Storage, SQL Database, Azure Data Factory (ADF) et Power BI. Vous avez l’expérience de la définition et de la gestion d’une architecture de données évolutive de bout en bout, en tenant compte de l’architecture d’entreprise et des normes du secteur. Vous maîtrisez le développement, la documentation et la maintenance de modèles de données logiques et physiques. Votre futur équipe Dans le cadre du domaine Achats, vous devrez relever de nombreux défis et aborder des sujets passionnants : Mettre en place des Data Products pour soutenir l’approche CAST (produits réutilisables partagés), conformément à notre stratégie. Contribuer à la définition de la feuille de route des initiatives BI & Analytics. Définir le Modèle de Données EDM et le mettre en œuvre en respectant les directives existantes. Participer à l’équipe de maintenance afin d’assurer la continuité des processus métier.
Mission freelance
Business Analyst Data Platform / Databricks Connaissance SAP
TAHYS RECRUITMENT SOLUTIONS
Publiée le
Databricks
SAP FICO
12 mois
Lyon, Auvergne-Rhône-Alpes
Je recherche pour un client basé à Lyon un Freelance Data Engineer / Data Platform Consultant pour intervenir au cœur d’un environnement Data stratégique basé sur Databricks . 🎯 Contexte de la mission Vous jouerez un rôle clé à l’interface entre les métiers (Qualité, Usines, Finance, Opérations…) et la plateforme Data. Votre objectif : faciliter l’exploitation de la donnée en traduisant les enjeux métiers en solutions analytiques concrètes. 🚀 Vos responsabilités ✅ Recueil & traduction des besoins métiers Comprendre les problématiques opérationnelles Transformer les besoins en cas d’usage analytiques ✅ Data Engineering & Gouvernance Identification des sources (SAP ERP, MES Apriso, CRM…) Nettoyage, transformation et structuration des données Garantie de la qualité et de la cohérence Respect des process de gouvernance ✅ Analyse & Valorisation Analyses descriptives, exploratoires, prédictives SQL, Python, R… Identification de leviers d’optimisation ✅ DataViz & Storytelling Création de dashboards (Power BI, Tableau, Qlik…) Restitution claire et orientée décision Construction de véritables “data stories” ✅ Accompagnement à la décision Recommandations opérationnelles Définition & suivi des KPIs Mesure d’impact
Offre d'emploi
Data Officer H/F
OBJECTWARE
Publiée le
Gestion de projet
Nantes, Pays de la Loire
Nous recherchons un Data Officer H/F. Vous couvrez les rôles de Conduite de projet Data (AMOA) et de Data Stewart. Vous coordonnez et mutualisez les énergies sur les projets Data et dans le cadre de la gouvernance et de l’administration des données. Missions : - analyse fonctionnelle des sujets - échanges avec MOA / MOE - gouvernance de la donnée (analyse des données, catalogue des données, connaissance de la donnée et sécurisation d’accès (droits et usage)) - organisation projet notamment de la qualification
Offre d'emploi
Architecte Data (Snowflake - IA Gen) H/F
STORM GROUP
Publiée le
Apache Airflow
AWS Cloud
CI/CD
3 ans
55k-65k €
550-680 €
Lille, Hauts-de-France
Principales missions : - Contribuer aux cadrages des nouveaux besoins techniques des métiers liés à la plateforme SNOWFLAKE - Participer à l’évolution de la plateforme Data (gouvernance, contrôles, automatisation, etc) - Participer aux choix technologiques de l’offre à mettre en place - Analyser les documents d’architecture des assets à faire évoluer et définir les nouveaux PATTERN (architecture fonctionnelle, applicative, technique) - Analyser, définir et cadrer les adaptations nécessaires de l’offre proposée - Documenter les PATTERN retenus à un niveau plus détaillé, de sorte à la rendre exécutable pour les autres Business Units - Être l’interlocuteur privilégié des équipes portant les besoins d’agent/usages IA GEN au sein du pôle DATA - Accompagner au déploiement de la solution définie auprès de la BU et des autres Business Units - Accompagner à la prise en main de la plateforme Data
Mission freelance
Data Engineer Senior – Databricks / AWS / Airflow (Core Data Platform)
CHOURAK CONSULTING
Publiée le
Apache Airflow
AWS Cloud
CI/CD
3 mois
400-550 €
Île-de-France, France
Nous recherchons un Data Engineer Senior pour rejoindre une équipe Data stratégique au sein d’un acteur international, avec des enjeux forts autour de la performance financière et de la fiabilité des données RH & Finance . 🎯 Contexte de la mission Vous intégrerez une équipe Core Data Product composée d’un Product Manager et de plusieurs Data Engineers. La Data est au cœur des décisions stratégiques. L’équipe est actuellement engagée dans une revue globale de son architecture et de sa modélisation , avec un objectif clair : moderniser la plateforme et transformer la stack legacy vers les nouveaux standards Data Platform. ⚙️ Missions principales Concevoir, construire et maintenir des pipelines et infrastructures data robustes et performantes . Optimiser l’architecture et la modélisation des flux. Participer à la transformation vers les nouveaux standards de la Data Platform. Garantir la qualité, la fiabilité et la gouvernance des données (Finance & HR). Assurer un RUN de qualité selon le principe “You build it, you run it”. Promouvoir les bonnes pratiques : CI/CD, revue de code, qualité du code . Garantir la sécurité et la conformité des données (RGPD). Évoluer en environnement Agile au sein d’une équipe internationale (anglais quotidien).
Offre d'emploi
Consultant e-Invoicing / Facturation électronique (F/H)
CAPEST conseils
Publiée le
Facturation électronique
Web service
Échange de données informatisé (EDI)
3 mois
Courbevoie, Île-de-France
Ouvert aux indépendants ou aux personnes à la recherche d'un CDI. Notre client renforce son équipe de Consultants B2B Integration, pour mettre en œuvre notre solution e-invoicing auprès de clients nationaux et internationaux. Cette équipe travaille de manière quotidienne avec des clients, implémente la solution, anime des groupes de travail, teste et fait évoluer les solutions B2B Intégration auprès des clients. Véritable référent technique et fonctionnel de la solution, vous prenez en charge des projets et construisez une relation fiable et durable avec vos clients. Analyser les besoins des utilisateurs et les formaliser avant de proposer les solutions les mieux adaptées. Animer les ateliers et les formations. Assurer la mise en œuvre, superviser ou réaliser le paramétrage. Rédiger les spécifications fonctionnelles et/ou techniques Coordonner les développements spécifiques pour la réalisation de la demande client. Assurer les recettes des développements réalisés. Élaborer des recommandations innovantes et pertinentes, proposer de nouvelles idées...- Contribuer à l’évolution des solutions en remontant les informations Métiers pertinentes au Produit. Travailler en collaboration étroite avec l’ensemble de l’écosystème Réaliser les transferts de compétence (formations, guides d’exploitation…) vers le client final, les partenaires ou en interne. Assurer le transfert des dossiers vers les autres services et notamment la Direction Support et Hébergement. Renseigner et enrichir les bases de connaissances mutualisées. Maintenir à jour ses connaissances dans son domaine d’expertise. Les missions précitées ne sont pas exhaustives et restent évolutives. Qualifications De formation Bac +5 type école d'ingénieur ou université en informatique/réseau, vous détenez une première expérience dans le domaine du conseil et/ou du développement informatique, de préférence avec une expérience en programmation et EDI/E-invoicing. Vous avez des compétences en gestion de projet IT, programmation (Java, C), API, Web Services, Bases de données. Est un plus vos connaissances en transformation digitale auprès de grands comptes. Rigoureux(se), autonome, vous êtes bon communiquant, avez le sens du client et savez gérer les priorités. Team spirit, force de propositions, vous détenez des qualités rédactionnelles et d'adaptabilité. Un niveau d'anglais courant est demandé.
Mission freelance
Développeur Python / .NET – Finance de marché (Pricing & Market Data)
Syneam
Publiée le
.NET
Finance
Python
12 mois
Hauts-de-Seine, France
Contexte : Dans le cadre des activités d’une équipe en charge des services de pricing en environnement finance de marché, nous recherchons un développeur Python /.NET pour intervenir sur un environnement technique dédié aux calculs et à l’exposition de données de valorisation. La mission s’inscrit dans un contexte de modernisation et d’expérimentation autour d’une plateforme de type “sandbox” permettant de tester et d’industrialiser de nouveaux services de pricing. Descriptif de la mission : Participer au développement et à l’évolution de services de pricing exposés via APIs. Concevoir et implémenter des composants techniques en Python et .NET . Développer et maintenir des interfaces de communication (API HTTP, gRPC, WCF). Contribuer à la structuration et à l’exposition des données de market data utilisées dans les calculs de valorisation. Intervenir sur la mise en place de services documentés via Swagger / OpenAPI . Participer aux phases de tests, validation et optimisation des performances des services. Collaborer avec les équipes quant, risk et IT afin de garantir la cohérence des calculs de pricing et des indicateurs de risque.
Mission freelance
Data Analyst (1 ETP)
Signe +
Publiée le
Business Analyst
8 mois
400-550 €
Marseille, Provence-Alpes-Côte d'Azur
Missions Gestion des données de référence (gouvernance & qualité) Compétences obligatoires Spécifications techniques de données Connaissance data management Qualité de données Profil Expérience Data Analyst Rigueur analytique ---- Missions Gestion des données de référence (gouvernance & qualité) Compétences obligatoires Spécifications techniques de données Connaissance data management Qualité de données Profil Expérience Data Analyst Rigueur analytique --- Missions Gestion des données de référence (gouvernance & qualité) Compétences obligatoires Spécifications techniques de données Connaissance data management Qualité de données Profil Expérience Data Analyst Rigueur analytique
Offre d'emploi
Data Analyst Workplace / Digital Employee Experience
█ █ █ █ █ █ █
Publiée le
Corbeil-Essonnes, Île-de-France
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Mission freelance
Data Analyst confirmé Powerbi, SQL, Python Nantes/st
WorldWide People
Publiée le
Data analysis
12 mois
320-350 €
Nantes, Pays de la Loire
Data Analyst confirmé Powerbi, SQL, Python Nantes Maîtrise des outils de gestion de données (ex : SQL, Excel avancé, Python ou R…). • Connaissance des outils de visualisation (ex : Power BI, Tableau, …). • Compétences en statistiques et en modélisation de données. 07/04/2026 Mission longue Ce poste est ouvert à la pre-embauche Powerbi, SQL, Python Prestation Data Analyst confirmé (Min 3 ans exp sur la fonction) Tâches : • apporte un appui analytique à la conduite d’exploration et à l’analyse complexe de données Métiers permettant de fournir des indicateurs concrets. • identifie les données les plus intéressantes et les rends exploitables (structuration, normalisation, documentation) • assure la qualité et la fiabilité de ces données. • dégage des logiques de génération d’indicateurs pour les Métiers. • dégage des tendances en utilisant ses compétences statistiques. • conçoit les tableaux de bord nécessaires à la restitution des différents indicateurs sous la forme de Data visualisation. Compétences Technique : • Maîtrise des outils de gestion de données (ex : SQL, Excel avancé, Python ou R…). • Connaissance des outils de visualisation (ex : Power BI, Tableau, …). • Compétences en statistiques et en modélisation de données.
Mission freelance
Data Layer - Business Analysis
Net technologie
Publiée le
Big Data
6 mois
Paris, France
Au sein du département informatique du client en charge des développements pour le bénéfice de l’ALM Treasury, nous proposons une mission de type Business Analyst pour contribuer sur un projet central autour de la donnée. Objectifs de la mission: - Formalisation des règles de gestion pour les développeurs et les accompagner dans leur implémentation - Formalisation des cahiers de tests : contribuer à l'approche TDD/BDD - Spécification de l'intégration de nouvelles sources de données : opérations et référentiel - Etudes et analyses du backlog d'équipe - Expertise en mode Agile
Mission freelance
Tech Lead Data (AWS/BI)
STHREE SAS pour COMPUTER FUTURES
Publiée le
AWS Cloud
8 mois
Île-de-France, France
Description du contexte / projet Assurer la responsabilité technique, fonctionnelle et opérationnelle du Datalake AWS (CAP 2.0) et de l’écosystème BI du groupe. Piloter une équipe de développement internationale et garantir l’ingestion, la transformation, la qualité, la gouvernance et la mise à disposition fiable des données pour les équipes et systèmes consommateurs A. Pilotage technique du Datalake AWS CAP 2.0 ▪ Supervision complète de la plateforme data AWS ▪ Coordination et encadrement d’une équipe de 5 développeurs basée en Inde ▪ Conception et adaptation des architectures AWS selon les standards du groupe ▪ Implémentation et optimisation des services AWS : ➢ S3 ➢ Glue ➢ Kinesis ➢ Lambda ➢ EventBridge ➢ CloudWatch ▪ Suivi du fonctionnement, des performances et de la robustesse des pipelines ▪ Mise en place de mécanismes d’alerting, supervision et automatisation B. Ingestion et transformation des données ▪ Analyse des systèmes sources internes et externes ▪ Définition du flux d’ingestion de bout en bout ▪ Orchestration des pipelines d’ingestion et de transformation ▪ Consolidation et structuration des datasets ▪ Mise à disposition des données transformées dans PostgreSQL pour les systèmes consommateurs ▪ Validation de l’intégrité, cohérence, performance et fraîcheur des données C. Gouvernance, qualité et bonnes pratiques ▪ Définition et application des guidelines du datalake ▪ Mise en place des standards de gouvernance de données ▪ Suivi et amélioration de la qualité des données ▪ Gestion des accès, sécurité, conformité et règles de partage ▪ Animation des pratiques data selon les meilleures normes du marché ▪ Supervision de l’usage de Collibra pour la gouvernance documentaire D. Management de projets et méthodologies ▪ Gestion de projets data à fort enjeu stratégique ▪ Pilotage de la migration du SI BI vers un nouvel environnement : ➢ Définition du scope ➢ Planification des jalons ➢ Suivi des coûts et ressources ➢ Coordination des acteurs ➢ Organisation du passage en production ▪ Application avancée des méthodologies Agile ▪ Animation des cérémonies et des instances de pilotage ▪ Rôle hybride : Technical Lead assorti de compétences chef de projet & Business Analyst
Mission freelance
Consultant(e) SAP FICO - Data Migration S/4 - IDF
Signe +
Publiée le
SAP FICO
3 mois
550-700 €
Le Plessis-Robinson, Île-de-France
Dans le cadre d’un programme de transformation SAP, notre client recherche un Consultant SAP FI/CO pour intervenir sur un projet de migration de données ECC vers S/4HANA. Le consultant intégrera l’équipe technico-fonctionnelle Data Migration et interviendra principalement sur la définition et la formalisation des règles de transformation et de mapping des données Finance et Controlling. Missions Analyser les modèles de données FI/CO entre ECC et S/4HANA . Définir et documenter les règles de transformation, de mapping et de nettoyage des données . Participer aux ateliers avec les équipes métiers Finance, Controlling et gestion de projet . Contribuer à la conception des objets de migration et des templates de reprise de données . Accompagner les équipes Data Migration lors des phases de migration et de tests (Unit Tests, SIT, UAT) . Identifier les écarts, risques et impacts liés à la migration et garantir la cohérence des données dans S/4HANA. 📍 Localisation : 92 🏢 Présence : 3 jours sur site / 2 jours télétravail 📅 Démarrage : ASAP ⏳ Durée : Mission longue (programme stratégique S/4HANA) 💰 TJM : 600-700 € selon expérience 🌍 Langue : Anglais intermédiaire requis
Offre d'emploi
Data Engineer Azure
VISIAN
Publiée le
Azure
Azure Data Factory
Azure Synapse
2 ans
40k-60k €
400-550 €
Paris, France
Bonjour, Dans le cadre de ses projets clients, Visian est à la recherche d'un Data Engineer Azure avec une très bonne maîtrise d'Azure Data Factory et d'Azure Devops pour la CI/CD Nous recherchons un consultant capable de mettre en place les flux d'interface entre SAP Concur et les différentes applications Finance au travers de l'ETL Microsoft Azure Data Factory et d’en assurer le RUN/ CI/CD avec Azure Devops. Il est nécessaire d'avoir une capacité à être force de proposition et travailler en autonomie.
Mission freelance
Consultant Gouvernance Data
Codezys
Publiée le
Gouvernance
12 mois
350-450 €
Paris, France
Sécurité et conformité réglementaire : Garantir la conformité des données aux normes internes et externes, notamment en matière de RGPD et de législation en vigueur. Gestion des rôles et animation de la communauté Data : Identifier et mobiliser les relais de la gouvernance Data dans un contexte de responsabilités fédérées. Animer des séminaires, assurer la communication et favoriser l’engagement des acteurs concernés. Gestion des habilitations : Définir la granularité des habilitations pour les rôles et utilisateurs afin d’assurer une sécurité optimale et une gestion fine des accès. Accompagnement à la montée en compétence : Soutenir le développement des compétences des membres de l'équipe sur les sujets fondamentaux indispensables à la réalisation des missions liées à la gouvernance des données. LIVRABLES ATTENDUS ET ENVIRONNEMENT TECHNIQUE Exemples de livrables : Chapitres thématiques de la politique de gouvernance des données : Rôles et responsabilités Gestion du Glossaire et du Dictionnaire des données Gestion du Data Lineage Sécurité et droits d’accès, conformité juridique Suivi de la qualité des données Processus d’évolution de la plateforme Data Environnement technique : La sélection du fournisseur pour la plateforme Data d’entreprise est en cours. La solution cible intégrera notamment : Couche de stockage : Teradata, Hadoop Cloudera, PostgreSQL Transformation des données : DataStage, Spark Business Intelligence : Power BI, SAS Sécurité : 2 jours de télétravail possible par semaine à Paris 12, avec un démarrage prévu à la mi-mars 2026. La mission se clôturera en janvier 2027, avec une option jusqu’en janvier 2028. La date limite de réponse est fixée au 19/02/2026. Type de contrat : salarié ou freelance. TJM cible : 450 € .
Offre d'emploi
Ingénieur Systèmes Linux / Migration Datacenter (H/F)
SYAGE
Publiée le
Linux
12 mois
Valbonne, Provence-Alpes-Côte d'Azur
Contexte : Dans le cadre de l’intégration d’une filiale, vous interviendrez sur un projet stratégique de migration de production de deux datacenters distants (on-premise / cloud) vers le datacenter principal du groupe. L’environnement est 100 % Linux, orienté production SaaS, avec des enjeux forts de disponibilité, sécurité, performance et continuité de service, dans un contexte sensible ISO 27001. Le poste est orienté ingénierie infrastructure, avec une forte dimension projet, nécessitant une vision globale d’architecture, sans management d’équipe. Objectif : Votre rôle est de concevoir, organiser et réaliser la migration complète des infrastructures de production d’une filiale vers le datacenter principal, tout en garantissant la continuité de service et la sécurité des systèmes. Vous interviendrez sur l’analyse des dépendances, la compréhension des flux, la stratégie de migration et l’implémentation technique, avec un rôle central dans la coordination, la communication et le reporting projet. Poste Poste 1. Migration & gestion de projet technique Piloter et exécuter la migration des datacenters dans le cadre de l’intégration de la filiale. Analyser les environnements existants, dépendances applicatives et contraintes techniques. Définir les stratégies de migration (phases, risques, rollback, validation). Assurer le suivi d’avancement, le reporting et la communication avec les parties prenantes. Garantir la stabilité des environnements en production pendant les phases critiques. 2. Systèmes & infrastructures Linux Administrer et maintenir des environnements Linux (Ubuntu, CentOS). Gérer des serveurs physiques et virtualisés (VMware). Assurer la fiabilité et l’optimisation des plateformes systèmes de production. Contribuer aux évolutions d’architecture avec une vision d’ingénieur orientée archi. 3. Containerisation, CI/CD & automatisation Intervenir sur des environnements Docker et Kubernetes (optionnel). Utiliser et intégrer les pipelines GitLab CI/CD dans les processus de déploiement. Participer à l’industrialisation des déploiements et des migrations. 4. Données, stockage et plateformes Accompagner la migration des bases de données MariaDB et Manticore Search. Gérer les environnements de stockage centralisé NAS / SAN / S3. Garantir l’intégrité, la disponibilité et la performance des données. 5. Réseaux, sécurité et conformité Intervenir sur les architectures réseau (VPN, firewalling). Participer à la sécurisation des flux inter-datacenters. Respecter les exigences de sécurité dans un environnement ISO 27001.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
6015 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois