L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 6 465 résultats.
Offre d'emploi
Data Engineer H/F
SMARTPOINT
Publiée le
Apache Kafka
Apache Spark
Elasticsearch
6 mois
50k-55k €
400-410 €
Île-de-France, France
Dans le cadre du développement de nos activités, nous recherchons un(e) Data Engineer pour renforcer l'équipe technique de notre client et intervenir sur des projets à forte valeur ajoutée autour de la data. En tant que Data Engineer, vous serez amené(e) à : Assurer le suivi technique des projets : suivi des développements, réalisation de revues de code et respect des bonnes pratiques Gérer les incidents techniques : analyse, résolution et mise en production des correctifs Proposer des améliorations techniques : identification des axes d’évolution et optimisation des performances et de la stabilité des applications Garantir la qualité du code : mise en place de tests unitaires et gestion de l’intégration continue Assurer la documentation technique : maintien à jour de l’architecture et de la documentation
Offre d'emploi
Data Scientist F/H - Système, réseaux, données (H/F)
█ █ █ █ █ █ █
Publiée le
Ocaml
Python
SQL
Le Relecq-Kerhuon, Bretagne
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Mission freelance
Data Owner Merchandising
Zenith Rh
Publiée le
12 mois
Nord, France
Nous recherchons pour notre client, un(e) Data Owner Merchandising, pour une mission en freelance au sein d’un grand groupe leader dans son domaine. Dans le cadre d'une transformation, vous interviendrez pour structurer et garantir l'intégrité du patrimoine de données. Votre rôle est central : vous êtes le garant de la définition, de la gouvernance et de la qualité des données liées aux services merchandising. En véritable chef d'orchestre, vous définissez les règles, les standards et les processus tout en identifiant les responsabilités de chaque acteur. Vous jouez un rôle d'arbitre pour les décisions business et priorisez les chantiers d'amélioration en veillant à ce que les équipes métiers assurent les corrections nécessaires. Votre mission est d'assurer un alignement parfait entre les besoins opérationnels de terrain et les exigences des domaines consommateurs de données.
Mission freelance
Architecte Data
PROPULSE IT
Publiée le
24 mois
350-700 €
Paris, France
PROPULSE IT recherche un Architecte DATA. Pour soutenir la sélection et la mise en œuvre d'un nouveau système CRM et d'une plateforme d'automatisation marketing, le client recherche un expert capable de préparer l'avenir et de développer davantage le modèle de données client et consommateur, et d'établir un plan d'intégration et une feuille de route. - Conception de bases de données Traduire le modèle consommateur canonique existant en une base de données concrète. Définir et documenter les entités, attributs et relations dans un dictionnaire de données. Assurer de la qualité des données et de la cohérence sémantique. Intégration et cartographie fonctionnelle Cartographier fonctionnellement les données des consommateurs à travers les différents systèmes B2C. Développer des cartographies et des transformations à partir des CRM, e-commerce, POS (physique), fidélisation et automatisation marketing vers la base de données consommateurs. Définir les approches de transformation et de standardisation. - Architecture et feuille de route Finaliser l'architecture de l'application autour des données des consommateurs : systèmes, processus et dépendances. Ajuster le modèle de données lorsque cela est nécessaire, en tenant compte des limites des systèmes existants. Élaborer une feuille de route pour relier les différents systèmes par phases.
Mission freelance
Data Analyst
PARTENOR
Publiée le
Dataiku
Google Cloud Platform (GCP)
Gouvernance
1 an
Puteaux, Île-de-France
Notre client réalise une transformation de sa plateforme Data vers la Google Cloud Plateform avec l'adoption de Dataiku en outil de data préparation. Au sein de la direction Intelligence de la donnée, le département Data Management et Business Intelligence a pour objectif de réaliser sa propre transformation et d'accompagner les directions utilisatrices de GCP/Dataiku à exploiter la plateforme dans le cadre défini, de déployer la gouvernance associée et de l'ajuster dans une démarche d'amélioration continue. Nous recherchons un(e) Data analyst pour aider à accompagner cette transformation. Ces travaux mixent des aspects de pilotage, d'accompagnement au changement et de développements BI Data management, Accompagnement au changement, Data-préparation (Dataiku), plateforme GCP.
Offre d'emploi
Data Engineer
LEVUP
Publiée le
AWS Cloud
Python
Snowflake
12 mois
43k-66k €
460-550 €
Liège, Belgique
Data Engineer (Snowflake / AWS) 📍 Localisation : Liège (Belgique) 📅 Expérience : 3 ans minimum 🎯 Mission principale En tant que Data Engineer , vous contribuez à la conception, au développement et à l’optimisation de plateformes data modernes dans un environnement cloud. Vous intervenez sur l’architecture, l’ingestion, la transformation et la gouvernance des données en utilisant Snowflake, AWS et Databricks , avec une attention particulière à la gestion des métadonnées et à la qualité des données. 🛠️ Responsabilités🔹 Développement Data Concevoir et maintenir des pipelines de données robustes (batch & streaming) Développer des flux ETL/ELT performants Modéliser des entrepôts de données (Data Warehouse / Data Lakehouse) Implémenter des solutions sur Snowflake et Databricks 🔹 Cloud & Infrastructure (AWS) Déployer et gérer des services AWS (S3, Glue, Lambda, EC2, IAM, Redshift…) Automatiser les workflows (CI/CD, Infrastructure as Code – Terraform est un plus) Assurer la sécurité et la performance des environnements cloud 🔹 Metadata & Data Governance Mettre en place des stratégies de gestion des métadonnées Maintenir un data catalog Assurer la traçabilité (data lineage) Participer aux initiatives Data Quality 🔹 Collaboration Travailler avec Data Analysts, Data Scientists et équipes métiers Participer aux choix technologiques et bonnes pratiques Documenter les solutions techniques 🧠 Profil recherché🎓 Formation Master en informatique, data engineering ou équivalent 💡 Expérience Minimum 3 ans d’expérience en data engineering Expérience concrète sur projets cloud data 🔧 Compétences techniques indispensables Snowflake (modélisation, performance tuning) AWS (S3, Glue, Lambda, IAM…) Databricks / Spark (PySpark) SQL avancé Python Gestion des métadonnées & data catalog ➕ Atouts Connaissance de Data Mesh ou Lakehouse Expérience dans environnement réglementé (pharma, industrie) Outils BI (Power BI, Tableau…) CI/CD, Git, DevOps 🌍 Langues Français courant Anglais professionnel (documentation et échanges techniques) 🤝 Soft Skills Esprit analytique Autonomie Sens de la qualité et rigueur Capacité à vulgariser des sujets techniques
Mission freelance
Data Analyst
Insitoo Freelances
Publiée le
Data analysis
2 ans
400-685 €
Bruxelles, Bruxelles-Capitale, Belgique
Located in Lille, Lyon, Nantes, Grenoble, and Brussels, Insitoo Freelances is an entity of Insitoo Group, specialized in Freelances sourcing and supplying.Since 2007, Insitoo Freelances has been a reference in IT thanks to its expertise, transparency, and proximity . We are looking for a Data analyst for our client in Brussels. Key responsibilities : Delivering reports and dashboards that enable management and all teams to continuously monitor performance through interactive dashboards and detect issues at an early stage In addition to internal reports (in OBI and MicroStrategy), delivering a set of external reports (via Arvastat) Providing data to the Strategy department Ensuring the AI team receives the necessary information that allows them to extract insights from the data using statistical techniques
Offre d'emploi
Architecte Data & IA H/F
JEMS
Publiée le
75k-90k €
Nantes, Pays de la Loire
Nous recherchons un(e) Architecte Expérimenté(e), passionné(e) par la technologie, pour travailler soit en interne, en collaborant de manière transversale sur divers projets passionnants, soit directement chez nos clients, en étant au cœur de leurs défis numériques. Si vous souhaitez participer à des projets d'envergure, continuer à apprendre et évoluer dans votre carrière, c'est l'occasion rêvée ! Vous aurez la charge de : • Concevoir, modéliser et évaluer la charge d'implémentation des architectures sécurisées, évolutives, fiables et performantes dans les domaines de la Data et/ou du Digital en situation projet et avant-vente • Réaliser des études comparatives de solutions afin de sélectionner les plus innovantes et adaptées au contexte du projet • Réaliser ou conduire les PoV (Proof of Value) et les PoC (Proof of Concept) • Rédiger le dossier d'architecture technique à travers le High et Low Level Design • Assurer le suivi de la conformité des réalisations projets relatives au dossier d'architecture technique • Veiller au suivi des bonnes pratiques sur l'ensemble du périmètre des réalisations techniques • Mener une démarche d'optimisation des coûts afin de garantir que l'architecture soit à la fois efficace et économique Référence de l'offre : y3xcipxf3f
Mission freelance
Data Architecte AWS / Iceberg
Atlas Connect
Publiée le
Apache Airflow
Apache Spark
API
12 mois
590-600 €
Île-de-France, France
Data Engineer Senior afin d’accompagner la conception, l’industrialisation et l’évolution de ses solutions data. Le prestataire interviendra sur les sujets d’architecture, de modélisation, d’optimisation des pipelines et contribuera activement à la stratégie Lakehouse de l’entreprise. Missions principales Concevoir, développer et optimiser des pipelines de données à grande échelle. Mettre en œuvre des flux batch , streaming et ingestion via API . Structurer les transformations selon un modèle Médaillon (Bronze / Silver / Gold). Développer et industrialiser les pipelines via DBT , Spark et Iceberg . Contribuer à l’évolution de l’architecture Lakehouse de l’entreprise. Déployer et maintenir les pipelines dans un environnement cloud (AWS ou équivalent). Orchestrer les workflows ETL/ELT via Airflow . Mettre en œuvre l’ Infrastructure as Code ( Terraform ). Exécuter les traitements dans des environnements conteneurisés ( Docker , Kubernetes ). Garantir la disponibilité, la supervision et l’observabilité des traitements. Participer à la gestion des incidents et à l’amélioration continue. Définir et mettre en œuvre les règles de qualité des données (tests, validation, contrôles automatisés). Documenter les architectures, pipelines et règles métier. Garantir la conformité des flux, notamment dans le cadre RGPD .
Offre d'emploi
Data Engineer Databricks
KOMEET TECHNOLOGIES
Publiée le
Apache Spark
Databricks
45k-60k €
Paris, France
En tant que Data Engineer, vous intervenez sur la conception, le développement et l’optimisation de pipelines de données robustes et scalables. Vous travaillez au cœur des plateformes Data afin de garantir la qualité, la disponibilité et la performance des données utilisées par les équipes métiers, BI et Data Science. Expérience attendue : 3 à 8+ ans en ingénierie Data. Vous correspondez au/à la Data Engineer que nous recherchons si : Vous évoluez efficacement au sein d’équipes agiles et pluridisciplinaires , en collaboration étroite avec les équipes Data, IT et métiers Vous faites preuve d’un fort esprit analytique et d’une grande rigueur Vous êtes autonome , proactif et doté d’un solide sens des responsabilités Vous êtes capable de communiquer clairement avec des interlocuteurs techniques comme non techniques Vous savez prioriser vos tâches , gérer les contraintes et respecter vos engagements Vous disposez d’un bon esprit de synthèse et êtes orienté résultats et valeur métier Vous avez une bonne connaissance des environnements Business Intelligence , Big Data et des architectures Lakehouse Vous avez déjà travaillé sur des plateformes Data modernes (Cloud) Vous maîtrisez SQL comme langage d’interrogation des données et avez des notions de modélisation de données (architecture médaillon, modèle en étoile …) Vous disposez d’un bagage en software engineering , vous permettant d’écrire un code robuste, lisible, maintenable et testable, notamment en Python Vous appliquez les bonnes pratiques de développement : structuration du code, modularité, gestion des dépendances, conventions de nommage Vous êtes sensibilisé aux principes de qualité logicielle (tests unitaires, tests d’intégration, revue de code) Vous êtes à l’aise avec les outils de versioning ( Git ) et les workflows collaboratifs associés Vous savez concevoir des pipelines Data comme de véritables produits logiciels, en tenant compte de la maintenabilité, de l’évolutivité et de l’observabilité
Mission freelance
Azure Platform Engineer – Data & Analytics
Codezys
Publiée le
Ansible
Azure
Azure Data Factory
6 mois
370-460 €
Paris, France
Contexte de la mission Cette équipe est responsable de la conception, du déploiement et de la maintenance d'une plateforme data cloud utilisée à l’échelle du groupe. Cette plateforme doit répondre à des enjeux majeurs tels que : la scalabilité la gouvernance la sécurité la performance Actuellement, l’environnement est principalement orienté vers Azure, avec une interopérabilité multi-cloud envisageable. Objectifs et livrables Infrastructure & Cloud (Azure) Développement et maintenance d’infrastructures en utilisant Terraform, Bicep et ARM Déploiement et gestion des ressources Azure : Azure Data Lake Storage (ADLS Gen2) Azure Storage (Blob) Azure Virtual Network, NSG, Private Endpoints Gestion des environnements cloud (DEV, TEST, PROD) Data Platform Administration et exploitation d’un Data Lake Azure Gestion des accès, de la gouvernance et de la sécurité des données : Azure AD / RBAC Politiques / Purview pour la gouvernance data Optimisation des performances et des coûts CI/CD & Automatisation Conception et maintenance de pipelines CI/CD avec Azure DevOps et GitHub Actions Automatisation des déploiements (infrastructure, données et services) Développement & APIs Création de microservices en Python Développement de REST APIs et architectures événementielles Intégration avec les services Azure tels que Functions et Event Hub Containers & Orchestration Déploiement de services containerisés via : Azure Kubernetes Service (AKS) Azure Container Apps / Azure Container Instances Monitoring & Fiabilité Mise en place de solutions de supervision telles que Azure Monitor, Log Analytics et Application Insights Suivi de la performance et de la disponibilité des services Collaboration Rédaction de documentation technique Interaction avec les équipes data, développement et métier Participation aux cérémonies Agile
Offre d'emploi
Data Engineer
Recrut Info
Publiée le
AWS Cloud
Data Lake
Python
45k-55k €
Marseille, Provence-Alpes-Côte d'Azur
Rattaché·e au Head of Data, vous participerez aux développements de la plateforme data. Dans un contexte cloud-first (AWS), vos principales missions seront les suivantes : - Concevoir, déployer et maintenir des systèmes de données résilients, sécurisés et scalables : bases de données, data warehouses, data lakes, traitements batch et temps réel, flux d’ingestion et transformations de données. - Développer, industrialiser et superviser des pipelines de données de type ETL/ELT. - Garantir la structuration, la qualité et la bonne gouvernance des données au sein des différents environnements de stockage. - Mettre en œuvre des solutions de Business Intelligence et de data visualisation telles que Power BI, afin de faciliter l’analyse et la prise de décision. - Répondre aux besoins de mise à disposition des données, de mise en production des modèles et d’optimisation des performances. - Concevoir et déployer des solutions d’exposition de la donnée via des API internes et externes. - Contribuer à la mise en œuvre de projets IA sur différents piliers métiers et business. - Sécuriser les architectures techniques et les échanges entre services en appliquant les meilleures pratiques de sécurité : IAM, gestion des habilitations, principe du least privilege, etc. Environnement technique : Python (requis), AWS (souhaité), Make (souhaité), RedShift (souhaité), PostgreSQL (souhaité), GitHub Actions (souhaité), SQL (requis), NOSQL (requis), Amazon S3 (souhaité), AWS Lambda (souhaité), Amazon ECS (souhaité), R (souhaité)
Offre d'emploi
Data Engineer H/F
JEMS
Publiée le
45k-55k €
Nantes, Pays de la Loire
Nous recherchons un(e) Data Engineer capable de trouver des solutions innovantes et robustes à l'ensemble des problématiques Data. Vous aurez la charge de : • Participer à la conception et réalisation d'une solution Data depuis l'acquisition jusqu'à l'exploitation de la donnée en accompagnant la réflexion des directions métiers • Identifier, collecter et intégrer les données nécessaires à la résolution de problématiques métier et opérationnelles • Garantir la qualité des données en mettant en place les outils de mesure et de suivi adéquats en appliquant les règles de Data Gouvernance et de Data Management • Transcrire des besoins métier en règles de gestion data • Industrialiser le déploiement de vos réalisations à travers l'implémentation de tests unitaires, d'intégration et de non-régression Référence de l'offre : urwgjo69mi
Offre d'emploi
Data Analyst Power BI
UCASE CONSULTING
Publiée le
Data visualisation
DAX
Microsoft Power BI
1 an
55k-60k €
500-600 €
Île-de-France, France
Dans le cadre du renforcement de l'équipe Data de notre client, nous recherchons un(e) Data Analyst expérimenté(e) pour intervenir sur des environnements cloud et accompagner les métiers dans la valorisation de leurs données. Missions En collaboration avec les équipes Data et les équipes métiers, vous serez amené(e) à : Recueillir et analyser les besoins métiers Concevoir et maintenir des tableaux de bord et reportings sous Power BI Accompagner les utilisateurs dans la prise en main des outils décisionnels
Mission freelance
Ingénieur DATA
HAYS France
Publiée le
Python
SQL
6 mois
350-510 €
Lille, Hauts-de-France
Dans le cadre du renforcement d’une équipe Data au sein d’un grand acteur du retail, nous recherchons un Data Engineer capable d’intervenir sur des sujets variés autour de la Finance et de la Supply Chain . L’environnement est agile, pragmatique, peu structuré (non bancaire), nécessitant une vraie capacité d’adaptation et une forte autonomie. Missions 🔹 Développement & Intégration de données Conception et développement de pipelines Stambia Modélisation, optimisation et transformations de données dans Snowflake Développement et maintenance de modèles DBT (tests, documentation, exposures) Contribution aux bonnes pratiques : Git, qualité, tests, CI/CD 🔹 Finance Refonte de dashboards réseau Travaux autour du compte d’exploitation Amélioration de la fiabilité et disponibilité des données financières 🔹 Supply Chain Mise en place de KPI logistiques (WSR, SOTR…) Industrialisation des datasets existants ou à construire 🔹 Outils & Automatisation Participation au développement d’outils internes en Python / Streamlit (selon compétences)
Mission freelance
Business Data Analyst – Référentiel produits (F/H)
CELAD
Publiée le
1 an
400-500 €
Clermont-Ferrand, Auvergne-Rhône-Alpes
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 2 jours de télétravail / semaine - Clermont-Ferrand - Expérience de 5 ans minimum Envie de rejoindre une équipe où la tech et les projets stimulants sont au rendez-vous ? Cette opportunité est faite pour vous ! Nous poursuivons notre développement et recherchons actuellement un.e Business Data Analyst – Référentiel produits pour intervenir chez un de nos clients, dans le secteur industriel. Contexte : Dans le cadre d’un programme qui refond les référentiels produits et services du groupe, vous participerez à la construction et au déploiement d’une application stratégique pour la gestion du portefeuille produit Marketing. Voici un aperçu détaillé de vos missions : - Recueillir les besoins des partenaires et concevoir les processus et outils adaptés - Structurer l’étude et piloter le projet selon la méthodologie projet (General Design, Detail Design, Plan de tests). - Suivre la construction des référentiels et accompagner la migration des données (préparation, réalisation, analyse et traitement des écarts). - Produire les documents de changement, former les key-users et adapter la gestion du changement au contexte local - Assurer la qualité des données et coordonner les tests et validations avec l’architecture et les Data Owners
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
6465 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois