Here are some jobs that could be of interest.
Find your next tech and IT Job or contract role.

Job Vacancy
Data Engineer Python/Spark GCP
Bonjour, Dans le cadre de ses projets clients, Visian est à la recherche d'un Data Engineer Python/Spark/GCP Le data ingénieur avec la stack Python, Spark, SQL, dbt, BigQuery, Airflow, Terraform, Terragrunt, GCP . Ses missions : Déployer des datasets normés Accompagner les utilisateurs dans leurs usages. Mettre en place du contrôle qualité sur les datasets. En détail : Participer aux phases de conception, planification et réalisation. Construire et maintenir des pipelines data robustes et scalables. Organiser et structurer le stockage des données. Mettre en place et maintenir des infrastructures scalables et sécurisées. Contribuer à la gouvernance des données (qualité, fiabilité, intégrité). Construire et maintenir les workflows de CI/CD. Partager et appliquer les bonnes pratiques data engineering. Assurer évolutivité, sécurité et stabilité des environnements. Participer aux instances data engineers et à la mise à jour de la documentation. Assurer une veille technologique active .

Job Vacancy
DATA ENGINEER PYSPARK / PALANTIR / DATABRICKS
Bonjour, Nous recherchons un data engineer pyspark / Palantir pour le compte de notre client. L’organisation Tech & Data est une organisation matricielle Agile reposant sur 4 piliers : Data and System Engineering, composée des équipes suivantes : Data Center of Excellence, Products and Systems Engineering et Enterprise Architecture La société est composée des équipes supportant les Crews et les domaines fonctionnels transverses : Gouvernance, Mise en œuvre du modèle opérationnel T&D, Sécurité & Conformité, Contrôle financier, Sourcing & Vendor Management, Gouvernance et Processus. Technical, composée des équipes dédiées aux IT Operations, Réseau, Cloud, Services Workplace & Cloud Productivity Crews et domaines fonctionnels transverses Contrainte forte du projet : Palantir Foundry Livrable : Data Pipeline Risk Compétences techniques : Palantir Foundry – Confirmé – Impératif Python / Pyspark – Confirmé – Impératif Connaissances linguistiques : Français courant (impératif) Anglais courant (impératif) Description détaillée : Nous recherchons un Data Engineer pour développer des pipelines de données pour nos fondations Risk dans Palantir Foundry. Le Data Engineer devra construire, livrer, maintenir et documenter les pipelines de données dans le périmètre des fondations Risk. Il devra notamment livrer les données dans notre Risk Analytical Data Model (représentation medallion de nos données Risk) selon une approche moderne et performante. Livrables attendus : Pipelines de données pour les fondations Risk, livrés dans les délais Code documenté et testé unitairement Contrôles qualité et santé des données implémentés Expérience et compétences attendues : +5 ans en tant que Data Engineer Expérience solide sur Palantir Foundry, principalement sur les modules orientés Data Engineer (code repository, ontologie…) Maîtrise de Python et Pyspark Bonnes pratiques de développement (gitflow, tests unitaires, documentation) Bonne compréhension de l’architecture data mesh et medallion architecture Expérience sur Databricks un atout Expérience en (ré)assurance ou dans le domaine du risque financier un atout Esprit d’équipe Curiosité et goût du challenge Capacité à communiquer avec différents interlocuteurs Rigueur et sens analytique Définition du profil : Le Data Engineer assure la maîtrise de la donnée et est garant de la qualité de son utilisation afin d’en faciliter l’exploitation par les équipes. Son périmètre d’intervention est axé sur les systèmes applicatifs autour de la gestion et du traitement des données, ainsi que sur les plateformes Big Data, IoT, etc. Il assure la supervision et l’intégration des données provenant de sources multiples et vérifie la qualité des données entrant dans le Data Lake (recette des données, suppression des doublons, etc.).
Job Vacancy
Tech Lead Data Engineer
Le Tech Lead Data Engineer aura pour missions: Assurer un leadership technique auprès des équipes de développement. Conseiller les parties prenantes et traduire les exigences stratégiques en architectures Azure et Databricks sécurisées, scalables et fiables. Participer activement aux phases de conception, développement et tests. Porter la vision technique au sein des équipes Agile. Garantir la qualité des livrables et veiller à la réduction de la dette technique. Réaliser la modélisation des données. Assurer une veille technologique et participer aux POCs. Enrichir la communauté des Data Engineers par le partage de connaissances et la promotion des bonnes pratiques.

Job Vacancy
Data Engineer Talend (H/F)
Dans le cadre des projets de transformation digitale, le consultant interviendra en tant que Data Engineer pour concevoir, développer et maintenir des solutions de données et de reporting. L’objectif est de permettre aux utilisateurs métiers d’analyser efficacement leur activité via des entrepôts de données, des tableaux de bord et des indicateurs de performance. La mission se déroulera en étroite collaboration avec les équipes DevOps et les parties prenantes métiers. Responsabilités principales : •Concevoir et développer des solutions d’intégration et de traitement de données (ETL/ELT) avec Azure Data Factory, SQL Server Integration Services, et autres outils Microsoft • Construire et maintenir des Data Warehouses, Data Marts et Data Cubes •Développer des flux d’alimentation (Delta/Full Loading, historique) et assurer la supervision des traitements •Optimiser les processus d’ingestion et les performances des requêtes (SQL, DAX, MDX). •Mettre en place des solutions de reporting et de visualisation avec Power BI et Analysis Services •Implémenter des mécanismes de sécurité (Row Level Security) à chaque niveau de la chaîne de données •Automatiser les déploiements via des pipelines CI/CD et assurer la qualité du code avec Git et Azure DevOps •Participer aux phases de cadrage technique : étude de faisabilité, expression des besoins, estimation de charge et rédaction de spécifications techniques •Documenter les réalisations, enrichir le catalogue de composants et accompagner les utilisateurs •Collaborer avec les équipes internationales (produit, data, design, exécutif) pour résoudre les problématiques techniques liées aux données

Job Vacancy
Data engineer (H/F)
Vos missions ? Intégré(e) à nos équipes ou chez nos clients, vous contribuez à développer et valoriser l'ensemble des données en résolvant des problématiques business concrètes via les technologies liées à la Data A ce titre, vos missions seront les suivantes : - Concevoir et mettre en place des architectures de données en choisissant les technologies adaptées aux besoins. - Gestion des bases de données en garantissant la performance et la scalabilité des solutions de stockage. - Analyser et explorer les données avec les différents outils. - Mettre en place des tableaux de bord avec Power BI ou Tableau en exploitant les données transformées via Talend. - Interagir avec les équipes métier pour comprendre et les besoins. - Utiliser TALEND pour extraire des données depuis plusieurs sources (SQL, API, Excel ...). - Automatiser les processus ETL pour centraliser les données dans un Data Wrehouse (Snowflake). - Participation aux projets IA. Compétences requises : • ETL: Talend • Analyse de données (PowerBI, Tableau) • Base de données (SQL, GCP) • Langages: Python, SQL
Job Vacancy
Data engineer H/F
Rattaché au Directeur des Systèmes d'Information, vous êtes responsable de la gestion des flux de données, de la structuration et de la performance du Data Warehouse, afin de répondre aux besoins analytiques et métiers. Voici vos missions : Concevoir et maintenir des pipelines de données (ETL/ELT). Intégrer et traiter des données issues de sources variées (ERP, API, logiciels métier…). Modéliser les flux de données et automatiser les processus de traitement. Mettre en place des tests automatisés et des contrôles qualité. Documenter les flux et les modèles de données. Optimiser les performances des bases de données et des requêtes. Collaborer avec les équipes métiers pour proposer des solutions BI adaptées. Assurer le suivi et la résolution des incidents techniques.
Job Vacancy
Snowflake Data Engineer
Snowflake Data Engineer Up to £60,000 per annum 1 day a fortnight in Birmingham. VIQU have partnered with a consultancy looking to expand their data teams, so are seeking a Data Engineer with prior experience using the Snowflake platform. You will play a key role in building and maintaining data environments, with a particular focus on Snowflake and Azure. Duties of the Snowflake Data Engineer: Develop data pipelines into and in Snowflake. Manipulate data using SQL and Python. Maintain data security throughout. Contribute to the development of a scalable data warehouse. Contribute to data governance and quality projects. Strong client facing communication skills. Experience required of the Snowflake Data Engineer: Hands on experience with Python development. SQL optimisation skills. Previously worked on greenfield projects, helping to build data platforms. Experience with large scale data pipeline creation/optimisation. Previously used Snowflake tool like Snowpark, Snow pipe, and SnowSQL. Experience of working with cloud services (Azure, AWS, GCP). Previous work in a consultancy would be beneficial. To discuss this exciting opportunity in more detail, please APPLY NOW for a no obligation chat with your VIQU Consultant. Additionally, you can contact Jack McManus on -hidden email-. If you know someone who would be ideal for this role, by way of showing our appreciation, VIQU is offering an introduction fee up to £1,000 once your referral has successfully started work with our client (terms apply). To be the first to hear about other exciting opportunities, technology, and recruitment news, please also follow us at ‘VIQU IT Recruitment’ on LinkedIn, and Twitter: @VIQU_UK

Contractor job
Senior Data Engineer - Palantir Foundry
Nous recherchons un Data Engineer chargé de développer des pipelines de données pour les fondations Risk dans Palantir Foundry . Le Data Engineer aura pour mission de concevoir, livrer, maintenir et documenter des pipelines de données dans le périmètre des fondations Risk. Il devra notamment intégrer les données de réassurance dans notre modèle de données analytique Risk (représentation en medallion des données Risk), selon les meilleures pratiques du domaine. Livrables attendus : Pipelines de données pour les fondations Risk, livrés dans les délais, Code documenté et testé unitairement, Contrôles de qualité et de cohérence des données mis en place.

Job Vacancy
Data Engineer AWS H/F
Développement de la plateforme de microservices AWS • Industrialisation des cas d’usage métiers du groupe en lien avec les media • Assurer la qualité, la fiabilité et l'accessibilité des données. • Développer les pipelines de traitement de données avec orientation media • Collaborer avec les équipes de data science pour comprendre les besoins en données et mettre en place les solutions appropriées. • Recueillir les besoins avec des métiers ou clients. • Assurer la maintenance et l'optimisation des systèmes de données existants. Livrables attendus : Des analyses, développements et documentations de qualité.

Job Vacancy
Data Engineer Sénior
Au sein de la Direction Systèmes d’Information & Accélération Digitale et rattaché(e) au Directeur Service Data Intégration, nous cherchons un(e) Expert(e) solution Data afin de définir, développer, mettre en place, maintenir les outils et les projets Analytics. 1.1. CONTENU DE LA MISSION OU DES LIVRABLES Vous implémentez et industrialisez les pipeplines pour collecter, nettoyer, modéliser, cataloguer et restituer des données afin de les rendre accessible tout en veillant à leur qualité. Plus précisément, vous : 1. Concevez des solutions pour collecter, transformer et exploiter des gros volumes de données. 2. Participez à l’industrialisation des traitements et à leur amélioration continue, au monitoring pour qu’ils soient fiables, robustes et performants afin de répondre aux exigences métiers 3. Implémenter et opérer les projets Data et Analytics centraux sur une plateforme mutualisée (Data Platform) 4. D'assurer le run des projets Data & Analytics centraux en second niveau derrières les équipes en charge. 5. Vous assurez une veille technologique afin d’être à la pointe des connaissances en matière de data et de participer à la définition de la Roadmap technologique Data & Analytics. 1.2. SPECIFICITE DE LA MISSION Vous maîtrisez des langages de programmation (Python, Java, Shell), des solutions de bases de données type Snowflake, des ELT (Matillion, Azure Data Factory) ainsi que la solution Power BI. Vous êtes à l’aise dans les environnements Cloud (Azure, Google) et avec les outils d’intégration et de déploiement continue (Jenkins, git, gitlab, création de CI/CD, docker, Ansible, kubernetes…) Vous avez un très bon niveau d’anglais professionnel vous permettant d’interagir à l’oral, comme à l’écrit, dans un environnement international. Au-delà de vos compétences techniques, vous êtes reconnu(e) pour : - Capacité à analyser les exigences fonctionnelles et à les formaliser en solutions techniques - Votre esprit collaboratif et votre capacité à interagir avec les métiers - Votre rigueur, votre autonomie et votre sens de l’organisation vous permettant de gérer plusieurs projets en parallèle - Capacité à piloter et challenger des prestataires extérieurs - Aisance en matière de participation à des projets en milieu international : sens du contact, de la communication orale, sensibilité dans les relations personnelles et interculturelles La mission portera sur les outils suivants : • Tableau Software : Pour la visualisation et l'analyse de données. • Alteryx : Pour la préparation et l'automatisation des flux de données. • Snowflake : Pour la gestion des bases de données. • Matillion : Pour les processus ELT. • Azure Data Factory : Pour l'intégration et l'orchestration des données. • Airflow : Pour l'orchestration des workflows. • MS Fabric – Power BI : Pour la gestion des données et des analyses. • Denodo : Pour la virtualisation des données.

Job Vacancy
DATA ENGINEER AWS (500€ MAX)
concevoir, construire et gérer notre infrastructure AWS : Développement de la plateforme de microservices AWS · Expérience en ingénierie de données, en particulier avec les technologies de big data · Programmation Orientée Objet · Connaissance et utilisation des Design Patterns standard · Frameworks/Librairies de tests o Utilisation de la CLI Docker o Création et optimisation des images o Utilisation de la CLI Kubernetes Expérience du process GitFlow Utilisation des commits sémantiques/feature branches Utilisation des concepts, modules et templates Terraform Capacité à travailler en équipe et à communiquer efficacement (Agile, JIRA) Expérience des services AWS suivants : S3 : gestion des buckets/cycle de vie des objets Lambda : Déploiement de lambda utilisant des conteneurs sur ECR via Terraform. Déclenchement via Triggers S3/EventBridge. Optimisation de l’utilisation des ressources et du scaling

Job Vacancy
DATA ENGINEER SERVICE NOW & SNOWFLAKE
Bonjour, Pour le compte de notre client, nous recherchons un consultant Data Analytics Engineer – Intégration ServiceNow ITSM → Snowflake Contexte de la mission Dans le cadre du renforcement de ses capacités analytiques autour des processus ITSM, Accor recherche un consultant Data Analytics Engineer autonome pour mettre en œuvre une connectivité entre ServiceNow et Snowflake. Cette mission vise à exploiter les données de ServiceNow ITSM (incidents, demandes, changements, problèmes…) pour alimenter des cas d’usage analytiques à destination de plusieurs départements internes (IT, qualité, gouvernance, opérations…). Objectifs de la mission Établir et sécuriser une connexion technique entre ServiceNow ITSM et Snowflake Extraire et charger les données des modules ITSM suivants : Request Management, Incident Management, Change Management, Problem Management Concevoir une pipeline automatisée d’ingestion (batch ou incrémentale) Structurer les données dans Snowflake selon une logique modulaire, réutilisable et exploitable à des fins analytiques Mettre en place des métadonnées, logiques de rafraîchissement et suivi de qualité Documenter le pipeline, les schémas de données et les points de reprise Environnement technique Source : ServiceNow ITSM (via REST API ou export planifié) Destination : Snowflake (data warehouse cloud) Orchestration : Airflow ou solution équivalente Transformation : DBT Core / SQL (si besoin pour structuration analytique) Modélisation : DrawIO ou autre support outil libre. Visualisation : Tableau CI/CD / versioning : GitLab Documentation : Confluence, Jira,
Contractor job
Tech Lead Data Engineer
AO – Tech Lead Data Engineer Objectif global : Accompagner un Tech Lead Data Engineer dans le pilotage technique et la réduction de la dette technique. Livrables attendus : - Guidelines techniques & standards de développement. - Cartographie de la dette technique priorisée. Compétences techniques (impératives) : - Databricks – Expert. - Spark – Expert. - Azure – Confirmé. - Modélisation – Confirmé (important). Tech Lead Data Engineer senior disposant d’au moins 5 ans d’expérience en tant que Tech Lead. Missions principales : - Assurer un leadership technique auprès des équipes de développement. - Conseiller les parties prenantes et traduire les exigences stratégiques en architectures Azure et Databricks sécurisées, scalables et fiables. - Participer activement aux phases de conception, développement et tests. - Porter la vision technique au sein des équipes Agile. - Garantir la qualité des livrables et veiller à la réduction de la dette technique. - Réaliser la modélisation des données. - Assurer une veille technologique et participer aux POCs. - Enrichir la communauté des Data Engineers par le partage de connaissances et la promotion des bonnes pratiques. Définition du rôle générique associé : Conception : - Garantir l’exhaustivité et la pertinence des spécifications confiées aux développeurs. - Coordonner les plans de développements et activités des développeurs. - Réaliser la conception technique des applications et des échanges, en privilégiant la réutilisation des composants existants. Développement : - Élaborer et maintenir les directives d’intégration logicielle. - Superviser les aspects techniques d’un projet. - Participer à l’analyse fonctionnelle détaillée des besoins. - Valider le design logiciel et proposer les frameworks adaptés. Normalisation & Qualité : - Garantir la qualité du code et la conformité aux normes/patterns. - Maintenir les abaques de coûts/délais. - Réaliser des audits de code et assurer la qualité des environnements de développement. Assemblage & Livraison : - Assembler les composants unitaires en packages cohérents pour déploiement. - Mettre en place et maintenir une bibliothèque de composants logiciels et normes. Support N3 : - Assurer la résolution des problèmes sur les composants développés. - Contribuer à la rédaction des contrats de TMA avec intégration des normes techniques. Communication & Veille : - Réaliser une veille permanente sur les évolutions technologiques. - Identifier les axes d’amélioration technique et compétences à développer. Informations complémentaires : - Démarrage souhaité : ASAP - Durée estimée : Mission Longue - Lieu : Île-de-France (Châtillon) - Présence sur site : 3 jours par semaine - Astreintes : Non - Déplacements : Non

Job Vacancy
Data Engineer - Lyon
Ton quotidien chez Komeet sera rythmé par : Animation des ateliers afin d’étudier et cadrer les besoins clients Préconisation, conception et mise en œuvre des plateformes Data (datawarehouse, datalake/lakehouse ) Rédaction de dossiers d’architecture et spécifications techniques Mise en œuvre des stratégies d’exploitation de plateformes Data Construction et déploiement des pipelines de données (ETL / ELT) à l’aide de langage de programmation ou d’outils de type Low-Code Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. Tests, validation et documentation des développements Réalisation d'audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP

Contractor job
Data engineer
Description Grâce à ses compétences alliant développement bigdata, appétences pour les modèles d’IA et architecture applicative, le data engineer participe à la conception d’applications mettant à l’échelle des algorithmes créateurs de valeur pour l’entreprise. Livrables • Définition et analyse des structures de données. • Contribution dans les assets des différentes équipes produits pour interconnecter et collecter les données. • Mise à disposition de la data et des recommandations à des systèmes externes (APIs, exports, injection de données). • Connaître et respecter dans nos propositions de valeur les exigences et problématiques liées aux réglementations en vigueur (RGPD, Data privacy, etc.) et aux standards et tendances du secteur (éco-conception, etc.). • Garant de la production (mise en place de monitoring et alerting et intervention si nécessaire). • Développement et maintien du continuous delivery (participer à l’intégration continue et à l’usine logicielle, déploiements et tests automatisés). • Présentation et explication des réalisations à des publics métiers et techniques.
Job Vacancy
Data Engineer Look ML
En tant que BI engineer Looker/LookML, vous serez en charge de concevoir, développer et d'optimiser des solutions de reporting adaptées aux besoins de nos différents métiers. Votre expertise avancée en LookML/Looker, vos connaissances et compétences sur d'autres outils de visualisation telles que MicroStrategy et/ou QlikView, combinée à une solide maîtrise de SQL, sera un atout essentiel pour réussir dans ce rôle. Ø Missions principales : · Concevoir, développer et maintenir les modèles de données et couche sémantique dans LookML. · Concevoir et développer des tableaux de bord et rapports à l'aide des outils Looker, MicroStrategy et QlikView. · Intégrer différentes sources de données. · Collaborer avec les équipes métiers pour comprendre leurs besoins et les traduire en solutions de reporting performantes. · Assurer la maintenance, la résilience et l'évolution des solutions existantes. · Effectuer les recettes techniques et fonctionnelles des traitements développés. · Mettre en place des mécanismes de monitoring pour assurer le bon fonctionnement et la fiabilité des solutions. · Participer à l'optimisation des modèles de données et à la création d'infrastructures de reporting. · Garantir la qualité, la fiabilité et la précision des données présentées. · Rédiger les livrables et la documentation technique associée pour faciliter la pérennité et la transmission des connaissances. · Participer à la gouvernance des couches sémantiques et des reportings. · Former les utilisateurs finaux et leur fournir un support technique lorsque nécessaire.
Submit your CV
-
Manage your visibility
Salary, remote work... Define all the criteria that are important to you.
-
Get discovered
Recruiters come directly to look for their future hires in our CV library.
-
Join a community
Connect with like-minded tech and IT professionals on a daily basis through our forum.
Latest forum topics
Jobs by city
Jobs by country