The job you are looking for has been deleted or has expired.
Here are some jobs that could be of interest.
Find your next tech and IT Job or contract role.
Your search returns 198 results.
Contractor job
Data Engineer
Published on
Apache Spark
Java
ODI Oracle Data Integrator
3 years
400-550 €
Tours, Centre-Val de Loire
Hybrid
En renfort de l’entité Solutions Data pour participer activement (Run/Build/Expertise et Accompagnement) aux sujets ci-dessous dans un environnement hybride Cloud/On-Premise (avec le On-Premise en cible) : Participer à l’élaboration du design technique des produits logiciels, Faciliter la recherche de solutions techniques, Prendre en charge une partie des dév. Accompagner les autres Dév. (Coaching, optimisation de code, …), Collaborer à l’intégration des produits dans le SI avec l’architecte data, Garantir la qualité des produits logiciels, Accompagner les directions métiers dans la réalisation de leurs cas d’usage data
Job Vacancy
Data Engineer Confirmé / Senior - Paris
Published on
Apache Hive
Hadoop
PySpark
1 year
50k-60k €
450-520 €
Paris, France
Hybrid
Synthèse du besoin Pour accompagner l'un de nos clients grand compte, nous recherchons un Data Engineer Confirmé / Senior à Paris. La mission consiste à contribuer au développement des ciblages pour la surveillance de portefeuille au sein de la Plateforme Data, en assurant la qualité, la modélisation et la mise à disposition des données issues des SI sources via la Data Fabrik. Enjeux principaux Compréhension du SI source et de ses objets métiers. Documentation fonctionnelle de référence. Respect des standards et prérequis Data Fabrik. Support et accompagnement des équipes IT et métiers dans l’usage de la plateforme. Identification des freins/leviers d'amélioration sur les flux Data. Volet développement Conception et tests des consignes de traitement. Mise en place de chaînes Control-M de bout en bout. Développements PySpark. Compétences clés requises Techniques Hadoop (expert), GCP (expert), Hive (avancé), Agile (avancé), PySpark. Fonctionnelles assurance IARD, Santé, Épargne/Finance, Prévoyance, Relation client (niveau avancé). Comportementales Vision métier, appétence fonctionnelle, pédagogie, diplomatie, aisance relationnelle. Langue Français courant.
Job Vacancy
Data Engineer Look ML
Published on
50k-70k €
Ivry-sur-Seine, Ile-de-France
Hybrid
En tant que BI engineer Looker/LookML, vous serez en charge de concevoir, développer et d'optimiser des solutions de reporting adaptées aux besoins de nos différents métiers. Votre expertise avancée en LookML/Looker, vos connaissances et compétences sur d'autres outils de visualisation telles que MicroStrategy et/ou QlikView, combinée à une solide maîtrise de SQL, sera un atout essentiel pour réussir dans ce rôle. Ø Missions principales : · Concevoir, développer et maintenir les modèles de données et couche sémantique dans LookML. · Concevoir et développer des tableaux de bord et rapports à l'aide des outils Looker, MicroStrategy et QlikView. · Intégrer différentes sources de données. · Collaborer avec les équipes métiers pour comprendre leurs besoins et les traduire en solutions de reporting performantes. · Assurer la maintenance, la résilience et l'évolution des solutions existantes. · Effectuer les recettes techniques et fonctionnelles des traitements développés. · Mettre en place des mécanismes de monitoring pour assurer le bon fonctionnement et la fiabilité des solutions. · Participer à l'optimisation des modèles de données et à la création d'infrastructures de reporting. · Garantir la qualité, la fiabilité et la précision des données présentées. · Rédiger les livrables et la documentation technique associée pour faciliter la pérennité et la transmission des connaissances. · Participer à la gouvernance des couches sémantiques et des reportings. · Former les utilisateurs finaux et leur fournir un support technique lorsque nécessaire.
Contractor job
Data Engineer AWS / Snowflake (Urgent)
Published on
Amazon S3
AWS Cloud
Gitlab
6 months
400-550 €
Paris, France
Hybrid
Nous recherchons un Data Engineer AWS / Snowflake confirmé pour intervenir au sein d’une équipe Data sur un environnement cloud moderne, fortement orienté industrialisation, performance et qualité des données. 🎯 Contexte de la mission : Vous serez en charge de maintenir, optimiser et faire évoluer les pipelines et architectures Data existants, dans un écosystème AWS & Snowflake à forte volumétrie. La mission inclut également la prise en main de sujets de développement et d’industrialisation en cours. ⚙️ Vos missions principales : Ingestion & Transformation Développer et maintenir des pipelines Python / PySpark (batch, transformations, industrialisation). Implémenter des processus d’ingestion Snowflake ( Snowpipe, procédures stockées, tables dynamiques, datamarts ). Gérer le datalake, les flux d’ingestion et les orchestrations associées. Architecture & AWS Intervenir sur les services AWS : S3, Lambda, Step Functions, EMR, DynamoDB, RDS, EventBridge, IAM, API Gateway… Optimiser et sécuriser les flux Data sur AWS. Assurer la résilience, les performances et la montée en charge des environnements Data. CI/CD & Infrastructure Maintenir et faire évoluer les pipelines GitLab CI , Travailler avec Docker & Pulumni pour l’industrialisation et l’infrastructure as code. Monitoring & Qualité Mettre en place ou améliorer les mécanismes de monitoring , d’observabilité et de data quality . Documenter, partager les bonnes pratiques et contribuer à l’amélioration continue.
Contractor job
Data engineer senior H/F
Published on
Google Cloud Platform (GCP)
HFSQL
Python
2 years
400-450 €
Lille, Hauts-de-France
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data engineer senior H/F à Lille, France. Contexte : Les missions attendues par le Data engineer senior H/F : Au sein de l'équipe Data Ingénieur, vous serez responsable de la conception, du développement et de la maintenance des infrastructures et pipelines de données permettant de collecter, transformer, stocker et mettre à disposition des données fiables et optimisées pour les besoins analytiques et opérationnels. Concevoir et développer des pipelines ETL/ELT pour l’ingestion et la transformation des données. Assurer la qualité, la cohérence et la sécurité des données dans les systèmes. Optimiser les performances des bases de données et des flux de données. Collaborer avec les Data Scientists, Analystes et équipes métiers pour comprendre les besoins et fournir des solutions adaptées. Mettre en place des outils de monitoring et de gouvernance des données. Garantir la conformité aux normes RGPD et aux politiques internes de sécurité. Compétences techniques : Maîtrise des langages de programmation (Python, SQL). Expérience avec des systèmes de bases de données (relationnelles et NoSQL). Connaissance des plateformes Cloud (GCP, Snowflake). Expérience ETL (Une connaissance de semarchy est un plus) Familiarité avec les outils de workflow (Airflow, PubSub). Bonne compréhension des architectures orientées données (Data Lake, Data Warehouse, Golden).
Job Vacancy
DATA ENGINEER MICROSOFT BI
Published on
Microsoft Analysis Services (SSAS)
Microsoft Power BI
Microsoft SQL Server
3 years
40k-60k €
350-500 €
Paris, France
Hybrid
Bonjour 😊 Pour le compte de notre client, nous recherchons un Data engineer Microsoft BI Senior. Dans le cadre de la poursuite de la mise en place de la plateforme décisionnelle au sein du SI de notre client, nous recherchons un développeur MS BI confirmé opérationnel immédiatement sur les technologies utilisées (Voir $Connaissances Indispensables) Le consultant participera au développement et à la maintenance évolutive et corrective du système décisionnel. Cette ressource sera positionnée au sein de l’équipe BI dans le service MOE E&D. Vous aurez à effectuer les actions suivantes : • Participer à la formalisation des spécifications fonctionnelles • Analyser les besoins et identifier les éventuels impacts sur l’existant • Proposer des solutions et participer à la phase de modélisation. • Contribuer aux choix d’architecture technique (en lien avec l’équipe projet DWH et les équipes infrastructure/architecture) • Contribuer au plan de charge et à la définition du planning • Rédiger les spécifications techniques • Prendre en charge le développement nouvelles demandes (Intégration de nouvelles données, Cubes, Rapports, …) • Rédaction des documents d’exploitation • Rédiger les consignes de pilotage • Accompagner la Direction Informatique lors des phases de déploiement en homologation et production • Accompagner le métier Reporting lors des phases de recette • Accompagner l’équipe Support & Maintenance • Assurer la maintenance corrective (3ème niveau) • Assurer les remontées d’informations auprès du responsable MOE E&D SQL Server 2012(migration vers 2022 en cours) (Requêtes, Vues, Procédures stockées, Optimisation, …), SSIS, SSAS (Cube tabulaire), DAX, SSRS, Visual Studio 2022, Azure DevOps, PowerBI
Job Vacancy
Data Engineer Snowflake - Lyon
Published on
Snowflake
40k-60k €
Lyon, Auvergne-Rhône-Alpes
Hybrid
Ton quotidien chez Komeet sera rythmé par : - Animation des ateliers afin d’étudier et cadrer les besoins clients en collaboration avec le Data Platform Architect - Analyser et conseiller pour améliorer l’efficacité des solutions Snowflake chez nos clients. - Participer à la rédaction des dossiers d’architecture et des spécifications techniques. - Mettre en œuvre des stratégies d’exploitation de la plateforme Snowflake. - Développer et superviser des flux d’intégration (batch ou streaming) pour des volumes importants de données. - Surveiller les jobs ETL/ELT, logs et alertes, et optimiser les temps de traitement. - Administrer Snowflake chez ton client (gestion des rôles, permissions, warehouses). - Optimiser les requêtes SQL (à l’aide du Query Profile). - Contrôler la qualité des données (Data Quality) et la consommation des ressources (FinOps). - Tester, valider et documenter les développements. - Réaliser des audits et projets d’optimisation.
Job Vacancy
Data engineer Appache NIFI (H/F)
Published on
35k-40k €
Lyon, Auvergne-Rhône-Alpes
Hybrid
Vos missions ? Intégré(e) à nos équipes ou chez nos clients, vous contribuez à développer et valoriser l'ensemble des données en résolvant des problématiques business concrètes via les technologies liées à la Data A ce titre, vos missions seront les suivantes : - Concevoir et mettre en place des architectures de données en choisissant les technologies adaptées aux besoins. - Gestion des bases de données en garantissant la performance et la scalabilité des solutions de stockage. - Analyser et explorer les données avec les différents outils. - Mettre en place des tableaux de bord avec Power BI ou Tableau en exploitant les données transformées via Talend. - Interagir avec les équipes métier pour comprendre et les besoins. - Utiliser TALEND pour extraire des données depuis plusieurs sources (SQL, API, Excel ...). - Automatiser les processus ETL pour centraliser les données dans un Data Wrehouse (Snowflake). - Participation aux projets IA. Compétences requises : - Appache NIFI (obligatoire) - Analyse de données (PowerBI, Tableau) - Base de données (SQL, GCP) - Langages: Python, SQL
Contractor job
Senior Azure Data Engineer
Published on
Automation
Azure
Data Lake
6 months
400-550 €
Paris, France
Hybrid
Concevoir, construire et maintenir des pipelines d'ingestion de données à l'aide d'Azure et d'outils ETL (Talend, Informatica). Intégrer diverses sources de données dans les environnements Azure Data Lake et Databricks. Garantir l'évolutivité, la performance et la sécurité des solutions de données. Optimiser les flux de travail et automatiser les processus afin de réduire les interventions manuelles. Collaborer étroitement avec les analystes métier pour traduire les besoins en solutions techniques. Gérer plusieurs projets simultanément, en assurant le respect des délais et des bonnes pratiques. Mettre en œuvre des contrôles de qualité des données et des normes de documentation. Contribuer aux initiatives d'amélioration continue au sein de l'équipe DataOps.
Job Vacancy
Data Engineer / Data Analyst Senior – Environnement Cloud & Big Data
Published on
Cloud
Data analysis
Microsoft Power BI
3 years
Paris, France
Nous recherchons un expert data capable de concevoir, structurer et optimiser des solutions data modernes pour accompagner la croissance et les enjeux business d’une organisation en pleine transformation numérique. Votre rôle sera central : transformer la donnée en levier stratégique, garantir sa qualité et développer les pipelines, modèles et analyses qui permettront aux équipes métiers de prendre de meilleures décisions. 🎯 Livrables & responsabilités Concevoir et mettre en œuvre des solutions data complètes pour répondre aux besoins business. Analyser, interpréter et valoriser des données complexes pour produire des insights actionnables. Travailler avec des équipes pluridisciplinaires (IT, produit, métier, sécurité…) afin d’identifier et résoudre les problématiques data. Développer et maintenir des pipelines de données , des modèles analytiques et des outils de reporting. Garantir la qualité, l’intégrité et la sécurité des données sur tout leur cycle de vie. Fournir une expertise technique et des recommandations pour soutenir la prise de décision data-driven. 🧩 Expertise requise 5 ans d’expérience minimum en data engineering, data analytics ou poste similaire. Expérience solide dans la livraison de solutions data dans des environnements dynamiques. Maîtrise des architectures et technologies data modernes : plateformes cloud (AWS, Azure, GCP), frameworks Big Data, data warehousing. Excellentes compétences en Python, SQL, Spark . Maîtrise de la modélisation de données , des processus ETL et des pipelines de transformation. Expertise sur les outils de visualisation et de reporting : Power BI, Tableau . Connaissance des bonnes pratiques de gouvernance, sécurité et conformité des données.
Job Vacancy
Data Engineer - Lyon
Published on
Databricks
DBT
Snowflake
50k-60k €
Lyon, Auvergne-Rhône-Alpes
Hybrid
Ton quotidien chez Komeet sera rythmé par : Animation des ateliers afin d’étudier et cadrer les besoins clients Préconisation, conception et mise en œuvre des plateformes Data (datawarehouse, datalake/lakehouse ) Rédaction de dossiers d’architecture et spécifications techniques Mise en œuvre des stratégies d’exploitation de plateformes Data Construction et déploiement des pipelines de données (ETL / ELT) à l’aide de langage de programmation ou d’outils de type Low-Code Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. Tests, validation et documentation des développements Réalisation d'audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP
Contractor job
Data Engineer
Published on
Hadoop
6 months
100-420 €
Orléans, Centre-Val de Loire
Nous recherchons quelqu’un avec de solides compétences sur SQL (notamment HIVE)..... ...... ..... ..... ..... ..... ...... ..... ..... ..... ..... ..... ... .... .. ..... ...... HADOOP (développement sur Cloudera Data Platform)...... ...... ...... ..... .. .. .. .... ..... .... .... ... ... ... Shell UNIX. ...... ....... ...... ....... ....... ..... ....... ..... ..... .... .... ....... ..... Git...... ...... ...... ...... ...... .... ..... ....... .... ... .... .... .... .... ... ... ... ... ...
Contractor job
Data engineer (H/F)
Published on
Dataiku
ELK
1 year
400-460 €
Châtillon, Ile-de-France
Hybrid
Infrastructures de données : - Cartographie et documente les sources de données. - Assure la maintenance des différentes applications données (Data) déployées en production et des infrastructures. - Conçoit les solutions permettant le traitement de volumes importants de flux de données et ceci en toute sécurité. - Structure les bases de données (sémantique, format, etc.). - Contribue à la gestion des référentiels de données. Intégration des données : - Capte et stocke, en toute sécurité, les données (structurées ou non) produites dans les différentes applications ou venant de l'extérieur de l'entreprise. - Assure la supervision et l'intégration des données de diverses nature qui proviennent de sources multiples. - Vérifie la qualité des données qui entrent dans le Data Lake et s'assure de leur sécurité. - Nettoie la donnée (élimination des doublons) et la valide pour une utilisation aval. Animation des communautés : - Anime la communauté technique qui met en œuvre les dispositifs prévus ou nécessaires à l'application de la politique de la donnée de l'entreprise. Veille technologique : - Reste en alerte sur les technologies liées au traitement de la manipulation de la donnée et identifie les solutions utilisables. - Propose des évolutions pour les infrastructures et solutions de données en place Exemple de livrables - Dossier d'architecture (ou cadre technique) des solutions (plateformes) de traitement des données. - Un data lake adapté aux besoins actuels et futurs de l'entreprise. - Une cartographie des données. - Les éléments permettant de garantir la qualité de la donnée.
Contractor job
Data Engineer Python Azure
Published on
Azure
Databricks
PySpark
12 months
600-650 €
Paris, France
Hybrid
DATA ENGINEER Avec des compétences sur Python/Pyspark/Databricks sous un environnement Azure Cloud. Objectifs et livrables : Nous recherchons une prestation de Data Engineering avec des compétences sur Python/Pyspark/Databricks sous un environnement Azure Cloud. Le consultant Data Engineer évoluera dans un contexte agile, en mode itératif et co- constructif, en s’appuyant sur l’intelligence collective. Le prestataire Data Engineer sera responsable de la conception, du développement et de la mise en production de l'architecture de données. Il devra notamment : Collecter les exigences des métiers et des utilisateurs Concevoir data modeling SQL/NoSQL Concevoir les pipelines de données Mettre en production l'architecture Assurer la maintenance et l'évolution de l'architecture Expérience réussie d’au moins 6 ans en Data Engineering. Compétences requises quotidiennement : Maîtrise des technologies suivantes : Python niveau expert - (4/4) Azure Cloud niveau avancé - (3/4) Azure functions niveau confirmé - (2/4) Compétences requises : Pyspark niveau expert - (4/4) Databricks niveau expert - (4/4)
Job Vacancy
Data Engineer H/F
Published on
Big Data
Data Lake
Spark Streaming
Ile-de-France, France
Hybrid
Le Data Engineer est un développeur au sein de l’équipe Engineering Open Big Data du Département Data, qui regroupe l’ensemble des expertises technologiques liées à l’ingénierie de la donnée, de l’automatisation et à l’exploitation des modèles de Machine Learning. Ce déparetement est dédié au service de notre client et de ses équipes (Data office, Tribus data, Business, Transformation Office etc.), afin de fournir, en collaboration avec le Data Office, les plateformes (RPA, BI, Data, …) et les données nécessaires aux équipes chargées de délivrer les cas d’usages, puis les déployer et les maintenir en conditions opérationnelles.
Job Vacancy
Data Engineer (21)
Published on
Google Cloud Platform (GCP)
Python
1 year
40k-45k €
400-660 €
Ile-de-France, France
Hybrid
Descriptif du poste La Direction Technique du Numérique d'une grande entreprise de médias mène des projets transverses en étroite collaboration avec les autres directions, notamment la direction Data. La Direction Data, au sein de la Direction du Numérique, a été créée avec la volonté de faire de la Data un levier de croissance des offres numériques. La Direction Data a 3 grandes activités : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l'expérience utilisateurs et mettre à disposition auprès des équipes internes des outils de pilotage et d'aide à la décision. Au sein de l'équipe Bronze, la prestation se déroulera en collaboration avec les autres équipes de la Data, au coeur de la plateforme Data. Cette équipe est composée d'un product owner, d'un data steward et de deux autres data ingénieurs. Notre stack technique est principalement constitué de Python, Spark, SQL pour les traitements de données, Airflow pour l'orchestration et Cloud Storage et Delta lake pour le stockage. La stack inclut aussi les services BigQuery, Dataproc, PubSub et Cloud Storage de la Google Cloud Platform et Terraform et Terragrunt pour la gestion de l'infrastructure. Prestations attendues Prestation de cette équipe Collecter et centraliser les différentes sources de données non homogènes Assurer la conformité et la sécurité des données Participer aux initiatives de gouvernance des données Prestation en data engineering En interaction avec les membres de l'équipe, la prestation consiste à : Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l'équipe Construire et maintenir de pipelines data robustes et scalables Accompagner les membres de l'équipe dans l'exploitation et le requêtage des données Organiser et structurer le stockage des données Mettre en place et maintenir des infrastructures scalables capable de répondre aux besoins et à l'accroissement rapide du volume de données Construire et maintenir les workflows de la CI/CD Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur Assurer l'évolutivité, la sécurité, la stabilité des environnements Participer aux différentes instances de data engineering Contribuer et veiller à la mise à jour de la documentation Faire de la veille technologique active dans le domaine
Submit your CV
-
Manage your visibility
Salary, remote work... Define all the criteria that are important to you.
-
Get discovered
Recruiters come directly to look for their future hires in our CV library.
-
Join a community
Connect with like-minded tech and IT professionals on a daily basis through our forum.
Latest forum topics
Jobs by city
Jobs by country
198 results
Contracts
Location
Remote type
Rate minimum.
£150
£1300 and more
Salary minimum
£20k
£250k