Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 283 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

CDI

Offre d'emploi
Data Engineer

Rædy
Publiée le
Alteryx
Data visualisation
MySQL

10k-55k €
Île-de-France, France

🎉 Nous recrutons un(e) Data Engineer passionné(e) ! 🎉 Vous rêvez de rejoindre une équipe dynamique, de contribuer à des projets novateurs et de transformer des volumes massifs de données en informations stratégiques ? Cette opportunité est faite pour vous ! Nous recherchons un(e) Data Engineer motivé(e), prêt(e) à relever de nouveaux défis et à impacter nos décisions grâce à des analyses approfondies. 🌟 🔍 Exploration et transformation des données Vous serez en charge de collecter, traiter et structurer des données brutes provenant de diverses sources, afin de les rendre exploitables et utiles pour les équipes métiers. 📊 Dataviz avec Tableau Software Grâce à Tableau, vous allez concevoir des tableaux de bord interactifs et visuels, permettant de traduire les données complexes en insights clairs et actionnables pour l'ensemble des parties. ⚙️ Mise en œuvre de DBT (Data Build Tool) Vous utiliserez DBT pour créer, gérer et optimiser des pipelines ETL (Extract, Transform, Load), garantissant ainsi un flux de données continu et de qualité entre nos différentes plateformes. 🛠 Manipulation des données avec Alteryx et SQL Vous travaillerez sur Alteryx pour automatiser des processus de manipulation de données et utiliserez SQL pour interroger, structurer et organiser les bases de données. 📈 Création de rapports et tableaux de bord Vous créez des rapports spécifiques à chaque métier, en répondant aux besoins d'analyse et en alimentant des tableaux de bord via Tableau Software et DBT pour un suivi continu. 💡 Optimisation et automatisation Vous serez également impliqué(e) dans l'amélioration continue des processus existants, en automatisant certaines tâches répétitives à l'aide des outils à votre disposition. Prêt(e) à transformer les données en insights précieux ? Rejoignez-nous et devenez un acteur clé de notre réussite ! 📈

Freelance
CDI
CDD

Offre d'emploi
Data Engineer

Halian
Publiée le
Big Data
Snowflake

2 ans
80k-200k €
Belgique

Nous recherchons deux Ingénieurs Data — Medior — pour concevoir, implémenter et optimiser des solutions de données basées sur le cloud. Les candidats idéaux travailleront sur des plateformes de données modernes comme Snowflake et des outils comme DBT et Wherescape RED pour soutenir nos initiatives de data warehouse, y compris l'adoption de l'architecture Data Vault 2.0. Principales responsabilités : Concevoir et implémenter des processus ETL pour migrer des données d'Oracle vers Snowflake en utilisant DBT. Développer des solutions de données cloud en utilisant des outils comme DBT pour la transformation des données. Travailler avec le cadre Data Vault 2.0 pour concevoir des solutions de data warehouse évolutives. Collaborer avec des équipes interfonctionnelles pour implémenter des pipelines CI/CD pour les workflows ETL. Rédiger et maintenir une documentation complète pour les processus ETL et les pipelines de données. Compétences et exigences : Outils : DBT, Wherescape RED, Snowflake, Oracle, Azure Synapse. Programmation : SQL, Python, ou d'autres langages de programmation modernes similaires. Contrôle de version : Maîtrise de Git pour le développement en mode trunk-based. Tests : Expérience en tests d'intégrité des données, de performance et de régression. Connaissances : Data Vault 2.0, concepts modernes de data warehousing. Résumé du rôle : Le rôles est axés sur la création de pipelines de données efficaces et évolutifs en utilisant des technologies cloud telles que Snowflake et DBT. et est davantage concentré sur l'exécution pratique et la livraison des projets. Pour postuler, envoyez votre CV et vous contacterons dans les plus brefs délais.

Freelance

Mission freelance
DATA Engineer

STHREE SAS pour COMPUTER FUTURES
Publiée le
Azure Data Factory
Git
Snowflake

1 an
100-400 €
Île-de-France, France

Nous recherchons pour un de nos clients basés en IDF, un consultant Data pour une mission freelance (longue visibilité) Notre client recherche des consultants Data expérimenté (Front et Back Office) afin de mener les nouveaux projets de transformations démarrant en T4-2024 : Concevoir, réaliser, maintenir et faire évoluer les services et contenus de la PDA Mettre à disposition la donnée de tous les domaines de l’entreprise aux utilisateurs Modéliser les solutions applicatives selon les besoins métiers de l’entreprise Accompagner et développer avec les métiers des reporting et datasets à haute valeur ajoutée. Les environnements techniques et compétences obligatoire pour les 4 profils sont : SQL et T-SQL (SQL server 2017+ et SGBD PaaS : SMI & Synapse Azure) GIT Snowflake Cube tabulaire (PaaS) MS Azure Data Factory (Kafka envisagé aussi à terme pour gérer les flux stream…) Power BI (DAX, M) Power BI Reporting Services / Paginated Reports Streamlit

CDI
Freelance

Offre d'emploi
Data Engineer Hadoop SQL Spark

Signe +
Publiée le
Apache Spark
Big Data
engineer

24 mois
45k-50k €
Lille, Hauts-de-France

Site : Lille (2 J / semaine sur site, le reste possible en TT) Nature du besoin : reprise d'un périmètre existant qui était délivré par un autre prestataire. Transition entre l'ESN et le prestataire sortant de 2 mois sur octobre/novembre. Forts enjeux car migration technique en cours avec échéance à fin d'année Date de démarrage : 1/10/2024 Durée mission : 12 mois renouvelables Type de projet : forfait, scrum team avec Tech Lead Process de qualification : Entretien Mission : Réaliser l'intégration des données depuis un Espace Produit basé sur Hadoop et précalculer des indicateurs pour les injecter dans des rapports Power BI Profil : besoin de 2 Data Engineer SQL Spark de 3 à 7 ans d'expérience Compétences techniques: Hadoop / Spark / SQL. Stack technique : Hadoop, HDFS, HIVE, SparkSQL, MS-SQLServer Activités : De conception et de développement en mode Agile

Freelance

Mission freelance
DATA Engineer expert

Jinane Consulting
Publiée le
Big Data
Linux
UNIX

1 an
400-600 €
Niort, Nouvelle-Aquitaine

Contexte de la mission : Dans le cadre de l'équipe OPS Socle Data / IA au niveau du socle Datahub et du socle IA. La Société devra fournir les prestations suivantes : Assurer le RUN et les évolutions des socles hébergés sur les 3 data centers du groupe. Garantir le fonctionnement optimal des outils ou systèmes dont il a la charge. Garantir la résolution des incidents de niveau 2 ou 3 et contribuer à l'élaboration d'actions préventives sur les éléments dont il a la charge. Apporter l'expertise, conseil et assistance dans l'usage et la mise en œuvre d'applications auprès des projets, support aux projets. Contribuer à l'évolution des cibles et des trajectoires du SI,

Freelance

Mission freelance
Data Engineer

INSYCO
Publiée le
Gitlab
GitLab CI
Google Cloud Platform

15 mois
450-600 €
Paris, France

Nous recherchons pour notre client grand compte, secteur médias, un Data Engineer répondant au besoin ci-dessous. Nous étudions uniquement les candidatures qui nous sont adressées par MAIL [à freelance à insyco . fr] avec les informations suivantes : - Argumentaire écrit répondant de façon ciblée au besoin - CV à jour (format Word) - Date de prochaine disponibilité - Tarif journalier - Merci d’indiquer la référence VSE/DATA/4525 en objet du mail La Direction Technique du Numérique de notre client mène des projets transverses en étroite collaboration avec les autres directions, notamment la direction Data. La Direction Data, au sein de la Direction du Numérique, a été créée avec la volonté de faire de la Data un levier de croissance des offres numériques. La Direction Data a 3 grandes missions : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l’expérience utilisateurs et mettre à disposition auprès des équipes internes des outils de pilotage et d’aide à la décision. Avec pour objectif d’accélérer dans le déploiement de la Gouvernance des données au sein de notre plateforme Data, nous souhaitons constituer une nouvelle équipe en charge de déployer les différents datasets organisés par domaine de données. Cette équipe est composée d’un product owner, d’un data steward et d’un data ingénieur. Notre stack technique est principalement constituée de Python, Spark, SQL, dbt, BigQuery et Airflow pour l’orchestration des traitements. La stack inclut aussi d’autres services de la Google Cloud Platform. Missions de cette équipe : 1- Déployer les datasets normés sur un ou plusieurs des data domain suivants : Utilisateurs, Comportements et Référentiels 2- Accompagner les utilisateurs dans leurs usages 3- Mettre en place le contrôle qualité sur ces datasets Prestation attendue pour les 2 lots En interaction avec les membres de l’équipe, la prestation consistera à - Construire et maintenir de pipelines data robustes et scalables - Accompagner les membres de l’équipe dans l’exploitation et le requêtage des données - Organiser et structurer le stockage des données - Mettre en place et maintenir des infrastructures scalables capable de répondre aux besoins et à l’accroissement rapide du volume de données - Participer aux initiatives de gouvernance des données en assurant la qualité, la fiabilité et l’intégrité des données - Construire et maintenir les workflows de la CI/CD centrés données - Collaborer avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur - Participer à la guilde des data ingénieurs - Assurer l’évolutivité, la sécurité, la stabilité des environnements - Contribuer et veiller à la mise à jour de la documentation - Faire de la veille technologique active dans le domaine - Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l’équipe

Freelance

Mission freelance
Data Engineer

ICSIS
Publiée le
Apache Kafka
BigQuery
CI/CD

3 ans
350-500 €
Lille, Hauts-de-France

La mission consiste à : - Participer aux rituels agiles - Analyser les besoins des utilisateurs et proposer des solutions innovantes et en phase avec les drivers de l'entreprise - Développer les solutions data - Valider la qualité des développements - Améliorer et optimiser le patrimoine actuel - Maintenir les solutions existantes (RUN) - Contribuer à la construction du nouveau socle et des services - Accompagner les métiers sur les bonnes pratiques de l'exploitation de la Data - Mission basée en métropole lilloise avec présence sur site 3j/semaine obligatoire Compétences demandées : - Première expérience en Data Engineering indispensable - Expertise SQL, ETL, CI/CD, GIT, Terraform, Kafka, GCP ... - Connaissances sur Power BI, Looker ... - Excellents savoir-être : rigueur, esprit analytique et de synthèse, communication... - Méthode Agile - Anglais un +

Freelance

Mission freelance
Data Engineer

CHARLI GROUP
Publiée le
Apache Airflow
AWS Cloud
Git

3 ans
100-550 €
Île-de-France, France

Le contexte : L'un des objectifs clés du plan de convergence DATA du groupe est de développer des infrastructures de données robustes et de qualité. Au sein de notre équipe, nous sommes responsables de la gestion des données pour les équipes en charge des campagnes marketing. Cette infrastructure permettra aux équipes marketing de mieux maîtriser les outils de gestion des campagnes, optimisant ainsi les stratégies de communication et la personnalisation des messages pour un déploiement plus efficace sur tous les canaux. Des exemples de projets sont nombreux et variés : • Intégration des données dans Braze pour une gestion centralisée et efficace des campagnes. • Développement et ajout de pipelines de données pour garantir la prise en compte complète de tous les canaux de communication. • Mise en place de solutions d'analyse avancée pour optimiser les stratégies de marketing en fonction des insights obtenus. L'objectif principal de la mission est de maintenir le système actuel et de réaliser des projets ambitieux. Début : le plus tôt possible Description du poste : • Mise en place et optimisation de pipelines de données pour intégrer les données de communication provenant de tous nos canaux (SMS, TV, application MyCanal, etc.) avec la nouvelle application de Marketing Automation Braze. • Conception et mise en œuvre d'architectures de données • Migration des anciens pipelines data. • Rédaction de la documentation des nouveaux flux de données.

Freelance
CDD

Offre d'emploi
Data Engineer

W Executive France SAS
Publiée le
Python
Vue.js

6 mois
41k-60k €
Paris, France

Poste à pourvoir : Ingénieur Data Développement des métiers Mise en place des capacités d’intégration et d’industrialisation des cœurs de data science et des développements métiers dans le SI Contribution aux Guidelines Conception et réalisation de solutions (développements) Rédaction des Dossiers de conception et d’exploitation des solutions délivrées Technologies : Python et Vue JS (obligatoire) Big Data / Hadoop Répondre aux besoins métier d’analyse et de restitution de données opérationnelles, certains acteurs métier ont développé des solutions avec des langages informatiques telles que R, Python, Excel Visual Basic

Freelance
CDI

Offre d'emploi
Data engineer

ESENCA
Publiée le
Google Cloud Platform
Microsoft Power BI

1 an
42k-46k €
Lille, Hauts-de-France

Le consultant interviendra dans une équipe Data au sein d’un domaine digital. Il participera aux rituels agiles, analysera les besoins utilisateurs et proposera des solutions adaptées. Il sera chargé du développement de solutions data (alimentation, modélisation, restitution), de la validation des développements, de l’optimisation des solutions existantes, et de la contribution à la mise en place de services sur une plateforme Cloud. Il accompagnera également les équipes métiers dans l’adoption des bonnes pratiques en gestion des données.

Freelance

Mission freelance
DATA ENGINEER 5

KEONI CONSULTING
Publiée le
Cycle en V
Data analysis
Méthode Agile

12 mois
100-400 €
Paris, France

Contexte : La Direction Système d’Information (DSI) souhaite se renforcer pour contribuer aux projets (métier, technique, sécurité, poste de travail, hébergement, ...etc.). La DSI est organisée en 4 pôles avec un pôle projets, un pôle développement, un pôle infrastructure et un pôle RSSI. Le SI est un SI B2B organisé pour le métier principalement autour d’un portail client (MonCompte, d’APIs, d’un CRM (MS Dynamics), d’une commande/livraison (système de gestion des dossiers) et d’un datawarehouse. L’environnement de développement est orienté sur les solutions Microsoft et l’hébergement est réalisé par un prestataire en mode IaaS.

Freelance

Mission freelance
Data Engineer

Happy Hire
Publiée le
Microsoft Power BI
Microsoft SQL Server
MySQL

6 mois
400-500 €
Reims, Grand Est

Dans le cadre de la mise en place de Microsoft Fabric, nous recherchons un(e) consultant(e) Microsoft Fabric pour accompagner nos équipes dans l'optimisation de cette solution pour répondre aux besoins en matière de gestion des données et de business intelligence (BI). Missions : Participer à la conception, au déploiement et à la configuration de Microsoft Fabric en fonction des besoins spécifiques du métier. Intégrer les sources de données diverses (ERP, CRM, bases de données, fichiers plats, API, etc.) dans Microsoft Fabric Configurer les pipelines de données, les environnements de stockage (data lakes, entrepôts de données) et les fonctionnalités d'analytique avancée. Fournir un support technique et des recommandations pour résoudre les problèmes de performance ou d’optimisation. Assurer la maintenance des solutions déployées et mettre en œuvre des évolutions selon les besoins. Collaborer avec les équipes métier et les équipes IT pour définir les stratégies de gestion des données.

Freelance

Mission freelance
Data Engineer GCP

KEONI CONSULTING
Publiée le
Python
Scripting
Shell

12 mois
100-500 €
Bordeaux, Nouvelle-Aquitaine

Contexte : Mise en place de flux d'alimentation d'un entrepôt de données sous GCP. MISSIONS : • Conception et développement de flux de données • Exploration des données sources • Rédaction de spécifications (mapping) • Migration depuis l’ancienne architecture Compétences recherchées : - Obligatoires : Expérience avérée de 12 mois minimum sur un projet Data sous GCP validée par une certification Professional Data Engineer GCP Big Query Dataform Cloud Storage Composer SQL Python Scripting Shell - Optionnelles : Dataiku QlikSense Google Data Studio GIT DBT Expérience nécessaire : 3 années minimum Langue : Français

Freelance
CDI

Offre d'emploi
Data Engineer

NOSCO
Publiée le
Ansible
Hadoop
Jenkins

2 ans
31k-62k €
Lyon, Auvergne-Rhône-Alpes

Poste basé à Lyon avec 50% de télétravail maximum Activité principale : Assure la création, la maintenance, l'optimisation et la sécurité des bases de données Détecte, propose et suit les optimisations des requêtes SQL, PL/SQL afin de garantir les meilleures performances de nos applications métier Assure le support aux équipes de développement afin d’identifier et proposer des solutions performantes SGBD les mieux adaptées d’un point de vue métier Participation à des ateliers avec des experts métiers pour collecter le besoin et comprendre les données Conception et développement de traitements de données Réalisation d’études statistiques Présentation de résultats sous la forme de rapports d’étude ou de tableaux de bord Développement d’outils de visualisation de données pour faciliter les analyses Documentation des traitements en vue d’une industrialisation Participation aux cérémonies agiles de l’équipe Diffusion et vulgarisation des résultats d’étude Activité secondaire : Veille technologique sur les outils utilisés au sein du projet Partage et formation sur les guides de bonnes conduites

Freelance
CDI

Offre d'emploi
Data engineer (H/F)

ALLEGIS GROUP
Publiée le
Azure
Big Data

12 mois
13k-200k €
Hauts-de-Seine, France

Teksystems recherche un(e) Data engineer (H/F) En tant que Data Engineer, votre rôle principal dans l'organisation est de construire et de mettre en place des solutions de données. En tant que membre d'une équipe de données, vous suivrez les directives et les pratiques en matière d'architecture et de sécurité informatiques, et serez responsable de la création de flux de données et de processus dédiés pour : Ingérez des données dans la plateforme de données de l'entreprise Améliorez la qualité des données en suivant les principes de gouvernance des données Assurer le respect de la loi sur la protection des données Automatiser les calculs de données (à des fins de Business Intelligence et de Machine learning) Système opérationnel de flux utilisé par les utilisateurs finaux (Marketing, CRM, solutions commerciales) En tant que spécialiste data, vous mettrez en œuvre des jobs data rentables et industrialisés sur une infrastructure hybride (on-premise / cloud) mélangeant plusieurs technologies : API Rest, bases de données SQL & NoSQL, batch, et fichiers... avec différentes latences (du lot au temps réel). En tant que membre de la communauté mondiale des données, vous devrez participer activement à des projets mondiaux impliquant votre pays : conception et évolution de plateformes de données mondiales, processus de remontée des données des filiales, réunions de suivi et de coordination des fonctionnalités de l'équipe agile, et stand-up.

Freelance
CDI

Offre d'emploi
DATA ENGINEER

UCASE CONSULTING
Publiée le
Apache Spark
Databricks
Github

6 mois
10k-175k €
Paris, France

Bonjour à tous, Je recherche pour un de mes clients dans le domaine de l'assurance un consultant Data Engineer : Conception et développement de pipelines de données en utilisant Python et Apache Spark pour traiter des volumes importants de données. Déploiement et gestion des workflows sur Databricks , avec une optimisation continue des performances des pipelines. Mise en place de pipelines CI/CD pour l'automatisation des déploiements, utilisant GitHub et des outils d'intégration continue tels que GitHub Actions, Jenkins, ou autres. Collaboration avec les équipes produit, data science et infrastructure pour assurer la cohérence des flux de données, la maintenance des environnements et la résolution des problèmes techniques. Participation aux revues de code et à la gestion des versions sur GitHub pour garantir des pratiques de développement robustes et sécurisées. Databricks : Bonne connaissance de l'écosystème Databricks pour le traitement de données distribuées. Python : Maîtrise avancée du langage, notamment pour la manipulation de données et la création d'outils automatisés. Apache Spark : Expertise dans le traitement de données massives via Spark. GitHub : Expérience dans la gestion de version avec Git, les revues de code et la gestion de workflows d'intégration continue. CI/CD : Solide expérience dans la mise en place et la gestion de pipelines d'intégration et de déploiement continus (CI/CD) avec des outils comme GitHub Actions, Jenkins ou équivalents. Expérience d’au moins 3 à 5 ans dans un rôle similaire. Connaissance des architectures de données distribuées et expérience en ETL et transformation de données. Capacité à résoudre des problèmes complexes et à optimiser les performances des pipelines. Expérience en méthodologies de travail Agile/Scrum.

283 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous