Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 287 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance
CDI
CDD

Offre d'emploi Data Engineer

DAVEO
Publiée le
Azure
Python

3 ans
40k-55k €
Bordeaux, Nouvelle-Aquitaine

Contexte : Dans le cadre du développement de ses activités Data et dans un contexte de structuration de l’organisation par la DATA, mon client cherche à renforcer ses équipes avec un profil Ingénieur Data qui sera rattaché directement au CDO. Stack technique utilisée -> Le must have des technologies MS actuelles : Azure Synapse Analytics, Purview, Power BI premium, Azure ML et Azure Open AI. Mission : • Début de prestation : ASAP • La prestation sera située dans les locaux du siège avec 2j de TT par semaine Tâches : • Développer et maintenir l'alimentation des données. Traiter de leur modélisation • Garantir la qualité et la performance des traitements des données et leur intégrité • Réaliser les ordonnancements des traitements • Optimiser les flux d’intégration Azure • Développer et industrialiser les flux de traitement / d'enrichissement de données • Proposer et mettre en œuvre l’optimisation technique et fonctionnelle en termes de performances, de fiabilité et de qualité • Être force de proposition sur les développements avec une approche « Cloud 1st » dans une démarche Fin Ops • Documenter les évolutions

Freelance

Mission freelance Data Engineer

INFOTEL CONSEIL
Publiée le
Big Data

1 an
260-2 500 €
Paris, France

Nous cherchons pour l'un de client dans le secteur public Bancaire un Data enginner pour intégrer un un projet « Mieux évaluer et mieux prévenir les risques pour le système financier ». L’analyse du fonctionnement de la sphère financière et en particulier l’identification et la quantification des risques sont au cœur des missions du Pôle de Stabilité Financière. Ces travaux alimentent les échanges et les prises de décision au sein des enceintes françaises, européennes, et internationales de stabilité financière ainsi que les groupes de travail internationaux et les publications académiques. Dans ce contexte, le projet vise à fournir les données, les infrastructures de stockage et de traitement et les outils analytiques, en s’appuyant sur le projet DGSI Data Plateforme

Freelance

Mission freelance Data engineer

ALLEGIS GROUP
Publiée le

1 an
400-550 €
Villeneuve-d'Ascq, Hauts-de-France

Nous recherchons un Data engineer pour une mission courte initialement. Il est garant qualitatif des sources de données. Il s’assure de la maitrise de la données et garant de la qualité de son utilisation. Il va intervenir sur les développement des script, rédaction des documents, maintenance des applications. Le data engineer va intervenir sur la construction des nouveaux cas d’usage GCP. Un environnement technique Sql, Python, Gcp.

CDI
Freelance

Offre d'emploi Data Engineer Databricks

KLETA
Publiée le
Apache Spark
Azure
Azure Data Factory

3 ans
10k-68k €
Paris, France

Conception de l'architecture de données : Concevoir et mettre en œuvre une architecture de données robuste et évolutive sur la plateforme Databricks. Définir les schémas de données, les pipelines ETL et les flux de données pour répondre aux besoins métier. Développement de pipelines ETL : Développer des pipelines ETL pour extraire, transformer et charger les données à partir de sources variées vers le lac de données Databricks. Utiliser des outils comme Apache Spark pour traiter de gros volumes de données de manière efficace et distribuée. Optimisation des performances : Optimiser les requêtes Spark pour améliorer les performances des traitements de données. Utiliser des techniques telles que le partitionnement, la mise en cache et la gestion de la mémoire pour optimiser l'exécution des jobs Spark. Gestion des données en temps réel : Mettre en place des pipelines de traitement de données en temps réel à l'aide de technologies comme Apache Kafka et Apache Spark Streaming. Traiter les flux de données en continu pour fournir des analyses en temps réel et des insights instantanés. Gestion de la qualité des données : Mettre en place des contrôles de qualité des données pour garantir l'intégrité et la fiabilité des données. Développer des processus de nettoyage, de normalisation des données pour maintenir leur qualité. Sécurité des données : Mettre en place des mesures de sécurité pour protéger les données sensibles et confidentielles. Utiliser des fonctionnalités de sécurité avancées de Databricks telles que le chiffrement des données et la gestion des accès pour garantir la confidentialité et l'intégrité des données. Automatisation des workflows : Automatiser les workflows de traitement de données en planifiant et en orchestrant les jobs ETL à l'aide de Databricks Jobs ou d'autres outils de planification. Mettre en place des déclencheurs pour déclencher des actions en réponse à des événements spécifiques sur la plateforme de données. Surveillance et gestion des opérations : Surveiller les performances et la santé de la plateforme de données en utilisant des outils de surveillance comme Databricks Metrics et Databricks Monitoring. Gérer les incidents et les problèmes opérationnels en assurant une disponibilité continue des services de données. Collaboration avec les équipes métier : Travailler en étroite collaboration avec les équipes métier pour comprendre leurs besoins en matière d'analyse de données et de reporting. Fournir un support technique et des conseils pour aider les utilisateurs à accéder et à analyser les données sur la plateforme Databricks. Veille technologique : Suivre les évolutions dans le domaine du Big Data et du traitement des données pour intégrer les nouvelles technologies et les meilleures pratiques dans la plateforme de données Databricks.

Freelance
CDI

Offre d'emploi Big Data Engineer

KLETA
Publiée le
Apache Kafka
DevOps
Elasticsearch

3 ans
10k-70k €
Paris, France

Environnement Technique :  Tous composants de la distribution HDP 2.6.5 (Hortonworks)  Tous composants de la distribution HDP 3.1.x (Hortonworks)  Technologie KAFKA  Compétences de développements en Shell, Java, Python  Moteur Elasticsearch incluant les fonctionnalités soumises à licence  Docker, Kubernetes, système distribué sur Kubernetes  Infrastructure as Code  DevOps : Ansible, Git, Nexus, Jenkins, JIRA, etc...  Os Linux, Kerberos, SSL, Ldap, RDBMS, SQL Mandatory :  Tous les composants des distributions Hadoop  Tous les composants de la suite Elasticsearch : Kibana, Logstash, suite beats  Administration de composants big data

Freelance

Mission freelance Data Engineer

Coriom Conseil
Publiée le
Apache Kafka
BigQuery
CI/CD

12 mois
100-500 €
Nord, France

Expertise SQL, ETL - Expert - Impératif CI/CD, github, Terraform, Kafka - Confirmé - Important Power BI, Looker - Confirmé - Important Google Cloud Platform (GCS, BigQuery) - Confirmé - Souhaitable Anglais Lu, écrit (Impératif) Au cours de sa mission, le consultant : - Participera aux rituels agiles de l'équipe, - Analysera les besoins des utilisateurs et proposera des solutions innovantes et en phase avec les drivers de l'entreprises, - Développera les solutions data (Alimentation, stockage, modélisation, restitution), - Validera la qualité des développements de son équipe, - Améliorera et optimisera le patrimoine actuel de son équipe, - Maintiendra les solutions existantes (Run), - Contribuera à la construction du nouveau socle et des services sur la plateforme Google Cloud, - Accompagnera et acculturera les métiers sur les bonnes pratiques de l'exploitation de la Data

Freelance

Mission freelance Data Engineer confirmé

WHEEL OF WORK
Publiée le
Apache Kafka
Microsoft Power BI
Python

3 ans
400-650 €
Lille, Hauts-de-France

Description du projet : Nous recherchons actuellement un(e) Data Engineer Freelance pour travailler sur un projet spécifique avec l'un de nos clients basé dans la région de Lille Métropole. Le projet implique la conception, le développement et la maintenance de systèmes de gestion de données pour répondre aux besoins métier spécifiques de notre client. Le(la) consultant(e) retenu(e) sera amené(e) à travailler en étroite collaboration avec les équipes internes et externes pour assurer le succès du projet. Responsabilités : Concevoir et développer des pipelines de données pour l'ingestion, le traitement et la transformation des données. Collaborer avec les équipes métier pour comprendre les exigences en données et proposer des solutions adaptées. Optimiser les performances des systèmes de gestion de données en identifiant et en résolvant les goulots d'étranglement. Assurer la qualité, la fiabilité et la sécurité des données à toutes les étapes du processus. Mettre en place des processus de surveillance et de maintenance pour garantir la disponibilité continue des systèmes.

Freelance

Mission freelance Data Engineer GCP

REDLAB
Publiée le
BigQuery
CI/CD
Google Cloud Platform

24 mois
100-580 €
Rouen, Normandie

Nous recherchons pour l'un de nos client du secteur BFA, un Data Engineer ayant de l'expérience avec Google Cloud Platform. Description des tâches de la mission : Migration des cas d'usages de l'architecture existante vers GCP Développer et maintenir de nouveaux cas d'usages avec les outils et infrastructures GCP (Concevoir et chiffrer les solutions techniques) Modélisation les Data concepts d'un Data Lake et fournir une expertise technique aux équipes projets Assurer que les data engineers appliquent correctement le framework technique (Rédaction de bonnes pratiques) Intégration des développements dans la chaine CI/CD Rédaction de documentation pour assurer la maintenance

Freelance

Mission freelance Data Engineer

Templeton and Partners Limited
Publiée le
Google Cloud Platform
Talend

6 mois
100-440 €
Lyon, Auvergne-Rhône-Alpes

Le Data Engineer joue un rôle crucial dans la gestion et l'exploitation des données pour le secteur de la chimie. Ce professionnel concevra, développera et maintiendra des pipelines de données efficaces, en utilisant des outils tels que Talend et Google Cloud Platform (GCP). Il collaborera avec les équipes scientifiques et analytiques pour répondre aux besoins spécifiques du secteur. Responsabilités : Développer et entretenir des pipelines de données avec Talend pour l'extraction, la transformation et le chargement des données. Utiliser GCP pour créer des solutions de stockage, de traitement et d'analyse de données. Collaborer avec les équipes scientifiques pour comprendre et répondre à leurs besoins en matière de données. Assurer la qualité, la sécurité et la gouvernance des données. Optimiser les performances des pipelines de données pour des traitements efficaces. Documenter les processus et les solutions techniques.

Freelance

Mission freelance DATA ENGINEER INFORMATICA

GROUPE ARTEMYS
Publiée le
Informatica
Microsoft SQL Server

6 mois
450-500 €
Rouen, Normandie

DATA ENGINEER SENIOR INFORMATICA H/F (FREELANCE). Localisation : Rouen (76). TJM : 500€ Télétravail : 2jours Date de démarrage : Début mai 2024 🦄 ESN : +30 ans d’existence. 👨‍💻 Expertise ARTEMYS AGIL-IT : Ingénierie logicielle BDD | BI | Big Data. 🚀 680 collaborateurs | 70M€ CA (2022). 🥇 Partenaire de solutions Microsoft depuis 2004 | Partner Modern Work et Security | 7 Spécialisations avancées. 🙌 Entreprise humaine : ProximITé, ConvivialITé, SolidarITé, EsprIT d’équipe, Partage, Respect et Accompagnement. 🌏 Engagement responsable : Adhésion Global Compact, Planet Tech’Care, Label SILVER EcoVadis Sustainability, Charte de la Diversité. ✔ En savoir plus : | L’ IT chez ARTEMYS AGIL-IT combine la technologie et l’humain ! Nous sommes convaincus que les compétences, le savoir-être et l’épanouissement de nos Talents sont les clés de notre réussite . Avant tout, nous recherchons chez ARTEMYS AGIL-IT des personnalITés passionnées Alors, vous nous rejoignez ?! Nous sommes à la recherche de notre futur (e) DATA ENGINEER INFORMATICA avec une compétence avancée sur POWER CENTER, dans ce cadre, vos missions seront les suivantes : Les missions : · Élaboration de Spécifications Techniques Détaillées pour les projets de Business Intelligence, · Modélisation décisionnelle pour assurer la qualité et la pertinence des données. · Conception et développement de flux Power Center pour l'extraction, la transformation et le chargement des données. · Maintenance évolutive et corrective des flux Power Center existants, en garantissant leur performance et leur fiabilité. · Réalisation de tests unitaires et d'intégration Rédaction de documentation technique et réglementaire pour assurer la traçabilité des

Freelance

Mission freelance Data engineer & BI

BLOOMAYS
Publiée le
Azure Data Factory
Databricks
Microsoft Power BI

1 an
400-500 €
Gennevilliers, Île-de-France

o Data engineering : mise à disposition des données dans le datalake au format delta lake (Azure Databricks) ▪ Conception des flux data ▪ Développement des pipelines de données avec ADF et Databricks (ingestion Bronze/ Implémentation Silver) ▪ Mise en œuvre avec le superviseur des flux du monitoring de ceux-ci ▪ Intégration des tests unitaires o Analyse & BI : ▪ Analyse des besoins ▪ Conception, élaboration et déploiement des rapports et tableaux de bord sous Power BI à partir du Gold ▪ Modélisation des datamarts ▪ Analyses de données et Requêtages ▪ Maintenance évolutive et corrective o Coordination des intervenants SI o Rédaction de spécifications & Documentation o Mise en place des exigences RGPD/SSI

Freelance

Mission freelance Data Engineer confirmé

ICSIS
Publiée le
Google Cloud Platform
PL/SQL
Python

3 ans
400-500 €
Lille, Hauts-de-France

La mission consiste à : - Exposer les données utiles à l’entreprise pour les analyser et les utiliser afin d’améliorer l’expérience utilisateur et la productivité - Transformer des données issues du DataLake afin de les normaliser - Modéliser la sphère de données - Développer ls flux - Exposer des données brutes et/ou agrégées au bon niveau de granularité aux différents métiers de l’entreprise - Travailler en lien avec des Data Scientists sur les données qu’il aura exposées - Mettre en place des rapports de Dataviz - Mission basée en métropole lilloise avec présence sur site 3j/semaine obligatoire Compétences demandées : - Formation supérieure en école d’ingénieur, école d’informatique ou Master spécialisé dans la Data Science - Première expérience en Data Engineering indispensable - GCP, BigQuery, SQL, Python, Stambia, Shell, Data Studio, Power BI, Qlikview,... - Excellents savoir-être : rigueur, esprit analytique et de synthèse, communication... - Méthode Agile - Anglais

Freelance

Mission freelance DATA ENGINEER SNOWFLAKE

UCASE CONSULTING
Publiée le
Base de données
ETL (Extract-transform-load)
Snowflake

3 ans
140-700 €
Paris, France

Bonjour, Pour le compte de notre client, nous recherchons un data engineer snowlfkake. Ci-après la mission : Développement et optimisation des flux sous SQL et Snowflake Modélisation Recueil des besoins métiers Coordination entre les data engineer et métiers Gestion des anomalies Techniques d'optimisation SQL, expérience dans le traitement de volumétries importantes / complexes, développement et bonnes pratiques Snowflake Gestion accès sécurité Participations daily en mode agile Build et run Mise en place et conception d'architecture flux

Freelance

Mission freelance Data Engineer - Python/Azure

VISIAN
Publiée le
Azure
Python

1 an
450-650 €
Orly, Île-de-France

La Direction des Systèmes d’Information recherche un Data Engineer H/F pour concevoir, développer et maintenir les architectures Data nécessaires à l’exploitation des données par les analystes métiers et data scientists. Uses cases autour des sujets commerciaux, approvisionnement d'un avion, bagages etc.. A ce titre, vos principales missions consisteront à : Mener les projets d’intégration (temps réel) et data (big data & insights), Comprendre, analyser et proposer des solutions techniques répondant aux besoins des divers acteurs de la donnée (spécialistes métier, domain managers, architecte, data analystes et scientists), Apporter un éclairage technique sur les architectures Cloud, dialoguer avec les fournisseurs de solutions et les consultants techniques, Dans une logique de mise en production, créer et déployer des pipelines de données robustes pour les data scientists et data analysts (collecte, stockage, transformation et exploitation), Assurer une bonne qualité des données pour les projets Machine Learning (préparation, complétude, épuration, enrichissement) dans le but d’optimiser les performances des modèles, Améliorer les processus internes : localisation et traçabilité de la donnée, standardisation des flux et des scripts de traitement des données, documentation, Collaborer avec les équipes basées aux Pays-Bas pour faciliter le Data-Sharing, échanger sur les best-practices et les moyens d’optimiser les architectures, Contribuer à l’amélioration de la gouvernance sur la protection et la confidentialité des données.

Freelance

Mission freelance Data Engineer AWS retail

REESK CONSULTING ( ENABLING )
Publiée le
AWS Cloud
Data visualisation
Gestion de projet

6 mois
580-590 €
Île-de-France, France

Responsabilités : Créer et maintenir les pipelines de données sur AWS. Développer des interconnexions entre les systèmes Cloud et on-premise. Concevoir et implémenter des solutions de datalake et de data warehouse. Assurer la qualité des données et fournir des rapports pertinents. Collaborer avec les métiers pour répondre à leurs besoins en matière de reporting et de dataviz. Industrie cible : Distribution et Retail. Compétences requises : Expérience avec AWS, en particulier AWS Glue pour l'intégration des données. Connaissance d'Amazon Q ou de tout autre outil pertinent d'OpenAI pour le traitement des données. Maîtrise de AWS Dataviz pour la création de rapports et de visualisations. Compétences avancées en Python pour le développement de solutions de traitement de données. Familiarité avec Apache Airflow pour l'orchestration des tâches et des workflows. Capacité à travailler efficacement dans un environnement Cloud et on-premise. Compréhension des besoins spécifiques du secteur de la distribution et du retail en matière de données. Technologies utilisées : AWS (Cloud et on-premise), AWS Glue. Outil d'OpenAI pour le traitement des données (comme Amazon Q). Python pour le développement. Apache Airflow pour l'orchestration des tâches. Autres outils potentiels : Kik, etc. Durée de la mission : 6 mois. Localisation/télétravail : 3 jours par semaine (Paris/Ile de France) Possibilité full remote

CDI

Offre d'emploi Data Engineer (H/F)

Harry Hope
Publiée le

55k-70k €
Paris, France

Notre client, société en pleine croissance, spécialisé dans le domaine de la Big Data, recherche des Consultants Data Engineer ! Participez à cette aventure et rejoignez une formidable équipe. Vos missions principales seront diversifiées, comprenant notamment : - Participation aux processus d'avant-vente : Vous contribuerez à l'élaboration des propositions techniques, mettant en avant votre expertise pour répondre aux besoins des clients. - Qualification technique des prestataires : Vous participerez activement à l'évaluation et à la sélection des prestataires, garantissant un partenariat technique de qualité. - Direction et coordination des projets : Vous dirigerez et coordonnerez la conception et la mise en oeuvre des projets, assurant leur réussite technique. - Documentation technique : Vous élaborerez, au besoin, des dossiers d'architecture, d'installation et d'exploitation, assurant une traçabilité et une compréhension optimale des solutions mises en place. - Participation active aux développements : Vous apporterez votre expertise en contribuant directement aux développements dans le cadre des projets. De manière plus étendue, vous aurez l'opportunité de : - Enrichir les bonnes pratiques : Vous contribuerez à l'évolution et à l'amélioration des bonnes pratiques d'architecture et de développement dans le domaine du Big Data. - Veille technologique : Vous réaliserez une veille constante sur les avancées technologiques du secteur, assurant ainsi la pertinence des solutions proposées. - Formation technique : Vous élaborerez des supports de formation technique pour nos clients et/ou nos consultants juniors, partageant ainsi votre savoir-faire. - Animation du pôle technique : Vous participerez activement à l'animation du pôle technique favorisant un environnement collaboratif et innovant.

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous

Nouveauté ! Avec Free-Work MyBusiness, vous pouvez désormais gérer votre facturation, vos clients et votre activité facilement. C'est gratuit et sans engagement !