Trouvez votre prochaine offre d’emploi ou de mission freelance ETL (Extract-transform-load) à Paris

Votre recherche renvoie 10 résultats.
Astuce

Astuce

Utilisez des virgules pour rechercher plusieurs termes en même temps.

Exemple : sql, php correspond à sql OU php

Freelance

Mission freelance DATA ENGINEER SNOWFLAKE

UCASE CONSULTING
Publiée le
Base de données
ETL (Extract-transform-load)
Snowflake

3 ans
140-700 €
Paris, France

Bonjour, Pour le compte de notre client, nous recherchons un data engineer snowlfkake. Ci-après la mission : Développement et optimisation des flux sous SQL et Snowflake Modélisation Recueil des besoins métiers Coordination entre les data engineer et métiers Gestion des anomalies Techniques d'optimisation SQL, expérience dans le traitement de volumétries importantes / complexes, développement et bonnes pratiques Snowflake Gestion accès sécurité Participations daily en mode agile Build et run Mise en place et conception d'architecture flux

Freelance
CDI

Offre d'emploi Concepteur Développeur STAMBIA (ref : AG)

FIRST CONSEIL
Publiée le
BI
Développement
ETL (Extract-transform-load)

12 mois
42k-52k €
Paris, France

En tant que Concepteur / Développeur dans l’équipe SCRUM vos principales missions seront : Opérationnelles :  Travailler en étroite collaboration avec le Proxy Product Owner (MOE) et le Product Owner (MOA), la filière de production dédiée ainsi que les services SI contributeurs au produit  Analyser les demandes et apporter son soutien dans la conception de la solution  Réaliser les spécifications en relation étroite avec le Proxy Product Owner et le Product Owner  Concevoir et mettre en oeuvre les traitements de gestion des flux de données entre les différentes briques du SI via utilisation de l’ETL STAMBIA  Réaliser la recette informatique et les tests automatisés dans les différents environnements  Rédiger la documentation du produit  Contribuer au suivi et traitement du backlog produit (évolutifs et correctifs)  Support aux utilisateurs et au Product Owner. Il est également en support aux PPO pour les cadrages, l’analyse fonctionnelle  Être force de proposition  Participer à la réalisation des scénarios de tests et des jeux de données  Réaliser les PV de recette informatique et les dossiers de livraison. Il maîtrise le process de gestion des incidents. Organisationnelles :  Rôle d’Analyste dans une équipe SCRUM  Travailler en collaboration avec l’équipe PROJET (Equipe de DEV, ARCHITECTES, PO, PPO, PM)  Participer aux différentes réunions projets et aux cérémonies Agiles

CDI
Freelance

Offre d'emploi Tech Lead ODI

KLETA
Publiée le
ETL (Extract-transform-load)
ODI Oracle Data Integrator

3 ans
10k-75k €
Paris, France

Analyse des besoins et des contraintes : Comprendre les exigences techniques de la migration. Évaluer les systèmes sources et cibles ainsi que les données à migrer. Conception de la solution de migration : Concevoir l'architecture de la solution de migration en utilisant Oracle Data Integrator (ODI) pour orchestrer le processus. Définir les flux de données, les transformations et les interfaces nécessaires pour migrer efficacement les données. Élaborer des plans pour chaque phase de la migration. Gestion de l'équipe et coordination des activités : Diriger une équipe d'experts ODI. Assurer la coordination entre les différents intervenants, y compris les développeurs, les administrateurs de bases de données et les utilisateurs métier. Développement et configuration : Développer les processus ETL (Extract, Transform, Load) nécessaires à la migration des données à l'aide d'ODI. Mettre en œuvre des routines de nettoyage, de transformation et de validation des données. Développement de Knowledge Modules (KM) : Concevoir et développer des Knowledge Modules personnalisés pour répondre aux besoins spécifiques de la migration. Adapter les KMs existants ou en développer de nouveaux pour optimiser les performances et la gestion des données lors de la migration. Tester et valider les KMs pour garantir leur efficacité et leur fiabilité dans le contexte de la migration. Optimisation des performances : Optimiser les processus ETL pour garantir des performances optimales lors de la migration. Surveiller et ajuster les charges de travail pour minimiser les temps d'arrêt et maximiser l'efficacité. Utiliser les fonctionnalités avancées d'ODI telles que le parallélisme et la partition pour accélérer le processus. Gestion des erreurs et des exceptions : Mettre en place des mécanismes de gestion des erreurs pour traiter les problèmes rencontrés lors de la migration. Tester les scénarios de récupération pour s'assurer de la fiabilité du processus de migration. Validation et tests : Définir des critères de validation et des tests d'acceptation pour vérifier l'intégrité et la qualité des données migrées. Réaliser des tests de bout en bout pour valider la cohérence des données entre les systèmes source et cible. Collaborer avec les utilisateurs métier pour valider les résultats de la migration. Documentation et formation : Documenter l'ensemble du processus de migration, y compris les schémas de données, les flux de travail ODI et les configurations. Former les membres de l'équipe et les utilisateurs finaux sur l'utilisation d'Oracle Data Integrator et sur les nouvelles procédures de gestion des données. Suivi et support post-migration : Surveiller les performances du système après la migration et résoudre les problèmes éventuels. Fournir un support continu aux utilisateurs finaux et aux équipes opérationnelles. Documenter les leçons apprises et proposer des recommandations pour améliorer les processus de migration à l'avenir.

Freelance

Mission freelance Intégrateur SAP

Cherry Pick
Publiée le
Enterprise Application Integration (EAI)
ETL (Extract-transform-load)

24 mois
750-850 €
Paris, France

Intégration technique • Est garant de l’intégration technico-fonctionnelle des différentes composantes ou briques des solutions qui composent l’architecture applicative • Est garant de la bonne intégration technique dans les projets et dans la gestion des changements / des évolutions • Est un point d’entrée privilégié des équipes Infrastructures • Est le référent en architecture, et est garant du respect des standards d’architecture au sein de l’équipe Business Solutions et en collaboration avec les Architectes techniques et fonctionnels de la DSI Interopérabilité • Pilote des lots technico-fonctionnels d'interopérabilité dans les projets et à ce titre, validation de dossiers d’architecture et/ou d’exploitation • Collaboration avec les analystes fonctionnels et chefs de projet pour l’intégration des besoins fonctionnels dans les interfaces techniques et l’assistance en phase de tests / recettes • Définition et chiffrage des solutions dans le respect des normes et bonnes pratiques • Est garant du respect des engagements de ses lots projets en termes de planning, de budget, de qualité et de livrables, conformément à la méthodologie • Mise en place des processus de support

CDI
Freelance

Offre d'emploi Data Engineer Databricks

KLETA
Publiée le
Apache Spark
Azure
Azure Data Factory

3 ans
10k-68k €
Paris, France

Conception de l'architecture de données : Concevoir et mettre en œuvre une architecture de données robuste et évolutive sur la plateforme Databricks. Définir les schémas de données, les pipelines ETL et les flux de données pour répondre aux besoins métier. Développement de pipelines ETL : Développer des pipelines ETL pour extraire, transformer et charger les données à partir de sources variées vers le lac de données Databricks. Utiliser des outils comme Apache Spark pour traiter de gros volumes de données de manière efficace et distribuée. Optimisation des performances : Optimiser les requêtes Spark pour améliorer les performances des traitements de données. Utiliser des techniques telles que le partitionnement, la mise en cache et la gestion de la mémoire pour optimiser l'exécution des jobs Spark. Gestion des données en temps réel : Mettre en place des pipelines de traitement de données en temps réel à l'aide de technologies comme Apache Kafka et Apache Spark Streaming. Traiter les flux de données en continu pour fournir des analyses en temps réel et des insights instantanés. Gestion de la qualité des données : Mettre en place des contrôles de qualité des données pour garantir l'intégrité et la fiabilité des données. Développer des processus de nettoyage, de normalisation des données pour maintenir leur qualité. Sécurité des données : Mettre en place des mesures de sécurité pour protéger les données sensibles et confidentielles. Utiliser des fonctionnalités de sécurité avancées de Databricks telles que le chiffrement des données et la gestion des accès pour garantir la confidentialité et l'intégrité des données. Automatisation des workflows : Automatiser les workflows de traitement de données en planifiant et en orchestrant les jobs ETL à l'aide de Databricks Jobs ou d'autres outils de planification. Mettre en place des déclencheurs pour déclencher des actions en réponse à des événements spécifiques sur la plateforme de données. Surveillance et gestion des opérations : Surveiller les performances et la santé de la plateforme de données en utilisant des outils de surveillance comme Databricks Metrics et Databricks Monitoring. Gérer les incidents et les problèmes opérationnels en assurant une disponibilité continue des services de données. Collaboration avec les équipes métier : Travailler en étroite collaboration avec les équipes métier pour comprendre leurs besoins en matière d'analyse de données et de reporting. Fournir un support technique et des conseils pour aider les utilisateurs à accéder et à analyser les données sur la plateforme Databricks. Veille technologique : Suivre les évolutions dans le domaine du Big Data et du traitement des données pour intégrer les nouvelles technologies et les meilleures pratiques dans la plateforme de données Databricks.

Freelance

Mission freelance AWS Data Ingeniuer

Phaidon London- Glocomms
Publiée le
Amazon Elastic Compute Cloud (EC2)
Amazon S3
Data analysis

1 an
Paris, France

Au sein de l’équipe principale d’ingénierie des données, vous serez responsable de la maintenance de l’entrepôt de données intelligent et des routines ETL associées, ainsi que de la maintenance des extraits de données des clients. Secteur : Retail Rôle : AWS Data Ingénieur Durée: 12 mois Lieu: Paris Hybride : 3 jours à distance Date de début : ASAP Responsabilités : Vous travaillez avec les parties prenantes pour identifier de nouvelles sources de données qui ajouteraient de la valeur à l’entreprise. Implémenter de nouveaux pipelines de données pour des clients nouveaux ou existants Maintenir les pipelines de données existants et gérer les erreurs si nécessaire Contrôler la performance, la sécurité et l’évolutivité des pipelines de données Évaluer la solution d’entrepôt de données existante pour déterminer les mises à jour nécessaires et les exigences d’intégration et s’assurer que les conceptions finales répondent aux besoins des clients. Évaluer l’impact des demandes de changement, en s’assurant que les changements n’interrompent pas les flux de travail existants. Profil : Expérience confirmée dans le développement Python avec un fort accent sur la migration des données / l’ingénierie. Forte expérience en modélisation de données Expérience dans l’écriture, le dépannage et le débogage de requêtes SQL complexes Expérience de l’extraction de données à partir d’API REST et de leur manipulation/chargement dans une base de données. Connaissance pratique des entrepôts de données Snowflake ou Redshift Expérience des processus et outils ETL/ELT (de préférence avec Matillion et/ou Apache Airflow) Expérience pratique avec AWS (notamment ECS et S3) Expérience pratique de l’utilisation de DBT pour gérer et mettre en œuvre des transformations de données. ((BONUS - Pas Obligatoire) Anglais courant Si le poste vous intéresse, merci de nous contacter directement avec un CV actualisé et un numéro de téléphone pour être contacté sur !

Freelance

Mission freelance Data Ingénieur / DataOps

Phaidon London- Glocomms
Publiée le
Apache Kafka
Apache Spark
DevOps

1 an
Paris, France

Nous recherchons pour un de nos clients, leader dans le domaine des services financiers, un Data Engineer freelance pour travailler sur un projet à long terme axé sur la fiabilité des données. Le poste: Data Ingénieur / DataOps Durée: 12 mois Lieu: Paris Centre Hybride Date de début : ASAP Le rôle : Vous serez responsable de la fiabilité des données en maintenant les processus de collecte, de stockage, de traitement et de livraison des données. Effectuer une analyse des systèmes de données existants et proposer des solutions pour améliorer les performances et la disponibilité. Participer à la conception et à l’architecture des systèmes de données en veillant à l’évolutivité et à la résilience. développer des scripts pour automatiser les tâches récurrentes liées aux données Collaborer étroitement avec les collègues pour comprendre les besoins en matière de données et s’assurer que les meilleures pratiques sont respectées. Le candidat idéal : Expérience confirmée en tant qu’ingénieur de données avec un fort accent sur la fiabilité des données. Solide compréhension des principes de l’ingénierie des données, des technologies de traitement des données et des principes ETL. Maîtrise de Python, SQL et Shell Scripting Familiarité avec Spark et Kafka Une expérience dans le domaine de la finance est fortement souhaitée. N’hésitez pas à postuler directement si vous pensez que ce poste est fait pour vous !

Freelance
CDI

Offre d'emploi Business Analyst Data / Middleware

VISIAN
Publiée le
API
ETL (Extract-transform-load)
Web service

3 ans
10k-65k €
Paris, France

L'équipe est composé de 5 dev (data engieneer), 1 testeur et 2 datascientist, 1 PO et 1 scrum. JIRA, Confluence, Slack, Teams, AWS, Javascript, python -Recueillir les besoins et rédiger les US technico fonctionnelles -Valider les règles de gestion-Analyser et résoudre les cas clients de production, dans le cadre de la MCO (Maintenance en condition opérationnelle) -Proposer des évolutions d’amélioration des fonctionnalités existantes- Participer aux différents ateliers métiers -Suivre l’avancement des développements des US travailler de concert avec les autres membres de l’équipes (Data Engineer, testeur, datascientist…). Un profil BA orienté DATA est recherché pour travailler sur l'écosystème autour de l'applicatif (API, ETL, interface avec mobile/Web...) Il est dès lors nécessaire d’avoir un bon niveau de communication oral et écrit, afin d’expliquer les enjeux & règles de gestion aux interlocuteurs techniques et inversement avec la remontée des impératifs et possibilités techniques.

CDI

Offre d'emploi Responsable Intégration IT Retail

ASENIUM
Publiée le
Cegid
Enterprise Service Bus (ESB)
ETL (Extract-transform-load)

55k-70k €
Paris, France

Nous sommes mandatés par l'un de nos clients finaux sur le recrutement d'un profil Responsable Intégration IT Retail sur Paris. Grand groupe français. Pour répondre aux besoins techniques de projets Retail de plus en plus complexes et nombreux au sein du Groupe, nous recherchons un(e) Responsable Intégration IT Retail pour intervenir de manière transverse sur les projets IT Retail. Rattaché(e) au Directeur Retail technologies, vous contribuerez à l’accélération de l’activité Direct-to-Consumer (DTC) off-line en mettant à disposition de nos points de vente des solutions technologiques robustes, performantes, innovantes et contribuant à une expérience optimale pour nos clients. Vous interviendrez sur tous les pays. La mission : Intervenir sur les projets Retail en tant que référent Intégration pour apporter son expertise technique et de développement sur les plateformes eventing et batching utilisées (CP4I et Datastage) : Concevoir et piloter le développement des interfaces (temps réel ou batch) entre Cegid Y2 et les différents systèmes sur la plateforme d’intégration (plateforme IBM) Formaliser les spécifications fonctionnelles et techniques générales et détaillées Réaliser le design technique (conception détaillée) et participer aux choix technologiques Réaliser le paramétrage fonctionnel et technique de la solution (Eventing et batching) Participation aux tests/recette Piloter nos prestataires en charge des développements sur la plateforme Concevoir des solutions intégrées dans un écosystème IT complexe Monitorer les plateformes d’intégration et les interfaces sur la partie Retail Participer à la Design Authority en tant que référent Retail Assurer le support niveaux 3 et 4 des plateformes d’intégration eventing et batching pour la partie Retail

Freelance

Mission freelance Product Owner Data

VISIAN
Publiée le
ETL (Extract-transform-load)
Master Data Management (MDM)
Méthode Agile

3 ans
100-800 €
Paris, France

En tant que PO il faut : • Avoir un esprit et un mindset agile • Définir la vision en accord avec les parties prenantes du projet et la communiquer aux équipes à travers la roadmap produit • Comprendre et, éventuellement, anticiper les besoins clients, voire de les challenger • Être en charge du backlog et de son maintien • Découper les features et rédiger les User Story • Prioriser les besoins • Mesurer l’avancée du projet • Avoir une bonne capacité d’analyse, de prise de recul • Être un bon communicant, tant à l’écrit qu’à l’oral • Faire preuve d’une bonne capacité d’organisation • Avoir du leadership et tirer l’équipe vers le haut • Représenter son produit (le SI C3 Mastermind)

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2024 © Free-Work / AGSI SAS
Suivez-nous

Nouveauté ! Avec Free-Work MyBusiness, vous pouvez désormais gérer votre facturation, vos clients et votre activité facilement. C'est gratuit et sans engagement !