Trouvez votre prochaine offre d’emploi ou de mission freelance ETL (Extract-transform-load)
Offre d'emploi
Architecte technique applicatif
Vous serez en charge de la conception et du pilotage des architectures techniques dans une logique de standardisation, mutualisation des services et industrialisation via l’Infrastructure as Code. Votre rôle Infrastructure & Automatisation Concevoir, automatiser et maintenir des infrastructures Cloud via des outils IaC (Terraform, Ansible, etc.). Gérer des environnements hybrides et multi-cloud Middleware & Architectures applicatives Concevoir des architectures intégrant des couches d’intermédiation performantes et résilientes Déployer des passerelles applicatives sécurisées (Reverse Proxy) et optimisées Flux de données & Intégration Intégrer et transformer des données entre systèmes via ETL et MessageBus (Kafka) Faciliter la circulation des données pour des usages analytiques et IA Sécurité & Gestion des secrets Déployer et gérer HashiCorp Vault pour sécuriser les accès et les clés d’infrastructure et d’application Garantir la conformité et la protection des données sensibles Architecture & Bonnes pratiques Appliquer une architecture hexagonale pour séparer clairement les couches métier, d’infrastructure et d’interfaces Standardiser les pratiques pour optimiser la qualité, la maintenabilité et le testing des systèmes
Mission freelance
Ingénieur DBA & DevOps (h/f)
Résumé Ce poste vise à moderniser et optimiser nos systèmes de données en intégrant une expertise en administration de bases de données et en culture DevOps/Cloud. Responsabilités : Administrer et optimiser les bases de données OnPrem : PostgreSQL, Vertica, MariaDB, Oracle (11g, 19c – sortie progressive en cours). Accompagner la migration et la gestion des bases sur AWS (RDS, Aurora MySQL, Redshift, Glue). Concevoir et maintenir des pipelines ETL/ELT robustes et industrialisés. Mettre en place les standards de gouvernance des données (qualité, sécurité, conformité). Optimiser les performances (requêtes SQL, tuning, architectures de stockage). Garantir la haute disponibilité, le PRA et la continuité de service. Automatiser la gestion des environnements via IaC (Terraform, Ansible) et intégrer la donnée dans les chaînes CI/CD. Contribuer au monitoring et à l’observabilité (Prometheus, Grafana, ELK). Collaborer avec les équipes Data, BI et IT pour fournir des données fiables et performantes. Effectuer une veille sur les évolutions technologiques (Cloud, Data Lake, Big Data). Gérer l’évolution des schémas BDD via des outils de migration comme Liquibase. Compétences : Bases OnPrem : PostgreSQL, Vertica, MariaDB, Oracle 11g/19c. Cloud : AWS (RDS, Aurora MySQL, Glue, Redshift) – Maîtrise AWS = pré-requis. ETL / Data pipelines : Airflow, Dollar Universe ou équivalent. Langages : SQL avancé, Python, Shell. IaC & DevOps : Terraform, Ansible, Git, Docker, CI/CD – pré-requis. Gestion de schémas BDD : Liquibase (pré-requis). Détails : Localisation: Neuilly sur Seine (92) Télétravail: 2 jours par semaine
Offre d'emploi
Technicien d'exploitation / administrateur systèmes (H/F)
Vos missions ? Intégré à nos équipes sur notre Factory ou chez nos clients, vous interviendrez en tant qu'ingénieur informatique , vous assurerez les missions suivantes : - Administration & maintenance : Assurer la gestion quotidienne et la disponibilité des systèmes monétique. - Gestion des flux de données : Superviser les échanges entre systèmes mais aussi avec nos partenaires via des outils de transfert (GoodSync, GoAnywhere) et des solutions ETL. - Support & optimisation : Résoudre les incidents complexes, améliorer les workflows et scripts (PowerShell). - Supervision & sécurité : Monitorer les processus critiques et garantir la conformité aux normes de sécurité (notamment PCI DSS). - Rédiger les procédures techniques, cahiers de recette, guides utilisateurs Compétences techniques : - Windows Server, Linux, scripting PowerShell.- - Outils de transfert de fichiers (GoodSync, GoAnywhere). - Solutions ETL (Talend, N8N ou équivalent). - Bases de données SQL Server, intégration de données, protocole MQTT.- -Compréhension des API et de l'intégration applicative. - Une culture générale en systèmes d'information (réseaux, infrastructures, communications et cybersécurité) est attendue, afin d'interagir efficacement avec nos experts et nos partenaires.
Mission freelance
Consultant Talend
Dans le cadre d’un nouveau projet, nous recherchons un Consultant Talend Senior pour une mission de plusieurs mois. Minimum 10 ans d’expérience Expertise confirmée en Talend Solides compétences en Java Connaissance du secteur Assurance Vie Dans le cadre d’un nouveau projet, nous recherchons un Consultant Talend Senior pour une mission de plusieurs mois Minimum 10 ans d’expérience Expertise confirmée en Talend Solides compétences en Java Connaissance du secteur Assurance Vie Minimum 10 ans d’expérience Expertise confirmée en Talend Solides compétences en Java Connaissance du secteur Assurance Vie
Offre d'emploi
Consultant Snowflake - Secteur Maritime H/F
Contexte de la mission : Viveris accompagne ses clients dans la sécurisation de leurs infrastructures, tant pour l'informatique de gestion que pour l'informatique industrielle. Dans ce cadre, nous recherchons un Consultant Snowflake. Dans ce rôle, vous serez responsable de la conception, du développement et de la gestion de l'entrepôt de données Snowflake, ainsi que de la création et de la maintenance des pipelines de données pour répondre aux besoins métier complexes de nos clients dans le domaine maritime. Intégré au sein de l'équipe Data, vous collaborerez avec l'architecte data et le responsable de la plateforme vous contribuerez à la mise en place ou l'amélioration de la partie Snowflake ainsi qu'à l'accompagnement des équipes off-shore. Responsabilités : - Concevoir et mettre en oeuvre des solutions de data warehousing basées sur Snowflake pour répondre aux besoins métier spécifiques du secteur maritime ; - Contribuer à l'amélioration à la gestion et aux résultats FinOps ; - Développer et maintenir les pipelines de données pour l'extraction, la transformation et le chargement (ETL) des données dans Snowflake.
Offre d'emploi
Data engineer
Dans le cadre du renforcement de notre pôle Data, nous recherchons un Data Engineer confirmé capable de concevoir, développer et industrialiser des solutions de traitement et de valorisation de données dans un environnement cloud (AWS). Vous interviendrez sur des projets stratégiques de construction de plateformes data modernes, à forte volumétrie et en lien direct avec les métiers. Vos principales missions :Architecture & Développement Concevoir et mettre en œuvre des pipelines de données robustes et scalables Construire et maintenir des Data Lakes et Data Warehouses modernes Développer des traitements ETL / ELT performants et automatisés Participer à la modélisation et l’optimisation des structures de données Qualité & Sécurité Garantir la qualité, la fiabilité et la traçabilité des données Implémenter des bonnes pratiques de sécurité et de gouvernance (IAM, RBAC, encryption, etc.) Mettre en place des mécanismes de monitoring et d’alerting Collaboration & Innovation Travailler en étroite collaboration avec les équipes Data Science, BI et Cloud Participer à la veille technologique et aux choix d’architecture Contribuer à la mise en place de standards et bonnes pratiques DevOps Data Environnement technique : AWS S3, Redshift, Glue, Athena, EMR, Lambda, Step Functions PySpark, Python, SQL Terraform, CloudFormation, CloudWatch, IAM, KMS
Offre d'emploi
Consultant Mulesoft / Java
Vous êtes passionné par les architectures d’intégration, la manipulation de flux de données, et souhaitez intervenir sur des projets à fort impact ? Rejoignez une mission stratégique au sein d’un grand compte public ! Votre rôle En tant que Consultant Mulesoft / Java , vous aurez pour responsabilité de : Concevoir et développer des procédures de transfert de flux entre applications (flux temps réel et batch). Manipuler des flux inter-applicatifs via des outils d’ETL comme MuleSoft (ou Talend). Garantir la qualité, la performance et la fiabilité des flux de données. Définir et mettre en œuvre un plan de migration des données . Assurer la qualité des données issues de différentes sources. Participer à l’analyse des besoins métiers pour proposer les solutions les plus adaptées. Travailler en méthodologie Agile , en lien direct avec les équipes projets. Stack & Compétences techniques attendues Java 8+ ETL : MuleSoft ou Talend SQL / SQL Server Intégration de flux synchrones et asynchrones Connaissance des API REST/SOAP
Offre d'emploi
Ingénieur DevOps confirmé (H/F)
Offre d’emploi : Ingénieur Python / DevOps – Migration Applicative (H/F) Lieu : Toulouse – accès facile en transports en commun Télétravail : 2 jours par semaine Contrat : CDI Salaire : jusqu’à 45K€ selon séniorité Démarrage : ASAP Expérience requise : minimum 5 ans en environnement Python/DevOps À propos du poste Nous recrutons un Ingénieur Python / DevOps confirmé (H/F) pour rejoindre notre centre de services en ingénierie système . Votre mission principale sera de développer et automatiser la migration des applications Doors vers Polarion , dans un environnement hybride Windows/Linux . Vous serez amené à travailler à la fois sur le scripting Python (Windows, ETL, transformation de données) et sur l’ automatisation des déploiements (Ansible/Linux) . Vos missions Développer des scripts Python pour la migration applicative et la manipulation/transformation de données via des librairies ETL Automatiser les déploiements et configurations avec Ansible (Linux) Assurer le maintien en conditions opérationnelles (MCO) de la chaîne logicielle Garantir la sécurité et la fiabilité des environnements applicatifs Contribuer à l’ amélioration continue des pratiques DevOps Répartition des activités : 75% scripting Python (Windows / ETL / migration applicative) 25% déploiement et automatisation (Linux / Ansible) Environnement technique Langages & automatisation : Python (Windows), Ansible (Linux), PowerShell ETL & data scripting : librairies de manipulation et transformation de données CI/CD & SCM : GitLab Outils métiers : Doors, Polarion Cloud & infra : GCP, Azure
Mission freelance
Data Engineer Azure / Databricks - Plus de 6 ans d'expérience
Mission : Vous développerez des pipelines de données (ingestion/transformation), industrialiserez l'ETL/ELT, réaliserez des scripts, piloterez l'automatisation, garantirez la qualité et l'observabilité des données et participerez aux lots de travaux d'extraction. Toutes ces activités seront menées en étroite collaboration avec le client. Principales tâches : Construire les pipelines (ingestion/transformation). Industrialiser l'ETL/ELT. Scripting et automatisation. Qualité et observabilité des données. Participation aux lots de travaux d'extraction. Compétences techniques requises : Databricks (Spark, cahiers). Python/SQL. DeltaLake. Orchestration (par exemple, tâches Azure Data Factory/Databricks). Données CI/CD, tests, performances. Langues: Anglais ; français/néerlandais un plus. Emplacement: Belgique, avec des déplacements possibles avec le Portugal et d'autres pays.
Offre d'emploi
Data Ingénieur.e
Objectifs et missions principales : titulaire du poste sera un.e interlocuteur.rice clé pour l'équipe Produit, en l'accompagnant dans la conception et la mise en œuvre d'architectures optimisées pour fluidifier l'ensemble des flux de données. Ses missions incluront : Concevoir et maintenir une architecture de pipeline de données performante. Assurer la fiabilité et l'évolutivité de l'infrastructure de données. Participer à l'amélioration continue des processus et outils liés à la gestion des données. Mettre en œuvre et maintenir des normes de qualité des données, ainsi que des systèmes de surveillance et d'alerte associés. Garantir la fiabilité des pipelines de données et établir les bonnes pratiques pour la cohérence des données sur l'ensemble de la plateforme. Développer l'infrastructure nécessaire à l'extraction, la transformation et le chargement (ETL) optimaux des données provenant de diverses sources, en utilisant des technologies SQL et Big Data. Collaborer avec les parties prenantes pour résoudre les problèmes techniques liés aux données et répondre aux besoins en infrastructure de données.
Mission freelance
Analyste Power BI - Projet de Migration Innovant - Hauts de France (H/F)
Contexte du poste Rejoignez une entreprise innovante spécialisée dans le secteur de l'automobile. Cette société se distingue par ses solutions logicielles axées sur la performance et l'analyse des données. En pleine transformation numérique, elle lance un projet ambitieux pour refondre les rapports sur base de Microsoft Fabric, dans le but d’optimiser les process existants. Vous intégrerez une équipe dynamique composée actuellement de trois experts, sous la direction d’un futur manager data en phase de recrutement. Cette mission s'ouvre pour pallier un départ en congé maternité et nécessite une implication dès maintenant pour un onboarding optimal. En tant qu’Analyste Power BI, vous jouerez un rôle clé pour garantir la continuité et l’évolution de nos solutions business intelligences. Missions Principales : - Concevoir, développer et maintenir des tableaux de bord interactifs avec Power BI. - Collaborer étroitement avec les équipes finance pour assurer le maintien et l'évolution des rapports critiques. - Participer activement à la migration des infrastructures de données vers Microsoft Fabric. Annexes : - Documenter l’ensemble des processus de création de rapports. - Former les utilisateurs finaux à l’exploitation des outils mis en place.
Offre d'emploi
Développeur senior
Contexte de la mission et équipe Le développeur expérimenté sera intégré à une équipe produit dédiée à la gestion du cycle de vie de la commande, incluant les périmètres de l’annulation, des retours et du SAV. L’équipe est composée de profils techniques expérimentés : 4 développeurs et un lead dev. Enjeux du projet / périmètre (objectifs stratégiques ou opérationnels) Amélioration de la qualité des livrables : souci de la qualité du code (tests unitaires, revues de code, respect des bonnes pratiques). Amélioration des pratiques de testing au sein de l’équipe de dev. Amélioration du produit et du stack technique. Sortie du Legacy.
Mission freelance
Data Engineer Databricks (F/H)
Concevoir et développer des pipelines de traitement de données (ETL/ELT) sur Databricks. Intégrer et transformer des données issues de différentes sources (API, bases SQL/NoSQL, fichiers, data lakes, etc.). Mettre en place des workflows automatisés et orchestrés (via Azure Data Factory, Airflow, ou Databricks Workflows). Optimiser les performances des jobs Spark et la consommation des clusters. Participer à la modélisation des données (Data Lake / Delta Lake / Data Warehouse). Assurer la qualité, la sécurité et la gouvernance des données (contrôles, documentation, catalogage). Collaborer avec les Data Scientists, Analysts et Architectes pour garantir la cohérence et la fiabilité des environnements data. Surveiller et maintenir la plateforme Databricks en production (monitoring, troubleshooting, coûts).
Offre d'emploi
Ingénieur Modern Data Stack (H/F) - 13
Contexte Je recherche pour l’un de mes clients, entreprise industrielle française en pleine transformation digitale, un(e) Ingénieur(e) Data en CDI à Marseille. Cette opportunité est à pourvoir au sein de la DSI (100 collaborateurs), dans un environnement stimulant et innovant. Vous intégrerez le pôle Data et interviendrez sur des projets stratégiques de modernisation des architectures de données. Missions Rattaché(e) au Responsable de Production, vous aurez un rôle clé dans la conception, l’optimisation et la fiabilité des bases de données transactionnelles et décisionnelles. À ce titre, vos missions incluront : Concevoir et modéliser les bases de données en lien avec les chefs de projet, architectes, consultants ERP et experts décisionnels Participer à la mise en place et à l’évolution de l’entrepôt de données (Data Warehouse) et de la "Modern Data Stack" Développer et maintenir les flux de synchronisation entre systèmes (Airbyte, DBT, Airflow, Snowflake...) Assurer l’optimisation des performances des requêtes SQL/noSQL et le support aux équipes de développement Contribuer à l’adaptation du modèle de données dans le cadre du déploiement d’architectures microservices Participer au support technique de niveau 3 et à la veille technologique
Mission freelance
Data Engineer - GCP
Nous recherchons un Data Engineer GCP expérimenté pour rejoindre une équipe dynamique en freelance afin de soutenir des projets critiques de migration de données et d'infrastructure. Il s'agit d'une opportunité entièrement à distance, idéale pour des professionnels pratiques passionnés par la construction de pipelines ETL/ELT évolutifs et de solutions de stockage de données dans un environnement rapide. Responsabilités: Concevoir, construire et maintenir des pipelines ETL/ELT pour l'ingestion, la transformation et le chargement de données dans des entrepôts de données cloud, en traitant efficacement de grands volumes de données. Implémenter et gérer des solutions de stockage de données, en garantissant des performances élevées, une évolutivité et une fiabilité dans des environnements de production. Déployer l'infrastructure en tant que code (IaC) à l'aide de Terraform pour provisionner et gérer les ressources GCP. Développer et orchestrer des workflows à l'aide de Cloud Composer ou Apache Airflow pour la planification et l'automatisation. Exploiter Apache Beam/Dataflow ou Spark/Dataproc pour le traitement distribué de données, y compris les architectures batch, micro-batch et streaming en temps réel. Rédiger des requêtes SQL avancées et optimiser les interactions avec les bases de données relationnelles, en intégrant la capture de changements de données (CDC) le cas échéant. Collaborer sur des migrations de données, en assurant des transitions fluides avec un accent sur la qualité des données, les tests et les pratiques modernes de DataOps (par exemple, déploiements de pipelines, ingénierie de qualité). Intégrer avec l'écosystème plus large de l'ingénierie de données, en recommandant et adoptant des outils au besoin pour améliorer l'efficacité. Communiquer efficacement avec les parties prenantes internes et les partenaires externes pour aligner sur les exigences et livrer des solutions à fort impact.
Mission freelance
Consultant PUR AZURE + BI
* Concevoir et développer des entrepôts de données (Data Warehouse), Data Marts et Data Cubes * Développer des flux ETL réutilisables avec Azure Data Factory * Intégrer et transformer des données provenant de multiples sources vers Azure SQL DB / Data Lake * Mettre en oeuvre des mécanismes de chargement (complet, delta, historique) * Optimiser la performance des requêtes (SQL, DAX, MDX) et assurer la qualité des données * Mettre en place des outils analytiques et alimenter les dashboards Power BI * Développer des rapports Power BI * Gérer la sécurité des données, notamment le Row Level Security à tous les niveaux de la chaîne * Participer à la mise en place de pipelines CI/CD automatisés via Azure DevOps / GitLab
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.