Trouvez votre prochaine offre d’emploi ou de mission freelance ETL (Extract-transform-load) à Bordeaux
Mission freelance
Architecte / Expert MongoDB Atlas sur Azure
Garantir la mise en œuvre et la maintenance d’une solution MongoDB Atlas hébergée sur Azure robuste, performante et conforme aux exigences réglementaires (PDP, RGPD), tout en répondant aux besoins métiers : disponibilité, traçabilité, sécurité, gouvernance des données et exploitation BI (Grafana, Power BI). Responsabilités principales Architecture et conception Définir l’architecture cible MongoDB Atlas sur Azure (topologie, multi-régions, interconnexion, réseaux, haute disponibilité, sauvegarde et reprise d’activité). Concevoir les schémas documentaires et le modèle de données optimisé selon les cas d’usage applicatifs et les contraintes réglementaires (rétention, anonymisation, traçabilité). Élaborer la stratégie de sauvegarde, restauration et gestion des incidents (playbooks, tests de restauration). Sécurité et conformité Définir et implémenter les mécanismes de sécurité : chiffrement at-rest et in-transit , gestion des clés (BYOK / Azure Key Vault), contrôle d’accès (RBAC, LDAP/AD, IAM), audit et journalisation. Garantir la conformité PDP / RGPD des données et des traitements. Intégration et performance Piloter l’intégration technique avec les pipelines ETL/ELT , les solutions de streaming ( Kafka , Azure Data Factory , Functions , iPaaS , etc.). Optimiser la performance : indexation, sharding, agrégations, profiling, tuning des requêtes et gestion de la charge. Observabilité et supervision Mettre en place les pratiques d’observabilité : alerting, dashboards, métriques et logs centralisés via Grafana , Zabbix , Azure Monitor ou équivalents. Intégrer MongoDB avec les outils de visualisation Grafana et Power BI (connecteurs, sécurité, gouvernance des accès). Projet et documentation Participer aux phases projet : ateliers d’architecture, proof of concept, accompagnement en RUN (SLA, runbooks, transfert de compétences). Rédiger les livrables techniques : architecture cible, schémas de données, règles de sécurité, runbooks, plans de tests et documents d’exploitation. Compétences techniques requises Base de données & Cloud Expertise MongoDB Atlas : déploiement, configuration, sécurité, scaling, sharding, sauvegarde/restore, performance tuning. Très bonne connaissance d’ Azure : VNet, ExpressRoute/VPN, Managed Identities, Azure Key Vault, Azure AD, Storage, Log Analytics. Développement & intégration Maîtrise des drivers MongoDB (Java, Node.js, .NET, Python selon la stack applicative). Connaissance des principes de data modelling NoSQL : embedding vs referencing, patterns de consultation, conception pour volumes variables. Expérience avec les outils d’intégration et ingestion : Azure Data Factory , Kafka , SnapLogic , Functions . Sécurité & conformité Chiffrement, BYOK, IAM, RBAC, audit, conformité PDP/RGPD . Observabilité & reporting Monitoring MongoDB, alerting, dashboards ( Grafana , Zabbix , Azure Monitor ). Intégration MongoDB ↔ Power BI / Grafana (connecteurs, APIs, performances). DevOps Bonnes pratiques Infrastructure as Code : Terraform , ARM , Bicep . CI/CD et tests automatisés pour les déploiements. Notions de DevSecOps appréciées.
Offre d'emploi
Chef de projet SAP SD/MM
Au sein de la DSI, vous intégrez le pôle BackOffice, sur le domaine Gestion commerciale. Vous allez évoluer dans un contexte de transformation majeure de notre SI avec l’arrivée de SAP en remplacement de nos 3 ERPs actuels et de la mise en place de plusieurs référentiels (produits, site…) La mission proposée repose sur 2 attendus : Dans le cadre de cette transformation, de nombreux outils périphériques à l’ERP évoluent et pour certains voient le jour. Ces briques vont dialogués par des interfaces (ITF), à ce jour, nous identifions plus de 500 interfaces dont 200 sur le domaine Gestion commerciale. Le candidat renforcera l’équipe en charge de la réalisation et la qualification de ces dernières. La mission consiste à : Mettre en place les ITF avec l’ERP SAP Rédiger les spécifications techniques à partir des spécifications des AMOA SAP Animer leur avancement pour garantir le respect du planning Valider le plan d’ordonnancement des traitements Compléter les cas de tests et réaliser la recette technique Participer à la rédaction la documentation des ITF en vue de leur exploitation Participer aux Cut Over Plan: Valider leur bonne intégration dans les plans de bascule S’assurer de la bonne cohérence des interfaces et de leurs règles de gestion vis-à-vis des programmes de chargement prévus dans le cadre des dry runs, Participer à la mise en production de SAP en s’assurant de la bonne livraison de ces interfaces en production, et de leur bonne mise en exploitation. Compétences requises Connaissance de SAP SD/MM indispensable (API, iDoc, CDS View) Maitrise des bases de données et du langage SQL Connaissance de l’ETL TALEND est en plus Savoir exploiter et interpréter les données Rigueur, persévérance Savoir alerter
Mission freelance
Développeur·se Senior Décisionnel
CONTEXTE EXPERIENCE : 5 ans et plus Métiers Fonctions : Etudes & Développement Lead Tech Spécialités technologiques : ETL Secteurs d'activités Administration Publique Au sein d’une direction numérique regroupant une soixantaine de collaborateurs, le consultant interviendra sur des projets décisionnels stratégiques. L’équipe accompagne plusieurs métiers dans la construction, l’évolution et la maintenance de produits data et BI, au service d’organisations publiques et de leurs partenaires. La mission vise à renforcer les équipes existantes et à garantir la pérennité des solutions décisionnelles, tout en participant à la création de nouveaux composants transverses. Rôle et responsabilités - Concevoir, maintenir et faire évoluer le système décisionnel complet (de l’ingestion des données à la restitution). - Assurer le développement ETL via Talend Studio, selon les patrons de conception en vigueur. - Créer et maintenir les rapports et tableaux de bord via Superset, Business Objects ou outils équivalents. - Garantir la qualité logicielle : tests unitaires, d’intégration et de non-régression, selon les principes du TDD. - Gérer les mises à jour et migrations de versions (Talend, bases de données). - Participer à la mise en place des pipelines CI/CD et à la gestion des versions via Git et Talend Administration Console. - Contribuer à la modélisation décisionnelle (Datastore, DataStage, Datawarehouse) et à l’historisation des données. - Participer activement aux cérémonies Agiles et aux comités techniques de la Dev Team. Environnement technique - ETL / Intégration : Talend Studio 8 - Bases de données : PostgreSQL, PostGIS, Oracle - Reporting / BI : Superset, Business Objects, Metabase - CI/CD : Git, Talend Administration Console Expertise souhaitée Expérience confirmée en développement décisionnel, avec une maîtrise des outils suivants : - ETL / Intégration : Talend Studio (v8 souhaitée) - Bases de données : PostgreSQL, PostGIS, Oracle - Reporting / BI : Superset, Business Objects, Metabase - CI/CD et versioning : Git, Talend Administration Console - Solides compétences en SQL et en modélisation décisionnelle. - Expérience dans la mise en place et la maintenance d’ETL et d’univers décisionnels. - Capacité à évoluer dans un contexte Agile, à collaborer étroitement avec les autres développeurs et à partager les bonnes pratiques. - Autonomie, rigueur, curiosité et goût pour la qualité logicielle.
Offre d'emploi
Développeur Data (Bordeaux)
En tant que Développeur, et en coordination avec l’équipe, vos missions seront de : Développer et maintenir des pipelines de traitement de données (batch ou temps réel) Intégrer, transformer et charger des données depuis différentes sources (APIs, bases de données, fichiers, flux, etc.) Concevoir et optimiser des jobs ETL/ELT pour alimenter les environnements analytiques (Data Lake, Data Warehouse) Implémenter les logiques de nettoyage, d’enrichissement et de validation des données Participer à la modélisation des structures de données pour répondre aux besoins métiers et analytiques Assurer la performance, la fiabilité et la scalabilité des traitements de données Automatiser les processus de collecte et de transformation via des scripts et outils d’orchestration (Airflow, Azure Data Factory, etc.) Collaborer avec les Data Scientists, Data Analysts et les équipes DevOps pour garantir la disponibilité et la qualité des données Surveiller et corriger les anomalies dans les flux de données Rédiger la documentation technique des pipelines et des processus mis en place
Offre d'emploi
Développeur PL/SQL (H/F)
Intégré(e) à nos équipes sur notre Factory ou chez nos clients, vous interviendrez sur un projet de développement PL/SQL. Vos missions ? - Concevoir, développer et optimiser des requêtes et des scripts PL/SQL sur des bases de données Oracle. - Rédiger et maintenir la documentation technique des développements réalisés. - Assurer la performance et l'optimisation des requêtes SQL. - Participer à l'analyse des besoins des utilisateurs et proposer des solutions techniques adaptées. - Assurer la maintenance corrective et évolutive des applications en lien avec les bases de données. - Effectuer des tests et valider les développements. La stack technique : Maîtrise du langage PL/SQL et des bases de données Oracle. Connaissance des performances et de l'optimisation des bases de données. Connaissance des outils ETL et reporting
Offre d'emploi
Développeur senior
Contexte de la mission et équipe Le développeur expérimenté sera intégré à une équipe produit dédiée à la gestion du cycle de vie de la commande, incluant les périmètres de l’annulation, des retours et du SAV. L’équipe est composée de profils techniques expérimentés : 4 développeurs et un lead dev. Enjeux du projet / périmètre (objectifs stratégiques ou opérationnels) Amélioration de la qualité des livrables : souci de la qualité du code (tests unitaires, revues de code, respect des bonnes pratiques). Amélioration des pratiques de testing au sein de l’équipe de dev. Amélioration du produit et du stack technique. Sortie du Legacy.
Offre d'emploi
Data Engineer (Bordeaux)
En tant que Data Engineer, et en coordination avec l’équipe, vos missions principales seront de : Concevoir, développer et maintenir des pipelines de données robustes et scalables (ETL / ELT) Intégrer et transformer des données issues de sources variées (APIs, bases SQL/NoSQL, fichiers, flux temps réel, etc.) Assurer la qualité, la cohérence et la fiabilité des données tout au long de la chaîne de traitement Participer à la modélisation et à l’optimisation des architectures data (Data Lake, Data Warehouse, etc.) Collaborer étroitement avec les Data Scientists, Data Analysts et les équipes métier pour répondre à leurs besoins en données Mettre en place des bonnes pratiques de développement, de versioning et d’automatisation (CI/CD, monitoring, tests, documentation) Contribuer à la sécurisation, la gouvernance et la conformité des données (RGPD, gestion des accès, traçabilité) Optimiser les performances des traitements et la consommation des ressources cloud Participer à la veille technologique et proposer des améliorations continues sur les outils et les architectures data
Mission freelance
Consultant DATA SSIS
Boostez votre carrière DATA ! Mettez à profit votre expertise DATA pour accompagner une organisation en pleine transformation digitale dans un projet stratégique de refonte de son architecture décisionnelle. Vous rejoindrez une équipe dynamique au sein de la DSI, dans un service dédié à la gestion et à la valorisation des données, au cœur des enjeux de reporting et d’alimentation des outils métiers. Vos missions principales : Concevoir et mettre en œuvre un nouveau datawarehouse et des datamarts Développer les flux d’alimentation via SSIS et les scripts TSQL Concevoir les modèles de données et les tables associées Rédiger les spécifications techniques et la documentation projet Assurer le support lors des phases de recette et mises en production Profil recherché : Bac+5 en informatique ou équivalent Minimum 7 ans d’expérience en environnement décisionnel Maîtrise de : Microsoft SQL Server / TSQL Procédures stockées / Modélisation en étoile ETL : Microsoft SSIS Une connaissance de Power BI est un plus Qualités attendues : Autonomie, rigueur, sens des priorités Capacité d’initiative, bon relationnel, esprit d’équipe Informations complémentaires : Localisation : Bordeaux centre Télétravail : 2 jours par semaine Durée de mission : Long terme TJM : Selon profil Démarrage : ASAP
Offre d'emploi
Développeur GCP expérimenté (H/F)
🎯 Missions principales Concevoir et développer des applications cloud-native sur GCP. Définir, implémenter et documenter des API performantes et sécurisées (REST, microservices). Garantir la continuité des processus métiers lors de la refonte ou de l’évolution applicative. Participer à la structuration et au traitement des flux de données (intégration, ETL, BigQuery). Collaborer avec les équipes produit et IT pour transformer les besoins en solutions techniques. Assurer la qualité du code et la maintenabilité (tests, revues de code, CI/CD). Participer aux choix techniques et contribuer à l’amélioration continue des pratiques.
Offre d'emploi
Expert Power BI (H/F)
Définir l’architecture des solutions Power BI, modéliser les données (modèle en étoile, Power Query, DAX) et concevoir des tableaux de bord performants. Mettre en place les bonnes pratiques de gouvernance Power BI (Workspaces, accès, partages, cycle de vie) Interagir avec les métiers pour comprendre les besoins, les challenger et les traduire en solutions techniques robustes.Analyser et recueillir les besoins des clients Rédiger les spécifications fonctionnelles et techniques Concevoir des datawarehouses et des datamarts Développer des procédures d’alimentation (ETL) et/ou de reporting Réaliser les phases de test et de recette Assurer le suivi et la mise en production Rédiger la documentation technique Animer des sessions de formation auprès des utilisateurs
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.