Trouvez votre prochaine offre d’emploi ou de mission freelance ETL (Extract-transform-load) à Paris

Votre recherche renvoie 37 résultats.
Freelance

Mission freelance
Consultant Senior – Audit & Roadmap

Publiée le
Audit
Business Analysis
Intelligence artificielle

3 mois
Paris, France
Description de la mission Dans le cadre d’un programme d’optimisation opérationnelle, un client confidentiel du secteur de l’énergie souhaite identifier, qualifier et hiérarchiser des opportunités d’automatisation de ses processus métier. La mission consiste à réaliser un audit complet des processus au sein de plusieurs directions, telles que la logistique, le service client, le commerce, l’administration des ventes (ADV), et autres départements. L’objectif est de déterminer leur potentiel d’automatisation en s’appuyant sur les technologies modernes, notamment : Intelligence Artificielle (IA) Robotic Process Automation (RPA) Interfaces et intégrations inter-systèmes (API, ETL, connecteurs, automatisations hybrides) Le consultant agira en tant qu’intermédiaire entre les métiers et les équipes techniques, avec pour but de transformer les irritants opérationnels en cas d’usage automatisables, mesurables et rentables. Exemples de périmètre fonctionnel Logistique : gestion des stocks, traçabilité, optimisation des itinéraires Service client : traitement des demandes, support, escalades Commerce : gestion des commandes, tarification, négociations ADV : facturation, édition de documents, rapprochements Autres métiers : périmètre adaptable selon les besoins spécifiques Démarche attendue La mission s’organise en quatre phases : Phase 1 – Découverte & cartographie (S1-S2) Observation sur le terrain et ateliers avec les métiers Cartographie des workflows existants et identification des premiers candidats à l’automatisation Recensement des systèmes d’information impliqués (ERP SAP, CRM, applicatifs métiers, Excel, etc.) Phase 2 – Analyse approfondie (S3-S4) Mesure des indicateurs de référence : volumes, fréquence, temps de traitement, taux d’erreur Identification des irritants, points de friction et causes d’inefficacité Phase 3 – Évaluation de l’automatisabilité (S5-S6) Priorisation des processus via une matrice d’impact, de complexité et de ROI Estimation des gains potentiels : temps, amélioration de la qualité, réduction d’erreurs, libération de capacités (FTE) Recommandations technologiques : IA, RPA, interfaces ou solutions hybrides Évaluation de la complexité, des dépendances et des risques Phase 4 – Roadmap & recommandations (S7-S8) Elaboration d’un plan d’automatisation hiérarchisé Propositions détaillées pour 3 à 5 processus prioritaires Recommandations pour la gouvernance, le suivi et les indicateurs de performance (KPI)
Freelance
CDI

Offre d'emploi
Développeur Fullstack

Publiée le
API REST
React

3 ans
40k-45k €
300-500 €
Paris, France
Télétravail partiel
Compétences techniques JavaScript & TypeScript : maîtrise des concepts modernes (async/await, modules, types, generics) > Niveau 1 junior Frameworks : Angular ou React en production ; NestJS pour la couche API > Niveau 1 junior Bases de données : • MongoDB : schémas, indexation, agrégations, performance > Niveau 1 junior • SQL : modélisation relationnelle, requêtes optimisées, transactions > Niveau 1 junior Architecture : REST/GraphQL, MVC/CQRS, injection de dépendances, design patterns. > Niveau 1 junior Tests & qualité : TDD/BDD (souhaité), couverture de code, linting (ESLint/Prettier)> Niveau 1 junior Sécurité : authentification, autorisation, validation, protection contre les attaques courantes (XSS/CSRF/Injection) > Niveau 1 junior Python (complémentaire) : scripts data, API légères (FastAPI/Flask), ETL (Pandas).> Niveau 1 junior Performance : profiling, optimisation front/back, mise en cache (Redis). > Niveau 1 junior CI/CD : pipelines, déploiements, gestion des environnements. > Niveau 1 junior
Freelance

Mission freelance
Site Reliability Engineer

Publiée le
Ansible
Azure
Git

12 mois
Paris, France
Télétravail partiel
Compétences techniques : Définir et implémenter des mécanismes de monitoring et d’alerting permettant de détecter les dysfonctionnements à tous les niveaux (front-end, backend, ETL, data quality, connectivité) AWS : Prometheus, Cloudwatch (Logs, Metrics, Application Signals, Synthetics), PromQL, X-Ray, AWS Firewall Azure : Azure Monitor, KQL, Application Insights, Container Insights, Log Analytics Google Cloud Observability (metrics, cloud monitoring) Grafana : Contribuer à la résilience des applications en implémentant et testant des mécanismes de sauvegarde des données et de restauration des applications : bonne connaissance et expérience des mécanismes de sauvegardes natifs AWS et Azure pour les bases de données, datalake, stockage blob. Implémenter des scénarios de Chaos Engineering (type Chaos Monkey) sur les environnements de production sur Azure et AWS. Mise en place de Disaster Recovery Plan et participation à l’implémentation et aux tests des mécanismes associés (pipelines de déploiement, restauration de données à partir de sauvegarde, etc.). Travailler sur l’optimisation de la gestion des incidents pour réduire le MTTR : détection, notification aux utilisateurs et suivi, outils d’analyse (logging). Mettre en place des solutions techniques d’AIOps pour améliorer l’observabilité, la résilience et la gestion des incidents dans le groupe. Implémenter et utiliser des agents IA capables d'identifier les améliorations relatives à la fiabilité à mettre en place sur les projets, de détecter les dysfonctionnements et de résoudre les pannes. Contribuer à améliorer la fiabilité des produits par la promotion auprès des équipes de bonnes pratiques SRE. Soft skills : Aisance relationnelle et capacité de communiquer en anglais et en français à l’écrit et à l’oral. Capacité de présenter et expliquer des architectures techniques. Autonomie. Conditions : Télétravail possible : 2 jours par semaine. Locaux : une grande ville métropolitaine.
Freelance

Mission freelance
PRODUCT OWNER (DATA SUPPLY)

Publiée le
Snowflake

12 mois
560 €
Paris, France
Télétravail partiel
CONTEXTE Intégration chez un grand groupe Retail international. Le PO évoluera dans une équipe Data d’environ 30 personnes structurée par domaines. Rattachement direct au Lead PO Data Supply / Operations. Objectif : piloter la vision, la roadmap et la valeur produit Data sur les périmètres Supply, Operations et Planning. ENVIRONNEMENT TECHNIQUE – Maîtrise avancée du SQL (analyse et manipulation de gros volumes). – Stack technologique : – Snowflake (Data Warehouse cloud) – Matillion pour l'ETL, évolution prévue vers DBT – QlikSense (reporting & visualisation) ENVIRONNEMENT FONCTIONNEL Le PO intervient sur des sujets Data stratégiques liés au Demand Planning, aux opérations retail et à la supply. Responsabilités principales : – Définition des parcours utilisateurs et construction des KPIs clés. – Rédaction de spécifications fonctionnelles pour Data Engineers et Data Analysts. – Gestion et mise à jour du Data Catalog sur le périmètre confié. – Garantie du design produit, cohérence globale et qualité des livrables. Cadre méthodologique : – Organisation Agile, sprints de 3 semaines – Outils : JIRA, Confluence Attentes fortes : capacité à challenger le métier, proposer de la valeur, structurer un produit cohérent. PROFIL RECHERCHÉ – Au moins 8 ans d’expérience dans la Data, dont 4 ans en tant que Product Owner ou Chef de Projet Data. – Solide connaissance du Retail, notamment des enjeux Supply, Planning et opérations. – Qualités clés : – Autonomie, prise de décision – Leadership naturel, capacité à fédérer – Excellente capacité d’analyse – Esprit critique, force de proposition
Freelance

Mission freelance
PRODUCT OWNER DATA SUPPLY

Publiée le
Snowflake

12 mois
560 €
Paris, France
Télétravail partiel
CONTEXTE Intégration chez un grand groupe Retail international. Le PO évoluera dans une équipe Data d’environ 30 personnes structurée par domaines. Rattachement direct au Lead PO Data Supply / Operations. Objectif : piloter la vision, la roadmap et la valeur produit Data sur les périmètres Supply, Operations et Planning. ENVIRONNEMENT TECHNIQUE – Maîtrise avancée du SQL (analyse et manipulation de gros volumes). – Stack technologique : – Snowflake (Data Warehouse cloud) – Matillion pour l'ETL, évolution prévue vers DBT – QlikSense (reporting & visualisation) ENVIRONNEMENT FONCTIONNEL Le PO intervient sur des sujets Data stratégiques liés au Demand Planning, aux opérations retail et à la supply. Responsabilités principales : – Définition des parcours utilisateurs et construction des KPIs clés. – Rédaction de spécifications fonctionnelles pour Data Engineers et Data Analysts. – Gestion et mise à jour du Data Catalog sur le périmètre confié. – Garantie du design produit, cohérence globale et qualité des livrables. Cadre méthodologique : – Organisation Agile, sprints de 3 semaines – Outils : JIRA, Confluence Attentes fortes : capacité à challenger le métier, proposer de la valeur, structurer un produit cohérent. PROFIL RECHERCHÉ – Au moins 8 ans d’expérience dans la Data, dont 4 ans en tant que Product Owner ou Chef de Projet Data. – Solide connaissance du Retail, notamment des enjeux Supply, Planning et opérations. – Qualités clés : – Autonomie, prise de décision – Leadership naturel, capacité à fédérer – Excellente capacité d’analyse – Esprit critique, force de proposition
CDI

Offre d'emploi
Data Engineer – Intégration & Cloud (GCP / BigQuery / Talend)

Publiée le
API REST
BigQuery
Microsoft Power BI

40k-45k €
Paris, France
Nous recherchons un Data Engineer pour intervenir sur un projet stratégique d’intégration et de valorisation de données au sein d’un environnement Cloud moderne. Le consultant interviendra sur la création, l’optimisation et la maintenance de pipelines data entre plusieurs plateformes internes, avec un fort niveau d’autonomie technique. Concevoir, développer et maintenir des flux de données entre différentes sources (API REST, Cloud, bases SQL). Mettre en place des traitements d’ingestion, transformation, normalisation et contrôle qualité des données. Développer et optimiser des pipelines dans GCP / BigQuery . Construire et maintenir des jobs Talend pour l’intégration et l’automatisation des traitements. Automatiser et industrialiser les workflows via des scripts Shell / Bash . Contribuer à la création et à l’optimisation de dashboards Power BI (KPI, dataviz). Garantir la qualité, la performance et la conformité des données. Documenter les flux, rédiger les spécifications et collaborer avec les équipes métiers et techniques. Versionner les développements via GitLab et respecter les bonnes pratiques CI/CD.
Freelance
CDI

Offre d'emploi
Expertise COGNOS

Publiée le
Ansible
Cognos
DevOps

24 mois
52k-57k €
460-500 €
Paris, France
Télétravail partiel
OFFRE DE MISSION – EXPERT INFRASTRUCTURE MIDDLEWARE / COGNOS Objectif global Améliorer la solution COGNOS Contexte de la mission Gère et administre les systèmes de l’application Cognos de l'entreprise, en assure la cohérence, la qualité et la sécurité. Participe à la définition et à la mise en œuvre des environnement retenus par les projets. Intervient en tant qu'expert sur les infrastructures Middleware et les progiciels dans le cadre de projets IT. Missions principales Prend en charge le maintien en conditions opérationnelles des offres relatives aux technologies Cognos. Traite les incidents et problèmes pouvant survenir sur les plates-formes. Fiabilise et optimise le fonctionnement des infrastructures en anticipant les évolutions de capacité et de performance. Contribue à la mise en œuvre des solutions de continuité et participe aux tests de back up. Documente les configurations et rédige les consignes destinées aux supports niveaux 1 et 2. Réalise les déploiements des bases de données dans le cadre des projets techniques et métier. Travaille en relation étroite et permanente avec les équipes de production et Infrastructures et Sécurité. Contribue aux projets d'évolution des environnements lié aux offres Cognos. Administrer les systèmes de gestion de données/référentiel de l'entreprise. Exploite les environnements notamment en assurant leur intégrité, en réglant leurs paramètres et en mettant en œuvre les outils de surveillance. Effectue un support technique. Effectue l'adaptation, l'administration et la maintenance des logiciels lié aux offres Cognos. Crée, à la demande des domaines ou de l'exploitation, les outils spécifiques d'aide à l'exploitation. Assure l'intégrité des offres existants en garantissant la sécurité physique (procédures de sauvegarde, restauration, journalisation, démarrage après incident ?) et logique (confidentialité, accès). Met en œuvre les outils de surveillance. Règle les paramètres des applications Cognos pour une utilisation optimale. Suit et contrôle les évolutions de versions retenues par l'entreprise. Définit les normes et standards d'utilisation et d'exploitation des offres Cognos. Interventions en production et expertise Prend en charge des actions à forte valeur ajoutée technique en production, notamment lors d'incidents et de problèmes complexes. Assure le bon fonctionnement des infrastructures en veillant à leur disponibilité et à la correction des incidents. Participe à la gestion et à l'exploitation des composants techniques, en intégrant les principes de qualité, de productivité et de sécurité. Collabore avec les experts d'autres domaines (réseau, sécurité, systèmes) pour garantir une approche intégrée et cohérente des infrastructures. Architecture & ingénierie Participe à la définition d'architectures techniques adaptées aux besoins des projets, en veillant à la cohérence et à l'optimisation des solutions proposées. Réalise la conception technique (design) pour la mise en oeuvre des infrastructures Middleware et des progiciels, en tenant compte des besoins spécifiques des projets. Assurer l'ingénierie d'installation et de paramétrage des plateformes techniques, simples ou complexes, et coordonne les intervenants impliqués. Participe à des études d'opportunité et réaliser des analyses détaillées pour éclairer les décisions stratégiques concernant les évolutions technologiques. Définit et met en oeuvre les méthodes et outils nécessaires à la qualification des infrastructures et à l'application des normes en vigueur. Astreinte Assure une astreinte sur le périmètre ETL / BI (windows/linux) Livrables attendus Dossier d'architecture Procédure d'exploitation destiné aux clients Compétences requises Compétences techniques : Cognos - Expert - Impératif iis - Confirmé - Impératif devops - Confirmé - Souhaitable ansible - Confirmé - Serait un plus Connaissances linguistiques : Anglais Professionnel (Impératif)
CDI

Offre d'emploi
 Ingénieur Big Data / Bases de Données

Publiée le
AWS Cloud
BigQuery
Cassandra

40k-54k €
Paris, France
Télétravail partiel
Redlab cherche pour le compte d'un client grand compte , un ingénieur big Data /bases de données Expert des architectures data : bases de données SQL & NoSQL, Big Data, pipelines, gouvernance, performance, sécurité. Missions clés Administrer et optimiser bases SQL & NoSQL. Concevoir pipelines ETL/ELT sur données hétérogènes. Travailler sur Hadoop, Spark, Hive, Delta Lake. Mettre en place partitionnement, Mettre en place sharding, caches. Déployer en cloud (AWS/Azure/GCP). Forte maitrise des Bases de données
Freelance

Mission freelance
Senior Consultant Data & AI / Data Product Factory

Publiée le
Database

3 mois
400-650 €
Paris, France
Télétravail partiel
Hello , Pour le compte de l'un de mes clients dans le secteur du luxe, je suis à la recherche d'un Consultant Data & AI / Data Product Factory Senior. Contexte & Enjeux du poste : Dans un contexte de forte accélération des usages Data & IA, nous accompagnons nos clients (grands comptes et ETI) dans la structuration de leurs capacités Data & AI afin de créer de la valeur métier à travers des Data Products industrialisés. Le Senior Consultant Data & AI interviendra auprès des directions Data, IT et Métiers pour : Définir des cibles Data & AI Concevoir et déployer des Data Factories orientées produit Accompagner la transformation organisationnelle, technologique & méthodologique Missions principales : 1. Conseil & Cadrage stratégique Accompagner les clients dans la définition de leur stratégie Data & AI Identifier les cas d’usage à valeur et les transformer en Data Products Réaliser des diagnostics de maturité Data & AI Définir des roadmaps Data alignées avec les enjeux business 2 Mise en place de Data Factory orientée Data Products Concevoir des modèles de Data Factory (organisation, processus, gouvernance) Mettre en place une approche Data Product (Data Mesh / Product Thinking) Définir les rôles clés : Data Product Owner, Data Engineer, Analytics Engineer, Data Scientist, Platform Team Accompagner la mise en œuvre des rituels agiles, du delivery et de la priorisation 3. Architecture & Solutions Data & AI Cadrer et challenger les architectures Data modernes Cloud Data Platform (AWS, Azure, GCP) Lakehouse, Data Warehouse, Streaming Contribuer au choix et à la mise en place des solutions : ETL / ELT BI & Analytics Machine Learning & IA Garantir les bonnes pratiques : Qualité des données Sécurité Gouvernance MLOps / DataOps 4. Accompagnement du changement & montée en maturité Accompagner les équipes client dans la prise en main des nouveaux modèles Former et coacher les équipes Data et Métiers Contribuer à l’adoption des usages Data & IA Participer à la structuration de centres de compétences Data
Freelance

Mission freelance
Data Engineer Advanced (Scala / Spark / AWS)

Publiée le
Apache Spark
AWS Cloud
AWS Glue

1 an
Paris, France
Télétravail partiel
Contexte Nous recherchons un Data Engineer confirmé à senior pour intervenir au sein d’un grand groupe international du secteur de l’énergie . La mission s’inscrit dans un environnement data critique , lié à l’exploitation de données de marché et à la production d’indicateurs et d’alertes à forte valeur métier. Le système cible repose sur une architecture batch Big Data structurée selon une architecture médaillon (Silver / Gold) , avec ingestion multi-sources, normalisation, calculs avancés et distribution des données vers différents consommateurs métiers. Localisation : Paris (hybride) Durée : 12 mois renouvelables (jusqu’à 3 ans) Objectifs de la mission Concevoir et développer des pipelines d’ingestion et de transformation en Scala Spark Traiter, dédoublonner, normaliser et structurer des données de marché Refactoriser des imports existants afin de les rendre conformes à l’architecture médaillon Silver layer : données dédoublonnées, normalisées et structurées Gold layer : génération d’agrégats métiers (carnets d’ordres, best bid/ask, OHLC, etc.) Implémenter et challenger les règles métier en garantissant les performances, la scalabilité et la maîtrise des coûts cloud Mettre en place et maintenir les règles de Data Quality (ex. Great Expectations) et contribuer au data catalog Participer à l’amélioration des frameworks communs : monitoring, CI/CD, tests, performance, résilience et standards de développement Rédiger et maintenir la documentation technique (architecture, flux, schémas, infrastructure) Environnement technique ETL / Compute : Scala, Spark (batch) Cloud AWS : Glue Jobs, S3, Lambda, Step Functions Qualité des données : Great Expectations ou équivalent DevOps / CI-CD : Git, pipelines, bonnes pratiques d’industrialisation Environnement applicatif connexe : API REST, services backend Compétences complémentaires appréciées : Python, React Important : cette mission ne s’appuie pas sur des solutions managées de type Databricks. Compétences requisesIndispensables Minimum 5 ans d’expérience significative en Scala et Spark Expérience confirmée sur des projets Big Data / ETL à forte volumétrie Expérience pratique sur AWS (Glue, S3, orchestration) Bonne culture DevOps Autonomie, rigueur, capacité à être force de proposition Appréciées Python Développement API Connaissances de base en market data / trading (non bloquant) Process de sélection Entretien Teams de 30 minutes axé sur les expériences professionnelles Entretien Teams d’une heure axé sur les compétences techniques avec un Data Engineer de l’équipe Modalités de réponse Merci de transmettre : CV, disponibilité, TJM, localisation et un résumé des expériences Scala / Spark / AWS Glue .
Freelance
CDI
CDD

Offre d'emploi
Développeur .NET / Azure

Publiée le
.NET
.NET CORE
Azure

2 ans
Paris, France
Télétravail partiel
Description de la mission : Vous rejoignez l’équipe Referential pour travailler sur le projet qui consiste à migrer une application existante d’une plateforme On-Premise vers Microsoft Azure . Ce projet inclut également la connexion à un nouveau fournisseur de données , avec la mise en place des flux d’alimentation pour nos référentiels (instruments financiers, émetteurs, données extra-financières, etc.). Vous collaborerez de manière transverse avec les équipes IT et Business. Vos responsabilités : Développer les nouveaux composants applicatifs. Garantir la cohérence technique des modules et appliquer les bonnes pratiques (qualité du code, tests unitaires, modèles de données). Rédiger les spécifications techniques et documents d’architecture en collaboration avec le Business Analyst. Planifier et estimer les travaux, identifier les risques et points de blocage. Travailler avec les équipes Infrastructure pour définir et mettre en place l’environnement Azure. Tester et déployer l’application sur Azure, corriger les anomalies. Accompagner la phase de validation (UAT et production) et assurer la qualité des livrables. Effectuer les tests sur les outils/modules développés. Profil recherché : Formation : Bac+5 (école d’ingénieur ou équivalent). Expérience : 5+ ans en développement informatique. Expertise en Azure , .NET 8 , C# , Blazor WebAssembly/Server App . Développement d’API REST, ETL, batchs et services. Conception et développement de modèles et bases de données. Maîtrise des pratiques DevOps, qualité du code (Sonar), automatisation des tests (un plus). Expérience en environnement agile (SCRUM). Langues : Français et anglais courants. Atouts : Connaissance des produits financiers et des référentiels, intérêt pour la data.
CDI

Offre d'emploi
Lead Data Engineer

Publiée le
Python

60k-80k €
Paris, France
Télétravail partiel
Lead Technique Data Missions En tant que Lead Technique Data , vous collaborez étroitement avec des data engineers , data scientists et des équipes transverses (DevOps, IoT, logiciel). Votre mission principale consiste à concevoir, maintenir et optimiser une plateforme de données au cœur des projets d’IA. 1. Gestion et optimisation de la plateforme de données Normaliser et structurer les données : homogénéisation des formats, conception d’ontologies, mise en place de bonnes pratiques garantissant qualité et cohérence. Améliorer continuellement la plateforme : sécurité, scalabilité, optimisation des coûts, supervision et traçabilité. Mettre en œuvre la gestion de versions des données afin d’assurer une traçabilité complète, indispensable dans un contexte de dispositifs médicaux. 2. Développement de pipelines de transfert de données Concevoir et maintenir des pipelines ETL automatisés pour l’ingestion, le nettoyage et la transformation de données de santé. Garantir le respect des exigences RGPD : anonymisation, pseudonymisation et documentation complète des processus. Collaborer avec les équipes métiers pour intégrer de nouvelles sources de données et faire évoluer les pipelines. 3. Facilitation de l’accès aux données pour les data scientists Créer et gérer des datasets versionnés permettant des expérimentations reproductibles. Assurer des transferts de données volumineuses rapides, sécurisés et fiables. Adapter la plateforme aux besoins des data scientists : formats, structuration, enrichissement des métadonnées et support technique. 4. Automatisation et leadership technique Maintenir et améliorer les pipelines CI/CD pour des déploiements robustes et sécurisés. Déployer des outils de supervision (tableaux de bord, alertes) pour assurer la stabilité des pipelines. Industrialiser les déploiements des infrastructures data. Apporter un leadership technique : cohérence architecturale, accompagnement des profils plus juniors, revues de code et diffusion des bonnes pratiques. L’équipe Data intervient de manière end-to-end : recueil des besoins, architecture, développement, QA, sécurité, déploiement et opérations, avec une réelle liberté technologique. Compétences et expérienceCompétences techniques Programmation : Python (avancé), Git / GitLab CI. Cloud & Big Data : AWS (API Gateway, Cognito, Lambda, S3, SageMaker, Glue, Athena, ECS), Delta Lake, Databricks. Orchestration & Infra : Airflow, Terraform. Bases de données : MongoDB et solutions de stockage à grande échelle. Standards web : API REST, protocoles HTTP/HTTPS. Compétences relationnelles Rigueur scientifique et forte capacité d’analyse. Aptitude à faire le lien entre data science, ingénierie logicielle et opérations. Capacité à produire une documentation technique claire et conforme aux exigences réglementaires. Expérience Minimum 7 ans d’expérience en ingénierie data, dont 2 ans ou plus sur un rôle senior ou de responsabilité technique. Bonne compréhension des enjeux de cybersécurité et de conformité réglementaire , en particulier pour les données de santé. Maîtrise de l’ anglais technique dans un environnement international. Atouts appréciés (optionnel) MLOps : orchestration, déploiement et supervision de pipelines ML. Connaissance des processus de certification CE / FDA pour logiciels ou algorithmes. Expérience avec des données de santé : signaux électrophysiologiques (EEG, ECG, EMG) ou données cliniques. Infrastructure : Linux, conteneurisation (Docker, registres d’images). Lieu de la mission: Paris TT: 3 jours
CDI

Offre d'emploi
Data Engineer - CDI

Publiée le
Azure
Databricks
DBT

Paris, France
Télétravail partiel
L'ENTREPRISE La fabrique Vingtcinq accompagne depuis 2010, les ETI et grands comptes de l’industrie et du service dans leur transformation digitale (Applications web, digitalisation des processus interne, data engineering, .. ). Vingtcinq est aujourd'hui reconnue non seulement pour la qualité d'exécution de ses développements , mais aussi pour le cadre de travail offert à ses collaborateurs . Le bien-être de notre équipe est une priorité , et chacun contribue activement à la vie de l'entreprise et à son développement . Forte de son expertise dans le développement d'outils digitaux, Vingtcinq aspire désormais à se démarquer dans le domaine de la data . Cette nouvelle Business Unit, en pleine expansion, se structure grâce à l'esprit entrepreneurial de ses membres. Pour soutenir cette croissance, nous recherchons des esprits audacieux pour rejoindre cette aventure et faire rayonner Vingtcinq sur ce nouveau secteur, pour cela, nous recherchons un(e) data engineer pour renforcer notre équipe . Tu travailleras en étroite collaboration avec l’équipe Data pour répondre aux enjeux de nos clients et développer l’offre Vingtcinq. LA MISSION Mission Principale : Data Ingestion & Transformation (70%) Créer, maintenir et optimiser des pipelines de traitement des données (ETL/ELT) pour collecter, charger, stocker, nettoyer et transformer les données brutes provenant de différentes sources (bases de données, API, fichiers, etc.). Automatiser l'intégration / l’ingestion de données (data warehouses, data lakes et lakehouses) Administrer et configurer des systèmes de stockage de données (datalake, datawarehouse ou lakehouse)(Assurer la scalabilité et la résilience des systèmes de données Travailler avec des outils et technologies pour la gestion des données à grande échelle. Optimiser la performance des base de données Garantir la qualité et l'intégrité des données Surveiller et optimiser des flux de données Mission secondaire : Visualization & technical guidance (30%) Travailler avec l’équipe Business/PM pour enrichir le brief et créer la traduction technique appropriée, être à l'aise pour parler à l'équipe business Conseils pour la résolution de problèmes : En tant qu'ingénieur de données expérimenté, fournir des conseils sur la bonne méthodologie d'implémentation technique des outils internes en accord avec l’équipe Data office Maintenir les tableaux de bord existants (améliorations) Soutenir l'effort de documentation des données en collaboration avec les responsables des données. COMPÉTENCES REQUISES Maîtrise de l’environnement Azure Environnement Cloud & Data : Azure Data Factory (ingestion, orchestration), Azure Databricks (traitements Spark), Azure Data Lake Storage Gen2 Bases de données & modélisation : Azure SQL Database, Modélisation analytique (schéma en étoile, faits/dimensions) Programmation : SQL avancé, Python (Spark, pandas), Scala (apprécié) Sécurité & gouvernance : Azure AD / IAM, Gestion des accès et des données sensibles, Data Catalog (Purview ou équivalent) Industrialisation & supervision : CI/CD : Azure DevOps ou GitHub Actions, Monitoring : Azure Monitor, Log Analytics Business Intelligence : Power BI LE PROFIL RECHERCHÉ Formation Bac+5 ou équivalent vous justifiez d’une expérience de 3 à 5 ans en tant que Data Engineer . Tu es autonome, proactif et as un excellent sens de la communication . Tu es apte à analyser les problèmes de données et à concevoir des solutions techniques adaptées . Tu recherches une structure à taille humaine , avec un fort esprit d’équipe Niveau d’ anglais avancé attendu LES PLUS DE L'OFFRE Nous avons le goût de la qualité et du travail bien fait Nous t’accompagnerons dans ta montée en compétences Chez VingtCinq, nous accordons une importance particulière à l’esprit d’équipe et au bien être de nos collaborateurs LE PROCESSUS DE RECRUTEMENT Entretien avec le DG de VingtCinq Test technique Entretien avec le Directeur Technique
CDD

Offre d'emploi
Consultant MS BI Power BI h/f

Publiée le
DAX
Microsoft Power BI
Microsoft SSIS

36 mois
Paris, France
Télétravail partiel
Pour notre client, grand compte dans le secteur de l’immobilier, vous rejoindrez l'équipe BI pour prendre en charge l'évolution et la maintenance de la plateforme décisionnelle, avec une forte composante de migration vers les outils Cloud (Azure Data Factory) et de modernisation des outils de reporting (Power BI).. Vos missions sont donc les suivantes : 1. Développement et Intégration de Données (ETL) · Migration active des packages d'intégration de données existants de SSIS (SQL Server Integration Services) vers la plateforme Cloud Azure Data Factory (ADF). · Conception et développement de nouveaux flux d'intégration de données sur la plateforme ADF. · Assurer la maintenance corrective des flux SSIS existants. 2. Reporting et Visualisation (Power BI) · Analyser et comprendre les besoins métiers détaillés afin de proposer les solutions de reporting adéquates. · Réaliser des maquettes et prototypes pour valider l'expérience utilisateur (UX) et la pertinence des futurs rapports. · Migration et/ou ré-écriture des rapports existants développés sous SSRS (SQL Server Reporting Services) vers l'outil Power BI. · Développer de nouveaux rapports et tableaux de bord performants sous Power BI. · Comprendre le modèle sémantique sous-jacent pour l'écriture de requêtes et de mesures complexes en DAX.
Freelance

Mission freelance
Expert.e Infrastructure Middleware et Progiciel F/H

Publiée le
DevOps
Informatica
Informatica PowerCenter

1 an
420-440 €
Paris, France
Télétravail partiel
METSYS est un intégrateur de solutions Cloud, Cybersécurité et Microsoft. Pour l'un de nos clients grands-comptes, de très forte renommée dans son secteur d'activité, nous recherchons un.e Expert.e Infrastructure Middleware et Progiciel F/H pour un démarrage dès que possible à Paris 13ème arrondissement. Dans un cadre de migration vers la solution CDI-PC d'informatica de notre Client, nous rechercons effectivement un.e Expert.e sur la solution Informatica qui aura les missions ci-dessous : Gèrer et administrer les systèmes de l’application Informatica PowerCenter de notre Client et en assurer la cohérence, la qualité et la sécurité ; Prendre en charge le maintien en conditions opérationnelles des infrastructures powercenter ; Traiter les incidents et problèmes pouvant survenir sur les plates-formes ; Fiabiliser et optimiser le fonctionnement des infrastructures en anticipant les évolutions de capacité et de performance ; Documenter les configurations et rédiger les consignes destinées aux supports niveaux 1 et 2 ; Travailler en relation étroite et permanente avec les équipes de production et Infrastructures et Sécurité ; Administrer les systèmes de gestion de données/référentiel de l'entreprise ; Exploiter les environnements notamment en assurant leur intégrité, en réglant leurs paramètres et en mettant en œuvre les outils de surveillance ; Effectuer un support technique de niveau 3 sur la solution ; Créer, à la demande des domaines ou de l'exploitation, les outils spécifiques d'aide à l'exploitation ; Suivre et contrôler les évolutions de versions retenues par l'entreprise. Des astreintes sur le périmètre ETL / BI (Windows/Linux) sont à prévoir sur cette mission.
Freelance

Mission freelance
TECH LEAD ( H/F)

Publiée le
Docker
Java

6 mois
400-550 €
Paris, France
Télétravail partiel
2 jour de TT TJM : 550 euros Dans le cadre d’un programme stratégique de modernisation du SI B2C , nous recherchons un consultant expert technique avec une forte connaissance du secteur Télécom pour intervenir au sein de la DSI B2C / Direction de la Modernisation du SI . 🎯 Contexte de la mission 👉 Mise en place d’une nouvelle solution de billing B2C Mobile & Fixe , basée sur ARBOR/KENAN (AMDOCS) 👉 Objectif : concevoir un système de facturation robuste et évolutif pour les 10 à 15 prochaines années 🧩 Rôle & responsabilités Le consultant interviendra en tant que référent technique et pilote du Delivery . 🔹 Pilotage du Delivery Animation et encadrement d’une équipe de 5 développeurs Estimation des charges, planification et suivi des développements Reporting et pilotage de l’avancement Garantie de la qualité, des délais et des engagements 🔹 Expertise technique Définition des architectures techniques et des outils de développement Revue de code et mise en place des bonnes pratiques Rédaction des spécifications techniques Support technique aux équipes de développement 🛠️ Compétences techniques clés ✅ Java / Backend Java 8+ (Spring Boot, Spring Data, Spring Security, Spring Cloud) JPA / Hibernate Web Services REST & SOAP Maven / Gradle Git ✅ DevOps & Cloud Docker & Kubernetes (Helm, scaling, ConfigMaps, Secrets, volumes) CI/CD & pratiques DevOps S3 Buckets ✅ Data & Middleware Bases de données : Oracle, PostgreSQL, MongoDB ETL / Apache NiFi Kafka (producers, consumers, Kafka Connect, configuration) ✅ Qualité & Tests Tests unitaires et d’intégration : JUnit, Mockito 📡 Pré-requis indispensables 🔴 Très forte connaissance du secteur Télécom 🔴 Expérience sur des systèmes de billing B2C Mobile & Fixe 🔴 Une expérience sur ARBOR / KENAN – AMDOCS est un atout majeur 🌟 Qualités personnelles Leadership et capacité à piloter une équipe Esprit d’équipe et excellent relationnel Autonomie, rigueur et sens des responsabilités Capacité à tenir des engagements dans des contextes complexes et exigeants
37 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Paris, France
0 Km 200 Km

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous