Trouvez votre prochaine offre d’emploi ou de mission freelance Data Warehouse

Votre recherche renvoie 73 résultats.
CDI

Offre d'emploi
Data Analyst / Analytics Engineer (Futur Lead Data)

Publiée le
Data analysis
Data Lake
Microsoft Power BI

45k-60k €
Paris, France
Télétravail partiel
Sublimez l’usage de la donnée au sein de la plateforme Sincro Solutions Sincro Solutions est un éditeur de logiciels SaaS qui propose un écosystème interconnecté couvrant l’ensemble des besoins des acteurs de la prestation intellectuelle. Nos solutions VMS , ERP et SRM accompagnent la gestion des talents de bout en bout : de l’analyse de CV à la facturation, en passant par la comptabilité d’entreprise et la gestion de projet. Rejoindre Sincro Solutions , c’est participer à un projet unique, intégré et 100 % agile , dans un contexte de forte croissance. Vous évoluerez dans un environnement stimulant, qui réunit les technologies, langages, infrastructures, outils et méthodes les plus performants du marché . Missions principales Rôle et positionnement En tant que Data Analyst / Analytics Engineer , vous rejoignez le pôle Produit et intégrez l’équipe technique en charge de la construction de nouvelles fonctionnalités et de l’optimisation des performances des outils mis à disposition de nos clients internes et externes. Rattaché·e à l’ Engineering Manager , vous interviendrez principalement sur le Cloud Microsoft Azure . Ce poste représente une opportunité unique de créer la fonction Data chez Sincro Solutions et d’en devenir, à terme, le Lead Data . Analytics Engineering En tant qu’Analytics Engineer, vous jouerez un rôle clé dans le développement et la gestion du Data Lake / Data Warehouse utilisé par nos produits et nos clients. Vos responsabilités incluent notamment : Assurer la qualité des données : garantir des données propres, sécurisées et anonymisées dès leur entrée dans le système, en collaboration avec les équipes Data Engineers, ML Ops et Développement. Développer et maintenir des pipelines de transformation : concevoir et maintenir des flux de données en SQL et Python , sur BigQuery ou équivalents. Vous transformerez les données générées par nos clients et les enrichirez avec des sources tierces. Améliorer et documenter les flux de données : faire évoluer les pipelines selon les besoins métiers et techniques, tout en assurant une documentation claire et à jour sur la traçabilité des données. Data Analysis Vous soutenez l’équipe Data & Performance dans l’analyse et l’exploitation des données afin de favoriser la prise de décision stratégique et la compréhension des indicateurs clés . Vos missions principales : Création et maintenance de dashboards Power BI Explorer le Sincro Data Warehouse et concevoir des KPIs pertinents . Développer et maintenir des dashboards Power BI à destination des équipes métier et des clients. Conseiller les Product Owners et les utilisateurs sur les meilleures pratiques de data visualisation . Analyse et interprétation des données Produire des reportings et analyses pour soutenir la stratégie d’entreprise. Identifier et comprendre les dynamiques métiers : recrutement, pipeline commercial, sourcing de talents, contractualisation, facturation, comptabilité, etc. Profil recherché Expérience et formation Minimum 4 ans d’expérience en data analyse ou analytics engineering. Formation Bac +5 (école d’ingénieurs, master Big Data, mathématiques/statistiques ou équivalent). Bonne compréhension des enjeux de gestion d’entreprise . Une expérience en DataOps est un réel atout. Qualités personnelles Organisé·e, rigoureux·se, curieux·se et autonome. Excellente communication écrite et orale, esprit d’équipe et aisance relationnelle. Bon niveau d’anglais (oral et écrit). Goût pour l’apprentissage et l’autoformation, notamment sur des aspects techniques. Compétences techniques Domaine Compétences attendues BI / Data Visualisation Maîtrise indispensable de Power BI SQL Solide expérience en manipulation de données ( BigQuery, MySQL, Fabric , etc.) ETL / Data Transformation Expérience avec Azure Data Factory , dbt , Dataiku ou équivalents Comptabilité & Finance d’entreprise Connaissances en analyse de données dans ces domaines appréciées Langages Bonne maîtrise de SQL , notions de Python appréciées Machine Learning Connaissances de base bienvenues Ce que nous vous offrons Une place centrale dans la construction de la culture Data chez Sincro Solutions. Un projet stimulant , à fort impact, dans un environnement technique exigeant et bienveillant. Une autonomie réelle dans l’organisation de votre travail et vos choix techniques. Des collaborateurs engagés et une équipe attachée à la qualité, à la coopération et à la montée en compétence continue.
CDI

Offre d'emploi
Data Engineer Teradata

Publiée le
DevOps
IBM DataStage
SQL

Île-de-France, France
Télétravail partiel
Contexte : Nous recherchons des développeurs Teradata pour accompagner notre client, un grand compte bancaire dans le développement d'application sur la base de puissantes plates-formes DATA. Votre environnement de travail en tant de Data Engineer TERADATA : Développement Teradata / SQL Connaissance de Unix Connaissance de Control M La connaissance de la démarche DevOps est un plus Mode de chargement dans l’entrepôt : T3R , BTEQ , Datastage Teradata Mode d’historisation dans l’entrepôt (CRI, CRE, CRO) Chargement par flux MVS (anciens chargements avec TPT MVS) Chargement par flux Big Data Suivi des chargements sous CONTROL-M Formation succincte de Collecte / alimentation de Datastage Environnement UNIX (répertoires principaux, Usage & Entrepôt) SQL sur SGBD relationnel (Teradata) Outils collaboratifs et documentaires : GIT, Jira, Confluence, MEGA, Zeenea L’environnement technique : BTEQ Teradata Datastage Datawarehouse SQL DevOps
Freelance

Mission freelance
POT8657 - Un Analyste / Développeur COBOL / DB2 sur Brunoy

Publiée le
COBOL

6 mois
250-390 €
Brunoy, Île-de-France
Télétravail partiel
Almatek recherche pour l'un de ses clients, Un Analyste / Développeur COBOL / DB2 sur Brunoy Je recherche un profil Analyste développeur MAINFRAME (COBOL / DB2) avec minimum 2 ans d’expérience. Il exécutera les missions suivantes : Développement / maintenance de requêtes DB2 : analyse des besoins, réalisation des développements, validation des résultats Exécution de traitements récurrents : suivi de procédure / mise à jour de ces procédures Interventions ponctuelles lors d’astreintes : week-end ou jours février (1 à 2 fois par an). Le poste a une dimension technique mais aussi une dimension relationnelle importante liée à l’analyse des besoins et la validation des résultats avec les demandeurs. Connaissances techniques : Le profil recherché doit maitriser le développement sur les solutions techniques suivantes : DB2, MVS, TSO, PACBASE, SPITAB, ARMIDE, MQ, RDz, RPP/RTC - expérience : 2 années minimum Programmation Cobol natif/ICONE, Pacbase - expérience : 2 années minimum Programmation SQL DB2 - expérience : 2 années minimum JCL - expérience : 2 années minimum Environnement de développement : LCM La gestion des demandes se fait via des ticket Service Now, la connaissance de cet outil est un plus. Progressivement, le poste pourrait évoluer et intégrer l’utilisation d’outils de Datavisualisation (type PowerBI) pour la réalisation de rapports basés sur le Datawarehouse. Une compétence ou un désir d’évoluer vers cette activité pourrait être un plus. Cependant non déterminant pour le cœur de la mission. Eléments pratiques Démarrage de la mission : Novembre 2025 Télétravail possible (2 jours/semaine) après une période en présentiel total et fonction du degré d’autonomie.
Freelance

Mission freelance
Développeur·se Senior Décisionnel

Publiée le
PostgreSQL

18 mois
100-400 €
Bordeaux, Nouvelle-Aquitaine
Télétravail 100%
CONTEXTE EXPERIENCE : 5 ans et plus Métiers Fonctions : Etudes & Développement Lead Tech Spécialités technologiques : ETL Secteurs d'activités Administration Publique Au sein d’une direction numérique regroupant une soixantaine de collaborateurs, le consultant interviendra sur des projets décisionnels stratégiques. L’équipe accompagne plusieurs métiers dans la construction, l’évolution et la maintenance de produits data et BI, au service d’organisations publiques et de leurs partenaires. La mission vise à renforcer les équipes existantes et à garantir la pérennité des solutions décisionnelles, tout en participant à la création de nouveaux composants transverses. Rôle et responsabilités - Concevoir, maintenir et faire évoluer le système décisionnel complet (de l’ingestion des données à la restitution). - Assurer le développement ETL via Talend Studio, selon les patrons de conception en vigueur. - Créer et maintenir les rapports et tableaux de bord via Superset, Business Objects ou outils équivalents. - Garantir la qualité logicielle : tests unitaires, d’intégration et de non-régression, selon les principes du TDD. - Gérer les mises à jour et migrations de versions (Talend, bases de données). - Participer à la mise en place des pipelines CI/CD et à la gestion des versions via Git et Talend Administration Console. - Contribuer à la modélisation décisionnelle (Datastore, DataStage, Datawarehouse) et à l’historisation des données. - Participer activement aux cérémonies Agiles et aux comités techniques de la Dev Team. Environnement technique - ETL / Intégration : Talend Studio 8 - Bases de données : PostgreSQL, PostGIS, Oracle - Reporting / BI : Superset, Business Objects, Metabase - CI/CD : Git, Talend Administration Console Expertise souhaitée Expérience confirmée en développement décisionnel, avec une maîtrise des outils suivants : - ETL / Intégration : Talend Studio (v8 souhaitée) - Bases de données : PostgreSQL, PostGIS, Oracle - Reporting / BI : Superset, Business Objects, Metabase - CI/CD et versioning : Git, Talend Administration Console - Solides compétences en SQL et en modélisation décisionnelle. - Expérience dans la mise en place et la maintenance d’ETL et d’univers décisionnels. - Capacité à évoluer dans un contexte Agile, à collaborer étroitement avec les autres développeurs et à partager les bonnes pratiques. - Autonomie, rigueur, curiosité et goût pour la qualité logicielle.
CDI
Freelance

Offre d'emploi
Data Engineer GCP

Publiée le
BigQuery
Google Cloud Platform (GCP)

6 mois
Rouen, Normandie
Télétravail partiel
Nous recherchons un(e) Data Engineer spécialisé(e) sur Google Cloud Platform (GCP) pour renforcer l'équipe Data de notre client Vous serez chargé(e) de concevoir, développer et maintenir des pipelines de données performants et fiables, afin de structurer et valoriser les données de l’entreprise. Votre rôle sera central dans la mise en place d’une infrastructure data moderne et évolutive, au service des équipes métiers, Data Science et BI. Concevoir, développer et maintenir des pipelines de données sur GCP (Dataflow, Dataproc, Cloud Composer, etc.) Mettre en place et administrer des data lakes et data warehouses (BigQuery, Cloud Storage) Intégrer des flux de données provenant de sources variées (API, streaming, batch) Participer à la modélisation et à la gouvernance des données Automatiser les déploiements et superviser les environnements (Terraform, CI/CD) Collaborer avec les équipes Data Science, BI et Produit Garantir la qualité, la sécurité et la conformité des données (RGPD, bonnes pratiques GCP)
CDI

Offre d'emploi
Data Architect

Publiée le
AWS Cloud
Azure
BI

65k-80k €
Paris, France
Télétravail partiel
Rejoignez la Data Fabric d'INVENTIV IT pour concevoir et faire évoluer des Platform Data et Data Market Place complexes pour nos clients internationaux. En tant qu'Architecte Solution Data Senior, vous serez le garant de l'architecture Cloud Hybride (AWS/Azure) , de la performance Big Data et de la Gouvernance de nos solutions. 🎯 Vos Missions et Livrables Clés (Alignement Technique) 1. Architecture Cloud Hybride et Stratégie Conception Hybride : Définir et concevoir l'architecture de la plateforme Cloud Data cible en tirant parti des services de données d' AWS et AZURE . Feuille de Route : Élaborer la roadmap d'implémentation et de migration vers ces plateformes en intégrant les solutions Snowflake et Databricks . Gouvernance Data : Définir et implémenter la Gouvernance des Données (qualité, sécurité, accès) au sein de la Data Fabric et du Data Market Place. BI & Analytics : Auditer les systèmes BI historiques et concevoir des solutions modernes d'analyse et de BI sur la nouvelle plateforme. 2. Industrialisation et Ingénierie Avancée DataOps & DataSecOps : Mettre en œuvre et garantir les meilleures pratiques DevOps et DataSecOps dans le cycle de vie des données (CI/CD, sécurité par conception). Transformation Modulaire : Standardiser et industrialiser les transformations de données critiques en utilisant l'outil DBT ( Data Build Tool ). Augmentation/ML : Évaluer et intégrer des outils d'aide à la conception ou d'analyse avancée comme Dataiku dans l'écosystème du Datalab. FinOps : Intégrer les pratiques FinOps pour optimiser les coûts sur les plateformes AWS et AZURE . 3. Leadership, Conseil et Design Animation : Mener des ateliers collaboratifs et de Design Thinking pour traduire les besoins métier en architectures techniques précises. Support & Référentiel : Être le référent technique Snowflake/Databricks et fournir un support d'expertise aux Data Engineers et aux équipes Sécurité Cloud. Audit et Documentation : Réaliser des audits complets et garantir une restitution documentaire de haut niveau (normes, architectures cibles). 🛠️ Environnement Technique Vous évoluerez sur un environnement Cloud et Big Data complet : DomaineTechnologies et Concepts Cloud PublicAWS (Architecture) & AZURE (Architecture) Plateformes DataSnowflake (Data Warehouse), Databricks (Engineering/ML), DBT (Transformation) Outils AvancésDataiku , Big Data , Solutions BIMéthodes & OpsDevOps , DataSecOps , Gouvernance , FinOps
Freelance

Mission freelance
Ingénieur Automatisation & Data IA

Publiée le
autonomie

18 mois
100-400 €
Paris, France
Télétravail partiel
CONTEXTE Experience : 5 ans et plus Métiers Fonctions : Etudes & Développement, Ingénieur Spécialités technologiques : Cloud, Intégration de données, IA generative, API Monitoring Compétences Technologies et Outils Synapse REST Azure SQL Soft skills Autonomie Rigueur Pour l'un de nos clients dans le secteur du transport, nous sommes actuellement à la recherche d'un Ingénieur automatisation & Data IA. Vous serez en charge de mettre en place et orchestrer des flux d’automatisation et d’analyse de données en s’appuyant sur l’IA générative (OpenAI), un data warehouse cloud (Azure Synapse) et des outils d’automatisation de workflows (n8n). L’objectif est d’optimiser les processus internes, d’améliorer la productivité des équipes et de fiabiliser l’exploitation des données. MISSIONS Vos missions seront les suivantes : Conception et déploiement de solutions d’automatisation : créer, monitorer et maintenir des workflows complexes via n8n, en intégrant des sources multiples (API, bases de données, outils internes). Exploitation de l’IA générative : intégrer les services OpenAI (chat, embeddings, fine-tuning) dans les flux opérationnels et les cas d’usage internes. Gestion de la donnée : mettre en place et optimiser des pipelines d’ingestion et d’analyse dans Azure Synapse, incluant l’intégration de données multi-sources et temps réel. Optimisation et gouvernance : veiller à la performance des requêtes SQL, à la sécurité (RBAC, data masking) et à la maîtrise des coûts liés aux API et aux environnements cloud. Support et amélioration continue : assurer le monitoring, le debug et l’évolution des flux d’automatisation pour répondre aux besoins métiers. Expertise souhaitée Compétences techniques : IA / OpenAI Maîtrise de l’API OpenAI (chat, embeddings, fine-tuning). Connaissances en prompt engineering et intégration IA dans des workflows. Sensibilité aux enjeux de sécurité, de gouvernance et de gestion des coûts liés aux appels API. Data Engineering / Azure Synapse Excellente pratique du SQL avancé (optimisation, transformation, agrégation). Intégration et traitement de données multi-sources et en temps réel. Compétences de base en gouvernance et sécurité (RBAC, data masking). Workflow Automation / n8n Conception, déploiement et maintenance de workflows automatisés complexes. Connexion à divers systèmes via API REST, bases de données, services internes/externes. Mise en production, suivi, debug et optimisation continue des flux automatisés.
Freelance

Mission freelance
Analyste développeur MAINFRAME (COBOL / DB2)/Brunoy/su

Publiée le
COBOL

2 mois
320-350 €
Brunoy, Île-de-France
Télétravail partiel
Analyste développeur MAINFRAME (COBOL / DB2) avec minimum 2 ans d’expérience. Connaissances techniques : Le profil recherché doit maitriser le développement sur les solutions techniques suivantes : DB2, MVS, TSO, PACBASE, SPITAB, ARMIDE, MQ, RDz, RPP/RTC - expérience : 2 années minimum Programmation Cobol natif/ICONE, Pacbase - expérience : 2 années minimum Programmation SQL DB2 - expérience : 2 années minimum JCL - expérience : 2 années minimum Il exécutera les missions suivantes : Développement / maintenance de requêtes DB2 : analyse des besoins, réalisation des développements, validation des résultats Exécution de traitements récurrents : suivi de procédure / mise à jour de ces procédures Interventions ponctuelles lors d’astreintes : week-end ou jours février (1 à 2 fois par an). Le poste a une dimension technique mais aussi une dimension relationnelle importante liée à l’analyse des besoins et la validation des résultats avec les demandeurs. Connaissances techniques : Le profil recherché doit maitriser le développement sur les solutions techniques suivantes : DB2, MVS, TSO, PACBASE, SPITAB, ARMIDE, MQ, RDz, RPP/RTC - expérience : 2 années minimum Programmation Cobol natif/ICONE, Pacbase - expérience : 2 années minimum Programmation SQL DB2 - expérience : 2 années minimum JCL - expérience : 2 années minimum Environnement de développement : LCM La gestion des demandes se fait via des ticket Service Now, la connaissance de cet outil est un plus. Progressivement, le poste pourrait évoluer et intégrer l’utilisation d’outils de Datavisualisation (type PowerBI) pour la réalisation de rapports basés sur le Datawarehouse. Une compétence ou un désir d’évoluer vers cette activité pourrait être un plus. Cependant non déterminant pour le cœur de la mission. Eléments pratiques Démarrage de la mission : Novembre 2025 Durée : 2 mois renouvelables. Lieu de la mission : Brunoy (91) Télétravail possible (2 jours/semaine) après une période en présentiel total et fonction du degré d’autonomie.
CDI
Freelance

Offre d'emploi
Data engineer

Publiée le
autonomie

12 mois
47k-55k €
450-530 €
Île-de-France, France
Télétravail partiel
Dans le cadre du renforcement de notre pôle Data, nous recherchons un Data Engineer confirmé capable de concevoir, développer et industrialiser des solutions de traitement et de valorisation de données dans un environnement cloud (AWS). Vous interviendrez sur des projets stratégiques de construction de plateformes data modernes, à forte volumétrie et en lien direct avec les métiers. Vos principales missions :Architecture & Développement Concevoir et mettre en œuvre des pipelines de données robustes et scalables Construire et maintenir des Data Lakes et Data Warehouses modernes Développer des traitements ETL / ELT performants et automatisés Participer à la modélisation et l’optimisation des structures de données Qualité & Sécurité Garantir la qualité, la fiabilité et la traçabilité des données Implémenter des bonnes pratiques de sécurité et de gouvernance (IAM, RBAC, encryption, etc.) Mettre en place des mécanismes de monitoring et d’alerting Collaboration & Innovation Travailler en étroite collaboration avec les équipes Data Science, BI et Cloud Participer à la veille technologique et aux choix d’architecture Contribuer à la mise en place de standards et bonnes pratiques DevOps Data Environnement technique : AWS S3, Redshift, Glue, Athena, EMR, Lambda, Step Functions PySpark, Python, SQL Terraform, CloudFormation, CloudWatch, IAM, KMS
73 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous