L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 943 résultats.
Offre d'emploi
Data Engineer Expérimenté
Publiée le
Microsoft Power BI
18 mois
40k-45k €
100-450 €
Paris, France
Télétravail partiel
CONTEXTE Expérience : 5 ans et plus Métiers Fonctions :Data Management Data Engineer Spécialités technologiques : ETL, Gouvernance des données, Intégration de données MISSIONS Notre client est engagé dans une transformation en profondeur et la modernisation de son Système d’Information. Les équipes Data, intégrées à la DSI, jouent un rôle central dans la réussite de ces projets de modernisation, tant sur le plan technologique que métier. Vous interviendrez sur plusieurs axes clés : - Conception et développement d’outils et de processus de gouvernance des données. - Mise en place d’outils de pilotage de la qualité, de la sécurité et de la traçabilité des données. - Développement de solutions et de processus visant l’amélioration continue de la qualité de service. - Participation au suivi de la production en tant que lead de l’équipe Data sur les projets de run. - Analyse des incidents de production et des tickets utilisateurs de niveau 1. - Développement et maintenance des traitements ETL Batch Data sous Semarchy xDI. - Rédaction et publication de rapports et indicateurs flash sur la qualité de service du SI Data. Vos missions : - Développer des traitements de contrôle de la qualité des données, notamment industrialisés - Assurer le suivi de production et l’analyse des incidents de premier niveau. - Traiter et résoudre les incidents liés à la qualité des données : analyser les causes, identifier et solliciter les bons interlocuteurs pour leur résolution. - Contribuer à l’amélioration continue et au renforcement de la qualité de service, en collaboration avec les équipes de Gouvernance des Données.
Mission freelance
Data Privacy expert
Publiée le
RGPD
12 mois
650-760 €
Paris, France
Télétravail partiel
Mission : Développement et adaptation des politiques du Groupe en matière de confidentialité des données, conformément aux lois et réglementations applicables, y compris les formulaires de consentement, d’autorisation, les avis d’information et les documents reflétant les pratiques juridiques et organisationnelles actuelles. Adoption et mise en œuvre d’exigences ou de lignes directrices détaillées pour assurer une gestion conforme des sujets spécifiques jugés nécessaires. Formation et conseil juridique à toutes les entités sur les questions de confidentialité des données. Soutien et contrôle du registre général de protection des données. Accompagnement des projets, fourniture d’évaluations de conformité en matière de confidentialité des données et validation lorsque la conformité aux lois applicables est jugée satisfaisante. Interface avec les équipes chargées de répondre aux demandes d’accès et de gérer les incidents et violations de données personnelles. Assistance à la rédaction d’accords de confidentialité des données, d’analyses d’impact sur la protection des données et de notes de position. Révision et suivi des activités commerciales, des contrats fournisseurs et des négociations. Participation aux comités. Contrôle Permanent : Contrôle des réglementations sur la confidentialité des données. Interface avec les instances de gouvernance d’entreprise. Communication et reporting auprès de l’autorité locale de protection des données, en s’appuyant sur la relation avec les instances de gouvernance locales du Groupe et ses entités. Interface avec d’autres experts métiers. Expertise technique : Expertise préalable en confidentialité des données / conformité (juridique ou sécurité informatique). Environnement de travail en anglais et contexte anglophone – Obligatoire. Environnement de travail en français et contexte francophone – Souhaitable. Autres expertises et capacités : 2 à 8 ans d’expérience (idéalement incluant une expertise en négociation contractuelle). Capacité à prioriser les tâches avec un plan d’action clair. Expertise en responsabilité et en livraison de résultats de haute qualité dans les délais et le budget impartis. Expertise dans la remise en question des processus de travail inefficaces et la promotion d’alternatives constructives. Expertise dans l’utilisation de critères appropriés pour évaluer régulièrement les processus de travail, les services et les livrables. Capacité à solliciter et/ou fournir des informations pouvant influencer la planification, les programmes et la prise de décision de l’organisation. Capacité à établir des relations solides avec un large éventail de profils et d’expertises en informatique et dans les organisations métiers. Capacité à gagner la confiance des clients internes et des autres parties de l’organisation tout en favorisant le changement. Excellente expertise en communication à tous les niveaux. Style collaboratif et expertise en travail d’équipe, avec une excellente expertise en gestion de projet et expertise interculturelle.
Offre d'emploi
Consultant Administrateur Applicatif BI / Data
Publiée le
Microsoft Power BI
Qlik Sense
Sap BO
Paris, France
Télétravail partiel
Le département Data & Applications Métier pilote la conception, le déploiement et la maintenance des solutions de reporting et d’analyse du groupe. Les environnements décisionnels reposent sur SAP BO, BODS, HANA, avec une migration en cours vers GCP / BigQuery. L’objectif est de renforcer l’équipe avec un administrateur applicatif BI confirmé, capable d’assurer la supervision, l’administration et les déploiements sur les plateformes actuelles et d’accompagner la migration vers le cloud. Missions principales Administrer et superviser les plateformes décisionnelles (SAP BO, BODS, HANA, et à terme GCP/BigQuery). Surveiller les traitements et automatisations (batchs, alimentations, planifications). Gérer les accès, habilitations et déploiements applicatifs. Diagnostiquer et corriger les incidents applicatifs (niveau 2/3). Participer à la définition du monitoring et des bonnes pratiques sur les environnements Cloud. Proposer des optimisations (performance, automatisation, qualité des données).
Offre d'emploi
Data Engineer Senior – Palantir Foundry / Databricks – Secteur Assurance
Publiée le
Databricks
Jenkins
Python
1 an
35k-49k €
360-430 €
Île-de-France, France
Télétravail partiel
Rejoignez une équipe internationale dans le secteur de l'assurance/réassurance, au sein d’un environnement technique stimulant. Vous serez en charge de la conception et de la mise en œuvre de solutions de données avancées en utilisant des technologies modernes comme Databricks et Palantir Foundry . Le rôle implique une collaboration étroite avec des équipes produit pour développer des pipelines de données, services et APIs performants. Collecter et analyser les besoins métiers pour répondre aux exigences fonctionnelles et techniques. Concevoir, développer et maintenir des artefacts de données (pipelines, services, APIs) basés sur les meilleures pratiques. Implémenter des cas d’usage liés à l’analyse de données, à l’exploration BI et au calcul distribué. Documenter et optimiser les architectures de données suivant des standards éprouvés (architecture médaillon, GitFlow, etc.). Travailler en collaboration avec des équipes pluridisciplinaires pour garantir des livrables de qualité. Compétences obligatoires : Expertise en Databricks , Palantir Foundry , Python , SQL et Data Visualization . Maîtrise des outils MSDevOps , Jenkins , Artifactory , et Container Registry . Connaissances solides en parallélisation et programmation distribuée . Compétences appréciées : Expérience avec Delta Lake , BlobStorage , FileShare , et l’architecture médaillon.
Offre d'emploi
Ingénieur DevOps Big Data (H/F)
Publiée le
Ansible
Apache Kafka
Cloudera
1 an
55k-65k €
500-520 €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
Support Technique Niveau 2 et 3 sur Cloudera Data Platform • Analyser, diagnostiquer et résoudre les incidents complexes impactant la plateforme Cloudera. • Assurer un support de niveau 2 et 3 pour les équipes techniques et métiers. • Gérer les escalades des incidents critiques et collaborer avec l’éditeur si nécessaire. • Implémenter et améliorer les outils de monitoring avancés pour détecter et anticiper les problèmes. • Optimiser la performance des services et traitements Hadoop, Spark et Kafka. Gestion et Optimisation de Kafka • Administrer et optimiser l’infrastructure Kafka sur Cloudera. • Gérer la scalabilité et la résilience des clusters Kafka. • Assurer une supervision efficace des topics, brokers et consommateurs. • Résoudre les incidents liés à la latence, au throughput et à la gestion des offsets. • Mettre en place des stratégies de sécurisation et de haute disponibilité de Kafka. Automatisation et Développement • Développer et maintenir des scripts Shell, Ansible et Python pour automatiser le support et l’exploitation. • Automatiser la gestion des incidents récurrents et les procédures de maintenance. • Déployer des pipelines CI/CD pour les services Cloudera, Kafka et les bases de données associées. Optimisation et Dimensionnement de l’Infrastructure • Travailler sur le dimensionnement et le tuning des clusters Cloudera pour une meilleure gestion des charges de travail. • Dimensionner les divers clusters ElasticSearch en fonction des consommations des ressources. • Analyser et proposer des évolutions d’architecture en collaboration avec les architectes en fonction des besoins métier. • Assurer une veille technologique et être force de proposition pour améliorer la plateforme. Documentation et Transmission de Connaissances • Documenter les incidents récurrents, les procédures de résolution, les bonnes pratiques et le manuel d’utilisation de l’offre. • Former les équipes internes sur les outils de monitoring, Kafka, Cloudera et l’analyse des incidents. • Rédiger des guides de troubleshooting pour faciliter le travail des équipes de support niveau 1 et 2.
Mission freelance
Développeur Oracle Data Integrator (ODI)
Publiée le
ODI Oracle Data Integrator
24 mois
300-430 €
Brest, Bretagne
Télétravail partiel
Au sein d’une équipe couvrant tous les métiers de notre client (commerce, gestion, marketing, finance, risque, etc. ), nous recherchons à renforcer notre équipe par l’intégration d’un nouveau Consultant ODI. En tant que consultant maitrisant parfaitement Oracle Data Integrator, vos tâches consistent à : - Analyse des besoins fonctionnels, cadrage technique, études - Préparation les plans d’actions techniques : architecture, documentation, charge, dépendances, délais, bonnes pratiques... - Accompagner les développeurs BI dans la réalisation de leur projet - Revue des solutions techniques - Apporter votre expertise technique lors des phases de préparation, de conception et de priorisation - Participation à tous les rituels agile de votre Feature Team - Réalisation des développements ETL sous Oracle Data Integrator - Suivi et la sécurisation des traitements de production - Amélioration de l’existant, gestion des tickets
Mission freelance
architecte data senior API Lyon/3 jours TT
Publiée le
API REST
Architecture
6 mois
520-700 £GB
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
architecte data senior API Lyon . Compétences attendues : Architecture technique : compréhension des infrastructures, intégration, scalabilité Maitrise des briques techniques, APIs, frameworks et librairies Maîtrise des démarches de design Solution technique (concept, ateliers, livrables Traduction des exigences fonctionnelles et non fonctionnelles en spécifications techniques. Connaissance des standards d’intégration (REST, GraphQL, ESB, etc.). Communication et vulgarisation : capacité à expliquer des concepts complexes au sein d’une équipe pluridisciplinaire Collaboration interdisciplinaire : capacité à travailler étroitement avec différentes parties prenantes (métiers et IT) Méthodologies agiles Localisation de la mission : Lyon 2 jours de présence sur site Date de démarrage : Début janvier Séniorité : Minimum 7 ans d’expérience Missions : Contributions à la découverte du périmètre fonctionnel (Collaborer avec l’équipe produit pour aligner l’architecture sur les objectifs métier, clarifier les exigences, définir les personas et scénarios d’usage afin de répondre aux besoins des utilisateurs finaux.) Design de solution technique (Définir les exigences non fonctionnelles et critères de succès techniques, tout en analysant les intégrations et dépendances avec les systèmes et infrastructures existants.) Contribuer à l’amélioration du design de solution Compétences attendues : Architecture technique : compréhension des infrastructures, intégration, scalabilité Maitrise des briques techniques, APIs, frameworks et librairies Maîtrise des démarches de design Solution technique (concept, ateliers, livrables Traduction des exigences fonctionnelles et non fonctionnelles en spécifications techniques. Connaissance des standards d’intégration (REST, GraphQL, ESB, etc.). Communication et vulgarisation : capacité à expliquer des concepts complexes au sein d’une équipe pluridisciplinaire Collaboration interdisciplinaire : capacité à travailler étroitement avec différentes parties prenantes (métiers et IT) Méthodologies agiles
Mission freelance
Data Engineer AWS (S3, Glue, Athena, Python) 5 à 10 ans/sal
Publiée le
AWS Glue
Python
6 mois
430-520 £GB
Paris, France
Télétravail partiel
Data Engineer AWS (S3, Glue, Athena, Python) 5 à 10 ans Anglais obligatoire Compétences recherchées : Data Engineer AWS (S3, Glue, Athena, Python) Tâches à traiter : Understanding of scientific data in the pharma CMC space Requirements clarification with stakeholders, effort estimation for PI planning Good knowledge of Lean & Agile practices AWS data engineering: S3, Glue (Jobs/Workflows), Athena ETL/ELT development: Python, Glue ETL, schema evolution, partitioning Data modeling: harmonized domain models, star/snowflake schemas, metadata management SQL optimization: Athena performance tuning, cost-aware query design, partition/pruning strategies Testing and quality: unit/integration tests for pipelines, DQ frameworks Documentation and KT: runbooks, architecture diagrams, KT planning and execution Migration experience: parallel-run strategy, cutover planning, backfill, data reconciliation
Mission freelance
Data Engineer Spark/Scala
Publiée le
Apache Spark
Scala
3 mois
330-420 £GB
Paris, France
Télétravail partiel
Data Engineer Spark/Scala o Expérience dans la mise en œuvre de technologies et frameworks Big Data et NoSQL (Hadoop, Kafka, Spark, Scala, Hive, SolR, HBase, Kerberos) o Spark / Scala : confirmé o A l'aise avec le programmation fonctionnelle (connaissance des librairies ZIO, MONIX, CATS appréciée) o Expérience de travail dans un environnement Agile ; avec outils et méthodologies associés (Confluence, Jira, Scrum, Kanban) Au sein de la DSI Finance de la DSI, le poste recherché porte sur le besoin d’un Data Engineer Spark/Scala confirmé (5-6 ans d’expérience). Objectifs et livrables Objectifs Le prestataire intégrera le projet d’intégration en coordination avec le chantier assiette comptable de référence en tant que Data Engineer. Les développements sur ce chantier s’appuient sur la plateforme Datalake Finance, basée sur la distribution Hadoop HortonWorks qui collecte les données des différents systèmes de synthèse afin de répondre aux nouveaux besoins de reporting Finances & Risques (COREP, calcul RWA, IFRS9, etc.…) Les tâches seront les suivantes : • la mission consistera à prendre part aux développements, au sein du datalake pour acquérir les nouvelles sources de données, les assemblées et les distribuées aux consommateurs, tout en étant garant de la pérennité et la non-régression de l’outillage déjà en place • Vous participerez à la conception et à l’implémentation de ce projet et serez amené, à ce titre, à travailler en méthode Agile avec de nombreux acteurs métiers et les équipes de maintenance Compétences techniques o Expérience dans la mise en œuvre de technologies et frameworks Big Data et NoSQL (Hadoop, Kafka, Spark, Scala, Hive, SolR, HBase, Kerberos) o Spark / Scala : confirmé o A l'aise avec le programmation fonctionnelle (connaissance des librairies ZIO, MONIX, CATS appréciée) o Expérience de travail dans un environnement Agile ; avec outils et méthodologies associés (Confluence, Jira, Scrum, Kanban) Compétences demandéesCompétences Niveau de compétence Apache Kafka Avancé Apache Hadoop Confirmé Apache Hive Avancé SCALA Confirmé Spark Confirmé
Offre d'emploi
Lead Dev
Publiée le
Docker
Google Cloud Platform (GCP)
Java
40k-52k €
Lille, Hauts-de-France
Télétravail partiel
Ce que nous offrons : - La chance de travailler avec des technologies de pointe comme Java, JavaScript, Node.js, React, Vue.js, Kubernetes, Docker, et bien d'autres. - Un rôle de leader au sein d'une équipe dynamique et créative, avec la possibilité de façonner l'avenir de la technologie. - Un poste basé dans la métropole lilloise, un écosystème vibrant pour les passionnés de tech. Missions pour le Lead Developer : - Pilotage technique des projets, de la conception à la mise en production, en assurant la qualité, la performance et la sécurité des solutions développées. - Management d'une équipe de développeurs, en guidant leur montée en compétences et en promouvant les meilleures pratiques de développement. - Collaboration étroite avec les équipes produit, design et QA pour assurer l'alignement et l'excellence dans la livraison des projets. - Veille technologique continue pour intégrer de nouvelles technologies et méthodologies qui pourraient bénéficier aux projets et à l'équipe. - Développement et maintien d'une architecture scalable et performante, en utilisant Docker et Kubernetes pour l'orchestration des conteneurs.
Offre d'emploi
Développeur Data / BI – Datastage & Power BI (H/F)
Publiée le
IBM DataStage
Microsoft SQL Server
PostgreSQL
55k-60k €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
CITECH recrute ! 👍 Si vous souhaitez mettre vos compétences au service d’un projet stratégique orienté Data & Décisionnel, nous avons LA mission pour vous ! Nous recherchons un(e) Développeur Data / BI (H/F) maîtrisant Datastage, SQL et Power BI pour intervenir sur un projet à forte valeur ajoutée autour de la construction et de l’optimisation du système décisionnel de notre client 🚀 Vous rejoindrez une équipe experte du SI Décisionnel et participerez à des travaux d’alimentation, de transformation et de restitution des données au sein d’un environnement technique exigeant. 🙌🔽 Vos missions principales seront les suivantes : 🔽🙌 Développement & Alimentation de données : 🔸 Concevoir et développer les programmes d’alimentation du Datawarehouse et des Datamarts (ODS, DWH) ; 🔸 Réaliser des traitements complexes via Datastage et le langage SQL ; 🔸 Optimiser les requêtes SQL pour garantir la performance des chaînes de traitements ; Restitution & Reporting : 🔸 Développer des datasets et dataflows sous Power BI ; 🔸 Concevoir et produire des rapports et tableaux de bord utilisateurs ; Qualité, Maintenance & Exploitation : 🔸 Réaliser les tests unitaires et rédiger les plans/fiches de tests ; 🔸 Rédiger le dossier d’exploitation destiné à l’équipe de Production ; 🔸 Prendre en charge les anomalies et évolutions (Run) en lien avec les équipes internes ; 🔸 Respecter les normes et bonnes pratiques en vigueur au sein du SI Décisionnel ; 🔸 Assurer un reporting d’avancement régulier auprès du responsable de domaine.
Mission freelance
Intégrateur Devops - Rennes
Publiée le
VMware
3 mois
Rennes, Bretagne
Télétravail partiel
Description: L’intégrateur Devops est responsable de la fiabilité, de la performance et de la disponibilité des systèmes et applications en production. Il combine des compétences en administration systèmes, en exploitation, en support applicatif et en développement logiciel pour automatiser, sécuriser et améliorer en continu la qualité de service. Il agit en garant du Maintien en Conditions Opérationnelles (MCO) tout en intégrant les pratiques DevOps et en accompagnant les métiers via un support applicatif de haut niveau. Livrables: • Administration systèmes : mises à jour et supervision des serveurs linux/Windows et environnements virtualisés. • Support applicatif : o Analyser et résoudre les incidents liés aux applications métiers. o Accompagner les utilisateurs, les équipes projets et les développeurs dans l’identification des problèmes. o Participer à l’investigation sur les anomalies fonctionnelles et techniques. o Contribuer à la documentation fonctionnelle et technique pour faciliter le support • Garantir la haute disponibilité, la performance et la sécurité des environnements. • Automatiser les tâches récurrentes (déploiements, configuration, monitoring, gestion des incidents). • Mener les actions nécessaires à garantir la sécurité du SI o Participer au MCO (gestion proactive des incidents, résolution des problèmes, patchs correctifs,). o Planifier et réaliser les montées de version (systèmes, middleware et applicatives). o Contribuer à la conception d’architectures résilientes et tolérantes aux pannes. o Définir et tester des PRA/PCA (plan de reprise et de continuité d’activité). • Collaborer avec les équipes de développement pour intégrer la fiabilité et la maintenabilité dès la conception.
Mission freelance
Intermediate Data Engineer
Publiée le
API
AWS Cloud
Big Data
12 mois
Paris, France
Contexte du projet Notre client dans le secteur de l'energie, dans sa stratégie de transformation data-driven , souhaite exploiter pleinement ses données pour : proposer de nouvelles offres, réduire les risques opérationnels, accroître l’efficacité des équipes. Le projet One Pulse vise à centraliser et harmoniser les indicateurs clés liés aux activités d’approvisionnement dans différents pays. Objectif : mettre en place une plateforme Big Data robuste et scalable permettant de collecter, traiter et diffuser les données de manière cohérente et sécurisée à travers le groupe. Objectif de la mission Développer une plateforme basée sur des technologies Big Data et Cloud (AWS) pour : capturer et traiter des volumes importants de données, normaliser et exposer des indicateurs multi-pays, garantir la conformité avec les guidelines techniques et d’architecture, améliorer les frameworks communs (CI/CD, tests, monitoring, performance, qualité de code, etc.). Activités principales Collecter et challenger les besoins métiers. Concevoir des solutions conformes aux guidelines d’architecture. Participer au développement et à la maintenance du code (Python, API, Big Data). Optimiser la performance, la qualité et la robustesse des solutions. Rédiger la documentation technique en anglais. Mettre en place des outils de monitoring et d’alerting. Contribuer à la phase de production et à l’amélioration continue. Compétences attendues Techniques (2 à 3 compétences maîtrisées minimum) : CompétenceNiveau attendu: Python / API (Software engineering)Big Data ingestion (S3, Medaillon architecture)Big Data patterns (lambda, partitioning, bucketing…)AWS Fonctionnelles : Proactivité et autonomie, Leadership technique (capacité à guider d’autres devs), Sens de la qualité et du delivery, Rigueur, communication claire, Anglais courant. Livrables attendus Conception, développement et documentation technique, Rapports d’avancement et dashboards de suivi, Plan de monitoring et correction d’anomalies, Code source, spécifications techniques et fonctionnelles, Plan de réversibilité et continuité de service. Profil recherché Un Data Engineer expérimenté (3 à 6 ans d’expérience) capable d’évoluer dans un environnement Big Data international et complexe, avec une bonne culture logicielle et une maîtrise de Python et des architectures data sur cloud (idéalement AWS).
Mission freelance
Développeur ETL / Data Engineer (DataStage, Unix, Control-M)
Publiée le
AWS Cloud
Azure
CI/CD
1 an
Montréal, Québec, Canada
Télétravail partiel
📌 Mission Freelance – Développeur ETL / Data Engineer (DataStage, Unix, Control-M) 🎯 Contexte de la mission : Dans le cadre d’un programme stratégique d’industrialisation et de modernisation de nos chaînes de traitement data, nous recherchons plusieurs Développeurs ETL / Data Engineers maîtrisant DataStage, Unix et Control-M. Un des profils recherchés devra assurer un rôle de Lead Technique sur le développement (pas de gestion projet — un encadrement existe déjà). 🛠️ Compétences techniques requises Obligatoires : Expertise IBM DataStage (développement, optimisation, debugging, bonnes pratiques ETL) Très bonne maîtrise Unix/Linux (bash/ksh, scripts, automatisation) Compétence avérée Control-M (ordonnancement, dépendances, troubleshooting) SQL avancé (optimisation, analyse de performances) Pratique d’outils de versioning (Git, RTC), CI/CD, intégration & déploiements Souhaitées Python ou Java pour automatisation / outils internes Connaissances Data Lake / Data Warehouse Notions Cloud (Azure, AWS ou GCP) 🎯 Rôle & Responsabilités Pour les développeurs : Concevoir, développer et maintenir des jobs ETL sous DataStage Implémenter des scripts Unix et automatisations Intégrer et opérer les chaînes de traitement sous Control-M Analyser les performances, optimiser et fiabiliser les pipelines Participer aux déploiements et aux revues de code Contribuer à la mise en place des bonnes pratiques de développement Pour le Lead Développement : Encadrer techniquement les autres développeurs ETL Assurer la qualité du code, des jobs et des livrables Être point d’escalade pour les problématiques techniques DataStage/Control-M Réaliser des revues techniques, challenger les designs et améliorer les patterns ETL
Offre d'emploi
Data Analyst Confirmé – Power BI & SSIS (On-Premise) - Toulouse (H/F)
Publiée le
Microsoft Power BI
Microsoft SSIS
45k-50k €
Toulouse, Occitanie
Mission à réaliser Le consultant rejoindra le service ODS (Outillage Data Support) et interviendra sur l’ensemble de la chaîne BI , du recueil du besoin à la livraison et au support des dashboards Power BI. 1. Recueil & analyse des besoins Comprendre, analyser et formaliser les besoins des équipes support Identifier les sources de données (ITSM, ServiceNow) 2. Intégration & modélisation des données Intégrer et transformer les données dans l’entrepôt de données Concevoir des modèles de données et des bases agrégées Industrialiser les flux de données via SSIS 3. Développement des dashboards Concevoir et développer des rapports Power BI Produire des dashboards (cycle de vie des incidents, flux inter-équipes, KPI ITSM/ServiceNow) Livrer, documenter et administrer les rapports 4. Support & amélioration continue Assurer le support utilisateurs Former les équipes à l’utilisation des dashboards Suivre les tickets et évolutions dans Jira Contribuer à l’amélioration continue des process et de la qualité des données Environnement technique Power BI (On-premise) SQL / PL-SQL SSIS (Expert) ITSM / ServiceNow Entrepôt de données interne Jira Environnement 100% On-premise
Offre d'emploi
Data Engineer – Intégration & Cloud (GCP / BigQuery / Talend)
Publiée le
API REST
BigQuery
Microsoft Power BI
40k-45k €
Paris, France
Nous recherchons un Data Engineer pour intervenir sur un projet stratégique d’intégration et de valorisation de données au sein d’un environnement Cloud moderne. Le consultant interviendra sur la création, l’optimisation et la maintenance de pipelines data entre plusieurs plateformes internes, avec un fort niveau d’autonomie technique. Concevoir, développer et maintenir des flux de données entre différentes sources (API REST, Cloud, bases SQL). Mettre en place des traitements d’ingestion, transformation, normalisation et contrôle qualité des données. Développer et optimiser des pipelines dans GCP / BigQuery . Construire et maintenir des jobs Talend pour l’intégration et l’automatisation des traitements. Automatiser et industrialiser les workflows via des scripts Shell / Bash . Contribuer à la création et à l’optimisation de dashboards Power BI (KPI, dataviz). Garantir la qualité, la performance et la conformité des données. Documenter les flux, rédiger les spécifications et collaborer avec les équipes métiers et techniques. Versionner les développements via GitLab et respecter les bonnes pratiques CI/CD.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Utiliser Qonto pour créer la microentreprise
- La Société de portage avec qui j'ai signé m'impose la soltion MAY
- Compte dédié micro-entreprise
- Service de comptabilité en ligne fiable et réactif pour une succursale de SASU
- Offre propulse IT
- Traitement fiscal des cotisations sociales payées en 2025 sur CA micro-BNC 2024
1943 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois