L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 3 510 résultats.
Offre d'emploi
Business Analyst Data / Expert Data Management - Banque
Publiée le
Data analysis
Data governance
Data Lake
6 mois
45k-60k €
470-700 €
Île-de-France, France
Télétravail partiel
Dans le cadre d’un projet stratégique pour une grande banque européenne , nous recherchons deux profils complémentaires : Business Analyst Data et Expert Data Management. Vous interviendrez sur des sujets clés liés à la migration de Datalake et à la gouvernance des données . Vos responsabilités incluront : Participer à la migration et à la valorisation des données. Implémenter des contrôles de Data Governance (Ownership, Definition, Quality). Gérer les Metadata et le Data Lineage . Superviser le End User Computing (EUC) . Définir et exécuter des plans pour garantir la conformité avec les frameworks Data Management & EUC.
Offre d'emploi
Data Analyst
Publiée le
Python
Boulogne-Billancourt, Île-de-France
Télétravail partiel
Nous recherchons pour l'un de nos client, un Data Analyst, développeur PYTHON, pour renforcer une équipe, au sein du pôle Recherche & Développement. Vous serez amené à réaliser les missions suivantes : Analyses (30%): Exploration des données et production d’analyses, Identification et mise en œuvre d’indicateurs de suivi, Réalisation de Proof of Concept (60%): Identification et mise en œuvre de solutions d’amélioration, Réalisation des solutions de type proof of concept, Le cas échéant, aide à l’industrialisation du POC,
Mission freelance
Expert Azure Data Factory F/H - 3 mois
Publiée le
Azure Data Factory
ETL (Extract-transform-load)
3 mois
500-600 €
Saint-Denis, Île-de-France
Notre client dans le secteur Assurance recherche un Expert Technique Azure Data Factory H/F Descriptif de la mission: Offre de mission – Expert Technique Azure Data Factory / Data Engineering – Secteur Assurance Contexte de la mission Au sein d’un grand acteur du secteur de l’assurance, l’Expert Technique Azure Data Factory (ADF) intervient dans le cadre de la modernisation des plateformes data et de la migration vers un écosystème cloud Microsoft Azure. Il contribue à la conception, l’industrialisation et l’optimisation des flux de données nécessaires aux usages métier : tarification, souscription, actuariat, gestion des sinistres, reporting réglementaire et analyse de risques. Missions principales 1. Architecture & conception des flux data - Concevoir et optimiser des pipelines Azure Data Factory adaptés aux besoins métier. - Définir l’architecture cible des flux d’intégration et de transformation dans un environnement Assurance. - Participer à la mise en place d’une architecture Data Lakehouse (Azure Data Lake Storage, Delta Lake, Synapse). - Garantir la résilience, la scalabilité et la conformité des traitements. 2. Développement & industrialisation - Développer des pipelines ADF (ingestion, orchestration, transformation). - Implémenter des Data Flows, du mapping et des transformations complexes. - Automatiser les déploiements CI/CD avec Azure DevOps. - Intégrer les solutions avec l’écosystème data : Azure Databricks, Synapse Analytics, SQL, APIs, etc. 3. Optimisation & performance - Optimiser les traitements pour supporter des volumes importants (données contractuelles, sinistres, historiques). - Mettre en place des mécanismes d’alerting, monitoring, retry et gestion d’erreurs. - Conduire des analyses de performance et formuler des recommandations d’améliorations. 4. Gouvernance & sécurité - Contribuer à la mise en place des bonnes pratiques de sécurité et de conformité RGPD. - Gérer les accès via Azure AD, Key Vault, Private Endpoints. - Documenter les flux, les métadonnées et les règles de gestion. 5. Support technique & expertise - Conseiller les équipes Data, AMOA et Métiers Assurance sur les meilleures solutions cloud. - Assurer un rôle de référent sur Azure Data Factory et les briques d’intégration data. - Accompagner les équipes dans leur montée en compétence. Profil / compétences recherchées Compétences techniques obligatoires - Maîtrise approfondie d’Azure Data Factory (pipelines, triggers, integration runtime, Data Flows). - Très bonne connaissance d’Azure Data Lake Storage (ADLS Gen2). - Expertise en Azure SQL, Synapse Analytics, Azure Functions. - Pratique des environnements CI/CD Azure DevOps. - Maîtrise du SQL avancé et de l’optimisation de requêtes. - Connaissance des enjeux du secteur de l’assurance : données contractuelles, sinistres, référentiels, réglementaire. Compétences nice to have - Notions de Databricks / PySpark. - Connaissance des modèles Data Vault / Lakehouse. - Expérience avec Power BI ou des outils de visualisation. - Compréhension des normes Solvabilité II, IFRS 17, des risques et de l’actuariat. Compétences / Qualités indispensables: Maîtrise approfondie d’Azure Data Factory Anglais courant
Mission freelance
Architecte Data IoT
Publiée le
Apache Kafka
Architecture
IoT
12 mois
730-750 €
Lille, Hauts-de-France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un "Architecte Data IoT" pour un client dans le secteur du retail. Description La Data est centrale dans notre écosystème IoT : elle alimente la BI, la maintenance prédictive, la détection d'accidents et la conception intelligente de nos futurs produits. 🎯 Votre Mission : Architecturer la Data de l'IoT du Groupe Au sein de l'équipe "Cloud IoT Platform - Data Solution", vous agissez en tant que Data Architect / Lead Engineer . Vous êtes le garant des choix techniques et de l'architecture permettant d'ingérer, stocker et exposer les données venant du Cloud, des "Devices" et du Mobile. Vos responsabilités clés : Architecture & Stratégie : Imaginer et concevoir l'architecture Data pour collecter les données IoT (directement des appareils ou via mobile). Définir la stratégie des stacks techniques et garantir les standards d'architecture. Assurer l'alignement entre la vision technique, les priorités business et les besoins utilisateurs. Engineering & Pipelines : Construire des pipelines de données (structurées et non structurées) robustes et scalables. Maintenir et redesigner les pipelines existants pour servir de nouveaux cas d'usage (Analytics, IA, etc.). Garantir l'industrialisation des processus de transformation et le CI/CD. Qualité & Gouvernance : Assurer la scalabilité, l'élasticité et la fiabilité des infrastructures. Garantir la qualité de la donnée, son accessibilité, ainsi que le respect des normes de Privacy et Data Governance (Lineage). Leadership Technique : Contribuer activement à la communauté des Data Engineers. Assurer une veille technologique constante pour orienter la sélection des nouveaux outils. 🛠 Environnement Technique Langages : Python, Scala, Java. Big Data & Streaming : Kafka, Spark. Cloud & Infrastructure : AWS (Lambda, Redshift, S3), Microservices. Concepts : Systèmes distribués, Data Modeling, Real-time data exchanges.
Mission freelance
Data Engineer / Data Analyst Python
Publiée le
Analyse
KPI
Python
3 ans
320 €
Marseille, Provence-Alpes-Côte d'Azur
🔍 Nous recherchons un(e) Data Analyst / Data Engineer pour renforcer une équipe existante et accompagner la transformation digitale et la gestion des données réglementaires du département Chartering , dans un contexte fortement exposé aux enjeux de conformité FUEL EU . 1) Suivre et agir pour la transformation digitale et la gestion/collecte des données réglementaires du département Chartering (état des lieux et mise en place de process) 2) Collecter les informations nécessaires pour le calcul de la compliance FUEL EU et tenir à jour les bases de données spécifiques pour ces calculs et leurs couts 3) Elaborer et comparer les différentes options pour diminuer l’exposition réglementaire 4) Contrôler et challenger les informations et projections communiquées par les armateurs et les lignes exploitantes 5) Mettre en place des outils et KPI’s permettant des prises de décisions opérationnelles 6) Négocier / coordonner avec les armateurs le timing et la nature des mesures pour compenser ou neutraliser les déficits réglementaires 7) Présenter et partager les résultats avec les lignes, plateau IMO, départements/métiers concernés
Offre d'emploi
Expert Kubernetes / Openshift – Senior (H/F)
Publiée le
Ansible
Docker
Kubernetes
1 an
Île-de-France, France
Objectif global : Administrer et maintenir les plateformes de conteneurisation (Docker, Kubernetes, Openshift), en assurant la performance, la sécurité et l’automatisation des environnements. Description détaillée de la mission : La mission se déroule au sein de l'équipe Infrastructure CaaS. L’objectif est la prise en charge des plateformes d’orchestration de conteneurs pour les projets Cloud et les initiatives de transformation IT. L’équipe travaille en mode Agile, favorisant l’automatisation et l’amélioration continue des services. Tâches principales : Déployer, configurer et maintenir les plateformes Docker, Kubernetes et Openshift pour assurer l’isolation et la performance des applications. Rédiger et maintenir les playbooks Ansible pour automatiser déploiements et configurations. Collaborer avec les équipes ADM, APS et les partenaires métiers pour tous les sujets liés aux conteneurs. Mettre en place les politiques de sécurité, gérer les vulnérabilités et contrôler l’accès aux conteneurs selon les normes en vigueur. Assurer la maintenance préventive et curative des systèmes conteneurisés, suivi des incidents et disponibilité des services. Suivre les avancées technologiques en matière de conteneurs, stockage et sécurité pour proposer des solutions innovantes. Respecter la gouvernance CIB et ITO et coordonner avec les partenaires mondiaux pour garantir l’alignement sur l’architecture et les principes IT. Compétences techniques : Docker – Expert Kubernetes – Confirmé / Expert Openshift – Confirmé / Expert Linux / Systèmes – Confirmé Automatisation (Ansible, scripts) – Confirmé Sécurité des conteneurs – Confirmé Compétences linguistiques : Anglais professionnel (Impératif)
Mission freelance
Data Engineer
Publiée le
Azure Data Factory
Azure DevOps
Databricks
1 an
500-550 €
Paris, France
Télétravail partiel
Intégré(e) aux équipes Data (Data Engineers, BI, Sécurité, Infrastructure), vous interviendrez sur la conception, le développement et l’industrialisation des pipelines data dans un environnement Azure. Vos principales responsabilités : Concevoir des pipelines d’ ingestion et de transformation (batch et near-real-time) Développer et maintenir des flux sous Azure Data Factory Implémenter des traitements Spark via Databricks Mettre en place la qualité des données , le monitoring et la reprise sur erreur Versionner, packager et livrer via des pipelines CI/CD Collaborer avec les équipes BI, sécurité et infra 🛠️ Industrialisation & DataOps Respect des standards de développement et de nommage Mise en œuvre de pipelines CI/CD Documentation et maintien des bonnes pratiques Data Contribution à la performance et à la robustesse des traitements
Offre d'emploi
Architecte Data spécialisé Databricks (F/H)
Publiée le
80k-90k €
Paris, France
Télétravail partiel
Data Architect spécialisé Databricks (F/H) - CDI - Paris 12 - 80-90K€ Contexte Vous rejoindrez la Data Factory , une structure d'excellence au sein du département "Fabrique Digitale" de notre client. Cette équipe accompagne des projets complexes de transformation data en rassemblant l'ensemble des compétences nécessaires : BI, Big Data, Data Analytics, Dataviz et Data Science. La Data Factory adresse des enjeux stratégiques majeurs : construction de référentiels de données, datawarehouses opérationnels, outillages de simulation et prévisions, datalakes, algorithmes prédictifs et tableaux de bord décisionnels. Vous piloterez le déploiement de la plateforme data groupe qui repose sur des concepts architecturaux innovants dont la notion de Data Mesh et des offres de self-service métier. De nouveaux concepts architecturaux structurent la plateforme. Votre expertise sera mobilisée pour : Fournir une expertise d' Architecte Solution orientée usages métiers, avec une connaissance approfondie des projets data en cloud public Servir de référent technique auprès des squads métiers en mode Agile pendant les phases de build et transition vers le run Challenger les besoins et imposer les bonnes pratiques du cadre de cohérence technique Assurer un relationnel excellent avec les équipes projets et les métiers Vous cumulerez les responsabilités d'un architecte opérationnel et d'un super-tech-lead, avec une implication quotidienne auprès des équipes de développement. Missions : Pilotage technique et accompagnement des projets Fournir l'expertise technique plateforme aux squads projets, du cadrage jusqu'à la mise en service Représenter la plateforme data groupe lors des cérémonies Agile (Go/NoGo, réunions stratégiques) Assister les tech leads dans leurs choix architecturaux et la rédaction des DAT (Document d'Architecture Technique) Identifier et évaluer les risques techniques (fonctionnalités manquantes, impacts planning Onboarding et accompagnement des équipes Réaliser l'onboarding des squads projets pour l'architecture plateforme et les bonnes pratiques Assister aux entretiens de recrutement des tech leads et développeurs métier Coacher les équipes pour optimiser les solutions et mettre en place des méthodologies de monitoring Sensibiliser à la gouvernance des données, en particulier données sensibles et données à caractère personnel Supervision et coordination Superviser les interventions des Data Ingénieurs plateforme (ingestion, exposition de données) Coordonner avec les leads de pratique (Data Management, Dataviz, ML Ingénieur) S'assurer de la validation architecturale de bout en bout avec les autres SI Participer aux phases de VSR (Verification & Service Readiness) Support et exploitation Contribuer au MCO (Maintien en Condition Opérationnelle) en tant que support N3 Participer à la résolution d'incidents en production Réaliser les actes de restauration du service Conduire l'analyse des root causes des dysfonctionnements Documentation et qualité Vérifier la complétude des contrats d'interface fournis par les squads projets Garantir la qualité technique et documentaire des livrables Contribuer à l'amélioration des briques socle et leur cadrage technique Contributions transversales Apporter votre expertise de data engineer et d'architecte opérationnel à la Data Factory Contribuer à des PoC et études ciblées Participer aux cérémonies Scrum Agile Réaliser des démos et présentations auprès des clients Livrables attendus Développements et scripts demandés Documents de cadrage, DAT et rapports d'avancement Macro estimations budgétaires et offres de solution technique Analyses de risques techniques et audits de faisabilité Cahiers de tests et procédures d'installation en production Documents de paramétrage et procédures de maintenance Rapport de fin de mission détaillant la démarche, développements réalisés, difficultés et solutions apportées
Mission freelance
Profil Data hybride / Alteryx / Power BI
Publiée le
Alteryx
Google Cloud Platform (GCP)
Microsoft Power BI
3 ans
400-500 €
Montpellier, Occitanie
Télétravail partiel
Pour l’un de nos clients grand compte, nous recherchons un Profil Data hybride ALTERYX / Power BI capable à la fois de challenger les métiers fonctionnellement (recueil et reformulation du besoin, rédaction de specs, validation) et d’assurer une partie technique / développement (ETL, requêtage, reporting). Être l’interface entre les utilisateurs métiers et l’équipe technique, traduire les besoins en spécifications exploitables, concevoir et développer les traitements et livrables data (ETL, requêtes, tableaux de bord), assurer la qualité et la maintenabilité des livrables. Responsabilités Recueillir, clarifier et challenger les besoins métiers ; réécrire et structurer les demandes pour les rendre exploitables. Rédiger les spécifications fonctionnelles et techniques (US, critères d’acceptation). Concevoir et développer des flux ETL / transformations avec Alteryx . Modéliser, optimiser et maintenir des requêtes et procédures sur Oracle (SQL / PL/SQL). Développer et publier des Dashboard Power BI (modèles tabulaires, DAX, performance). Développer des applications simples ou prototypes avec PowerApps (souhaité).
Offre d'emploi
Data Steward (H/F)
Publiée le
Data governance
1 an
45k-50k €
450-480 €
Lyon, Auvergne-Rhône-Alpes
Contexte de la mission Dans le cadre du renforcement de nos activités Data & IA , Winside recherche un Data Steward pour intervenir en régie chez un grand acteur national du secteur des services publics (nom volontairement anonymisé). Rattaché au Responsable Data du client, le Data Steward jouera un rôle clé dans l’ opérationnalisation de la gouvernance, de la qualité et de la valorisation des données , en collaboration avec les équipes IT et les équipes métiers. Le projet prioritaire du client en 2026 est la migration de son système d’information métier . L’enjeu consiste à capitaliser sur les travaux réalisés dans le cadre de cette migration pour structurer et documenter les données, tout en minimisant l’effort demandé aux équipes métiers. Les périmètres de données concernés sont : Les objets métiers impactés par les nouvelles fonctionnalités du SI cible. L’objet métier Client (référentiel client). Missions principales 1. Mise en place d’un Data Catalog & Glossaire métier Définir l’outil et la structure du data catalog dans une approche « juste nécessaire » (Excel, Notion… pas de solution outillée prévue en 2026). Rédiger les définitions fonctionnelles des données (glossaire). Formaliser le cycle de vie des données. Structurer, harmoniser et animer la documentation fonctionnelle et technique des données. 2. Mise en place d’un cadre de Data Quality Management Définir les principes, règles et contrôles de qualité des données. Concevoir les workflows de gestion entre acteurs IT et métiers. Participer à la conception des tableaux de bord de qualité et de l’alerting associé. 3. Appui à la conception du modèle de gouvernance des données Définir processus, rôles, responsabilités et instances de gouvernance. Accompagner la structuration du modèle opérationnel.
Offre d'emploi
Ingénieur Data
Publiée le
Apache Hive
Apache Spark
Cloudera
28k-42k €
Vannes, Bretagne
Missions principales Contribuer au développement et à l’industrialisation des traitements Big Data. Intervenir en transverse auprès des différentes équipes (IT et métiers). Challenger les besoins métiers et proposer des solutions techniques pertinentes. Participer à l’amélioration continue des performances et de la qualité des données. Environnement technique Environnement technique : SPARK, CLOUDERA, HADOOP, Java, Hive Profil recherché – Hard & Soft Skills 5 à 8 ans d’expérience en environnement Big Data (Spark / Hadoop / Hive / Java). Solide culture data et environnement distribués (type Cloudera). Excellente capacité de prise de recul et de compréhension des enjeux métiers. Aisance relationnelle et posture transverse : capacité à challenger et à accompagner les équipes métiers. Présence à Vannes 3 jours par semaine - Non négociable
Offre d'emploi
Data analyst
Publiée le
Microsoft Power BI
Microsoft SSIS
SQL
12 mois
40k-44k €
370-400 €
Toulouse, Occitanie
Télétravail partiel
Nous mettons à disposition de différentes équipes des dashboards Power BI. Nous sommes autonomes sur toute la chaîne de liaison, incluant : -Récupération des besoins -Récupération de la donnée -Modélisation -Intégration de la donnée à l'entrepôt de données -Dashboarding -Livraison -Administration du service Power BI -Support et formation des utilisateurs aux dashboards Nous cherchons quelqu'un d'organisé, rigoureux, logique et doté d'un bon sens de communication (écoute et restitution) pour intégrer le pôle BI de 4 personnes. Votre travail consistera à : -Concevoir et développer les rapports attendus sur Power BI -Intégrer de nouvelles données dans notre entrepôt de données -Concevoir et développer des bases de données agrégées -Récupérer les nouveaux besoins -Intégrer ces données -Suivre les tâches dans Jira -Assurer le support sur les dashboards et répondre aux interrogations des utilisateurs Les rapports sont des dashboards à destination des équipes supports informatique : -Cycle de vie des incidents -Flux d'incidents entre les différentes équipes -Source de données : ITSM, Service Now
Offre d'emploi
Lead Technical Architect – Environnement Finance de Marché (H/F)
Publiée le
Big Data
Finance
Time series
3 ans
46k-58k €
400-550 €
Île-de-France, France
Télétravail partiel
🎯 Contexte Un département stratégique dédié à la recherche quantitative en finance de marché recherche un Lead Technical Architect pour renforcer ses équipes. La mission s’inscrit au cœur d’un environnement global, à forte intensité data et compute, travaillant en étroite collaboration avec des équipes Quant , IT , Research et Ops . Vous interviendrez sur des plateformes critiques liées au pricing , au risk management , aux time-series data et à la performance des systèmes de calcul. 🛠 Vos responsabilités Au sein du groupe en charge des infrastructures compute et market data, vous aurez pour missions : Repenser et optimiser l’architecture des services Compute et Histo . Améliorer la scalabilité , la performance et la résilience de l’infrastructure grid. Fournir des recommandations structurantes sur la stack haute disponibilité. Rewriting / refactoring de composants techniques ne répondant pas aux exigences de performance. Participer à la définition des frameworks pour les services de market data haute demande. Travailler au quotidien avec les équipes quant, recherche et ingénierie.
Mission freelance
Architecte SI - Data / Cloud (H/F)
Publiée le
SI
6 mois
800-900 €
Toulouse, Occitanie
Télétravail partiel
Notre client, acteur majeur du secteur aéronautique, crée un nouveau poste d’Architecte SI Data & Cloud (H/F) dans le cadre du renforcement de sa stratégie de modernisation autour de la donnée, du cloud et des architectures distribuées. Ce poste s’inscrit dans un contexte de structuration : les équipes et les pratiques d’architecture ne sont aujourd’hui pas encore clairement identifiées, et le futur Architecte aura un rôle clé dans leur définition, leur alignement et leur montée en maturité, en particulier sur les sujets data, cloud et microservices. Vos missions Rattaché à la Direction IT et en lien direct avec les équipes techniques et métiers, vous serez en charge de : • Structurer et coordonner les architectures Data & Cloud existantes tout en harmonisant les pratiques, • Définir le cadre et les processus d’architecture en collaboration avec les parties prenantes, avec un focus sur les environnements cloud et les approches microservices, • Mettre en place une gouvernance efficace et contribuer à l’application de la politique IT et Data, • Accompagner la montée en compétence et la structuration des équipes sur les technologies data, cloud et conteneurisation, • Contribuer à la stratégie de gouvernance des données, à la définition des architectures distribuées et à la cohérence globale du SI. Compétences techniques requises • Expérience confirmée en architecture Data, Cloud et microservices (technique et fonctionnelle), • Bonne compréhension des besoins métiers et capacité à définir des spécifications adaptées aux usages data, • Connaissances en data gouvernance, data management et conception d’architectures distribuées, • Maîtrise des environnements Cloud (Azure, AWS ou GCP) et des solutions de conteneurisation (Kubernetes, Docker), • Anglais professionnel apprécié.
Offre d'emploi
Incident Manager – Contexte ITIL – Environnement Applicatif Interne
Publiée le
IA
ITIL
Safe
1 an
Île-de-France, France
🎯 Contexte Dans le cadre du maintien opérationnel d’un périmètre applicatif interne utilisé par plusieurs milliers de collaborateurs, nous recherchons un Service Delivery Manager / Incident & Change Manager capable de piloter les processus ITIL, d’assurer la coordination avec les équipes techniques, et de garantir la qualité du service rendu. La mission s’inscrit dans un environnement complexe, fortement ITILisé, avec des enjeux forts de suivi des incidents majeurs , gestion des changements , résolution des problèmes récurrents , et amélioration continue . 📦 Livrables attendus Mise à jour complète des outils ITSM (ServiceNow, outils internes de gestion de crise) Documentation opérationnelle à jour Traçabilité et historiques des modifications Reporting régulier : KPI, SLA, backlog, plans d’actions Participations aux cérémonies Agile & comptes-rendus associés 🛠️ Missions principalesGestion des incidents & crises Piloter le processus de gestion des incidents, incidents majeurs et crises Assurer une résolution rapide et efficace Coordonner les escalades techniques & garantir le respect des SLA Gestion des changements Analyser et valider les demandes de changement Organiser et animer les CAB Superviser les mises en production et la qualité des releases Gestion des problèmes Identifier, analyser et suivre les problèmes majeurs / récurrents Piloter les plans d'actions pour éliminer les causes racines Contribuer à la réduction du backlog Reporting & pilotage Produire les KPI, SLA, états de backlog, suivis des incidents Assurer un reporting clair, structuré, régulier Amélioration continue Collaborer avec l’équipe Process & Tools Contribuer à la standardisation et à l’évolution des processus ITSM Participer aux réunions Agile pour fluidifier la coopération transverse 🧰 Compétences requisesTechniques & ITIL Très bonne connaissance des processus ITIL (certification appréciée) Maîtrise des outils ITSM : ServiceNow, outils internes équivalents Compétences en diagnostic d’incidents complexes Expérience en gestion opérationnelle, exploitation, coordination IT Connaissances IA (requis dans le cahier des charges) Compréhension des concepts : Machine Learning, Générative AI, RAG, LLM, agents, prompts, hallucinations Capacité à formuler des requêtes efficaces pour outils IA Connaissance des enjeux RGPD et éthiques liés à l’IA Langues Français courant (impératif) Anglais courant en contexte professionnel (impératif) Certification Safe obligatoire
Mission freelance
Ingénieur étude décisionnel Datastage / Power BI
Publiée le
Teradata
Test unitaire
Ticketing
18 mois
150-400 €
Paris, France
Contexte du besoin le client dans le cadre de son activité Décisionnel, recherche un profil en développement Datastage / Power BI afin d'intégrer l'équipe développement Expérimenté (profil ayant une expérience de 3 à 7 ans dans la même famille de prestations, sur justification des références clients) renforcement de l'équipe de développement avec l'intégration d'une resource maitisant la partie alimentation (ods, dwh, datamart) et la partie restitution avec l'outil Power BI, . Fort de ses expériences techniques sur cette technologie, le prestataire devra également montrer ses connaissance des méthodes Agiles (plus particulierent SCRUM ) MISSIONS Rattaché au responsable développement du SI Décisionnel, l'intervenant aura pour principales missions : - Développement de programme dataware, datamart (Datastage et SQL) - Développement de dataset, dataflow et rapports sous l' outil Power BI - Test unitaire et livraison - Respect des normes et bonnes pratiques au sein du SID - Prise en compte d'anomalie, d'évolution en lien avec le BE et la qualification - Optimisation de requêtes SQL Technologie ou les certifications attendues : POWER BI dans un environnement Datastage Teradata, et PostgreSQL Définition des prestations attendues : Prestation de développement en coordination avec équipe BE , qualification et scrum master Environnement technique - technologique "ETL/ELT/Traitement : Datastage/SQL Restitution : PowerBI (dataset, dataflow, rapports) Stockage : Teradata, PostgreSQL" Compétences techniques Connaissance d'ETL/ELT décisionnel : DATASTAGE plus particulièrement Requêtage SQL Développement de restitution Décisionnel POWER BI (Dataset, dataflow, rapports) Méthode SCRUM & Manipulation d’un gestionnaire de ticketing (type JIRA) Compétence métiers Expérience dans l'écosystème de la protection sociale Retraite Complémentaire des salariés du privé idéalement
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Futur freelance architecte logiciel
- Ingénieur preuve de concept, logiciel, simulateur, démonstrateur
- Calcul de l'indemnité de la rupture conventionnelle
- Motif légitime de report de rendez-vous France Travail (création entreprise freelance)
- Création de site Wordpress : BIC ou BNC ?
- Comment j'ai décroché une mission en bypassant l'ESN - et l'outil que j'ai créé
3510 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois