L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 480 résultats.
Mission freelance
Data Engineer (Snowflake / Qlik) - RENNES, NANTES, BREST, CAEN
Signe +
Publiée le
Qlik Sense
Qlikview
Snowflake
6 mois
Bretagne, France
Ingénieur Data & BI (Snowflake / Qlik) Pour l'un de nos clients, nous recherchons un Ingénieur Data et BI. Périmètre Data : L'équipe Data intervient sur plusieurs domaines (Data Engineering, Data Viz, … ) Data Visualisation et BI (Qlik Cloud) : Préparer et transformer les données pour leur exploitation. Concevoir, développer et maintenir des applications et tableaux de bord interactifs. Proposer des designs pertinents de dashboards répondant aux besoins métiers. Gérer les accès utilisateurs et groupes. Assurer la maintenance et la qualité des applications existantes. L'équipe intervient également à la partie reporting et administration : Conception et automatisation de rapports (Excel, PDF, …). Supervision de la plateforme Qlik : gestion des catalogues et applications, suivi des licences, clés et APIs. Diagnostic et résolution des incidents (logs, API Qlik). Compétences requises : 3 ans d'expérience sur l’utilisation de Qlik (QlikSense, QlikCloud ...) et Snowflake (préparation et optimisation des données). Bonne compréhension des principes d’architecture BI et des bonnes pratiques de modélisation. Capacité à optimiser les applications et améliorer la performance des modèles de données. Points clés pour réussir Être autonome et curieux : (forums, documentation, veille technique)... Avoir une base technique solide sur les modules de Qlik (Analyse, Automation). Comprendre les enjeux d’administration, même si ce n’est pas le cœur du métier. Être capable de diagnostiquer les problèmes d’accès, de configuration ou de logique métier. Autonome, curieux, capacités relationnelles
Mission freelance
Data Engineer industriel
MLMCONSEIL
Publiée le
Dataiku
IBM Maximo
Microsoft Excel
6 mois
100-500 €
Paris, France
Profil Data senior orienté environnement industriel, capable de reprendre, structurer et fiabiliser des données complexes. Maîtrise de SQL, Python et Excel/VBA pour l’analyse, l’automatisation et le reporting. Expérience requise sur Dataiku et IBM Maximo pour l’ingestion, la normalisation et la gestion des données de maintenance. Capacité à comprendre les enjeux métiers (maintenance, référentiels) et à les traduire en modèles de données exploitables. . . . . . . . .
Offre d'emploi
Data Engineer Databricks
KOMEET TECHNOLOGIES
Publiée le
Apache Spark
Databricks
45k-60k €
Paris, France
En tant que Data Engineer, vous intervenez sur la conception, le développement et l’optimisation de pipelines de données robustes et scalables. Vous travaillez au cœur des plateformes Data afin de garantir la qualité, la disponibilité et la performance des données utilisées par les équipes métiers, BI et Data Science. Expérience attendue : 3 à 8+ ans en ingénierie Data. Vous correspondez au/à la Data Engineer que nous recherchons si : Vous évoluez efficacement au sein d’équipes agiles et pluridisciplinaires , en collaboration étroite avec les équipes Data, IT et métiers Vous faites preuve d’un fort esprit analytique et d’une grande rigueur Vous êtes autonome , proactif et doté d’un solide sens des responsabilités Vous êtes capable de communiquer clairement avec des interlocuteurs techniques comme non techniques Vous savez prioriser vos tâches , gérer les contraintes et respecter vos engagements Vous disposez d’un bon esprit de synthèse et êtes orienté résultats et valeur métier Vous avez une bonne connaissance des environnements Business Intelligence , Big Data et des architectures Lakehouse Vous avez déjà travaillé sur des plateformes Data modernes (Cloud) Vous maîtrisez SQL comme langage d’interrogation des données et avez des notions de modélisation de données (architecture médaillon, modèle en étoile …) Vous disposez d’un bagage en software engineering , vous permettant d’écrire un code robuste, lisible, maintenable et testable, notamment en Python Vous appliquez les bonnes pratiques de développement : structuration du code, modularité, gestion des dépendances, conventions de nommage Vous êtes sensibilisé aux principes de qualité logicielle (tests unitaires, tests d’intégration, revue de code) Vous êtes à l’aise avec les outils de versioning ( Git ) et les workflows collaboratifs associés Vous savez concevoir des pipelines Data comme de véritables produits logiciels, en tenant compte de la maintenabilité, de l’évolutivité et de l’observabilité
Mission freelance
DevOps Engineer Senior
Aneo
Publiée le
AWS Cloud
Kubernetes
Python
7 mois
500-680 €
Paris, France
Le projet Le client (finance) utilise AWS depuis quelques années, d’abord sur une stack HPC (librairie permettant de distribuer sur AWS Batch l’exécution d’un DAG), puis avec une stack SageMaker (expérience interactive via l’utilisation de Studio JupyterLab / MLFlow). Ce projet, comme les précédents, prend la forme d’un MAP (Migration Acceleration Program), approche structurée par AWS (Assess - Mobilize - Migrate). La phase Assess a identifié une typologie d’usages (embarassingly parallel map, cross-partition shuffling / window-heavy computation, dataset-level summaries, ML/tensor-preparation, interactive exploration) et 3 technologies-clés : 1) Ray/Daft 2) Spark (via EMR) et 3) Iceberg, comme couche de stockage/accès aux données. La phase de Mobilize doit permettre : ● De valider la capacité de ces outils à adresser les enjeux de feature engineering avec les contraintes ci-dessus exprimées , et une expérience chercheur aussi aisée que possible. ● D’envisager leur exploitation dans un mode “plateforme” / industrialisé ; les aspect self-service, observabilité technique et finops, sont clés. Exprimée aujourd’hui comme un side-topic, l’exploitation unifiée des technologies ci-dessus sur un socle Kubernetes (sur EKS) pourrait devenir un sujet central de la phase Mobilize. Cette phase de mobilize doit durer 7 mois et sera réalisée par une équipe de 3 personnes: Un software engineer, un devOps (vous) et un data Engineer. Ce qu’il vous faudra démontrer: ● Mise en œuvre de stacks data : Expérience pratique de mise en œuvre d’EMR ainsi que de clusters hors service managé EMR (donc, sur EC2, Batch, ou EKS). Expérience sur Kubernetes ● Architectures lakehouse modernes : expérience pratique avec Iceberg : recul sur l’interopérabilité multi-moteurs (Spark/PyIceberg), gestion des permissions. ● Infrastructure AWS & IaC : Solide maîtrise du déploiement de plateformes de données de qualité production sur AWS en utilisant Terraform. ● Observabilité & FinOps : Expérience dans la mise en œuvre du tagging d'allocation des coûts, la construction de tableaux de bord CloudWatch pour 1) le suivi des jobs et des coûts, et la conception de mécanismes d'application de quotas/budgets pour les plateformes de recherche multi-tenants et 2) le suivi des performances des applications Data. Compétences techniques -> Bonne maitrise et expérience de EKS -> Maitrise du cloud AWS (services EMR, S3, Daft serait un plus) et notamment des aspects IAM (gestion multi-comptes) -> Avoir déjà touché a du Iceberg est un plus -> Maitrise de Terraform -> Anglais courant obligatoire Localisation Paris, présence sur site obligatoire à minima 3j/semaine
Offre d'emploi
Senior Data Engineer F/H
Atecna
Publiée le
Apache Airflow
DBT
ETL (Extract-transform-load)
Lille, Hauts-de-France
Des missions data à fort impact, une communauté en pleine expansion. Tu arrives au bon moment ! Atecna, c'est une agence d'expérience digitale avec une mission claire : intégrer l'innovation technologique de manière responsable pour assurer la compétitivité et la performance de nos clients. Un ensemble d'experts qui couvrent toute la chaîne de valeur du digital : du cadrage à l’adoption. Et derrière tout ça, près de 200 Atecniens répartis sur 6 agences. 👥 Ta future équipe Tu rejoins la communauté Data, animée par Steve et une équipe d'experts passionné·es en pleine structuration. Une équipe qui capitalise sur ses expériences projets et partage activement ses bonnes pratiques et sa veille sur l'écosystème data. Tu es en mission chez nos clients, mais tu contribues aussi à quelque chose de plus grand : faire grandir l'expertise Data d'Atecna de l'intérieur. ⚡ Ton impact au quotidien Grâce à toi, nos clients cessent de subir leurs données et commencent à en faire un vrai levier de décision. Tu conçois et industrialises des pipelines data robustes (ETL/ELT, batch, streaming) Tu orchestres les flux avec les bons outils (Airflow, dbt…) dans des environnements cloud (GCP en priorité) Tu modélises et optimises des bases de données pour des usages métiers concrets Tu contribues à la structuration de la communauté Data Atecna : pratiques, standards, montée en compétences Bonus : tu as déjà monté une plateforme data from scratch ou tu as une appétence pour le mentorat ? Ce serait un vrai atout pour nous.
Mission freelance
Senior Mobile QA Engineer
NEXORIS
Publiée le
Appium
Cucumber
Playwright
1 an
450-500 €
Paris, France
Notre client recherche un Senior Mobile QA Engineer (H/F) dans le cadre d'une longue mission. Au sein de la tribu mobile, la mission consiste à garantir la qualité d’une application à fort volume d’utilisateurs dans un environnement international, en mettant l’accent sur l’automatisation et les stratégies QA avancées. - Définition et mise en œuvre de la stratégie de tests de l’équipe - Pilotage des activités qualité en collaboration avec PO, Scrum Master et équipe technique - Mise en place d’une approche Shift-Left (anticipation des tests en amont) - Développement et promotion de l’automatisation des tests - Priorisation basée sur les risques dans un contexte de releases fréquentes - Investigation autonome des anomalies (API, logs, microservices) - Utilisation des outils Jira / X-Ray pour le suivi et l’exécution des tests - Rédaction des scénarios en langage Gherkin - Contribution à l’amélioration continue des pratiques QA
Offre d'emploi
Data Engineer dbt / Snowflake Senior (H/F)
Link Consulting
Publiée le
DBT
Snowflake
Bordeaux, Nouvelle-Aquitaine
Notre client, acteur international du secteur pharmaceutique, recherche un Data Engineer Senior dbt / Snowflake (H/F) afin de renforcer sa plateforme data analytique. Vos missions : Au sein d’une équipe data internationale, vous interviendrez sur : La conception et le développement de pipelines ELT performants La modélisation des données analytiques (faits, dimensions) L’optimisation des performances Snowflake et requêtes SQL La mise en œuvre des bonnes pratiques DataOps et CI/CD La gestion de la sécurité des données (RBAC, RLS, masquage dynamique) L’ingestion de données depuis des environnements cloud AWS La mise en place de tests de qualité et de monitoring data Les compétences techniques Snowflake (Time Travel, Zero Copy Cloning, Snowpipe) dbt (models, macros, tests, snapshots, DAGs) SQL avancé AWS S3 Git, CI/CD, automatisation DataOps
Mission freelance
Firmware Engineer – Embedded Systems - IDF (H/F)
EASY PARTNER
Publiée le
Cisco IOS
Hardware
IoT
6 mois
430-550 €
Paris, France
Vous interviendrez sur le développement et l’évolution de firmwares embarqués sur microcontrôleurs. Vos responsabilités incluent : Développement en C embarqué Intégration et évolution de firmwares existants Participation à la migration d’OS temps réel (RTOS) Travail sur des systèmes communicants (radio / IoT) Analyse, correction de bugs et amélioration continue Rédaction et amélioration de la documentation technique Participation aux cycles de développement en environnement Agile Environnement technique Langage : C embarqué OS : RTOS (Micrium OS / FreeRTOS) Hardware : microcontrôleurs / systèmes embarqués Communication : radio / IoT
Mission freelance
Freelance – GenAI Engineer & Full-Stack Developer H/F
Comet
Publiée le
BigQuery
GenAI
Large Language Model (LLM)
5 mois
400-600 €
Île-de-France, France
Contexte de la mission : Dans le cadre d’un projet ambitieux pour un grand groupe international, nous recherchons un profil hybride GenAI Engineer + Développeur Full-Stack . L’objectif est de concevoir et déployer un workflow agentique (multi-agents) capable d’automatiser des stratégies SEO et de contenu à grande échelle. 💡 Exemple concret : Optimiser automatiquement les performances SEO d’une page produit actuellement positionnée en 8-9e position, afin d’améliorer son ranking via : l’optimisation sémantique, la création de liens internes, l’expansion des territoires de mots-clés. Objectifs : Automatiser la génération et l’optimisation de contenu SEO via des agents IA Structurer et exploiter des datasets existants à grande échelle Déployer la solution sur 50 pays et 32 marques Industrialiser les workflows avec une approche agnostique et scalable Architecture du projet : Le projet s’articule autour de 3 briques principales : Data Layer : ingestion et structuration des données dans BigQuery Agentic Layer : conception de workflows multi-agents (GenAI, prompt engineering avancé) Activation Layer : injection des outputs dans deux SaaS : CLS Box SiezBot Le site est scrappé mensuellement et dispose déjà d’un volume de données conséquent.
Offre d'emploi
Quality Engineer F/H
Atecna
Publiée le
Automatisation
Cypress
JIRA
Lille, Hauts-de-France
Des projets qualité à fort enjeu, une communauté en pleine structuration. Tu arrives au bon moment ! Atecna, c'est une agence d'expérience digitale avec une mission claire : intégrer l'innovation technologique de manière responsable pour assurer la compétitivité et la performance de nos clients. Un ensemble d'experts qui couvrent toute la chaîne de valeur du digital : du cadrage à l’adoption. Et derrière tout ça, près de 200 Atecniens répartis sur 6 agences. 👥 Ta future équipe Tu rejoins la communauté Qualité, animée par Ludivine et une équipe d'une vingtaine d'experts passionné·es : testeurs manuels, automaticiens et leads QA. Tu interviens en mission chez nos clients, mais tu contribues aussi à quelque chose de plus grand : faire grandir l'expertise Qualité d'Atecna de l'intérieur, en partageant tes bonnes pratiques, ta veille et tes retours d'expérience avec le collectif ⚡ Ton impact au quotidien Tu interviens sur des projets clients dans des environnements web & mobile, auprès de clients de tailles et de secteurs variés. Tu conçois et automatises des scénarios de test as code (Cypress, Playwright, Espresso ou équivalent) pour garantir la qualité des livrables clients Tu gères et priorises les anomalies via les outils adaptés (Jira, Redmine, Mantis) et tu assures un reporting clair et exploitable (Data Studio, X-Ray) Tu collabores étroitement avec les équipes de développement, produit et métier pour intégrer la qualité au cœur du cycle de delivery Tu contribues à la structuration des pratiques QA au sein de la communauté Qualité Atecna : standards, outillage, montée en compétences Tu te tiens en veille active sur les évolutions de l'écosystème test et tu partages tes apprentissages (meetups, articles, retours d'expérience) Tu es sensible aux enjeux d'accessibilité numérique et tu les intègres dans tes approches de test quand le contexte client s'y prête
Offre d'emploi
Data Engineer / Data Scientist
ONSPARK
Publiée le
Cloudera
Hadoop
Python
4 ans
Paris, France
Contexte OnSpark est un cabinet spécialisé dans la GMAO/EAM et l'intégration SI, en forte croissance (40 collaborateurs, CA 3,3 M€). Dans le cadre de la diversification de son offre vers la Data et l'Intelligence Artificielle, nous recherchons un Data Engineer / Data Scientist pour accompagner nos clients grands comptes. Vous interviendrez au sein d'un Pôle Data mature, exploitant une plateforme Big Data on-premise (Cloudera Data Platform Private Cloud) et un environnement de Data Science (Cloudera Machine Learning). Vos missions s'articulent autour de l'ingestion de données massives issues de multiples partenaires institutionnels, de l'accompagnement des équipes métier et de la mise en œuvre de cas d'usage data avancés (data science, IA, machine learning, NLP, dataviz). Responsabilités Collecte des données Développer, industrialiser et maintenir des pipelines d'ingestion de sources de données internes et externes Participer à la préparation et au suivi de la qualité des données Identifier des opportunités d'utilisation de nouvelles données Expertise & accompagnement métier Accompagner les chargés d'études dans leur utilisation de la plateforme de données (POC/POV, support, expertise, formation) Contribuer et maintenir en condition opérationnelle les cas d'usage sur la plateforme (simulateurs, prévisions, indicateurs, data science, IA) Valoriser et exposer les résultats via des outils de visualisation ou de micro-services Sécuriser & MCO Comprendre les contraintes des équipes supports (sécurité, infrastructure, RGPD) Contribuer aux bonnes pratiques de développement, standardisation des livrables, amélioration continue
Offre d'emploi
Expert / TechLead GCP - Toulouse
Groupe Aptenia
Publiée le
Google Cloud Platform (GCP)
Google Kubernetes Engine (GKE)
IAM
6 mois
Toulouse, Occitanie
Nous recherchons un Expert / Tech Lead GCP pour intervenir sur des projets stratégiques à forte valeur. Le rôle combine architecture cloud, DevOps/SRE et sécurité, avec une forte implication sur la conception et le delivery de solutions sur Google Cloud Platform. Vous évoluerez au sein d’une équipe cloud structurée, en lien avec différentes parties prenantes. Expertise GCP, Kubernetes (GKE), Terraform et sécurité (IAM, KMS, Zero Trust) requises. Poste basé en région toulousaine, avec perspective d’intégration en CDI après 6 mois de prestation.
Offre d'emploi
Senior Data Engineer Big Data
VISIAN
Publiée le
AWS Cloud
Python
1 an
Île-de-France, France
Contexte Dans le cadre de son plan de transformation Data, un grand groupe média poursuit un objectif central : développer des applications Data permettant aux directions métiers (pilotage, marketing, commerce, etc.) de gagner en autonomie dans l'analyse de leurs données et le suivi de leurs KPI mais aussi de mettre en place des applications customer-facing. Pour répondre à cet enjeu, ce groupe s'appuie sur un écosystème technologique étendu, comprenant notamment : AWS, GitLab, Terraform, DBT, Snowflake, GenAI, Braze, Scala, Spark, Python, Power BI , ainsi que des briques d'Intelligence Artificielle. La plateforme repose sur des architectures robustes et évolutives (Datalake, Lakehouse, des architectures multi-tenant, des architectures event-driven et streaming) conçues pour ingérer et gérer plus de 100 To de données par jour , dont une part majoritaire en temps réel. Les cas d'usage couverts sont variés, parmi lesquels : IA pour recommandation des programmes et des offres Plateforme agentique customer-facing Gender Equality Monitoring Feature Store Modernisation des flux financiers Content Platform Mise en place Kubernetes Plateforme pour le traitement des données CRM et usage Partager des informations sur les clients à des partenaires Piloter plus efficacement l'activité des marchés professionnels Mettre à disposition des applications de data-selfservice Le consultant aura pour mission de réaliser des développements avancés sur le socle des données Big Data pour la mise en place des usecases IA. Cet environnement Big Data, fortement orienté Streaming et IA, traite quotidiennement plus de 100 To de données . Le consultant doit maîtriser les architectures de Streaming Data, AWS (notamment Lambda, Batch, Step Function, EMR Serverless, Kinesis Stream, S3, Firehose, DynamoDB, etc.), Airflow, Scala, Spark, SQL, Snowflake, GitLab CI/CD, Terraform. Missions Concevoir et développer des pipelines de données performants Développer en utilisant des outils tels que Scala, DBT et Spark Implémenter des architectures de Streaming Data robustes Contribuer activement aux initiatives FinOps Développer et optimiser des traitements d'intégration de données en streaming Participer activement à l'évolution continue de la plateforme IA
Mission freelance
Sr. Azure Cloud Engineer
Phaidon London- Glocomms
Publiée le
Azure
Azure DevOps
microsoft
12 mois
600-800 €
Paris, France
Job title: Sr. Azure Cloud Engineer Location: Paris, France Contract: 12 month (renewable) Overview Nous sommes partenaires d’une organisation de premier plan dans le secteur des Services Financiers qui souhaite engager un Senior Azure Cloud Engineer sur une base contractuelle. Ce rôle jouera un rôle clé dans la conception et l’exploitation d’environnements cloud à l’échelle de l’entreprise, tout en soutenant des initiatives continues de transformation des plateformes. Mission La mission vise à améliorer les pratiques d’ingénierie cloud, avec un accent particulier sur l’optimisation des déploiements, la maturité de l’automatisation et l’observabilité, permettant une intégration plus étroite entre les disciplines d’ingénierie, de test et d’exploitation. Key Responsibilities Collaborer avec des équipes transverses pour concevoir et faire évoluer des architectures cloud basées sur Azure Agir en tant que point d’escalade senior pour le support de la plateforme Azure, y compris la mise en œuvre et l’extension des capacités Azure Landing Zone Piloter l’implémentation de solutions cloud dans des domaines tels que : Infrastructure et conception de plateformes Charges de travail containerisées et serverless Services de données et de stockage Réseautique, gestion des identités, sécurité et conformité réglementaire Garantir que les environnements cloud sont maintenus à l’aide d’approches reproductibles, automatisées et standardisées Être responsable des solutions de supervision, de journalisation et d’alerting afin d’assurer la fiabilité et la performance de la plateforme Fournir un support technique de second niveau aux équipes internes lorsque nécessaire Required experience: Solide expérience pratique (5 ans et plus) avec Microsoft Azure Forte expertise en CI/CD et en automatisation de l’infrastructure (ex. : GitLab, Jenkins, Terraform, ARM templates ou Bicep) Expérience confirmée (5 ans et plus) dans des environnements orientés DevOps Capacité démontrée à livrer et à faire évoluer de nouvelles plateformes et projets basés sur Azure Une expérience préalable dans les Services Financiers ou dans des environnements réglementés est indispensable
Mission freelance
QA Engineer Mobile
Axysse
Publiée le
Android
Android studio
Xcode
1 an
400-500 €
Île-de-France, France
🚀 QA Engineer Mobile / TV (H/F) – Mission longue durée – Paris Dans le cadre du renforcement d’une équipe produit digitale à fort trafic, nous recherchons un(e) QA Engineer expérimenté(e) pour intervenir sur des applications mobiles et TV à forte visibilité. Vous évoluerez au cœur d’un environnement agile, au sein d’une équipe produit mature, avec des enjeux élevés en matière de qualité, de performance et d’expérience utilisateur. 🎯 Votre rôle En tant que QA, vous serez garant(e) de la qualité des applications et interviendrez sur l’ensemble du cycle de validation : Définition et exécution des stratégies de tests (fonctionnels & techniques) Validation des releases (RC) avant mise en production Qualification et analyse des anomalies (front/back) Priorisation des incidents en lien avec le Product Owner Contribution aux rituels qualité et suivi des KPI Participation à l’amélioration continue des pratiques QA Vous travaillerez en étroite collaboration avec les équipes Produit, Développement et QA transverse dans un fonctionnement Agile (Scrum). 🧩 Vos responsabilités clés Concevoir et maintenir les référentiels de tests (Xray) Exécuter les campagnes de tests et produire les PV de recette (GO/NO-GO) Analyser les incidents en production (logs, proxy, etc.) Assurer un reporting régulier sur la qualité et la stabilité produit Contribuer aux réflexions autour de l’automatisation des tests ➕ Compétences appréciées Environnements TV (Android TV, tvOS) Outils : Charles Proxy, Proxyman, logs Xcode / Android Studio Tests automatisés (ou forte appétence) Cucumber / Gherkin Tests d’accessibilité (VoiceOver, TalkBack) Sensibilité produit et expérience utilisateur ⚙️ Environnement & conditions Mission basée à Paris avec présence sur site partielle (~50%) Environnement agile structuré (SCRUM) Possibilité d’astreintes ponctuelles Travail sur des produits à très forte audience et exigences élevées 💡 Pourquoi rejoindre cette mission ? Impact direct sur un produit digital utilisé à grande échelle Environnement technique stimulant et exigeant Forte culture produit et qualité Collaboration avec des équipes expérimentées
Mission freelance
Data Engineer expérimenté (H/F) - Nantes
CAT-AMANIA
Publiée le
Ansible
Data Engineering
Data Warehouse
1 an
Nantes, Pays de la Loire
Dans le cadre du renforcement d’une équipe Data stratégique, nous recherchons un Data Engineer expérimenté pour intervenir sur des projets à forte valeur ajoutée autour d’un socle data en constante évolution. Vous intégrerez une équipe agile composée d’experts data, d’un Scrum Master et d’un Product Owner, dans un environnement collaboratif axé sur l’innovation et l’excellence technique. La mission s’inscrit dans une dynamique combinant : Build : conception et développement de solutions data Run : maintien en conditions opérationnelles et optimisation continue Migration : accompagnement des évolutions techniques (notamment ETL → ELT) Modernisation : transformation vers des architectures data modernes Vos missions principales : Développer des traitements ELT (principalement xDI) pour alimenter un Datawarehouse Maintenir et faire évoluer les templates techniques Participer à la roadmap de migration (ETL vers ELT) Accompagner les équipes utilisatrices des solutions data Documenter les solutions mises en place Garantir la performance et la stabilité des traitements en production Identifier et proposer des optimisations dans une logique d’amélioration continue Partager vos connaissances et contribuer à la montée en compétence de l’équipe
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
480 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois