L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 373 résultats.
Offre d'emploi
Senior Développeur CUBE / SSAS - SSIS - SSRS
Publiée le
Microsoft Analysis Services (SSAS)
Microsoft Power BI
Microsoft SSIS
3 ans
Île-de-France, France
Télétravail partiel
La migration de SRManager d’un modèle SSAS multidimensionnel vers un modèle Tabulaire ; La migration de la plateforme vers Microsoft Azure ; L’enrichissement fonctionnel de l’outil, incluant de nouveaux indicateurs et métriques à destination des utilisateurs métiers ; La mise en place de fonctionnalités d’alerting basées sur des événements prédéfinis (dépassement de seuils, anomalies, problèmes de données, etc.) ; Le support opérationnel au quotidien de l’outil. Le consultant interviendra au sein de l’équipe SCIS (Sales, Communication & Investment Solutions), basée à Paris. Responsabilités principales 1. Modernisation de l’architecture SRManager Migrer le cube actuel SSAS multidimensionnel vers un modèle SSAS Tabulaire ; Optimiser les modèles de données et les performances ; Adapter et migrer les flux d’intégration de données existants sous SSIS ; Reconcevoir et migrer les rapports SSRS ; Déployer l’ensemble de la solution sur Azure (Azure Analysis Services ou Power BI Premium, Azure SQL Database, Azure Data Factory, etc.). 2. Évolutions fonctionnelles Développer et intégrer de nouveaux KPI et indicateurs demandés par les équipes Finance, Ventes et autres parties prenantes métiers ; Améliorer la logique métier existante et les règles de calcul ; Intégrer de nouvelles sources de données et faire évoluer le modèle de données si nécessaire. 3. Mise en place d’un système d’alerting Définir les événements métiers devant déclencher des alertes automatiques ; Développer un mécanisme d’alerting automatisé (emails, tableaux de bord, notifications) ; Assurer une intégration fluide au sein de l’écosystème SRManager existant.
Mission freelance
Responsable Strategie Data / IA senior
Publiée le
IA
1 an
400-600 €
Île-de-France, France
Localisation : Hauts-de-Seine Expérience : 7 an et plus Mission : 1 an renouvelable Spécialités technologiques : Intelligence artificielle Big Data Description et livrables de la prestation : Contexte : Un grand groupe français souhaite accélérer un programme transverse Data & IA visant à mieux coordonner plusieurs entités internes expertes (data, IA, plateformes, industrialisation) et à renforcer la cohérence globale de la filière. Des actions ont déjà été engagées (gouvernance, premiers chantiers, animation du collectif), et le groupe veut désormais structurer davantage et passer à l’échelle : clarifier le positionnement, harmoniser les pratiques, renforcer la capacité à travailler “d’une seule voix”, et améliorer l’efficacité de bout en bout (de l’offre au déploiement). Objectifs de l’appel d’offre : - Renforcer l’alignement entre entités contributrices (offres, priorités, modes opératoires, gouvernance). - Accélérer les synergies opérationnelles et business (offres conjointes, réponses coordonnées, passage à des engagements plus ambitieux). -Définir/mettre à jour une roadmap 2025–2026 et sécuriser l’exécution via une gouvernance robuste. -Structurer une stratégie marketing & communication (messages, visibilité, preuves, supports), incluant une réflexion sur une architecture de marque type “marque ombrelle” + déclinaisons, sans logique de fusion. -Renforcer l’animation “collectif” et la capitalisation (veille, retours d’expérience, publications, démarche à impact / IA responsable). Rôle attendu du prestataire : -Le prestataire intervient comme pilote et facilitateur du programme, à l’interface entre direction, sponsors, et entités contributrices : -Pilotage / PMO de programme : cadrage, planification, suivi des chantiers, animation des rituels, préparation/animation des comités, gestion des actions et décisions. -Structuration de l’offre : formalisation d’une offre de service cohérente, lisible et réplicable, articulation des contributions des différentes entités. -Activation des synergies : mise en place de mécanismes concrets (process, coordination, “passage de relais”, construction d’offres croisées, consolidation des retours terrain). -Marketing & communication opérationnels : plan de communication, contenus, kits de présentation, éléments de langage, valorisation des réalisations et cas d’usage. -Rayonnement & animation de l’expertise : cadrer une dynamique de type “lab/collectif” (veille, publications, événements internes/externes, démarche à impact). Livrables attendus : -Roadmap 2025–2026 (priorités, jalons, chantiers, dépendances) + cadre de pilotage associé. -Dispositif de gouvernance : comitologie, rituels, responsabilités, tableaux de suivi et reporting. -Plan marketing & communication : objectifs, messages, cibles, canaux, calendrier, contenus. -Kit de communication & kit commercial : pitchs, trames, supports, éléments de langage, preuves, cas d’usage / retours d’expérience. -Reporting périodique (ex. trimestriel) : avancement, synergies réalisées, points de blocage, recommandations. -Synthèse annuelle : bilan, impacts, perspectives et axes de développement. Expertise souhaitée : - Expérience avérée en accompagnement de programmes de transformation Data & IA - Compétences en marketing stratégique, gouvernance et pilotage d’écosystèmes complexes - Capacité à travailler en contexte multi-entités et à animer la coopération interfiliales - Qualité méthodologique et lisibilité de la proposition - Dynamique, leadership - Expérience en grands groupes Mobilité : Mission Full Time hybride : 2 à 3 jours sur site
Offre d'emploi
Tech Lead Data
Publiée le
Méthode Agile
1 an
40k-56k €
400-550 €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
Nous recherchons un expert Data IT pour accompagner la migration des projets vers le Cloud interne et soutenir les équipes de développement dans l’adoption des bonnes pratiques de développement , en intégrant les enjeux de sécurité et de gouvernance des données . Il contribuera à la mise en place d’automatisation et d’industrialisation selon les principes DevSecOps , participera aux chantiers d’amélioration continue et au monitoring transverse, tout en intervenant dans les premières implémentations de solutions Gen AI appliquées à la donnée . Acteur clé de la stratégie Data France , il apportera conseil et expertise auprès des squads, animera des sessions de formation et mènera des études d’optimisation des services de l'équipe Data . Une veille technologique active et la maîtrise de l’environnement Big Data Hadoop ainsi que du développement SPARK SCALA sont indispensables pour ce poste.
Mission freelance
Product Owner Applications Métiers
Publiée le
Figma
Run
Scrum
18 mois
100-500 €
Paris, France
Télétravail partiel
CONTEXTE : EXPERIENCE : 6 ans et plus Métiers Fonctions : Pilotage de projet ou de programme, Product owner Spécialités technologiques : Collaboratif, Low code, UX design, Devops Gestion de projet MISSIONS Le poste consiste à intervenir en Product Owner / Analyste Fonctionnel sur des applications métiers low code / no code, couvrant à la fois les phases BUILD et RUN. BUILD : - Recueillir et formaliser les besoins métiers, en cohérence avec la stratégie de l’organisation. - Animer des ateliers (discovery, priorisation, maquettes, expression de besoins). - Définir et prioriser les fonctionnalités à forte valeur ajoutée et calculer les ROI associés. - Rédiger les Epics & User Stories, gérer et prioriser le backlog produit. - Animer les rituels Agile (sprint planning, review, rétrospective). - Piloter la recette fonctionnelle et s’assurer de la qualité des livrables. - Rédiger ou mettre à jour les guides utilisateurs et communiquer lors des releases. Suivre et analyser les KPIs pour proposer des améliorations continues. RUN : - Collaborer avec les équipes de support et de maintenance pour assurer un service opérationnel de qualité. - Analyser les incidents et proposer des actions correctives. - Servir d’interface entre les métiers et les équipes techniques pour garantir la satisfaction des utilisateurs. Livrables attendus : - Epics & User Stories (outil de gestion de projet type Azure DevOps) - Documentation projet et guides utilisateurs - Tableaux de suivi et KPI fonctionnels Expertise souhaitée Techniques : - NINtex, Power Platform (PowerApps, Power Automate), Dataverse - Méthodologie Agile (Scrum) - Gestion de projets dans Azure DevOps - Idéalement : Figma Fonctionnelles & relationnelles : - Excellente capacité d’analyse, synthèse et communication - Bon relationnel et esprit collaboratif - Orientation utilisateur (UX centric) - Bonnes capacités rédactionnelles et efficacité opérationnelle Langues : - Français courant - Anglais professionnel
Mission freelance
Product Designer Figma H/F
Publiée le
Figma
3 mois
460-470 €
Nantes, Pays de la Loire
Télétravail partiel
Notre client dans le secteur Banque et finance recherche un/une Product Designer Figma H/F Description de la mission: Nous recherchons un(e) freelance pour intégrer la direction produit de notre client, plus spécifiquement l’équipe UX qui est chargée de construire et d’améliorer l'expérience des clients et partenaires sur tous les supports digitaux. L’équipe souhaite être accompagnée par une prestation de Product Designer spécialisé dans les Design System. La prestation sera chargée d’être responsable de l’enrichissement, de l’évolution et de la gouvernance du Design System. Elle sera amenée à garantir la cohérence visuelle, l’efficacité de la conception et la qualité de l’expérience utilisateur sur l’ensemble des produits digitaux. Au quotidien vos missions seront les suivantes: ● Enrichir, maintenir et faire évoluer le Design System (composants UI, tokens, guidelines) en collaboration avec les équipes produit, tech et design. ● Assurer la cohérence visuelle et fonctionnelle à travers toutes les interfaces utilisateurs (front-office, back-office). ● Travailler étroitement avec les développeurs pour garantir la faisabilité entre design et code. ● Participer à la création de la documentation et des bonnes pratiques d’utilisation du Design System. ● Accompagner les designers et les développeurs dans l’adoption, l’utilisation et la contribution au Design System. ● Identifier les besoins d’évolution du système à travers l’audit des produits existants. ● Appliquer les processus de gouvernance : validation des composants, suivi des feedbacks utilisateurs. ● Être un ambassadeur de l’accessibilité et de l’inclusivité dans la conception des composants. Compétences / Qualités indispensables : Figma, Bonne compréhension des principes d’ergonomie visuelle, de hiérarchie visuelle et de responsive design., Expérience avérée dans la création et la gestion de Design Systems à l’échelle (pour web et mobile)., Maîtriser et appliquer l’Atomic Design., Design system, HTML/CSS
Mission freelance
Architecte Cloud & Data – Projet Digital Manufacturing
Publiée le
Cloud
1 an
400-640 €
Île-de-France, France
Télétravail partiel
Dans le cadre de sa stratégie de transformation digitale, un grand groupe industriel recherche un Architecte Cloud & Data pour concevoir et mettre en œuvre une architecture moderne au service du digital manufacturing . L’objectif : moderniser et optimiser les processus de production via des solutions numériques avancées et une meilleure gouvernance de la donnée. 🧩 Missions principales Concevoir une architecture Cloud sécurisée, robuste et évolutive (Azure, AWS ou GCP). Intégrer des solutions de gestion et d’exploitation de la donnée (Data Lake, ETL, API, etc.) pour améliorer la performance des processus industriels. Collaborer étroitement avec les équipes internes (IT, OT, data, métiers) pour assurer une intégration fluide. Garantir la sécurité , la conformité et la scalabilité des solutions mises en place. Préparer l’architecture aux évolutions technologiques futures (Edge, IA, IoT industriel…).
Mission freelance
Product Owner DAM Senior – E-commerce (Secteur Hôtellerie)
Publiée le
Adobe Experience Manager (AEM)
Agile Scrum
API
12 mois
550-660 €
Issy-les-Moulineaux, Île-de-France
Télétravail partiel
Contexte du poste Au sein de la direction digitale d’un grand groupe hôtelier international, le Product Owner DAM Senior sera en charge de piloter la stratégie, la conception, l’évolution et l’adoption de la plateforme de gestion des actifs numériques (DAM). L’objectif est d’assurer la centralisation, la gouvernance et la diffusion efficace des contenus digitaux (images, vidéos, logos, documents marketing, etc.) à travers les différentes marques, entités et canaux du groupe. Missions principales1. Gestion du produit DAM Définir la vision produit et la roadmap du DAM en cohérence avec la stratégie digitale globale. Identifier, prioriser et rédiger les user stories et évolutions fonctionnelles . Garantir la valeur métier et l’ expérience utilisateur du produit. Piloter les backlogs , les sprints , et les releases en lien avec les équipes techniques. Superviser l’intégration du DAM avec les autres systèmes (PIM, CMS, CRM, outils de réservation, etc.). 2. Coordination et pilotage Travailler étroitement avec les équipes marketing , brand management , IT , e-commerce , et contenus . Animer les comités produit et ateliers de cadrage fonctionnels. Coordonner les prestataires externes, intégrateurs ou éditeurs de solution DAM. Assurer la qualité , la performance , et la scalabilité de la plateforme. 3. Gouvernance & adoption Mettre en place les processus de gouvernance (taxonomie, droits d’accès, workflow de validation, métadonnées, etc.). Accompagner les équipes dans l’ adoption du DAM (formation, support, documentation, change management). Garantir la cohérence de la gestion des contenus avec les standards du groupe et les besoins des marques. 4. Analyse & amélioration continue Suivre les KPIs d’usage et de performance de la plateforme. Identifier les axes d’amélioration et proposer des évolutions continues. Assurer une veille technologique sur les solutions DAM, IA de tagging automatique, distribution omnicanale, etc. Profil recherchéFormation et expérience Bac +5 (école de commerce, ingénierie, digital, communication, etc.). Minimum 7 à 10 ans d’expérience dont au moins 5 ans sur un rôle de Product Owner ou Chef de projet DAM . Expérience significative dans un environnement international et multi-marques (idéalement dans le luxe, retail ou hôtellerie ). Compétences techniques Maîtrise des solutions DAM du marché (Bynder, Adobe Experience Manager Assets, Aprimo, Cloudinary, Widen, etc.). Bonne compréhension des architectures digitales et des intégrations systèmes (API, PIM, CMS, MDM, CDN…). Bonne culture UX et approche data-driven. Connaissance des méthodologies Agile / Scrum . Soft skills Leadership et capacité à fédérer des équipes transverses . Excellente communication orale et écrite, en français et en anglais. Forte orientation résultats et valeur utilisateur . Esprit analytique, rigueur et curiosité technologique.
Mission freelance
Business Analyst Asset Mangement
Publiée le
Business Analyst
12 mois
590-640 €
75002, Paris, Île-de-France
Au sein de l’équipe BA Asset Management, vous intervenez pour un système d’information de gestion de Fonds (Front to Back Office) dont le principal objectif est le suivi des applications existantes et progiciels de gestion de fonds. Sous la responsabilité du responsable de service, la mission consiste à réaliser plusieurs tâches - Etude fonctionnelle pour le recueil du besoin - Rédaction du cahier des charges Evolution des progiciels de gestion de Fonds - Qualification en test des versions - Préparation et animation de réunions, ateliers métier - Formation utilisateurs - Rédaction de guides utilisateurs - Support utilisateur - Respect des délais, qualité des versions
Mission freelance
Lead Data Engineer Azure Databricks
Publiée le
Apache NiFi
Databricks
PySpark
3 ans
600 €
Île-de-France, France
Télétravail partiel
🔍 Nous recherchons un(e) Lead Data Engineer Azure Databricks avec une forte posture de transmission, coaching et mise en place des standards, pour accompagner une équipe en montée de maturité sur Databricks. 📅 Démarrage ASAP 📍 Île-de-France 🎯 Missions clés : ✅ Optimisation & fiabilisation des jobs Databricks (PySpark / Spark) ✅ Mise en place des standards & bonnes pratiques Data Engineering ✅ Coaching, mentoring, animation de la communauté Tech Lead ✅ Contribution aux migrations & à la modernisation du DataLake ✅ Travail sur l’industrialisation (CI/CD – Azure DevOps)
Offre d'emploi
Data Scientist Senior
Publiée le
Python
SQL
1 an
40k-45k €
400-570 €
Île-de-France, France
Télétravail partiel
Contexte de la Mission Au sein de la Direction Data (Direction du Numérique), l'équipe Data Science (4 DS, 2 DA) recherche un Data Scientist pour renforcer l'analyse d'usages et le pilotage. La Direction Data poursuit trois missions principales : maximiser la collecte conforme, développer la connaissance et l'expérience utilisateurs, et fournir des outils de pilotage et d'aide à la décision. Activités Attendues Audit et enrichissement du socle de données (nouvelles données du datalake) Exploration et analyses des profils et comportements (par canaux d'acquisition et contenus) et impact de la pression publicitaire Mise en place de cas Data Science : compréhension besoin métier, choix d'approches, vulgarisation Prévision d'audience, segmentation utilisateurs, prédiction inactivité/appétence/churn Analyses sémantiques de commentaires ; enrichissement de catalogue via l'IAG Profil Recherché Niveau d'expérience requis : 8 ans en data science (profil senior >5 ans) Expériences IA : Prévisions Recommandation Score d'appétence Anti-churn Sémantique Détection d'anomalies IAG
Offre d'emploi
Business Analyst Paiement (Swift/Sepa)
Publiée le
Business Analyst
3 ans
40k-80k €
400-650 €
Île-de-France, France
Télétravail partiel
Dans le cadre du renforcement de nos équipes Paiements, nous recherchons un Business Analyst Paiement disposant d’une solide expertise sur les flux SEPA et SWIFT , afin d’accompagner des projets à forts enjeux réglementaires et opérationnels. Vous interviendrez au cœur des équipes métiers et IT pour analyser, cadrer et piloter l’évolution des solutions de paiement. 🧠 Profil recherché Formation Bac+5 (école d’ingénieur, école de commerce ou université) Expérience significative en tant que Business Analyst Paiement (minimum 3 ans) Excellente connaissance des moyens de paiement : SEPA (SCT, SDD, Instant Payment) SWIFT (MT, MX, ISO 20022) Bonne compréhension des environnements bancaires et financiers Maîtrise des méthodologies projet (Agile / Cycle en V) Capacité d’analyse, rigueur et excellent relationnel Anglais professionnel requis
Mission freelance
Data Engineer AWS / Snowflake (Urgent)
Publiée le
Amazon S3
AWS Cloud
Gitlab
6 mois
400-550 €
Paris, France
Télétravail partiel
Nous recherchons un Data Engineer AWS / Snowflake confirmé pour intervenir au sein d’une équipe Data sur un environnement cloud moderne, fortement orienté industrialisation, performance et qualité des données. 🎯 Contexte de la mission : Vous serez en charge de maintenir, optimiser et faire évoluer les pipelines et architectures Data existants, dans un écosystème AWS & Snowflake à forte volumétrie. La mission inclut également la prise en main de sujets de développement et d’industrialisation en cours. ⚙️ Vos missions principales : Ingestion & Transformation Développer et maintenir des pipelines Python / PySpark (batch, transformations, industrialisation). Implémenter des processus d’ingestion Snowflake ( Snowpipe, procédures stockées, tables dynamiques, datamarts ). Gérer le datalake, les flux d’ingestion et les orchestrations associées. Architecture & AWS Intervenir sur les services AWS : S3, Lambda, Step Functions, EMR, DynamoDB, RDS, EventBridge, IAM, API Gateway… Optimiser et sécuriser les flux Data sur AWS. Assurer la résilience, les performances et la montée en charge des environnements Data. CI/CD & Infrastructure Maintenir et faire évoluer les pipelines GitLab CI , Travailler avec Docker & Pulumni pour l’industrialisation et l’infrastructure as code. Monitoring & Qualité Mettre en place ou améliorer les mécanismes de monitoring , d’observabilité et de data quality . Documenter, partager les bonnes pratiques et contribuer à l’amélioration continue.
Offre d'emploi
Développeur Big Data Scala / Java (Migration DataHub)
Publiée le
Apache Kafka
AWS Cloud
Big Data
12 mois
45k-56k €
500-530 €
Montreuil, Île-de-France
Télétravail partiel
Contexte / Objectif : Renfort d’une équipe technique en charge de la migration du DataHub vers sa version 2. L’objectif est d’assurer le développement et l’industrialisation de traitements Big Data dans un environnement distribué à forte volumétrie, depuis la conception jusqu’au maintien en production. Missions principales : Étude et conception technique des batchs et pipelines data. Développement Spark/Scala pour traitements batch et streaming. Récupération, transformation, enrichissement et restitution des données (ETL/ELT). Création et publication de batchs Kafka (topics / événements). Participation à l’industrialisation : CI/CD, tests, déploiement et monitoring. Collaboration étroite avec les Business Analysts pour garantir la qualité et la lisibilité des libellés. Gestion autonome de sujets transverses (reporting, suivi, coordination, support niveau 2/3). Stack technique (obligatoire / souhaité) : Obligatoire : Apache Spark (maîtrise), Scala (langage principal), SQL (avancé). Souhaité : Java (notions confirmées), Kafka (bonnes bases), Apache Airflow (expérience appréciée), HDFS/Hive/YARN (bonnes bases), expérience Cloud (GCP ou AWS valorisée), CI/CD (Jenkins, Gitflow), notions DevOps. Méthodologie & environnement : Travail en mode Agile (backlog, rituels, communication proactive). Interaction régulière avec équipes Data, BI, infra et métiers.
Mission freelance
PO Testing & Quality Gate - Datadog
Publiée le
Agile Scrum
API
API Platform
12 mois
480-550 €
Île-de-France, France
Télétravail partiel
Product Owner Technique – Performance Testing & Quality GateContexte Dans un environnement digital à forte volumétrie et à forts enjeux de fiabilité, nous recherchons un Product Owner Technique spécialisé en tests de performance, tests de charge et qualité applicative . Vous interviendrez au sein d’une plateforme transverse fournissant des outils et services de Performance Engineering aux équipes de développement. L’objectif : garantir la performance, la scalabilité et la non-régression des applications avant mise en production.
Offre d'emploi
Data Engineer Senior
Publiée le
Python
SQL
1 an
40k-45k €
400-550 €
Île-de-France, France
Télétravail partiel
Contexte de la mission Au sein de la Direction Data (Direction du Numérique), intégration à l'équipe Bronze (PO, data steward, 2 data engineers) au cœur de la plateforme Data. Stack principale : Python, Spark, SQL (traitements), Airflow (orchestration), Cloud Storage & Delta Lake (stockage), services cloud (BigQuery, Dataproc, Pub/Sub, Cloud Storage), Terraform/Terragrunt (infra). Activités attendues Concevoir et maintenir des pipelines data robustes et scalables ; organiser et structurer le stockage. Mettre en place et maintenir des infrastructures scalables ; assurer sécurité et stabilité des environnements. Construire et maintenir les workflows CI/CD ; accompagner l'équipe sur l'exploitation et requêtage. Gouvernance et conformité (qualité, sécurité, conformité), documentation, veille et participation aux instances Data Ingénieurs.
Mission freelance
Data Engineer Spark/Scala
Publiée le
Apache Spark
Scala
3 mois
330-400 £GB
Paris, France
Télétravail partiel
Data Engineer Spark/Scala Paris o Expérience dans la mise en œuvre de technologies et frameworks Big Data et NoSQL (Hadoop, Kafka, Spark, Scala, Hive, SolR, HBase, Kerberos) o Spark / Scala : confirmé o A l'aise avec le programmation fonctionnelle (connaissance des librairies ZIO, MONIX, CATS appréciée) o Expérience de travail dans un environnement Agile ; avec outils et méthodologies associés (Confluence, Jira, Scrum, Kanban) Au sein de la DSI Finance de la DSI, le poste recherché porte sur le besoin d’un Data Engineer Spark/Scala confirmé (5-6 ans d’expérience). Objectifs et livrables Objectifs Le prestataire intégrera le projet d’intégration en coordination avec le chantier assiette comptable de référence en tant que Data Engineer. Les développements sur ce chantier s’appuient sur la plateforme Datalake Finance, basée sur la distribution Hadoop HortonWorks qui collecte les données des différents systèmes de synthèse afin de répondre aux nouveaux besoins de reporting Finances & Risques (COREP, calcul RWA, IFRS9, etc.…) Les tâches seront les suivantes : • la mission consistera à prendre part aux développements, au sein du datalake pour acquérir les nouvelles sources de données, les assemblées et les distribuées aux consommateurs, tout en étant garant de la pérennité et la non-régression de l’outillage déjà en place • Vous participerez à la conception et à l’implémentation de ce projet et serez amené, à ce titre, à travailler en méthode Agile avec de nombreux acteurs métiers et les équipes de maintenance Compétences techniques o Expérience dans la mise en œuvre de technologies et frameworks Big Data et NoSQL (Hadoop, Kafka, Spark, Scala, Hive, SolR, HBase, Kerberos) o Spark / Scala : confirmé o A l'aise avec le programmation fonctionnelle (connaissance des librairies ZIO, MONIX, CATS appréciée) o Expérience de travail dans un environnement Agile ; avec outils et méthodologies associés (Confluence, Jira, Scrum, Kanban) Compétences demandéesCompétences Niveau de compétence Apache Kafka Avancé Apache Hadoop Confirmé Apache Hive Avancé SCALA Confirmé Spark Confirmé
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Service de comptabilité en ligne fiable et réactif pour une succursale de SASU
- Traitement fiscal des cotisations sociales payées en 2025 sur CA micro-BNC 2024
- La Société de portage avec qui j'ai signé m'impose la soltion MAY
- Utiliser Qonto pour créer la microentreprise
- Compte dédié micro-entreprise
- Offre propulse IT
2373 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois