Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 2 788 résultats.
Freelance
CDI
CDD

Offre d'emploi
Administrateur MFT (Axway SecureTransport)

RIDCHA DATA
Publiée le
Axway
CFT (Cross File Transfer)
DataCenter Infrastructure Management (DCIM)

1 an
Ivry-sur-Seine, Île-de-France
🔹 Contexte : Dans le cadre d’un projet de déploiement de flux sécurisés, nous recherchons un Ingénieur Systèmes spécialisé en MFT (Managed File Transfer) pour accompagner la mise en place et la gestion des échanges de données avec de multiples partenaires. Le consultant interviendra au sein d’une équipe dédiée aux transferts et à l’automatisation , dans un environnement technique riche et en constante évolution. 🔹 Détails de la mission : Localisation : Rennes (Saint-Grégoire), Nantes, Ivry 🔹 Missions principales : Déploiement et configuration des flux MFT via Axway SecureTransport Mise en place des échanges sécurisés avec les partenaires / clients finaux Gestion et paramétrage des protocoles de transfert Rédaction de la documentation technique des flux (livrable principal) Participation à l’optimisation et à la sécurisation des flux existants Interaction avec les équipes techniques réparties sur plusieurs sites 🔹 Environnement technique : MFT : Axway SecureTransport, CFT, XFB Protocoles : SFTP, AS2, HTTPS, PESIT Scripting : Shell, PowerShell, Python Sécurité : PKI, certificats X.509, TLS Infrastructure : Datacenters
Freelance
CDI
CDD

Offre d'emploi
Business Analyst SharePoint Online – Refonte Intranet (H/F)

RIDCHA DATA
Publiée le
Backlog management
Business Analyst
SharePoint

1 an
Île-de-France, France
Contexte de la mission Dans un contexte international et multi-entités , une grande organisation lance la refonte complète de son intranet basé sur SharePoint Online (Microsoft 365) . L’objectif est de mettre en place une plateforme moderne, unifiée et centrée utilisateur , permettant : un accès simplifié à l’information une meilleure collaboration entre les équipes une communication interne harmonisée à l’échelle mondiale Le Business Analyst jouera un rôle central d’interface entre les équipes métiers, les équipes IT et les parties prenantes internationales afin de garantir que la solution réponde aux besoins fonctionnels tout en respectant les standards du groupe. Objectifs du poste Recueillir et analyser les besoins métiers liés à la refonte de l’intranet. Contribuer à la définition d’une expérience utilisateur cohérente et homogène dans un environnement international. Traduire les besoins métiers en exigences fonctionnelles exploitables par les équipes techniques . Accompagner les métiers tout au long du projet : cadrage, conception, recette et déploiement. Missions principalesAnalyse & cadrage Identifier et cartographier les parties prenantes (métiers, communication, IT, régions/pays). Animer des ateliers de recueil des besoins (workshops, interviews, comités). Analyser les processus existants et identifier les axes d’amélioration. Formaliser les besoins sous forme de : use cases user stories parcours utilisateurs Conception fonctionnelle Rédiger les livrables fonctionnels : expressions de besoins spécifications fonctionnelles backlog produit user stories et critères d’acceptation Définir les modèles de données fonctionnels : métadonnées taxonomies navigation Contribuer à la définition de l’architecture fonctionnelle de l’intranet : sites hubs pages contenus Collaborer avec les UX/UI designers sur l’ergonomie et l’expérience utilisateur. Coordination & suivi Être l’interface entre les équipes métiers et techniques . Travailler avec les équipes techniques sur : SharePoint Online Power Platform SPFx si nécessaire Participer à : la priorisation du backlog la planification des évolutions Accompagner les phases de recette fonctionnelle : stratégie de tests cas de tests UAT Contribuer à la conduite du changement : supports utilisateurs communication interne formations. Contexte international Prendre en compte les enjeux multiculturels et multilingues . Assurer l’alignement entre besoins locaux et standards globaux . Interagir avec des équipes internationales en anglais . Livrables attendus Dossiers de cadrage fonctionnel Spécifications fonctionnelles User stories Parcours et personas utilisateurs Backlog priorisé Cahiers de recette Comptes rendus d’ateliers Environnement fonctionnel & technique Plateforme SharePoint Online (Microsoft 365) Outils associés Microsoft Teams Power Automate Power Apps Viva (Connections, Engage) Azure AD Méthodologie Agile / Scrum Compétences requisesCompétences fonctionnelles Analyse des besoins métiers Modélisation de processus Conception de parcours utilisateurs Rédaction de spécifications fonctionnelles Animation d’ateliers métiers Compétences techniques (non développement) Très bonne connaissance de SharePoint Online architecture sites métadonnées gouvernance Bonne compréhension de l’écosystème Microsoft 365 Sensibilité UX et ergonomie digitale Compétences comportementales Excellentes capacités de communication Esprit de synthèse Capacité à structurer l’information Autonomie et rigueur Sens du service Capacité à évoluer dans un environnement international Langues Anglais professionnel courant indispensable Français requis
Freelance

Mission freelance
AWS Platform Engineer

Codezys
Publiée le
AWS CloudFormation
Github
Kubernetes

3 mois
400-450 €
Paris, France
Dans le cadre de cet appel d'offres, nous vous proposons une description précise des rôles et responsabilités attendus pour le poste au sein de notre squad Data and Analytics Platform . Cette équipe est dédiée à la gestion et au développement de notre infrastructure data, en assurant la conformité, la sécurité et l'efficacité des solutions déployées. Rôles et responsabilités : Développement, mise à jour et maintenance du code infrastructure : Vous serez en charge de concevoir, mettre à jour et maintenir le code Terraform nécessaire pour nos environnements Azure et/ou AWS, en veillant au respect strict des règles de sécurité internes de TotalEnergies ainsi que des meilleures pratiques du secteur. Enrichissement de la documentation : Vous assurerez la mise à jour régulière de la documentation technique à destination des utilisateurs, afin de garantir une compréhension claire des outils et des processus mis en place. Conception et maintenance de chaînes de déploiement automatisé (CI/CD) : Vous participerez à la conception, à la mise en œuvre et à la maintenance des pipelines CI/CD automatisés, favorisant une livraison rapide et fiable des solutions data. Profil recherché : De formation Bac+5 en informatique ou diplôme équivalent. Vous êtes sensibilisé(e) aux principes de gouvernance, de sécurité et de réglementation relatives aux données et à leur exploitation. Ce poste requiert une expertise technique approfondie, une capacité à travailler en équipe sur des projets complexes, ainsi qu'une attitude proactive pour garantir la conformité et la performance des solutions déployées.
CDI

Offre d'emploi
Data Scientist, expert python , pyspark, Azur (H/F)

█ █ █ █ █ █ █
Publiée le
Apache Spark
Big Data
Data management

45k-50k €
Paris, France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDD

Offre d'emploi
DEVELOPPEUR(SE) BACK .NET - Clean Architecture - Confirmé (4-10 ans) F/H

SMARTPOINT
Publiée le
.NET
.NET CORE
Data cleaning

12 mois
40k-45k €
100 €
Châtillon, Île-de-France
ANALYSE : Participe à l'analyse fonctionnelle détaillée des besoins utilisateurs et peut être sollicité pour des ateliers de définition des spécifications générales Étudie les opportunités et la faisabilité technologique de l'application, réalise l'analyse technique, l'étude détaillée et contribue à l'estimation des charges CONCEPTION ET DÉVELOPPEMENT : Contribue au design du logiciel et des frameworks utilisés dans le cadre du projet Adapte et applique les paramètres techniques des progiciels ou des middlewares Réalise le prototypage Analyse et développe les composants en utilisant les langages appropriés Participe à la structuration des Bases de Données Participe à la revue croisée des développements de ses pairs Initialise le dossier d'exploitation Assemble les composants unitaires dans un package applicatif cohérent destiné au déploiement de la solution et l'intègre à la gestion de configuration Documente les applications pour les développements ultérieurs et la Mise en Production (MEP) Harmonise et industrialise l'ensemble des composants et applications Utilise les composants logiciels réutilisables et met à jour la nomenclature RECETTE UNITAIRE ET TESTS D'INTÉGRATION : Responsable des tests unitaires : élaboration des jeux d'essais et réalisation Teste, identifie et traite les dysfonctionnements éventuels du logiciel développé Vérifie la conformité de l'ouvrage avec la demande formulée Contribue à la préparation et à la réalisation des tests d'intégration Analyse les résultats et rédige le rapport de tests MAINTENANCE : Réalise les développements nécessaires à la maintenance corrective et évolutive Participe à l'analyse et à la résolution des incidents de production
Freelance
CDI

Offre d'emploi
Développeur Sénior backend Java Core - Multithreading calculs distribués (7 ans et plus)

Digistrat consulting
Publiée le
Big Data
DevOps
Java

3 ans
50k-70k €
500-600 €
Paris, France
🏭 Secteurs stratégiques : Banque d’investissement PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Au sein d’une équipe qui travaille sur une application d'aide à la décision pour le trading. Elle permet de gérer des données historiques sur les clients, et les données de marché, ainsi que des données intraday et des mesures de risques, il permet aussi de visualiser les axes de trading. L’application utilise Angular 15 comme front end, Java 11 et Python 2 en back end, et Apache ignite pour le calcul distribué, et Mongo DB comme base de données. Pour la partie déploiement, on utilise Docker / Kubernetes et Jenkins
Freelance

Mission freelance
Full Stack GCP (Spring Boot) avec spécialité Pub/sub - Secteur Transport - Nantes (H/F)

CAT-AMANIA
Publiée le
CI/CD
Google Cloud Platform (GCP)
IAM

3 ans
Nantes, Pays de la Loire
Dans le cadre d’une prestation additionnelle pour l’un de nos clients dans le secteur du transport , nous recherchons un(e) Développeur(se) Full Stack GCP avec une forte expertise en Pub/Sub . La mission, prévue à partir du 1er avril , porte principalement sur le développement et l’optimisation de flux event-driven au sein d’une architecture microservices cloud-native sur Google Cloud Platform. Vous interviendrez notamment sur : Le développement de services basés sur Pub/Sub (design des topics, subscriptions, gestion des messages, retry, DLQ, etc.) La mise en place et l’optimisation de chaînes de traitement asynchrones à fort volume L’intégration avec des microservices Spring Boot La gestion de la concurrence, de la scalabilité et de la résilience des traitements L’utilisation des services GCP associés (Cloud Scheduler, IAM, etc.) La collaboration avec les équipes architecture, DevOps et produit Le respect des bonnes pratiques de qualité, performance et sécurité
Freelance
CDI

Offre d'emploi
Chef de Programme Data & IA – Product Owner Socle Data & IA

VISIAN
Publiée le
Azure
Azure Data Factory
Data quality

1 an
40k-45k €
400-610 €
Île-de-France, France
Contexte de la mission Dans le cadre de la modernisation d’un socle Data & IA et de la mise en place d’un modèle de décentralisation gouvernée, le Chef de Programme Data & IA intervient en tant que référent transverse sur la plateforme Data & IA. Il est garant de la cohérence entre les enjeux de modernisation technique, d’adoption métier et de gouvernance de la donnée, dans un environnement Data Platform à forte ambition IA. Missions principales 1. Pilotage du programme Data & IA Définir et piloter la roadmap du socle Data & IA Prioriser les initiatives métiers et techniques Participer aux arbitrages d’investissements et au séquencement des chantiers Assurer la cohérence avec le modèle de décentralisation et la stratégie IA 2. Rôle de Product Owner plateforme Recueillir et prioriser les besoins des utilisateurs (métiers, équipes Data & IA, etc.) Piloter le backlog de la plateforme Structurer les releases et le capacity planning Suivre les KPIs de performance (qualité, adoption, stabilité, time-to-market) 3. Chantiers structurants Migration vers une architecture Data Lakehouse (type Databricks / Unity Catalog) Mise en place de la Data Quality industrialisée Déploiement de la Data Observability end-to-end Modernisation de l’offre de service de la plateforme Data 4. Coordination Data & IA Assurer l’interopérabilité entre Data, ML et IA générative Structurer la collaboration entre équipes DataOps et MLOps Préparer la plateforme aux usages IA avancés (exposition Data Products, APIs, etc.) 5. Animation et structuration Clarifier les rôles et responsabilités (RACI) Améliorer les pratiques agiles et les rituels de pilotage Accompagner la montée en maturité des équipes
Freelance

Mission freelance
Architecte Applicatif & Data Cloud

CAT-AMANIA
Publiée le
Big Data
J2EE / Java EE
Python

3 mois
400-610 €
Lille, Hauts-de-France
Architecte Applicatif & Data Cloud (H/F) Nous recherchons un consultant indépendant pour une mission d'Architecte Applicatif et Développeur Senior au sein d'un grand groupe du secteur de la distribution, sur un projet lié au domaine de la Finance. L’enjeu central de cette mission est la fiabilisation des modèles de calcul et la consolidation d’une architecture Data robuste sous environnement Google Cloud. Informations Générales Référence : TM17037ADON Date de démarrage : 13/04/2026 Date de fin : 31/12/2026 (Durée : 166 jours) Lieu : Ronchin (59) Rythme : 3 jours de présence sur site par semaine requis Contrat : Assistance technique Description de la Mission Intégré à une équipe agile, votre rôle consistera à consolider et améliorer les travaux existants tout en assurant la transmission de vos connaissances aux équipes internes. Architecture et Conception : Définir la structure technique des systèmes et choisir les frameworks adaptés. Assurer la cohérence du système d’information et le respect des standards de l’entreprise. Rédiger le dossier d'architecture (documentation et validation de l'existant). Concevoir l'intégration du produit dans l'usine de packaging. Développement et Fiabilisation : Création des jobs et validation des interfaces. Réalisation des développements, tests d'intégration et mise à jour de la documentation. Garantir la performance de l'application (tests de montée en charge) et la sécurité logicielle. Accompagnement Technique : Former et accompagner les développeurs sur les normes et pratiques de développement. Animer les indicateurs de qualité et assurer un support de second niveau sur les problématiques complexes. Définir la roadmap technique du produit. Profil et Compétences Requises Nous recherchons un profil de niveau "Maîtrisant", capable d'allier expertise technique et sens du service client. Compétences Techniques (Niveau Confirmé) : Google Cloud : Computing, Big Query, Big DATA (Indispensable). Langages : Python (Indispensable) et Expertise Java / J2EE souhaitée. Outils & Data : GitHub, Terraform, Kafka (Indispensable). Dataflow : Connaissance souhaitable. Connaissances Linguistiques : Français : Professionnel impératif. Anglais : Lu et écrit. Qualités attendues : Capacité d'adaptation aux priorités changeantes. Aptitude à la transmission de compétences. Rigueur dans la documentation et la fiabilisation des résultats.
CDI

Offre d'emploi
DevOps – Kubernetes / AWS - Bordeaux

Talents Finance
Publiée le
AWS Cloud
DevOps
Kubernetes

40k-45k €
Bordeaux, Nouvelle-Aquitaine
Contexte du poste : Dans un contexte de croissance et d’évolution de notre plateforme technologique, nous renforçons notre équipe infrastructure afin d’accompagner l’industrialisation de nos déploiements et la montée en maturité de nos pratiques DevOps. Nos solutions reposent sur une architecture conteneurisée et sont utilisées quotidiennement en production par de nombreux utilisateurs. Les enjeux principaux sont la fiabilité des déploiements, l’automatisation des processus et la stabilité des environnements. Nous recherchons un DevOps capable d’intervenir sur l’ensemble du cycle de déploiement de nos applications : gestion des environnements Kubernetes, amélioration des pipelines CI/CD et collaboration avec les équipes de développement afin d’optimiser la livraison des applications. Le poste nécessite une bonne autonomie et une forte capacité à travailler en collaboration avec les équipes techniques. Les avantages du poste : • Environnement technique moderne • Projets concrets avec des enjeux de production réels • Équipe technique dynamique et collaborative • Possibilité d’avoir un impact direct sur l’amélioration de la plateforme Pourquoi nous rejoindre : • Participer activement à l’évolution d’une plateforme technique en production • Travailler sur des technologies modernes autour de Kubernetes et du cloud • Évoluer dans un environnement où l’autonomie et les initiatives sont valorisées • Collaborer étroitement avec des équipes de développement engagées
Freelance

Mission freelance
Gestionnaire de Parc / Administrateur Systèmes & Cloud

Castelis
Publiée le
Azure
Fortinet
Google Cloud Platform (GCP)

6 mois
400-450 €
Levallois-Perret, Île-de-France
• Support utilisateurs Niveau 2 : diagnostic, résolution, escalade maîtrisée • Administration et exploitation des environnements Cloud & IT • Gestion VPN et firewalls (politiques, accès, supervision) • Gestion et support des applications téléphoniques (VoIP, softphones, intégrations) • Supervision et exploitation des logs via GreyLog • Déploiement et gestion d’agents sur les devices (sécurité, monitoring, MDM) • Suivi des tickets : incidents, demandes, changements • Amélioration continue des processus IT et documentation • Collaboration étroite avec les équipes sécurité et projets dans un contexte international
Freelance

Mission freelance
Team Lead Java / Engineering Manager H/F

ODHCOM - FREELANCEREPUBLIK
Publiée le
AWS Cloud
Java

6 mois
Courbevoie, Île-de-France
Poste : Team Lead Java Localisation : La Défense Durée : 1 an renouvelable (3ans max) Contexte : Management d'un Pool de développeur et de tech lead Le Team Lead est responsable de l’accompagnement et de la montée en compétences des équipes de développement. Ce rôle est stratégique : il combine leadership humain, expertise technique et vision transverse. Il/elle fait le lien entre les objectifs techniques, les enjeux produits et les ressources humaines de l’équipe. Missions : Faciliter l’émergence d’une vision technique commune, alignée avec la stratégie DSI Manager une équipe d’une vingtaine de développeurs Animer la réflexion continue autour des pratiques de qualité et fédérer l’équipe autour de standards de développement Coordonner le pilotage de la dette : faciliter l'identification, l'évaluation, et l'intégration au backlog des sujets de dettes avec le PO En tant que responsable du partage de connaissance technique, créer les conditions d’apprentissage et de montée en compétence pour tous Faciliter la coordination technique transverse Encourager l’équipe à comprendre les enjeux métier et incarner cette logique de valeur Incarner les valeurs agiles et favoriser la prise de responsabilité collective Solide maîtrise des technologies Java/Angular et des traitements batch. Participer aux choix d’architecture et de conception technique (API, performance, scalabilité, sécurité) Piloter la co-construction et l’appropriation d’une vision technique pour et par l’entité " S’assurer de la cohérence des choix d’implémentation quotidiens avec la cible" Manager une équipe d’une vingtaine de développeurs (recrutement, suivi de la progression, évaluation, projection et montée en compétences…), en s'appuyant sur des relais opérationnels (lead dev) " Définir et piloter les actions de réduction de la dette" Participer à la mise en œuvre de la stratégie de recette cible Travail dans un cadre agile Safe et participation aux rituels (PI planning, démo, …) Mettre en place et piloter des plans de développement pour les développeurs, faciliter le Pair programming et les tech talks animés par tous Contexte agile SAFe
Freelance
CDI

Offre d'emploi
Data Engineer / Data Scientist

ONSPARK
Publiée le
Cloudera
Hadoop
Python

4 ans
Paris, France
Contexte OnSpark est un cabinet spécialisé dans la GMAO/EAM et l'intégration SI, en forte croissance (40 collaborateurs, CA 3,3 M€). Dans le cadre de la diversification de son offre vers la Data et l'Intelligence Artificielle, nous recherchons un Data Engineer / Data Scientist pour accompagner nos clients grands comptes. Vous interviendrez au sein d'un Pôle Data mature, exploitant une plateforme Big Data on-premise (Cloudera Data Platform Private Cloud) et un environnement de Data Science (Cloudera Machine Learning). Vos missions s'articulent autour de l'ingestion de données massives issues de multiples partenaires institutionnels, de l'accompagnement des équipes métier et de la mise en œuvre de cas d'usage data avancés (data science, IA, machine learning, NLP, dataviz). Responsabilités Collecte des données Développer, industrialiser et maintenir des pipelines d'ingestion de sources de données internes et externes Participer à la préparation et au suivi de la qualité des données Identifier des opportunités d'utilisation de nouvelles données Expertise & accompagnement métier Accompagner les chargés d'études dans leur utilisation de la plateforme de données (POC/POV, support, expertise, formation) Contribuer et maintenir en condition opérationnelle les cas d'usage sur la plateforme (simulateurs, prévisions, indicateurs, data science, IA) Valoriser et exposer les résultats via des outils de visualisation ou de micro-services Sécuriser & MCO Comprendre les contraintes des équipes supports (sécurité, infrastructure, RGPD) Contribuer aux bonnes pratiques de développement, standardisation des livrables, amélioration continue
CDI
Freelance

Offre d'emploi
Consultant AMOA DATA / IA H/F

Le Groupe SYD
Publiée le
AMOA
Data science
Intelligence artificielle

12 mois
40k-50k €
375-475 €
Nantes, Pays de la Loire
🌟 Dans le cadre de notre développement, nous recherchons pour l’un de nos clients à Nantes (44), deux Consultant AMOA Data/IA H/F . Démarrage : ASAP Lieu : Nantes (44) Télétravail : 2 jours/semaine (non-négo) 👉 Dans le cadre de sa transformation numérique, notre client recherche deux Consultant(e)s AMOA Data/IA . À ce titre, vos missions seront : Identifier et cadrer les opportunités de projets IA à forte valeur Acculturer et former les équipes métiers aux enjeux de l’IA Accompagner le développement et le déploiement des solutions IA Identifier et lever les freins à l’adoption des outils IA Renforcer la collaboration entre les équipes métiers et les équipes IT IA
CDI

Offre d'emploi
Administrateur Active Directory & Identités Hybrides Cloud F/H

GENIOUS
Publiée le
Active Directory
AWS Cloud

45k-55k €
La Défense, Île-de-France
Genious Systèmes recherche pour son client un Administrateur Active Directory & Identités Hybrides Cloud F/H Administration/Exploitation : Installation, configuration, exploitation des équipements/services ainsi que des environnements Cloud IaaS/PaaS. Administration des environnements Active Directory hybrides (AD DS, AD Connect, Azure AD). Supervision et gestion des synchronisations d’identités (AD Connect, Cloud Sync) et mise en oeuvre des outils garantissant la cohérence des données. Vision globale et actualisée des systèmes d’information et connaissance de l’entreprise. Organisation et optimisation des ressources de son domaine. Mise en application des normes et des recommandations de déploiement des équipements dans les Datacenter Icade et de ses environnements Cloud. Suivi et analyse des performances, mise en place des mesures susceptibles d’améliorer la qualité ou la productivité de l’outil et intégration de la supervision Cloud (type Azure Monitor, Log Analytics, CloudWatch, CloudTrail) avec les outils existants (Prometheus/Grafana) pour une observabilité de bout en bout. Élaboration des règles d’utilisation de l’outil, en conformité avec les normes et standards de l’entreprise et dans le respect des contrats de service. Documentation des systèmes d’information gérés et des procédures. Sécurité : Définition de la politique de gestion des droits d’accès aux serveurs et aux applications en fonction des profils. Support/Maintenance : Traitement des incidents ou anomalies à partir des demandes internes : diagnostic de l’incident, identification, formulation et suivi de sa résolution. Traitement des incidents auprès des supports techniques (constructeurs/éditeurs). Proposition d’améliorations pour optimiser les ressources existantes et l’organisation. Transfert de compétences et assistance technique des procédures aux équipes production/exploitation et participation éventuelle à leur formation. Support et assistance technique aux responsables métiers dans la conduite de projet. Suivi et application du patch management des équipements gérés en relation avec les constructeurs et les éditeurs de logiciels (actions de maintenance évolutive, préventive et correctrice, Inventaire).
Freelance

Mission freelance
Senior Data Engineer AWS

SILAMIR
Publiée le
AWS Cloud

12 mois
Paris, France
Nous recherchons un Data Engineer expérimenté afin de contribuer à la fiabilité, l’automatisation et la scalabilité d’un Lakehouse data. Vous interviendrez sur la conception et l’orchestration de pipelines, l’optimisation des traitements et l’évolution de l’architecture data dans un environnement moderne basé sur AWS. Vos missions : Conception & orchestration Concevoir, développer et maintenir des pipelines Airflow pour l’ingestion et la transformation des données Mettre en place des frameworks et mécanismes d’automatisation Garantir la robustesse, la modularité et la résilience des workflows Traitement & gestion des flux Développer des composants pour le traitement de fichiers plats (CSV, JSON, Parquet…) et leur exposition via API Consommer et transformer des flux Kafka avec Spark Optimiser la performance et le partitionnement des traitements sur de gros volumes Collaboration analytique Collaborer avec les Data Analysts pour concevoir des agrégats métiers Créer et maintenir des vues Athena utilisées dans Tableau Garantir la cohérence, la fraîcheur et la traçabilité des données Évolution du Lakehouse Participer à la conception et à l’amélioration continue de l’architecture Créer et maintenir des tables de référentiel (clients, contacts, événements, interactions…) Implémenter ces référentiels avec Iceberg / Hudi Supervision & DataOps Assurer la supervision quotidienne des pipelines Mettre en place alerting et monitoring Produire et maintenir la documentation technique
2788 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous