L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 111 résultats.
Mission freelance
Product Owner Data / Plateforme de Gouvernance des Assets (H/F)
Byrongroup
Publiée le
Apache Kafka
API
Data governance
1 an
400-570 €
Neuilly-sur-Seine, Île-de-France
Contexte Dans un environnement international et multi Business Unit, vous interviendrez au sein de la DSI d’un grand groupe sur une plateforme stratégique de gouvernance des données assets . Cette plateforme groupe vise à devenir le référentiel central de master data, en consolidant des données issues de sources multiples (applications locales, outils sales, plateformes techniques, APIs…) afin de garantir une donnée fiable et cohérente, notamment pour les usages digitaux et programmatiques. Vous intégrerez une équipe Scrum internationale et collaborerez étroitement avec les équipes techniques, métiers et les parties prenantes IT groupe. Rôle & responsabilités : En tant que Product Owner Data , vous serez en charge de : Porter la vision produit de la plateforme de gouvernance data Garantir la cohérence fonctionnelle et la qualité des données Piloter la consolidation de données multi-sources Définir référentiels, taxonomies, règles de gestion et de qualité Challenger et prioriser les besoins métiers dans un contexte transverse Piloter le delivery de bout en bout, de la conception à la mise en production Travailler avec le Product Manager sur la roadmap Encadrer fonctionnellement les équipes de développement et QA Contribuer à l’amélioration continue des pratiques produit et data Environnement technique : Agile Scrum · JIRA / Confluence · Architecture event-driven · Kafka · APIs / Webservices · SQL · Modélisation de données
Offre d'emploi
Tech Lead IAM, DATA, CHIFFREMENT
ARDEMIS PARTNERS
Publiée le
Docker
3 mois
40k-45k €
400-520 €
Nanterre, Île-de-France
La Direction Technique (DT) de Transactis garantie la continuité, la sécurité, la performance et l’innovation des services transactionnels, tout en optimisant les performances technologiques et financières pour répondre aux enjeux stratégiques des clients. Elle envisage de confier une prestation de tech lead IAM, DATA, CHIFFREMENT En tant que Tech Lead de la tribe IAM – Data – Chiffrement « IDC » au sein de l’Engineering Platform, vous êtes le garant de la qualité, de la sécurité et de la conformité des solutions délivrées, en respectant les standards IT et les exigences règlementaires. Vous définissez et pilotez la conception technique des produits et solutions IAM, Data et Chiffrement, en proposant des solutions robustes et optimisées pour répondre aux besoins métiers tout en maximisant la valeur générée. Leader technique et coach, vous accompagnez la montée en compétences des équipes, favorisez l’adoption des bonnes pratiques et insufflez une culture d’excellence. Acteur clé de la transformation, vous contribuez à l’intégration des approches Agile, DevSecOps et à l’industrialisation des processus (automatisation, sécurité by design, test & learn) Les objectifs de la prestation sont : Volet Organisation & Management • Encadrer et animer l’équipe, incluant les collaborateurs internes et les prestataires, en assurant le mentorat et la montée en compétences. • Participer au recrutement et à la sélection des prestataires, garantir l’adéquation des profils avec les besoins techniques et organisationnels. • Définir la roadmap, prioriser les initiatives et garantir leur alignement avec les objectifs stratégiques de la Direction Technique. • Se positionner comme point d’entrée identifié vis-à-vis des directions de Transactis (DSSI, Fabrication, Communication, RH…), centraliser les demandes, orienter les arbitrages techniques et synchroniser les priorités avec les équipes opérationnelles et projets.. • Piloter les rituels Agile (daily, sprint planning, sprint review, retrospective) dans les cadres Scrum/Kanban et intégrer des approches d’innovation (Design Thinking) lorsque pertinent. • Participer activement aux comités de pilotage et aux ateliers techniques • Assurer la coordination transverse avec les équipes projets, production et sécurité pour garantir la cohérence des livrables. • Identifier les risques, proposer des solutions et veiller à la qualité et la conformité des livrables. • Promouvoir les bonnes pratiques techniques et organisationnelles (IAM, Data, Chiffrement, DevSecOps) et la culture d’amélioration continue Volet Technique • Maitrise des sujets liés aux systèmes d'information et aux technologies de l'information. • Connaissances des protocoles d’authentification et de fédération : SAMLv2, OpenID Connect, OAuth2, ainsi que les standards de sécurité avancés (WebAuthn, FIDO2,). • Intégrer et paramétrer les solutions dans les environnements Cloud et conteneurisés (Iaas, Paas, Conteneurisation & Orchestration, CI/CD & Automatisation, Cloud IAM & Sécurité). • Définir les standards et bonnes pratiques pour la mise en œuvre des mécanismes de chiffrement et de hash : Java Crypto, chiffrement symétrique et asymétrique, gestion des clés et certificats. • Orienter les développements applicatifs en Java / Spring Boot / JEE, en veillant à l’application des principes de Clean Code et à l’utilisation des standards d’API (SOAP, REST). • Superviser l’administration et l’optimisation des bases de données PostgreSQL en veillant à la performance et à la sécurité. • Garantir la résilience et la disponibilité des plateformes en intégrant des mécanismes de haute disponibilité et de reprise (PCA/PRA). • Orienter l’intégration des solutions IAM et de chiffrement dans des environnements Cloud IaaS/PaaS (AWS, Azure, GCP) et l’orchestration via Kubernetes, Docker, en collaboration avec les équipes DevOps. • Contrôler la conformité des pipelines CI/CD sécurisés (GitHub Actions, Jenkins) et des déploiements automatisés, sans réaliser directement les opérations. • Superviser la mise en place des outils d’observabilité (Grafana, Prometheus, Loki) pour garantir la disponibilité et la performance des services IAM et Cloud. • Promouvoir l’intégration des pratiques SRE (Site Reliability Engineering) et DevSecOps dans les cycles de développement et d’exploitation. • Valider la configuration et la maintenance des socles techniques en assurant la résilience et la sécurité des flux. • Promouvoir l’intégration des pratiques DevSecOps dans les cycles CI/CD et les développements applicatifs. • Veille technologique active sur les pratiques IAM, Cloud, DevSecOps et SRE afin d’anticiper les évolutions et proposer des solutions innovantes. 1.3. RÉSULTATS ATTENDUS • Implémenter les besoins IAM des clients internes et contribuer aux livraisons des projets • Communiquer les difficultés rencontrées et être force de proposition pour des solutions et des améliorations continues • Accompagner la résolution des anomalies liées aux livraisons et proposer des actions correctives • Concevoir et documenter des scénarios de tests manuels et automatisés • Analyser, recommander et mettre en œuvre la montée en charge de la solution IAM • Garantir le MCO de la solution IAM via des outils automatisés • Participer à l’amélioration continue en fournissant des feedbacks constructifs • Rédiger et maintenir la documentation technique • Participer activement aux cérémonies Agile et aux réunions projets • Suivre et exécuter les actions projets qui lui sont confiées 1.4. INDICATEURS DE QUALITE • Respect des jalons projet • Avancement des sprints • Taux de tâches réalisées • Taux de réussite des tests d’intégration/sécurité • Pertinence des propositions technique • Couverture d’observabilité : métriques, logs et traces
Offre d'emploi
Data Engineer
CAT-AMANIA
Publiée le
Ansible
Apache Airflow
Apache Kafka
Île-de-France, France
ntégration au sein de l'équipe Data event Management qui gère les trois offres de services suivantes : - Offre Infra. Kafka sur ITCloud OnPremise - Offre Infra. Kafka sur IBMCloud/dMZR. Activités principales - Construction/Déploiement/Support/MCO des offres autour de la technologie de messaging kafka Méthodologie de Travail - ITIL - Agile/Scrum à l'échelle - Product Based Projets principaux en cours - Transition vers un Nouvel Orchestrateur sur l'Offre Infra Kafka IBMCloud/dMZR basé sur Python et Airflow, Terraform - Extension de l'offre Kafka sur IBMCloud/dMZR avec l'intégration du produit Lenses - Migration du monitoring de l'infrastructure OnPremise de Splunk vers une solution Dynatrace combinée avec ELK. Technologies Utilisées - Outils administratifs: ServiceNow, Jira, Confluence - Infrastructure as Code: Ansible, Terraform - Langages: Bash, java (spring/jhipster), python - Repository: Artifactory - Database: SQL Server, PostgreSQL - Contenairsation: Docker/Kubernetes - Provider Cloud: ITCloud, IBMCloud - Orchestration: Airflow, Autosys, BPM - Versionning: Git - Messaging: kafka - CI/CD: GitLab CI - Operating system: Redhat - Monitoring: ELK, Dynatrace, LogDNA, Sysdig - Sécurité: HashiCorp Vault, Cyberarc
Offre d'emploi
Data Engineer Senior
INFOGENE
Publiée le
60k-70k €
Neuilly-sur-Seine, Île-de-France
Contexte du poste Nous recherchons un Data Engineer expérimenté pour rejoindre notre équipe Data & Cloud. Vous jouerez un rôle clé dans la conception d’architectures data robustes, l’industrialisation des pipelines, l’optimisation des performances BigQuery et la mise en place de solutions IA/ML. Vous interviendrez dans un environnement GCP-first , moderne, orienté automatisation et bonnes pratiques DevOps. 1. Compétences techniques attendues Architecture Système & Cloud Excellente maîtrise de Google Cloud Platform (GCP) Containerisation & architectures serverless Maîtrise des patterns d’intégration d’entreprise DevOps & Infrastructure as Code Terraform (développement de modules, automatisation, paramétrages avancés) CI/CD : GitHub Actions, pipelines automatisés Maîtrise de Git / GitHub Développement d’API Conception & développement d’API REST Expérience sur Apigee , Cloud Run , FastAPI Architectures orientées événements Mise en place de flux événementiels : GCP Pub/Sub Connaissance de Kafka Modélisation de données Modèles en étoile (Star Schema) Modèles en flocon (Snowflake Schema) Modélisation dimensionnelle avancée BigQuery – Expertise avancée Écriture et optimisation de procédures stockées complexes Optimisation des performances & des coûts Optimisation DirectQuery pour outils BI Orchestration & pipelines de données Cloud Workflows, EventArc, Cloud Run Scripting Python ML / IA / GenAI Algorithmes classiques, MLOps Expérience sur Vertex AI (pipelines, modèle, tuning) Compréhension des réseaux neuronaux (encodeur/décodeur) Connaissance de concepts LLM, RAG, MCP BI & Analytics Looker, modèles LookML Qualité & Observabilité Expérience en qualification, monitoring & observabilité des données Méthodologies & Leadership Travail en équipes Agile / Scrum Mentorat & accompagnement de développeurs Atouts (Nice to have) Compétences WebApp : JavaScript / React Certification GCP Data Engineer ou Cloud Architect
Mission freelance
Proxy Product Owner Data / BI – Environnement Agile
Comet
Publiée le
CyberSoc
1 an
400-590 €
Île-de-France, France
Nous recherchons un(e) Proxy Product Owner expérimenté(e) pour intervenir sur un projet data stratégique, en phase BUILD, au sein d’un grand groupe international. Objectif de la mission Accompagner l’équipe produit dans la conception et la livraison de solutions data à forte valeur métier, avec un rôle clé d’interface entre les équipes techniques et les parties prenantes métier. Responsabilités principales Participation active aux cérémonies Agile (Scrum) Enrichissement et pilotage du backlog (Jira) Analyse des besoins data et des sources nécessaires à la construction de KPIs Définition des règles de transformation et critères d’acceptation Conception de modèles de données (Snowflake, Power BI) Contribution aux phases de tests (UAT) avec les stakeholders Suivi de l’orchestration et des flux de données Production et mise à jour de la documentation fonctionnelle
Mission freelance
Proxy Product Owner Data (RUN & BUILD) – Full Remote
Signe +
Publiée le
Snowflake
12 mois
330-340 €
Paris, France
Proxy Product Owner Data – RUN focus / BUILD focus Contexte Mission au sein d’un datalake cybersécurité (Security Analytics) dans un environnement grand compte. Le client a ouvert la possibilité de réaliser la mission en full remote afin d’élargir le sourcing et sécuriser un profil compétent. Durée 6 mois minimum (renouvelable) Mode de travail Full remote Responsabilités – RUN focus Piloter la transition Build → Run et stabiliser l’exploitation Gérer et prioriser le backlog incidents ServiceNow (arbitrage risques / impacts métier) Analyser, coordonner et suivre les incidents avec les équipes de développement Communiquer auprès des utilisateurs et parties prenantes Rédiger des SOP (Standard Operating Procedures) pour les incidents récurrents Mettre en place le monitoring et l’alerting (fraîcheur, qualité, disponibilité des données) Garantir la performance et la fiabilité opérationnelle des solutions data Contribuer au support et à la montée en compétence des utilisateurs (Power BI, modèles de données) Responsabilités – BUILD focus Participer aux cérémonies agiles et assister le Product Owner Enrichir le backlog Jira (spécifications data, règles de transformation, critères d’acceptation) Réaliser les UAT avec les parties prenantes cybersécurité Analyser les sources de données nécessaires à la construction des KPI Optimiser la logique de calcul des indicateurs Concevoir les modèles de données sous Snowflake et Power BI Superviser l’orchestration et les planifications des flux Maintenir la documentation fonctionnelle Gérer et opérer le backlog BUILD Compétences requises Forte expérience sur des projets Data / BI Maîtrise de Azure Data Factory, Snowflake, Power BI Très bon niveau SQL (analyse, contrôle, optimisation) Expérience confirmée en tant que Product Owner / Proxy PO en environnement Agile (Scrum, Jira) Bonne culture IT générale (API, réseaux, protocoles) Anglais courant obligatoire Soft skills Excellente communication et capacité de vulgarisation Forte autonomie (contexte full remote) Capacité d’arbitrage et sens du résultat Aisance avec des environnements complexes et contraints (cybersécurité)
Offre d'emploi
Chef de projet IT Senior
VISIAN
Publiée le
Agile Scrum
Cloud
1 an
40k-45k €
400-600 €
Île-de-France, France
Contexte Une entité internationale répartie sur 27 pays (France, Pays-Bas, Europe, LATAM, etc.) recherche un Chef de Projet IT Senior pour participer à un Programme de transformation des infrastructures serveurs tant système qu'applicatifs. Vous aurez en charge le projet dont la partie est la migration (réinstallation) d'un Data Center opérant 15 pays, situé en Europe, vers un Data Center en France et Belgique opéré par un grand groupe bancaire. Pour ce faire vous travaillerez étroitement avec le Directeur de Programme en charge de la partie « Move to Corp » pour la virtualisation d'une partie des environnements applicatifs. La cible est une fin de migration pour T4 2026. Responsabilités Animer les réunions de préparation et de suivi avec les acteurs techniques Conduire l'avancement du projet, animer les comités de suivi hebdomadaire et de pilotage mensuel, et anticiper les difficultés en apportant des solutions pragmatiques Coordonner les acteurs chez les partenaires, ainsi que les diverses équipes internes et du groupe Fournir les reporting réguliers au management Gérer et communiquer les tableaux de bord des projets Suivre le budget en relation avec les PMO et le Control de Gestion Fédérer les relations avec les partenaires externes et internes du groupe Être en relation avec les équipes d'ingénierie et Architecture dédiées à ces transformations et standardisation pour les challenger sur les scénarios de migration des applications Assurer la bonne rédaction et la validation des documentations relatives aux projets dans les divers comités (Architecture, Finance, Stratégique, etc.)
Mission freelance
POT8873 - Un Data Engineer sur Lyon
Almatek
Publiée le
SQL
6 mois
260-430 €
Lyon, Auvergne-Rhône-Alpes
Almatek recherche pour l'un de ses clients, un Data Engineer sur Lyon. Compétences : ORACLE impératif SQL impératif Python : c’est un plus mais pas obligatoire Expérience : Participation à des projets liés à la Data et aux Bases de données (injection et exposition des données) Bonne compréhension fonctionnelle Utilisation de GIT pour la gestion de version Niveau recherché : Confirmé (surtout Oracle et SQL, ok pour junior/intermédiaire sur Python) Compétences appréciées (Bonus) : Airflow Apache (ordonnanceur de traitements de données en Python) Trino (exposition des données depuis sources multiples en SQL) Méthodologie Agile SAFE & Scrum Outils de gestion de projet : Jira, Confluence Profil orienté Data Ingénieur On ne recherche pas de profil devsecOps, ni de data architecte Activités : Build 80% & MCO/RUN 20% Conditions de travail : Présentiel souhaité : 2 jours par semaine chez le client Savoir-être : Bonnes compétences en communication Esprit d’équipe : capacité à collaborer efficacement Force de proposition : aptitude à apporter des idées et solutions proactives
Offre d'emploi
Développeur Data/BI (Databricks - Power BI)
Inventiv IT
Publiée le
Agile Scrum
Databricks
DAX
40k-52k €
Paris, France
Dans le cadre d'un projet au sein de notre Data & IA Fabric, nous recherchons un développeur Data/BI (Databricks - Power BI) pouvant assister le Delivery Lead et la Tech Lead du projet pour : La mise en place des flux de données La réalisation des chaines d’alimentation d’intégration des données et autres fonctionnalités DATA du projet. La modélisation des données dans la base de données et l’infrastructure Databricks Participation aux rituels Agiles (Daily, Sprint Review, Sprint Planning, Démo) La mise en place de l’automatisation à l’aide des outils préconisés lors de la conception La recette unitaire et d’intégration La préparation de la livraison et la mise en production La construction de visuels PowerBI Expérience de plus de 2 ans dans la modélisation de données dans des systèmes décisionnels Expérience de réalisations et participations à des projets Data significatifs Expérience indispensable des bases de données relationnelles et du requêtage via du langage SQL Expérience indispensable dans la construction de visuels PowerBI et de son langage de programmation (DAX) Expérience appréciée sur le développement d’alimentation avec Spark et/ou Databricks Ce projet est réalisé en utilisant une méthodologie agile SCRUM. Paris 12 – 3 jours de TT Rythme hybride
Mission freelance
Business Analyst Sénior - Risk Data
VISIAN
Publiée le
Business Analyst
3 ans
400-500 €
Marseille, Provence-Alpes-Côte d'Azur
Groupe international spécialisé dans le financement B2B (équipements et immobilier) recherche un(e) Business Analyst pour rejoindre une organisation IT en mode Agile (Squad/Tribe) , dans un contexte octroi / étude de risque . Dans le cadre d’une roadmap 2026 , la mission porte sur des évolutions liées à la collecte et la structuration des données de connaissance client (KYC) et de données fournisseurs , autour de deux applications internes de type référentiel et plateforme d’acquisition . Mission Intégration d’une squad en charge des sujets Risk Data / référentiels Participation aux cérémonies Agile (Sprint Planning, Daily, Review, Rétro…) Identification et coordination des parties prenantes métier / IT / tests Analyse et formalisation des besoins avec le Product Owner Rédaction de l’expression de besoin et validation métier Rédaction des user stories et des critères d’acceptation Réalisation de mapping de données et contribution à la mise en place d’ APIs Participation aux tests et accompagnement du métier sur la recette / UAT Vérification de la conformité de la solution livrée vs besoin métier Contribution à la documentation, formation utilisateurs et conduite du changement Profil recherché Expérience en tant que Business Analyst / Analyste fonctionnel / AMOA Bonne maîtrise des environnements Agile / Scrum À l’aise sur les sujets data / mapping / référentiels / APIs Expérience en recette / tests utilisateurs (UAT) Bon relationnel et capacité à faire le lien entre métier et équipes techniques
Mission freelance
Ingénieur Data Oracle/SQL/Python
CS Group Solutions
Publiée le
Apache Airflow
Oracle
Python
12 mois
380-400 €
Lyon, Auvergne-Rhône-Alpes
Nous recherchons un Ingénieur Data Oracle/SQL/Python Objectif global : Développement Data Engineer Oracle/SQL/Python Contrainte du projet: Contexte Data Les livrables sont: Développement des nouvelles fonctionnalités TU / Spécifications techniques MCO/RUN Compétences techniques: Oracle - Confirmé - Impératif SQL - Confirmé - Impératif Python - Junior - Important Airflow - Junior - Souhaitable Description détaillée: Nous cherchons un data ingénieur ASAP pour une mission longue durée Compétences : ORACLE impératif SQL impératif Python : c’est un plus mais pas obligatoire Expérience : Participation à des projets liés à la Data et aux Bases de données (injection et exposition des données) Bonne compréhension fonctionnelle Utilisation de GIT pour la gestion de version Niveau recherché : Confirmé (surtout Oracle et SQL, ok pour junior/intermédiaire sur Python) Compétences appréciées (Bonus) : Airflow Apache (ordonnanceur de traitements de données en Python) Trino (exposition des données depuis sources multiples en SQL) Méthodologie Agile SAFE & Scrum Outils de gestion de projet : Jira, Confluence Profil orienté Data Ingénieur On ne recherche pas de profil devsecOps, ni de data architecte Activités : Build 80% & MCO/RUN 20% Conditions de travail : Présentiel souhaité : 2 jours par semaine chez le client
Offre d'emploi
Chef de projet / Product Owner F/H - Informatique de gestion (H/F)
█ █ █ █ █ █ █
Publiée le
JIRA
Scrum
Pau, Nouvelle-Aquitaine
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Mission freelance
Data Platform Engineer
Cherry Pick
Publiée le
AWS Cloud
Python
12 mois
600-650 €
Paris, France
Objectifs Votre mission est de responsabiliser et de faire monter en compétence notre communauté de plus de 50 data engineers et data scientists. Agissant comme le lien essentiel entre les feature teams et les ingénieurs de la plateforme, vous serez le garant de l’adoption et de l’évolution de notre plateforme data en fournissant un support technique opérationnel, en partageant les bonnes pratiques et en animant des initiatives de partage de connaissances. Grâce à un engagement proactif, un support direct et une collecte continue de feedback, vous favoriserez un environnement collaboratif, innovant et à fort impact — garantissant que notre plateforme s’adapte en permanence et délivre une valeur maximale à ses utilisateurs. Missions principales 1. Support technique : Accompagner les data engineers et data scientists dans leurs problématiques techniques en fournissant des solutions opérationnelles, des conseils, des bonnes pratiques et un support via des interactions directes au sein de leurs équipes. S’assurer que la dette technique est identifiée, comprise et gérée via des plans d’actions, et participer aux tâches sous-jacentes. Fournir des outils pour aider à gérer cette dette (tests, automatisation, agents IA, …). Collaborer avec les équipes data platform et support afin de garantir que les problèmes au sein des pipelines data et de la plateforme data sont identifiés et résolus, améliorant ainsi l’expérience développeur globale. 2. Évangélisation : Promouvoir l’adoption de la plateforme data par une utilisation quotidienne, en démontrant sa valeur auprès des utilisateurs existants. Partager avec la communauté de pratique et les équipes internes les tendances du marché, outils et technologies liés aux plateformes data. 3. Montée en compétences des équipes : Évaluer le niveau actuel des équipes sur les outils et pratiques de la Data Platform et l’améliorer via des formations, des exercices et la résolution de problématiques réelles. Promouvoir et animer une communauté de pratique afin de construire des parcours de formation d’amélioration, des ateliers internes et des webinaires mettant en valeur les capacités de notre Data Platform. Créer du contenu technique tel que des articles de blog, tutoriels, projets exemples et documentation afin d’aider les développeurs à comprendre et utiliser efficacement notre plateforme. 4. Boucle de feedback : Collecter activement les retours de la communauté des développeurs afin de fournir des analyses et suggestions d’amélioration produit aux équipes d’ingénierie de la plateforme. Fournir des tests pertinents pour les actifs techniques produits par les ingénieurs de la Data Platform et s’assurer qu’ils correspondent aux usages actuels des feature teams. Représenter les data engineers et data scientists au sein de l’entreprise, en veillant à ce que leurs besoins et défis soient compris et pris en compte. Qualifications / Compétences requises Maîtrise du développement Python et de la conception d’applications scalables et de haute qualité. Expérience avec des frameworks de traitement de données tels que Pandas ou Spark. Expérience pratique dans le développement et la maintenance de pipelines data de bout en bout. Expertise approfondie sur AWS, complétée par des certifications ou une expérience équivalente. Expérience des frameworks d’Infrastructure as Code (idéalement AWS CDK en Python). Connaissance des pratiques DevOps et des pipelines CI/CD afin d’améliorer les processus de déploiement. Excellentes compétences en communication et en présentation, capables d’expliquer des concepts techniques complexes à des publics variés. Forte appétence pour l’animation de communautés de développeurs et la création d’un impact positif. Bon niveau d’anglais, la documentation étant rédigée en anglais et une partie des utilisateurs de la Data Platform ne parlant pas français. Atouts supplémentaires : Expérience en développement produit agile et en méthodologie Scrum. Expérience de migration de pipelines data vers le cloud. Compréhension des bonnes pratiques de sécurité et de conformité dans des environnements cloud. Environnement technologique : AWS : S3, EMR, Glue, Athena, Lake Formation, Cloud Formation, CDK, Lambda, Fargate, … Data engineering : Airflow, Parquet, Apache Iceberg DevOps : Jenkins, SonarQube, Conda Logiciels : Python, Ruff
Offre d'emploi
Développeur Big Data Spark/Scala (F/H)
CELAD
Publiée le
Agile Scrum
Apache Kafka
Apache Spark
12 mois
40k-55k €
430-600 €
Montreuil, Île-de-France
Envie d’un nouveau challenge... CELAD vous attend ! 🚀 Nous poursuivons notre développement et recherchons actuellement un.e Développeur Big Data Spark/Scala pour intervenir chez un de nos clients du secteur bancaire. 💻💼 Voici un aperçu détaillé de vos missions 🎯 : - Étudier et concevoir techniquement les batchs de traitement de données - Développer en Scala/Spark pour des traitements volumineux - Récupérer, transformer, enrichir et restituer les données - Créer et gérer des batchs de publication Kafka - Participer à la maintenance de la chaîne CI/CD (Jenkins, Gitflow) - Collaborer avec les Business Analysts pour garantir qualité et lisibilité des libellés - Gérer certains sujets de manière autonome : reporting, suivi, coordination
Mission freelance
Lead Full Stack Engineer (AI &Agentic UI)
Comet
Publiée le
Analyse
API
Azure
10 mois
700-800 €
Paris, France
Dans le cadre d’un programme d’innovation avancée au sein d’un Tech Accelerator, nous recherchons un Data Analyst Senior pour intervenir sur la conception et le déploiement de produits data & AI de nouvelle génération , intégrant des modèles de langage (LLM) et des interfaces conversationnelles intelligentes. Vous interviendrez au cœur d’une équipe produit agile et transverse, en lien étroit avec des ingénieurs full stack, des product managers et des designers, afin de transformer des données complexes en insights exploitables et en expériences utilisateurs intelligentes . Votre rôle consistera à structurer, analyser et exploiter des données issues de multiples sources (produits, ingrédients, usages, graphes de connaissance), à contribuer aux stratégies de context enrichment (RAG) , et à garantir la qualité, la pertinence et la performance des données utilisées par les applications AI. Vous participerez activement à la mise en valeur des données via des visualisations claires , à la définition des modèles analytiques, ainsi qu’à l’optimisation des flux de données alimentant les applications conversationnelles. La mission s’inscrit dans un environnement exigeant, orienté produit, innovation rapide et impact business direct.
Offre d'emploi
Ingénieur Infrastructure & Big Data
Ela Technology
Publiée le
Cassandra
Hadoop
Linux
1 an
40k-55k €
400-550 €
Nancy, Grand Est
I. Contexte : Notre client connaît une forte croissance (+1,5 million de clients en un an) et renforce l’équipe Architecture Système/Réseaux (10 personnes) pour assurer la gestion et l’évolution de son infrastructure critique. L’environnement technique est 100% Linux, avec une architecture complexe : · Réseau : 2400 VM, 5-6 Data Centers, 100 applications Open Source · Datalakes : 2 PetaOctets de données · Organisation : Pas de PO, Scrum Master ni DevOps ; 4 équipes de développement (~30 projets) · Répartition des activités : o 1/3 MCO o 1/3 Obsolescence o 1/3 Build / Industrialisation II. Missions : Objectifs de la mission · Assurer la maintenance en conditions opérationnelles (Run 40%) et contribuer à la conception et industrialisation des infrastructures. · Participer à la mise en place d’un socle commun de provisioning, avec un focus sur Data et Sécurité. · Interagir avec les équipes BI pour les besoins de reporting réglementaire et autres. Enjeux techniques · Axes de conception : o Scalabilité o Résilience (site internet = point de contact unique) o Sécurité (chiffrement avancé, PKI, certificats) · Technologies & outils : o Système : Linux o Réseaux : TCP/IP niveau 2, HTTP, SNTP, DNS, zones, reverse proxy o Sécurité : PKI, certificats, chiffrement asymétrique o Containers & IaC : Kubernetes, Ansible (usage limité), Puppet, Terraform o Big Data : Hadoop, Spark, Cassandra, Zeppeli o Autres outils : Kafka, Cognos, Docker, Elasticsearch o Machine Learning : détection de fraude en temps réel · Cloud : utilisation très marginale (Infra as Code majoritairement on-premise)
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
111 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois