Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 2 853 résultats.
Freelance
CDI

Offre d'emploi
DÉVELOPPEMENT JUNIOR/CONFIRME JAVA BACKEND Spring (3-6 ans d'exp)

Publiée le
Java
Spring
Spring Batch

3 ans
40k-55k €
400-500 €
Paris, France
Télétravail partiel
🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 💡 Contexte /Objectifs : L'entité est en charge du SI du Leasing pour deux lignes métiers:- les financements structurés de la grande clientèle- les financements pour les PME. Le bénéficiaire souhaite mettre en oeuvre plusieurs évolutions de son socle technique. A ce titre, le Bénéficiaire souhaite bénéficier de l'expertise du Prestataire en termes de Conception et développement Dans ce cadre la prestation consiste à contribuer à/au(x) : - La gestion du projet ITRM - La comitologie - Suivi - Reporting Environnement technique : Java 6/7/8/17, spring batch, spring web, xldeplloy, jenkins, SQL, Sonar Autres technologies : XLdeploy, Docker et Kubernetes. 🤝 Livrables : Les livrables attendus sont :  Développement JAVA backend pour le projet Maille Contrat (réécriture de l'interface risque).  Devops: mise en place de la chaine de déploiement du projet, des serveurs, monitoring etc.
Freelance

Mission freelance
Data Engineer Advanced (Scala / Spark / AWS)

Publiée le
Apache Spark
AWS Cloud
AWS Glue

1 an
Paris, France
Télétravail partiel
Contexte Nous recherchons un Data Engineer confirmé à senior pour intervenir au sein d’un grand groupe international du secteur de l’énergie . La mission s’inscrit dans un environnement data critique , lié à l’exploitation de données de marché et à la production d’indicateurs et d’alertes à forte valeur métier. Le système cible repose sur une architecture batch Big Data structurée selon une architecture médaillon (Silver / Gold) , avec ingestion multi-sources, normalisation, calculs avancés et distribution des données vers différents consommateurs métiers. Localisation : Paris (hybride) Durée : 12 mois renouvelables (jusqu’à 3 ans) Objectifs de la mission Concevoir et développer des pipelines d’ingestion et de transformation en Scala Spark Traiter, dédoublonner, normaliser et structurer des données de marché Refactoriser des imports existants afin de les rendre conformes à l’architecture médaillon Silver layer : données dédoublonnées, normalisées et structurées Gold layer : génération d’agrégats métiers (carnets d’ordres, best bid/ask, OHLC, etc.) Implémenter et challenger les règles métier en garantissant les performances, la scalabilité et la maîtrise des coûts cloud Mettre en place et maintenir les règles de Data Quality (ex. Great Expectations) et contribuer au data catalog Participer à l’amélioration des frameworks communs : monitoring, CI/CD, tests, performance, résilience et standards de développement Rédiger et maintenir la documentation technique (architecture, flux, schémas, infrastructure) Environnement technique ETL / Compute : Scala, Spark (batch) Cloud AWS : Glue Jobs, S3, Lambda, Step Functions Qualité des données : Great Expectations ou équivalent DevOps / CI-CD : Git, pipelines, bonnes pratiques d’industrialisation Environnement applicatif connexe : API REST, services backend Compétences complémentaires appréciées : Python, React Important : cette mission ne s’appuie pas sur des solutions managées de type Databricks. Compétences requisesIndispensables Minimum 5 ans d’expérience significative en Scala et Spark Expérience confirmée sur des projets Big Data / ETL à forte volumétrie Expérience pratique sur AWS (Glue, S3, orchestration) Bonne culture DevOps Autonomie, rigueur, capacité à être force de proposition Appréciées Python Développement API Connaissances de base en market data / trading (non bloquant) Process de sélection Entretien Teams de 30 minutes axé sur les expériences professionnelles Entretien Teams d’une heure axé sur les compétences techniques avec un Data Engineer de l’équipe Modalités de réponse Merci de transmettre : CV, disponibilité, TJM, localisation et un résumé des expériences Scala / Spark / AWS Glue .
Offre premium
Freelance

Mission freelance
Lead technique Fullstack Java /Angular/VueJS

Publiée le
Angular
Java
Vue.js

3 mois
Nantes, Pays de la Loire
Télétravail partiel
Nous recherchons un Lead technique Fullstack Java /Angular/VueJS Organisation: 2-3 jours de télétravail Mission: Mission de build en mode Agile avec des sprints de 3 à 4 semaines Plus des projets de maintenance corrective et évolutive Une migration d'Angular vers du VueJS est à prévoir Encadrement d'une équipe de 5-6 Développeurs plus juniors Environnement technique: - Java - Angular - VueJS - Type Script - Devops (Docker, Kubernetes, OpenShift) -- Nous recherchons un Lead technique Fullstack Java /Angular/VueJS Organisation: 2-3 jours de télétravail Mission de build en mode Agile avec des sprints de 3 à 4 semaines Une migration de d'Angular vers VueJS est à prévoir Encadrement d'une équipe de 5-6 Développeurs plus juniors Environnement technique: - Java - Angular - VueJS - Type Script - Devops (Docker, Kubernetes, OpenShift)
CDI
Freelance

Offre d'emploi
Tech Lead Big Data (H/F)

Publiée le
Apache Hive
Apache Spark
Cloudera

3 ans
50k-60k €
500-550 €
Île-de-France, France
Télétravail partiel
Mission : Le Tech Lead Big Data est le référent technique sur les plateformes Big Data on-premise . Il conçoit, développe et optimise des solutions data basées sur Spark / Scala au sein d’environnements Hadoop / Cloudera , tout en accompagnant les équipes de développement. Responsabilités : Être le lead technique Big Data de l’équipe Concevoir et faire évoluer des pipelines de données distribués Développer des traitements Big Data en Scala / Spark Garantir la performance, la fiabilité et la qualité des données Réaliser des revues de code et accompagner les développeurs Collaborer avec les équipes infra et production Environnement technique : Langages : Scala, SQL Framework : Apache Spark Écosystème : Hadoop (HDFS, YARN, Hive, HBase, Impala) Distribution : Cloudera Architecture : On-premise Outils : Git, CI/CD, ordonnanceur (Airflow / Oozie ou équivalent)
Freelance

Mission freelance
Data engineer

Publiée le
Azure Data Factory
Databricks
Scala

12 mois
400-560 €
Île-de-France, France
Télétravail partiel
Les livrables sont : Code Source Documentation KPI qualité Compétences techniques : Databricks - Expert - Impératif Spark SQL - Expert - Impératif Azure Data Factory - Confirmé - Important Scala - Confirmé - Souhaitable Description détaillée Contexte : Le projet Data PUB - Digital vise à centraliser et harmoniser l'ensemble des données relatives à la diffusion publicitaire digital (impressions, chiffre d'affaire etc) pour permettre un reporting fiable selon différentes dimensions (canal de vente, origine, équipes commerciales, annonceurs etc) et garantir une vision unifiée de la performance digitale. Environnement technique : Azure Data Factory, Databricks, Spark Scala, SQL, Azure DevOps et Power BI. Missions : - Concevoir et développer des pipelines d’ingestion de données via Azure Data Factory. - Développer et optimiser des flux de transformation de données en Spark SQL. - Maintenir des pipelines de traitement de données en Scala (faible part) - Maintenir et développer de nouveaux indicateur de qualité de données - Participer au refactoring du code existant pour améliorer sa performance et sa maintenabilité (réécriture en DBT) - Garantir la qualité du code et veiller au respect des normes de développement au sein de l’équipe. - Implémenter des tests unitaires et assurer la fiabilité des solutions. - Maintenir les solutions de monitoring de l’application Digital. Profil recherché : - Profil orienté Analytics Engineer - Maîtrise avérée de Spark SQL - Bonne connaissance en modélisation BI - Expérience confirmée sur l’écosystème Microsoft Azure (Data Factory, Databricks, Azure DevOps). - Bonne connaissance de Git et des pratiques DevOps. - Sens de la communication, force de proposition et capacité à travailler en équipe. - Rigoureux, attaché aux bonnes pratiques de développement et à la qualité du code Le profil est garant du bon fonctionnement et de la disponibilité des données dont il a la responsabilité. Il assure la prévention des dysfonctionnements des données et contribue à la bonne utilisation de celles-ci
CDI

Offre d'emploi
Data Engineer

Publiée le
Azure
Databricks
DBT

Paris, France
Télétravail partiel
L'ENTREPRISE La fabrique Vingtcinq accompagne depuis 2010, les ETI et grands comptes de l’industrie et du service dans leur transformation digitale (Applications web, digitalisation des processus interne, data engineering, .. ). Vingtcinq est aujourd'hui reconnue non seulement pour la qualité d'exécution de ses développements , mais aussi pour le cadre de travail offert à ses collaborateurs . Le bien-être de notre équipe est une priorité , et chacun contribue activement à la vie de l'entreprise et à son développement . Forte de son expertise dans le développement d'outils digitaux, Vingtcinq aspire désormais à se démarquer dans le domaine de la data . Cette nouvelle Business Unit, en pleine expansion, se structure grâce à l'esprit entrepreneurial de ses membres. Pour soutenir cette croissance, nous recherchons des esprits audacieux pour rejoindre cette aventure et faire rayonner Vingtcinq sur ce nouveau secteur, pour cela, nous recherchons un(e) data engineer pour renforcer notre équipe . Tu travailleras en étroite collaboration avec l’équipe Data pour répondre aux enjeux de nos clients et développer l’offre Vingtcinq. LA MISSION Mission Principale : Data Ingestion & Transformation (70%) Créer, maintenir et optimiser des pipelines de traitement des données (ETL/ELT) pour collecter, charger, stocker, nettoyer et transformer les données brutes provenant de différentes sources (bases de données, API, fichiers, etc.). Automatiser l'intégration / l’ingestion de données (data warehouses, data lakes et lakehouses) Administrer et configurer des systèmes de stockage de données (datalake, datawarehouse ou lakehouse)(Assurer la scalabilité et la résilience des systèmes de données Travailler avec des outils et technologies pour la gestion des données à grande échelle. Optimiser la performance des base de données Garantir la qualité et l'intégrité des données Surveiller et optimiser des flux de données Mission secondaire : Visualization & technical guidance (30%) Travailler avec l’équipe Business/PM pour enrichir le brief et créer la traduction technique appropriée, être à l'aise pour parler à l'équipe business Conseils pour la résolution de problèmes : En tant qu'ingénieur de données expérimenté, fournir des conseils sur la bonne méthodologie d'implémentation technique des outils internes en accord avec l’équipe Data office Maintenir les tableaux de bord existants (améliorations) Soutenir l'effort de documentation des données en collaboration avec les responsables des données. COMPÉTENCES REQUISES Maîtrise de l’environnement Azure Environnement Cloud & Data : Azure Data Factory (ingestion, orchestration), Azure Databricks (traitements Spark), Azure Data Lake Storage Gen2 Bases de données & modélisation : Azure SQL Database, Modélisation analytique (schéma en étoile, faits/dimensions) Programmation : SQL avancé, Python (Spark, pandas), Scala (apprécié) Sécurité & gouvernance : Azure AD / IAM, Gestion des accès et des données sensibles, Data Catalog (Purview ou équivalent) Industrialisation & supervision : CI/CD : Azure DevOps ou GitHub Actions, Monitoring : Azure Monitor, Log Analytics Business Intelligence : Power BI LE PROFIL RECHERCHÉ Formation Bac+5 ou équivalent vous justifiez d’une expérience de 3 à 5 ans en tant que Data Engineer . Tu es autonome, proactif et as un excellent sens de la communication . Tu es apte à analyser les problèmes de données et à concevoir des solutions techniques adaptées . Tu recherches une structure à taille humaine , avec un fort esprit d’équipe Niveau d’ anglais avancé attendu LES PLUS DE L'OFFRE Nous avons le goût de la qualité et du travail bien fait Nous t’accompagnerons dans ta montée en compétences Chez VingtCinq, nous accordons une importance particulière à l’esprit d’équipe et au bien être de nos collaborateurs LE PROCESSUS DE RECRUTEMENT Entretien avec le DG de VingtCinq Test technique Entretien avec le Directeur Technique
Freelance

Mission freelance
Data Engineer AWS / GenAI

Publiée le
Amazon S3
Apache Airflow
Apache Spark

12 mois
450-550 €
Paris, France
Télétravail partiel
Dans le cadre du plan de transformation DATA de notre Client, notre client développe des applications et plateformes DATA pour rendre nos métiers (pilotage, marketing, commerce, etc.) autonomes dans l’analyse de leurs données et KPI. Les infrastructures et projets incluent : AWS, GitLab, Terraform, DBT, Snowflake, Python, Scala, Spark, PowerBI, AI/GenAI Architectures Big Data sophistiquées pour ingérer plus de 100 par jour (Datalake, Event-Driven, Streaming, etc.) Exemples de projets : Chatbot AI Socle vidéo, navigation et calcul des audiences Recommandation de programmes via IA Feature Store et modernisation des flux financiers Plateformes CRM et partage de données partenaires Kubernetes et applications de data self-service Missions En tant que Data Engineer , vous serez en charge de : Concevoir, développer et maintenir des pipelines de données scalables et performants (ingestion, traitement et stockage de données massives). Développer des architectures Big Data sur AWS (S3, EMR, Lambda, Kinesis, Batch…), Snowflake et Spark. Développer en Scala et Python pour le traitement massif des données. Automatiser les workflows et orchestrer les pipelines avec Airflow et DBT . Concevoir et exposer des APIs customer-facing performantes. Optimiser les performances et garantir la scalabilité pour gérer un volume important d’utilisateurs. Collaborer avec les équipes Data Science, Produit et DevOps pour une intégration fluide.
Freelance

Mission freelance
Expert Technique Cash Management (Swiftnet et ISO20022 OBLIGATOIRE)

Publiée le
Apache Kafka
Apache Spark

6 mois
600-750 €
Paris, France
Télétravail partiel
Objectifs de la mission Intervenir en tant qu’expert technique sur des applications critiques de Cash Management dédiées au traitement de flux financiers à forte volumétrie. La mission couvre l’ingestion, la transformation et la diffusion de flux batch et temps réel , ainsi que l’intégration sécurisée avec l’écosystème bancaire international via SWIFTNet et les messages ISO 20022 , dans un environnement distribué basé sur Scala, Java, Python, Kafka, Spark et Hadoop . Rôle et responsabilités Concevoir, développer et maintenir des composants back-end robustes en Scala / Java / Python Intervenir sur des architectures orientées événements et streaming ( Kafka, Spark, ) Garantir la performance, la qualité du code et la stabilité des traitements de flux critiques Contribuer aux choix d’architecture, d’optimisation et de supervision ( Docker, Kubernetes, Jenkins, Sonar, Datadog ) Travailler en étroite collaboration avec les équipes métier Cash Management / Paiement dans un cadre agile
Freelance
CDI

Offre d'emploi
Data Analyst / Data Scientist / Ingénieur IA (H/F)

Publiée le
AI
Alteryx
Apache Spark

1 an
50k-65k €
500-650 €
Paris, France
Télétravail partiel
En tant que Data Analyst ou Data Scientist ou AI Ingineer , vous contribuez aux projets stratégiques de grands comptes bancaires en intervenant sur l’analyse, le traitement et la valorisation des données bancaires et financières. Vos principales missions : Recueillir et analyser les besoins métiers Collecter, structurer et traiter les données chiffrées issues de différentes sources Nettoyer les données (suppression des doublons, gestion des valeurs manquantes, etc.) Développer des algorithmes pour l’exploitation des données (analyse statistique, machine learning) Concevoir et construire des actifs informatiques dédiés à la préparation et à la visualisation des données Développer du code ou des scripts s’appuyant sur des données structurées et non structurées Participer aux phases de tests, recettes et validation des solutions déployées Installer et configurer les outils requis dans le respect du cadre de référence technique Assurer la maintenance évolutive et corrective des solutions déployées, intervenir en support si nécessaire Rédiger la documentation associée (use cases, développements, procédures) Lieu : Paris – Client : Grand établissement bancaire – Type de mission : CDI / Freelance / Portage Démarrage : ASAP – Durée : 3 ans
CDI
Freelance

Offre d'emploi
Data Engineer - SPARK/SCALA

Publiée le
Apache Airflow
Apache Spark
PySpark

12 mois
40k-48k €
400-470 €
Montreuil, Île-de-France
Télétravail partiel
Nous sommes à la recherche d’un Développeur Big Data Java/Scala – Projet Migration DataHub V2 Objectif de la mission : Assurer un service de développement Big Data dans un environnement distribué à forte volumétrie. Accompagnement sur les phases de conception, développement, industrialisation et maintien des traitements. Stack et compétences techniques requises : Apache Spark (maîtrise attendue) Scala (langage principal sur la squad) SQL (avancé) Java (notions de base à confirmées) Kafka (bonnes bases sur les événements, topics) Apache Airflow (idéalement une première expérience) Écosystème Hadoop : HDFS, Hive, Yarn (bonnes bases requises) Cloud (une première expérience Cloud valorisée, idéalement GCP ou AWS) CI/CD : Jenkins, Gitflow, notions de DevOps Méthodologie Agile : backlog, rituels, communication proactive Responsabilités principales : Étude et conception technique des batchs Développement Spark/Scala pour traitement de données volumineuses Récupération, transformation, enrichissement, restitution Création de batchs de publication Kafka Participation à la maintenance de la chaîne CI/CD Collaboration étroite avec les Business Analysts pour garantir qualité et lisibilité des libellés Gestion autonome de certains sujets (reporting, suivi, coordination) Profil recherché : Confirmé (3 à 6 ans d’expérience sur des environnements similaires) Proactif, rigoureux, à l’aise dans les contextes techniques exigeants Capacité à interagir avec des interlocuteurs techniques et fonctionnels Démarrage : ASAP Durée : mission longue (visibilité +12 mois)
Freelance

Mission freelance
Data Engineer

Publiée le
Dataiku
SQL

24 mois
400-550 €
Niort, Nouvelle-Aquitaine
Télétravail partiel
Contexte de la mission Au sein de l'entreprise, la Direction des Systèmes d'Information métier (DSIM) est en charge du maintien en conditions opérationnelles et de l’évolution stratégique du Système d'Information dédié à l'assurance vie et à la finance. Enjeux Stratégiques La valorisation de la donnée est au cœur de notre stratégie de transformation pour 2025-2026. Pour soutenir cette ambition, nous recherchons un Ingénieur Data expérimenté, de niveau III pour intégrer l'équipe de développement DATA DSIM. Vous rejoindrez notre nouvelle équipe DATA pour construire, maintenir et optimiser les plateformes et les pipelines de données, garantissant ainsi la fiabilité et l'accessibilité de la donnée pour l'ensemble de l'entreprise. Missions Clés de l'Ingénieur DATA Le consultant Data sera Rattaché(e) au chef de projet de l'équipe, ce sera un contributeur technique essentiel dans le cycle de vie de la donnée. Le consultant sera au cœur du nouveau modèle DATA Les missions principales incluront : Conception de Pipelines (ETL) : Concevoir, développer et optimiser des flux de données robustes et performants (ETL/ELT) pour l'alimentation des entrepôts et des DataMart. Modélisation : Participer activement à la conception et à la mise en œuvre de modèles de données (MCD, modélisation dimensionnelle) adaptés aux besoins métier de l'Assurance Vie. Industrialisation : Industrialiser les processus de préparation, de transformation et de gouvernance de la donnée, notamment via l'outil Dataiku Visualisation et Reporting : Assurer la bonne intégration des données pour leur exploitation dans des outils de Business Intelligence, notamment Tableau. Maintenance et Optimisation : Garantir la performance, la qualité et le maintien en condition opérationnelle de l'infrastructure et des flux de données. Compétences Techniques et Expertise Requises Nous recherchons un profil technique avec une forte appétence pour les outils d'industrialisation de la donnée Domaines de compétences clé Niveau Souhaité : Profil de niveau III exigé. Dans l'idéal une maîtrise de l'outil Dataiku est souhaitée pour la préparation et l'industrialisation des flux. Expertise du langage SQL. Capacité à challenger une solution, chiffrer les couts de réalisation et mener à bien les phases de qualification. Visualisation : Connaissance de l'intégration et de l'optimisation des données pour Tableau (ou équivalent )) Modélisation : Expertise en modèle de données (MCD, dimensionnel) et capacité à les mettre œuvre Expérience solide dans la conception et l'implémentation de processus ETL/ELT Expérience BO / SAS serait un plus dans le cadre des migrations à réaliser. Connaissance du métier de l'assurance vie serait un réel plus également Dispositif Souhaité : 3j sur site à Minima sur Niort des autonomie
CDI

Offre d'emploi
Senior Data Engineer

Publiée le

180k-195k $US
États-Unis d'Amérique
We are looking a Senior Data Engineer Work with a leading generative AI company in healthcare. Why Join Our Team Why Join Our Team Reinvent healthcare with AI that puts safety first. Work with the people shaping the future. Backed by the world’s leading healthcare and AI investors. Build alongside the best in healthcare and AI. Location- Palo Alto, CA office. We believe the best ideas happen together. To support fast collaboration and a strong team culture, this role is expected to be in our Palo Alto office five days a week, unless otherwise specified. Benefits: 401 k, Equity, Lunch provided (On site job) Data is the backbone of everything we build — from our voice-based generative healthcare agents to the systems that ensure their clinical safety and reliability. We’re looking for data engineers who thrive at the intersection of data systems, security, and scalability to design the infrastructure that powers safe AI deployment across healthcare environments. As part of the Data Infrastructure team, you’ll design, operate, and scale systems that collect, transform, and serve data for model training, evaluation, and operational analytics . You’ll work closely with ML, AI, and product teams to ensure our data is trustworthy, compliant, and high-quality — forming the foundation for real-world, patient-facing AI systems. This is an opportunity to build data systems for a new class of AI products — where correctness, traceability, and privacy aren’t optional, they’re mission-critical. What You'll Do Build & operate data platforms and pipelines (batch/stream) that feed training, RAG, evaluation, and analytics using tools like Prefect, dbt, Airflow, Spark , and cloud data warehouses ( Snowflake/BigQuery/Redshift ). Own data governance and access control : implement HIPAA-grade permissioning, lineage, audit logging, and DLP; manage IAM, roles, and policy-as-code. Ensure reliability, observability, and cost efficiency across storage ( S3/GCS ), warehouses, and ETL/ELT—SLAs/SLOs, data quality checks, monitoring, and disaster recovery. Enable self-service analytics via curated models and semantic layers; mentor engineers on best practices in schema design, SQL performance, and data lifecycle. Partner with ML/Research to provision high-quality datasets, feature stores, and labeling/eval corpora with reproducibility (versioning, metadata, data contracts). What You Bring Must-Have: 5+ years of software or data engineering experience, with 3+ years building data infrastructure, ETL/ELT pipelines, or distributed data systems. Deep experience with Python and at least one cloud data platform (Snowflake, DataBricks, BigQuery, Redshift, or equivalent). Familiarity with orchestration tools (Airflow, prefect, dbt) and infrastructure-as-code (Terraform, CloudFormation). Strong understanding of data security, access control, and compliance frameworks (HIPAA, SOC 2, GDPR, or similar). Proficiency with SQL and experience optimizing query performance and storage design. Excellent problem-solving and collaboration skills — able to work across engineering, ML, and clinical teams. Comfortable navigating trade-offs between performance, cost, and maintainability in complex systems. Nice-to-Have: Experience supporting ML pipelines, feature stores, or model training datasets. Familiarity with real-time streaming systems (Kafka, Kinesis) or large-scale unstructured data storage (S3, GCS). Background in data reliability engineering, data quality monitoring, or governance automation. Experience in healthcare, safety-critical systems, or regulated environments. If you’re passionate about building data systems that power safe, real-world AI , we’d love to hear from you. We have an exciting opportunity waiting for you—apply today and take the next step in your career! The IN group is here to support you specifically with the recruitment and hiring process for job opportunities. Our role is focused on guiding you through these steps. If you have any questions related to your application or next steps in the hiring process, Apply, and please feel free to reach out. At Investigo, we make recruitment feel easy. Let’s keep this simple. We’re all about your success, as your success is our business. We are part of The IN Group, a collection of six award-winning specialist brands that supply the globe with end-to-end talent solutions. With recruitment at the core of our business, we’ve been connecting people since 2003. Data & Privacy By applying, you consent to Investigo collecting and processing your data for the purpose of recruitment and placement, in accordance with applicable data protection laws. For more information, please refer to our Privacy Notice at weareinvestigo.com.
Freelance

Mission freelance
DATA SCIENTIST EXPERT / DATA PRODUCT – DATAIKU (H/F) 75

Publiée le
Apache Spark
Dataiku
PySpark

6 mois
Paris, France
Télétravail partiel
Contexte: Dans un contexte de structuration et de montée en maturité des usages Data au sein d’une Direction Financière, la mission vise à renforcer les capacités analytiques autour de la prévision du chiffre d’affaires. L’objectif est de concevoir et d’industrialiser un produit Data stratégique permettant une projection automatisée et multidimensionnelle du chiffre d’affaires (produits, zones géographiques, canaux de vente, infrastructures). Le consultant interviendra au cœur d’une organisation Finance & Data, en tant que référent Data Finance, à l’interface entre les équipes Finance, Data et Produit. Missions: Concevoir, maintenir et faire évoluer un produit Data de projection du chiffre d’affaires Développer et industrialiser des modèles de prévision intégrant des mécanismes basés sur les volumes Permettre des ajustements manuels des projections par les équipes métiers Garantir la qualité, la fiabilité, la traçabilité et l’exploitabilité des données Développer et maintenir des pipelines de données sous Dataiku Implémenter des traitements SQL avancés et des flux de transformation complexes Exploiter Spark / PySpark pour gérer des volumétries importantes Automatiser, monitorer et documenter les chaînes de traitement Mettre en œuvre des contrôles de qualité et contribuer à la gouvernance des données financières Rendre les modèles explicables et actionnables pour les équipes Finance Mettre à disposition les données projetées dans le datalake Collaborer étroitement avec les équipes Finance, Data et Produit Participer aux rituels agiles et au suivi des livrables via des outils de gestion de projet
Freelance
CDI

Offre d'emploi
Analyste Développeur SQL

Publiée le
Java
Kibana
SQL

3 ans
Ivry-sur-Seine, Île-de-France
Télétravail partiel
Préambule : 1 jour de TT / 4 jours sur site. Au sein de la Digital Factory de la DSI Ventes, la mission consiste à rejoindre le Bureau de Résolution des Incidents Groupe pour les assister dans leurs diverses missions : Support applicatif des différents sites Support fonctionnel Description Le périmètre de l’équipe regroupe l’ensemble des fronts de vente web du client et sa marketplace. Livrables Les principales tâches à effectuer dans le cadre de la mission : Analyser et comprendre l’origine d’un dysfonctionnement ou d'un incident Suivre les incidents jusqu’à leur résolution complète Rédaction de procédures et documentations technique Apporter une vision technique et proposer des axes d’améliorations Animer des échanges réguliers avec les features teams pour le suivi des incidents
Freelance

Mission freelance
Tech Lead Java

Publiée le
IA
Java
PL/SQL

12 mois
610-640 €
Paris, France
Voici une proposition de traduction fluide et professionnelle, adaptée au contexte du recrutement et de l'ingénierie logicielle : Renforcement de l'équipe Développement Réconciliations Contexte : L'équipe est actuellement composée de 3 développeurs et 4 Business Analysts (BA). L'équipe de développement intervient sur l'ensemble des applications du périmètre « Réconciliation ». Missions et Services : Immersion opérationnelle au sein d'une équipe de développement pour la fonction IT Middle-Office Stock. Refonte technique globale en cours des applications de réconciliation. Développement et contribution à la montée en compétences techniques de l'équipe. Participation à un projet transverse pour l'implémentation d'une solution globale. Liaison étroite avec les Business Analysts sur toutes les phases de développement. Soutien actif à la production et diagnostic d'incidents (support de niveau 3). Rédaction de spécifications techniques et de documents de conception pour enrichir la base de connaissances. Respect des bonnes pratiques de développement (couverture de code, détection de « code smells », design patterns, tests). Force de proposition et apport d'idées innovantes. Veille à la mise à jour documentaire , en s'assurant qu'elle soit complète et conforme aux standards. Communication fluide et régulière avec les différentes parties prenantes.
Freelance

Mission freelance
Developpeur Java Senior (finance)

Publiée le
Java

3 ans
Paris, France
Télétravail partiel
Expérience significative en environnement finance / bancaire requis pour la mission ainsi qu'un bon niveau d'anglais (entretien mixte anglais / Français). Démarrage mission : A partir de mi février Contexte de la mission Dans le cadre de projets stratégiques menés pour un grand acteur international du secteur financier , nous recherchons un Développeur Java Senior pour renforcer une équipe Front-End Applications d’environ 20 personnes . Le consultant interviendra plus particulièrement au sein d’un squad resserré (4 à 5 personnes) dédié à des initiatives à forte valeur ajoutée, s’appuyant sur des technologies modernes et des standards élevés de qualité logicielle. Le poste couvre à la fois le développement applicatif , la modernisation des solutions existantes , ainsi qu’une contribution active aux activités de change et de production , dans un environnement bancaire exigeant et réglementé.
2853 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous