Trouvez votre prochaine offre d’emploi ou de mission freelance Gitflow
Votre recherche renvoie 7 résultats.
Mission freelance
Data Scientist - GenAI
Publiée le
Docker
FastAPI
Gitflow
6 mois
Paris, France
Télétravail partiel
Métiers et Fonctions : Data Management Data Scientist Spécialités technologiques : Big Data genAI Type de facturation : Assistance Technique (facturation avec un taux journalier) Compétences : Technologies et Outils : Dockergenai, Gitlab, FastAPI, Python, Gitflow, genai Méthodes / Normes : Agile Langues : Anglais Secteurs d'activités : Banque Description de la prestation : Dans le cadre d'une mission pour un client du secteur des assurances, recherche d'un Data Scientist pour soutenir une stratégie IA et participer à un projet clé visant à analyser les formulations et tendances. Objectifs principaux : Réviser et numériser le portefeuille de traités (contrats, polices), en assurant une gestion correcte des documents liés. Mettre en œuvre des jumeaux numériques selon le modèle de données défini, en garantissant cohérence et intégration parfaite des données. Mettre en place des contrôles qualité stricts pour l'assurance de la fiabilité des données saisies. Élaborer une documentation complète pour faciliter l'intégration des données dans les modèles analytiques. Livrables : Code et documentation conformes à la définition du travail terminé, couvrant un large scope de contrat.
Offre d'emploi
Développeur Java Backend
Publiée le
Apache Kafka
Argo CD
Batch
3 ans
40k-60k €
400-600 €
Montpellier, Occitanie
Télétravail partiel
Nous recherchons un Développeur Java Backend expérimenté pour rejoindre la squad Entrée en Relation Personnes Morales et Entrepreneurs Individuels , en charge de la création d’un nouveau parcours d’entrée en relation selfcare et de la souscription d’offres de banque au quotidien . Ce projet représente un enjeu stratégique majeur pour le groupe à horizon 2025/2026. Le consultant contribuera à la conception, au développement et à la maintenance d’applications Java modernes tout en participant activement à la mise en place et à l’amélioration continue de la chaîne d’intégration et de déploiement (CI/CD). Vos principales missions : Concevoir, développer et tester des fonctionnalités logicielles avec Java 21 , Spring et Spring Boot 3 Gérer la chaîne CI/CD avec GitLab , SonarQube , JFrog Artifactory/XRay et Kubernetes , en collaboration avec les DevOps Participer à l’amélioration des pratiques de développement, au refactoring continu et à la mise en place de tests unitaires Travailler sur une stack technique diversifiée : APIs REST et SOAP (Legacy), BFFs Spring Boot, batchs Open, BDD DB2 Open et MySQL Préparer les mises en production avec CAGIP et assurer la qualité des livrables à chaque Sprint Maintenir la documentation technique à jour Diagnostiquer et résoudre les incidents techniques pour garantir la qualité de service
Offre d'emploi
Développement VUE.JS
Publiée le
API REST
AWS Cloud
CI/CD
12 mois
40k-48k €
400-480 €
Issy-les-Moulineaux, Île-de-France
Télétravail partiel
Nous recherchons pour notre client un ingénieur Full Stack Senior disposant d’au moins 7 années d’expérience dans le développement web, notamment sur les technologies Vue.js et Java Spring Boot . Le prestataire interviendra dans un environnement dynamique, collaboratif et orienté produit, contribuant à la conception et à la mise en œuvre de nouvelles fonctionnalités Tâches à réaliser : Travailler au sein d’une équipe SCRUM en étroite collaboration avec les PO, le Tech Lead et les autres développeurs Concevoir, développer et tester des nouvelles fonctionnalités et interfaces utilisateurs Faire évoluer et maintenir les systèmes existants Respecter et promouvoir les bonnes pratiques de développement (W2C, Clean Code, sécurité, performance) Participer aux revues de code, à la documentation technique et aux rituels Agiles
Offre d'emploi
Développeur Full Stack (Java ET Angular ET Python) >10 ans d'expérience
Publiée le
Agile Scrum
Angular
Bash
52k-63k €
Paris, France
Télétravail partiel
Vous rejoindrez l'un de nos clients dans le secteur bancaire, en tant que développeur Sénior expert sur les environnements Java, Angular et Python. 🔧 Vos principales responsabilités BUILD • Développement de nouvelles fonctionnalités, intégration continue (CI/CD), tests automatisés, déploiement en production. RUN (MCO/MCS) • Supervision, maintenance, sécurité, performance, gestion du PRA/PCA. Support & accompagnement • Onboarding des projets, gestion des anomalies, rédaction de documentation, support HNO si nécessaire. POC techniques • Réalisation de preuves de concept, benchmarks, choix d’architecture. 💡 Attentes transverses • Être force de proposition sur l’architecture et l’évolution du portail. • Participer activement aux rituels Agile SAFe . • Veiller à la qualité du code (GitFlow, sécurité, documentation).
Offre d'emploi
Data Engineer Senior – Palantir Foundry / Databricks – Secteur Assurance
Publiée le
Databricks
Jenkins
Python
1 an
35k-49k €
360-430 €
Île-de-France, France
Télétravail partiel
Rejoignez une équipe internationale dans le secteur de l'assurance/réassurance, au sein d’un environnement technique stimulant. Vous serez en charge de la conception et de la mise en œuvre de solutions de données avancées en utilisant des technologies modernes comme Databricks et Palantir Foundry . Le rôle implique une collaboration étroite avec des équipes produit pour développer des pipelines de données, services et APIs performants. Collecter et analyser les besoins métiers pour répondre aux exigences fonctionnelles et techniques. Concevoir, développer et maintenir des artefacts de données (pipelines, services, APIs) basés sur les meilleures pratiques. Implémenter des cas d’usage liés à l’analyse de données, à l’exploration BI et au calcul distribué. Documenter et optimiser les architectures de données suivant des standards éprouvés (architecture médaillon, GitFlow, etc.). Travailler en collaboration avec des équipes pluridisciplinaires pour garantir des livrables de qualité. Compétences obligatoires : Expertise en Databricks , Palantir Foundry , Python , SQL et Data Visualization . Maîtrise des outils MSDevOps , Jenkins , Artifactory , et Container Registry . Connaissances solides en parallélisation et programmation distribuée . Compétences appréciées : Expérience avec Delta Lake , BlobStorage , FileShare , et l’architecture médaillon.
Offre d'emploi
Data Engineer - SPARK/SCALA
Publiée le
Apache Airflow
Apache Spark
PySpark
12 mois
40k-48k €
400-470 €
Montreuil, Île-de-France
Télétravail partiel
Nous sommes à la recherche d’un Développeur Big Data Java/Scala – Projet Migration DataHub V2 Objectif de la mission : Assurer un service de développement Big Data dans un environnement distribué à forte volumétrie. Accompagnement sur les phases de conception, développement, industrialisation et maintien des traitements. Stack et compétences techniques requises : Apache Spark (maîtrise attendue) Scala (langage principal sur la squad) SQL (avancé) Java (notions de base à confirmées) Kafka (bonnes bases sur les événements, topics) Apache Airflow (idéalement une première expérience) Écosystème Hadoop : HDFS, Hive, Yarn (bonnes bases requises) Cloud (une première expérience Cloud valorisée, idéalement GCP ou AWS) CI/CD : Jenkins, Gitflow, notions de DevOps Méthodologie Agile : backlog, rituels, communication proactive Responsabilités principales : Étude et conception technique des batchs Développement Spark/Scala pour traitement de données volumineuses Récupération, transformation, enrichissement, restitution Création de batchs de publication Kafka Participation à la maintenance de la chaîne CI/CD Collaboration étroite avec les Business Analysts pour garantir qualité et lisibilité des libellés Gestion autonome de certains sujets (reporting, suivi, coordination) Profil recherché : Confirmé (3 à 6 ans d’expérience sur des environnements similaires) Proactif, rigoureux, à l’aise dans les contextes techniques exigeants Capacité à interagir avec des interlocuteurs techniques et fonctionnels Démarrage : ASAP Durée : mission longue (visibilité +12 mois)
Offre d'emploi
Data Engineer Senior – Palantir Foundry / Databricks – Secteur Assurance
Publiée le
Databricks
Jenkins
Python
1 an
35k-49k €
360-430 €
Île-de-France, France
Télétravail partiel
Rejoignez une équipe internationale dans le secteur de l'assurance/réassurance, au sein d’un environnement technique stimulant. Vous serez en charge de la conception et de la mise en œuvre de solutions de données avancées en utilisant des technologies modernes comme Databricks et Palantir Foundry . Le rôle implique une collaboration étroite avec des équipes produit pour développer des pipelines de données, services et APIs performants. Collecter et analyser les besoins métiers pour répondre aux exigences fonctionnelles et techniques. Concevoir, développer et maintenir des artefacts de données (pipelines, services, APIs) basés sur les meilleures pratiques. Implémenter des cas d’usage liés à l’analyse de données, à l’exploration BI et au calcul distribué. Documenter et optimiser les architectures de données suivant des standards éprouvés (architecture médaillon, GitFlow, etc.). Travailler en collaboration avec des équipes pluridisciplinaires pour garantir des livrables de qualité. Compétences obligatoires : Expertise en Databricks , Palantir Foundry , Python , SQL et Data Visualization . Maîtrise des outils MSDevOps , Jenkins , Artifactory , et Container Registry . Connaissances solides en parallélisation et programmation distribuée . Compétences appréciées : Expérience avec Delta Lake , BlobStorage , FileShare , et l’architecture médaillon.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
7 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois