Trouvez votre prochaine offre d’emploi ou de mission freelance Nosql à Paris

Votre recherche renvoie 21 résultats.
Freelance

Mission freelance
Data Engineer Spark/Scala

Publiée le
Apache Spark
Scala

3 mois
330-400 £GB
Paris, France
Télétravail partiel
Data Engineer Spark/Scala Paris o Expérience dans la mise en œuvre de technologies et frameworks Big Data et NoSQL (Hadoop, Kafka, Spark, Scala, Hive, SolR, HBase, Kerberos) o Spark / Scala : confirmé o A l'aise avec le programmation fonctionnelle (connaissance des librairies ZIO, MONIX, CATS appréciée) o Expérience de travail dans un environnement Agile ; avec outils et méthodologies associés (Confluence, Jira, Scrum, Kanban) Au sein de la DSI Finance de la DSI, le poste recherché porte sur le besoin d’un Data Engineer Spark/Scala confirmé (5-6 ans d’expérience). Objectifs et livrables Objectifs Le prestataire intégrera le projet d’intégration en coordination avec le chantier assiette comptable de référence en tant que Data Engineer. Les développements sur ce chantier s’appuient sur la plateforme Datalake Finance, basée sur la distribution Hadoop HortonWorks qui collecte les données des différents systèmes de synthèse afin de répondre aux nouveaux besoins de reporting Finances & Risques (COREP, calcul RWA, IFRS9, etc.…) Les tâches seront les suivantes : • la mission consistera à prendre part aux développements, au sein du datalake pour acquérir les nouvelles sources de données, les assemblées et les distribuées aux consommateurs, tout en étant garant de la pérennité et la non-régression de l’outillage déjà en place • Vous participerez à la conception et à l’implémentation de ce projet et serez amené, à ce titre, à travailler en méthode Agile avec de nombreux acteurs métiers et les équipes de maintenance Compétences techniques o Expérience dans la mise en œuvre de technologies et frameworks Big Data et NoSQL (Hadoop, Kafka, Spark, Scala, Hive, SolR, HBase, Kerberos) o Spark / Scala : confirmé o A l'aise avec le programmation fonctionnelle (connaissance des librairies ZIO, MONIX, CATS appréciée) o Expérience de travail dans un environnement Agile ; avec outils et méthodologies associés (Confluence, Jira, Scrum, Kanban) Compétences demandéesCompétences Niveau de compétence Apache Kafka Avancé Apache Hadoop Confirmé Apache Hive Avancé SCALA Confirmé Spark Confirmé
Freelance

Mission freelance
Developpeur Python Senior ( 10 ans ! )

Publiée le
Python

1 an
400-460 €
Paris, France
Le client est un leader mondial de l’assurance , engagé dans une transformation digitale majeure , avec des opérations dans plus de 80 pays . Services Fourniture de services IT standardisés à l’ensemble des entités opérationnelles, afin de favoriser l’alignement du portefeuille applicatif, l’excellence de service et l’efficacité des coûts ; Remplacement des plateformes de gestion de contenus legacy (Documentum, FileNet, NAS) par la plateforme Content Management eXperience (CMX) , développée par nous : une solution clé en main, en mode SaaS , offrant des API REST et une interface web , pleinement alignée avec les standards Groupe en matière d’architecture, de sécurité, de conformité et de résilience ; CMX est une propriété intellectuelle détenue à 100 % . L’enrichissement de ses capacités — ajout de fonctionnalités innovantes, de nouveaux services basés sur l’IA et accélération des migrations vers le cloud — est critique pour son succès et son évolution continue. Livrables Maintenance et évolution des outils cœur développés en Python , ainsi que le prototypage de nouveaux services à forte valeur ajoutée , en s’appuyant notamment sur l’ IA générative , les technologies sémantiques et les architectures cloud-native , afin de générer un impact métier à l’échelle du Groupe ; Collaboration étroite avec les parties prenantes métiers , les product managers et les équipes d’ingénierie pour transformer les besoins émergents en services robustes et à forte valeur ; Construction et évolution des outils cœur : Audit, stabilisation et refactoring de scripts Python existants ; Garantie d’un code propre, conforme aux standards PEP8 , avec une couverture complète de tests et une documentation appropriée ; Harmonisation de nouveaux modules, tels que la traduction de règles métiers exprimées en langage naturel vers des workflows techniques automatisés , ou encore la définition de stratégies d’archivage et de compression de fichiers ; Innovation et prototypage : Pilotage de sprints d’innovation courts et dynamiques pour explorer de nouveaux services orientés cas d’usage (tagging automatisé, recherche sémantique, contrôles de qualité de contenus) ; Conception de preuves de concept (POC) , cadrage et challenge des cas d’usage et besoins spécifiques via du développement rapide en environnement laboratoire ; Évaluation de la faisabilité et proposition de roadmaps de mise en production ; Réalisation de revues de code , partage des bonnes pratiques et mentorat des équipes sur le Test-Driven Development (TDD) , le CI/CD et les principes de clean architecture ; Contribution aux chaînes DevOps : CI/CD, infrastructure as code (Terraform, CloudFormation) et déploiements automatisés. Expertise Expertise avancée en développement Python , appliquée à des applications orientées données ou gestion de contenus ( 10 ans d’expérience ) ; Langages et outils principaux : Python (avancé), Git, Bash, Java, JavaScript (React / Vue) ; Données & IA : Pandas, expressions régulières, parsing JSON/XML, prompt engineering ; Technologies data avancées : NoSQL (MongoDB, MarkLogic), RDF/SPARQL, graphes ; Cloud & DevOps : AWS (S3, Lambda), CI/CD (Jenkins, GitLab CI), Terraform, OpenShift, Kubernetes, Artifactory, OpenLDAP ; Tests & Qualité : Pytest, frameworks BDD (Behave / Cucumber), revues de code, Selenium, outils d’analyse de sécurité et de qualité (SonarQube, Snyk).
Freelance

Mission freelance
Data Engineer Python Azure

Publiée le
Azure
Databricks
PySpark

12 mois
600-650 €
Paris, France
Télétravail partiel
DATA ENGINEER Avec des compétences sur Python/Pyspark/Databricks sous un environnement Azure Cloud. Objectifs et livrables : Nous recherchons une prestation de Data Engineering avec des compétences sur Python/Pyspark/Databricks sous un environnement Azure Cloud. Le consultant Data Engineer évoluera dans un contexte agile, en mode itératif et co- constructif, en s’appuyant sur l’intelligence collective. Le prestataire Data Engineer sera responsable de la conception, du développement et de la mise en production de l'architecture de données. Il devra notamment : Collecter les exigences des métiers et des utilisateurs Concevoir data modeling SQL/NoSQL Concevoir les pipelines de données Mettre en production l'architecture Assurer la maintenance et l'évolution de l'architecture Expérience réussie d’au moins 6 ans en Data Engineering. Compétences requises quotidiennement : Maîtrise des technologies suivantes : Python niveau expert - (4/4) Azure Cloud niveau avancé - (3/4) Azure functions niveau confirmé - (2/4) Compétences requises : Pyspark niveau expert - (4/4) Databricks niveau expert - (4/4)
Freelance

Mission freelance
Data Engineer Spark/Scala

Publiée le
Apache Spark
Scala

3 mois
330-420 £GB
Paris, France
Télétravail partiel
Data Engineer Spark/Scala o Expérience dans la mise en œuvre de technologies et frameworks Big Data et NoSQL (Hadoop, Kafka, Spark, Scala, Hive, SolR, HBase, Kerberos) o Spark / Scala : confirmé o A l'aise avec le programmation fonctionnelle (connaissance des librairies ZIO, MONIX, CATS appréciée) o Expérience de travail dans un environnement Agile ; avec outils et méthodologies associés (Confluence, Jira, Scrum, Kanban) Au sein de la DSI Finance de la DSI, le poste recherché porte sur le besoin d’un Data Engineer Spark/Scala confirmé (5-6 ans d’expérience). Objectifs et livrables Objectifs Le prestataire intégrera le projet d’intégration en coordination avec le chantier assiette comptable de référence en tant que Data Engineer. Les développements sur ce chantier s’appuient sur la plateforme Datalake Finance, basée sur la distribution Hadoop HortonWorks qui collecte les données des différents systèmes de synthèse afin de répondre aux nouveaux besoins de reporting Finances & Risques (COREP, calcul RWA, IFRS9, etc.…) Les tâches seront les suivantes : • la mission consistera à prendre part aux développements, au sein du datalake pour acquérir les nouvelles sources de données, les assemblées et les distribuées aux consommateurs, tout en étant garant de la pérennité et la non-régression de l’outillage déjà en place • Vous participerez à la conception et à l’implémentation de ce projet et serez amené, à ce titre, à travailler en méthode Agile avec de nombreux acteurs métiers et les équipes de maintenance Compétences techniques o Expérience dans la mise en œuvre de technologies et frameworks Big Data et NoSQL (Hadoop, Kafka, Spark, Scala, Hive, SolR, HBase, Kerberos) o Spark / Scala : confirmé o A l'aise avec le programmation fonctionnelle (connaissance des librairies ZIO, MONIX, CATS appréciée) o Expérience de travail dans un environnement Agile ; avec outils et méthodologies associés (Confluence, Jira, Scrum, Kanban) Compétences demandéesCompétences Niveau de compétence Apache Kafka Avancé Apache Hadoop Confirmé Apache Hive Avancé SCALA Confirmé Spark Confirmé
Freelance

Mission freelance
Data Engineer Spark/Scala

Publiée le
Apache Spark
Scala

3 mois
Paris, France
Télétravail partiel
Data Engineer Spark/Scala Au sein de la DSI Finance de la DSI, le poste recherché porte sur le besoin d’un Data Engineer Spark/Scala confirmé (5-6 ans d’expérience). Objectifs et livrables Objectifs Le prestataire intégrera le projet d’intégration en coordination avec le chantier assiette comptable de référence en tant que Data Engineer. Les développements sur ce chantier s’appuient sur la plateforme Datalake Finance, basée sur la distribution Hadoop HortonWorks qui collecte les données des différents systèmes de synthèse afin de répondre aux nouveaux besoins de reporting Finances & Risques (COREP, calcul RWA, IFRS9, etc.…) Les tâches seront les suivantes : • la mission consistera à prendre part aux développements, au sein du datalake pour acquérir les nouvelles sources de données, les assemblées et les distribuées aux consommateurs, tout en étant garant de la pérennité et la non-régression de l’outillage déjà en place • Vous participerez à la conception et à l’implémentation de ce projet et serez amené, à ce titre, à travailler en méthode Agile avec de nombreux acteurs métiers et les équipes de maintenance Compétences techniques o Expérience dans la mise en œuvre de technologies et frameworks Big Data et NoSQL (Hadoop, Kafka, Spark, Scala, Hive, SolR, HBase, Kerberos) o Spark / Scala : confirmé o A l'aise avec le programmation fonctionnelle (connaissance des librairies ZIO, MONIX, CATS appréciée) o Expérience de travail dans un environnement Agile ; avec outils et méthodologies associés (Confluence, Jira, Scrum, Kanban) Compétences demandées Compétences Niveau de compétence Apache Kafka Avancé Apache Hadoop Confirmé Apache Hive Avancé SCALA Confirmé Spark Confirmé

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

Les métiers et les missions en freelance pour Nosql

Data scientist

Le / La data scientist utilise les bases de données NoSQL pour stocker et analyser de grandes quantités de données non structurées, ce qui permet une exploration flexible et des analyses avancées.

Architecte de base de données

L'architecte de base de données conçoit des solutions NoSQL pour répondre aux besoins de stockage de données massives, en optimisant la structure et les performances des bases non relationnelles.

Développeur·euse data (décisionnel / BI / Big Data / Data engineer)

Le / La développeur·euse data intègre des bases NoSQL dans les pipelines de traitement des données pour gérer des volumes élevés et des schémas de données flexibles.

Ingénieur·e R&D

L'ingénieur·e R&D explore et implémente des technologies NoSQL pour créer des solutions innovantes, particulièrement dans les systèmes distribués et les applications big data.

21 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Paris, France
0 Km 200 Km

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous