L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 046 résultats.
Mission freelance
Data Engineer Spark/Scala
Publiée le
Apache Spark
Scala
3 mois
Paris, France
Télétravail partiel
Data Engineer Spark/Scala Au sein de la DSI Finance de la DSI, le poste recherché porte sur le besoin d’un Data Engineer Spark/Scala confirmé (5-6 ans d’expérience). Objectifs et livrables Objectifs Le prestataire intégrera le projet d’intégration en coordination avec le chantier assiette comptable de référence en tant que Data Engineer. Les développements sur ce chantier s’appuient sur la plateforme Datalake Finance, basée sur la distribution Hadoop HortonWorks qui collecte les données des différents systèmes de synthèse afin de répondre aux nouveaux besoins de reporting Finances & Risques (COREP, calcul RWA, IFRS9, etc.…) Les tâches seront les suivantes : • la mission consistera à prendre part aux développements, au sein du datalake pour acquérir les nouvelles sources de données, les assemblées et les distribuées aux consommateurs, tout en étant garant de la pérennité et la non-régression de l’outillage déjà en place • Vous participerez à la conception et à l’implémentation de ce projet et serez amené, à ce titre, à travailler en méthode Agile avec de nombreux acteurs métiers et les équipes de maintenance Compétences techniques o Expérience dans la mise en œuvre de technologies et frameworks Big Data et NoSQL (Hadoop, Kafka, Spark, Scala, Hive, SolR, HBase, Kerberos) o Spark / Scala : confirmé o A l'aise avec le programmation fonctionnelle (connaissance des librairies ZIO, MONIX, CATS appréciée) o Expérience de travail dans un environnement Agile ; avec outils et méthodologies associés (Confluence, Jira, Scrum, Kanban) Compétences demandées Compétences Niveau de compétence Apache Kafka Avancé Apache Hadoop Confirmé Apache Hive Avancé SCALA Confirmé Spark Confirmé
Offre d'emploi
Développeur Python, C# et Sql
Publiée le
API
DevOps
ERP
Paris, France
Télétravail partiel
Etudes & DéveloppementConcepteurSpécialités technologiquesDevops API Reporting ERP Assistance Technique (Facturation avec un taux journalier)CompétencesTechnologies et OutilsSQL (2 ans) C# (2 ans) Python (2 ans)Soft skillsAutonomieSecteurs d'activitésEnergieDans un premier temps: A) Travailler sur le développement/l'automatisation de nouveaux outils/services en Python/Sql/Devops B) Faire monter en compétences les membres de l'équipe en C# et assurer la maintenance d'une application jusqu'à leur autonomie 2) Dans un second temps: A) Développement de TNR sous Robot Framework Les livrables sont : - Documentation - Code source de qualité - Reporting d'activité
Mission freelance
Architecte Data GCP
Publiée le
Architecture
Google Cloud Platform (GCP)
Python
3 mois
620-700 €
Hauts-de-Seine, France
Nous recherchons un Architecte Data GCP senior pour accompagner une grande organisation française dans la structuration et l’évolution de sa Data Platform au sein d’équipes pluridisciplinaires (Data Engineers, Data Scientists, Product Owners, équipes techniques transverses…). Vos missions En tant qu’Architecte Data, vous interviendrez sur un périmètre stratégique incluant : Architecture Data Garantir la cohérence et la standardisation de la stack technique entre les différentes équipes. Auditer l’architecture existante et proposer des améliorations structurantes. Définir les contrats d’interface entre les équipes (data products / data mesh). Participer à l’introduction et aux tests de nouvelles technologies. Veille technologique continue sur les solutions Cloud & Data. Developer Experience Contribuer à la rédaction et à l’industrialisation de modules Terraform / Terragrunt. Accompagner les équipes dans la montée en compétence sur l’Infrastructure as Code. Définir les standards CI/CD applicables à l’ensemble des équipes Data. FinOps Suivi et contrôle du budget Data (multi-équipes). Mise en place d’outils de monitoring, alerting et optimisation des ressources. Identification et priorisation des optimisations de coûts Cloud.
Offre d'emploi
DATA ENGINEER SPARK / SCALA / PYSPARK / DATABRICKS / AZURE
Publiée le
Apache Spark
Azure
Databricks
3 ans
36k-60k €
400-550 €
Paris, France
Télétravail partiel
Bonjour 👽, Pour le compte de notre client, nous recherchons un data engineer Spark / Scala / Pyspark / Databricks / Azure. Missions principales : Participer au développement des User Stories (US) et réalisation des tests associés. Produire et maintenir la documentation projet : mapping des données, modélisation des pipelines, documents d’exploitation. Mettre en place et maintenir le CI/CD sur l’usine logicielle. Assurer la mise en place du monitoring . Collaborer étroitement avec l’équipe projet ; pas de responsabilité de production individuelle. Travailler dans un environnement agile avec priorisation et gestion multi-projets. Compétences techniques indispensables : Maîtrise de Scala et Spark (batch principalement). Optimisation des jobs Spark et traitement de volumétries importantes / complexes . Bonnes pratiques de développement Scala et build Maven. Expérience en environnement cloud , idéalement Azure . Compétences techniques appréciées : Écosystème Databricks Azure Functions et Azure Data Factory Monitoring sous Datadog Déploiement avec Ansible Compétences transverses : Aisance relationnelle et esprit d’équipe Autonomie, rigueur et esprit d’analyse Capacité de synthèse et force de proposition Sens des priorités et respect des délais Appétence client et compréhension métier / fonctionnelle Mentoring et partage de connaissances
Mission freelance
DATA ARCHITECT (GCP)
Publiée le
Apache Airflow
BigQuery
CI/CD
6 mois
580-720 €
Île-de-France, France
Télétravail partiel
Dans le cadre du renforcement de sa Data Platform , l’un de nos clients grands comptes recherche un Architecte Data confirmé à senior pour accompagner ses équipes Data et garantir la cohérence, la performance et la scalabilité de l’architecture globale. Architecte Data – Environnement Cloud GCP Votre rôle Intégré(e) aux équipes Data (Product Owners, Data Engineers, Data Scientists…), vous interviendrez en accompagnement transverse sur l’architecture de la plateforme Data et des dispositifs associés. Vos principales responsabilités : Définir et garantir la cohérence de la stack technique Data Assurer le respect des normes et standards d’architecture Mettre en place et sécuriser les contrats d’interface entre équipes Auditer l’architecture existante et proposer des axes d’amélioration Réaliser une veille technologique et contribuer à l’introduction de nouvelles solutions Participer aux tests et à l’intégration de nouvelles technologies 🛠️ Developer Experience & FinOps Contribution à l’écriture de modules Terraform / Terragrunt Accompagnement des équipes sur l’ Infrastructure as Code et la CI/CD Définition des standards de développement et de déploiement Mise en place du suivi budgétaire par équipe (FinOps) Implémentation des outils de monitoring, alertes et seuils Identification et priorisation des optimisations de coûts Compétences recherchées 3 ans minimum d’expérience en tant qu’ Architecte Data Solide expertise en architecture Data & Cloud Excellente maîtrise des bonnes pratiques d’architecture Expérience en sécurisation des applications Cloud Environnement Google Cloud Platform (GCP) Maîtrise de BigQuery , Cloud Composer (Airflow) , Dataplex Langages Python et SQL Expérience avec Spark Expérience avec dbt Maîtrise de Terraform et Terragrunt
Mission freelance
Business Analyst
Publiée le
Apache Spark
Back-end
Business Analyst
12 mois
400-600 €
Boulogne-Billancourt, Île-de-France
Télétravail partiel
En tant que Business Analyst expérimenté, vous êtes responsable du cycle de vie complet de l'intégration des flux de paiement : Coordination et Pilotage des Flux : Animer et coordonner les différentes équipes impliquées : Équipes M3 (ERP), Spark (Middle Office), Équipes de Développement (Front/Back) et le Partenaire PSP. Garantir l'alignement des parties prenantes sur les objectifs du projet et les spécifications techniques et fonctionnelles. Analyse et Spécification Fonctionnelle : Recueillir, analyser et formaliser les besoins métier en lien avec l'outil de paiement (processus de commande, annulation, remboursement, gestion des fraudes, etc.). Rédiger les Spécifications Fonctionnelles Détaillées (SFD) et les user stories claires et exploitables pour les équipes de développement. Suivi et Validation des Développements : Assurer la transmission et l'interprétation des spécifications aux équipes de développement. Réceptionner et valider les livrables techniques en vous assurant de leur conformité avec les spécifications initiales. Tests et Recette (E2E/UAT) : Concevoir et exécuter les tests de bout en bout ( End-to-End Tests ) pour valider l'intégralité de la chaîne de paiement. Coordonner et piloter les tests d'Acceptation Utilisateur ( User Acceptance Tests - UAT ) avec les équipes métier.
Mission freelance
[SCH] Data Engineer Spark / Scala - 1047
Publiée le
10 mois
350-390 €
Paris, France
Télétravail partiel
Au sein de la DSI Finance, vous interviendrez en tant que Data Engineer Spark / Scala confirmé sur le projet d’intégration du Datalake Finance, adossé à la distribution Hadoop HortonWorks. Ce datalake centralise les données issues des systèmes comptables et de synthèse afin de répondre aux besoins de reporting Finances & Risques (COREP, RWA, IFRS9, etc.). Missions principales : -Participer au développement et à l’intégration de nouvelles sources de données au sein du Datalake Finance. -Assembler et distribuer les données aux consommateurs métiers tout en garantissant la pérennité et la performance des pipelines existants. -Contribuer à la conception technique, l’implémentation et les tests des flux sous Spark / Scala. -Veiller à la non-régression et à la qualité du code dans le cadre des évolutions du socle. -Travailler en méthodologie Agile (Scrum / Kanban) avec les équipes métiers, data et maintenance. -Participer à la documentation technique et aux revues de code. Profil recherché : -5 à 6 ans d’expérience en environnement Big Data / Datalake. -Solide maîtrise de Spark / Scala et des paradigmes de programmation fonctionnelle (ZIO, Monix, Cats appréciés). -Connaissance des écosystèmes Hadoop, Hive, Kafka, HBase, Kerberos. -Expérience dans un cadre Agile (Scrum / Kanban) et outils associés (Jira, Confluence). -Esprit analytique, autonomie, rigueur et bon relationnel.
Mission freelance
Développeur Python, C# et Sql
Publiée le
DevOps
Python
Reporting
18 mois
100-300 €
Paris, France
Télétravail partiel
CONTEXTE Experience : 2 ans plus Métiers Fonctions : Etudes & Développement,Concepteur Spécialités technologiques : API, Reporting ; ERP, Devops MISSIONS Dans un premier temps: A) Travailler sur le développement/l'automatisation de nouveaux outils/services en Python/Sql/Devops B) Faire monter en compétences les membres de l'équipe en C# et assurer la maintenance d'une application jusqu'à leur autonomie 2) Dans un second temps: A) Développement de TNR sous Robot Framework Les livrables sont : - Documentation - Code source de qualité - Reporting d'activité Expertise souhaitée SOFTWARE DESIGNER / DEVELOPER CONCEPTEUR / DÉVELOPPEUR LOGICIEL Compétences techniques : Développement en C# - Confirmé - Impératif Développement en python - Confirmé - Impératif Développement avec robot framework - Confirmé - Souhaitable Développement en Pl/Sql - Junior - Souhaitable À la demande du Métier, il/ elle analyse, paramètre et code les composants logiciels applicatifs dans le respect des évolutions souhaitées, des normes et des procédures. Activités et tâches : ANALYSE : - Contribue à la définition des spécifications générales - Réalise l'analyse technique et l'étude détaillée - Adapte et paramètre les progiciels applicatifs (ERP) - Réalise le prototypage QUALIFICATION : - Élabore les jeux d'essais pour les tests unitaires d'intégration - Effectue les tests unitaires - Identifie et traite les dysfonctionnements DÉVELOPPEMENT : - Réalise les modules (objets et composants logiciels) - Assemble les composants - Rédige les documentations MAINTENANCE : - A en charge la maintenance corrective - A en charge la maintenance évolutive - Administre les composants logiciels réutilisables et met à jour la nomenclature de ces composants
Offre d'emploi
Data Ops
Publiée le
Apache Spark
1 an
40k-45k €
400-550 €
Quartier du Montparnasse, France
Télétravail partiel
· Déploiement et administration avancée des applications Spark, Trino ou Jupyter sur Kubernetes. · Tuning et optimisation des performances : ajustement des configurations, analyse des logs, debugging avancé, optimisation des requêtes SQL (Trino), tuning des jobs Spark. · Gestion du RUN et support applicatif : diagnostic et résolution des incidents, amélioration continue des performances, accompagnement des utilisateurs sur l’optimisation des requêtes. · Mise en place de l’approche GitOps : automatisation complète du déploiement et de la gestion des applications avec Terraform, Ansible, Git, ArgoCD/FluxCD. · Sécurisation et monitoring avancé : implémentation de métriques et alertes sur Prometheus, Grafana, Loki, gestion des accès et des logs applicatifs.
Offre premium
Offre d'emploi
DEVELOPPEUR PYTHON DJANGO
Publiée le
CSS
Django
Javascript
40k-50k €
Strasbourg, Grand Est
Télétravail 100%
Développeur Python/Django confirmé, spécialisé dans l’évolution d’applications métiers et la modernisation d’architectures existantes. J’ai une solide expertise en analyse d’écarts, conception de solutions, intégration d’API, développement backend, tests automatisés et respect strict des normes PEP8. Habitué aux environnements institutionnels sensibles, je produis un code fiable, documenté et conforme aux exigences CI/CD. Bilingue français/anglais, je collabore efficacement avec les équipes, applique les bonnes pratiques de sécurité et évolue dans des contextes Agile exigeants.
Mission freelance
DÉVELOPPEUR LOGICIEL PYTHON, C# & SQL
Publiée le
PL/SQL
Python
Robot Framework
6 mois
100-350 €
Île-de-France, France
Télétravail partiel
Objectif global de la mission Développer de nouveaux outils et services en Python, C# et SQL pour répondre aux besoins du projet. Contrainte forte du projet Connaissance du progiciel CC&B (Customer Care & Billing). Livrables attendus Documentation complète des développements réalisés. Code source de qualité, respectant les bonnes pratiques de développement. Reporting d’activité régulier pour le suivi du projet. Description détaillée de la mission 1. Phase 1 : Développement et automatisation des outils Développement et automatisation de nouveaux outils et services en Python et SQL. Travail sur des processus DevOps pour optimiser l’intégration et la livraison continue. Collaboration avec les équipes pour améliorer les pratiques de développement et assurer une gestion fluide des versions. 2. Phase 2 : Formation et support Accompagner et faire monter en compétences les membres de l’équipe sur le développement en C#. Assurer la maintenance d’une application existante jusqu’à l’autonomie des équipes. Organiser des sessions de formation et d’accompagnement pour garantir l’intégration des nouvelles pratiques et technologies. 3. Phase 3 : Développement sous Robot Framework Développement de TNR (Tests Non-Régression) sous Robot Framework pour assurer la qualité des livrables et la bonne intégration continue
Offre d'emploi
Lead Data Engineer (H/F)
Publiée le
Apache Spark
Big Data
Data management
3 ans
40k-71k €
400-700 €
Île-de-France, France
Télétravail partiel
Nous recherchons un Lead Data Engineer / Data Engineer Senior pour renforcer une équipe data travaillant sur une plateforme moderne Azure / Databricks . Votre rôle : concevoir, industrialiser et optimiser des pipelines Big Data, tout en jouant un rôle de référent technique auprès de l’équipe. Compétences indispensables Big Data : Spark, Databricks Ingestion / Streaming : Kafka, Apache NiFi Cloud : Microsoft Azure Langages : Scala ou Java + Python + SQL Orchestration : Airflow CI/CD & DevOps : Azure DevOps, Git Compétences appréciées Dataiku Ansible Connaissance Data Lake / architectures medallion Vos missions Concevoir et industrialiser des pipelines Big Data (batch & streaming). Développer des flux d’ingestion avec NiFi, Kafka, Spark. Optimiser performance, qualité et scalabilité. Participer à l’architecture et aux choix techniques. Encadrer techniquement l’équipe (guidelines, bonnes pratiques, code review). Contribuer aux automatisations et à l’orchestration (Airflow, Ansible, DevOps).
Mission freelance
Data Engineer
Publiée le
Apache Spark
Java
ODI Oracle Data Integrator
3 ans
400-550 €
Tours, Centre-Val de Loire
Télétravail partiel
En renfort de l’entité Solutions Data pour participer activement (Run/Build/Expertise et Accompagnement) aux sujets ci-dessous dans un environnement hybride Cloud/On-Premise (avec le On-Premise en cible) : Participer à l’élaboration du design technique des produits logiciels, Faciliter la recherche de solutions techniques, Prendre en charge une partie des dév. Accompagner les autres Dév. (Coaching, optimisation de code, …), Collaborer à l’intégration des produits dans le SI avec l’architecte data, Garantir la qualité des produits logiciels, Accompagner les directions métiers dans la réalisation de leurs cas d’usage data
Mission freelance
Développeur Python - C# et SQL
Publiée le
C#
Python
SQL
1 an
320-450 €
Puteaux, Île-de-France
Télétravail partiel
Les missions du poste À la demande du Métier, vous concevez, développez, réalisez la maintenance d'outils. Vous effectuez également la reprise/maj de données en production ainsi que l'automatisation de processus : TNR ET RPA. Vous analysez, paramétrez et codez les composants logiciels applicatifs dans le respect des évolutions souhaitées, des normes et des procédures. Missions principales Dans un premier temps, 1) Travailler sur le développement de nouveaux outils/services en Python/SQL/DevOps 2) Faire monter en compétences les membres de l'équipe en C# et assurer la maintenance d'une application 3) Rédaction de la documentation associée au développement Dans un second temps, Développer des TNR sous Robot Framework Le poste est à pourvoir très rapidement.
Mission freelance
229276/Lead dev python / spark à Paris
Publiée le
Python
3 mois
400-440 €
Paris, France
Télétravail partiel
Lead dev python / spark à Paris Profil senior, capable par exemple d’intervenir quand une plateforme swape, d’organiser et de structurer des upgrades de versions (ex : spark 3 vers spark 4) Besoin d'une expertise en développement python / spark Intervention au sein d'une petite équipe sur une plateforme d’hypervision de services. Il s'agit d'un projet data novateur Localisation Paris IM 2 jours de TT par semaine Goals and deliverables Apporter une expertise en développement python + spark / pyspark Développer personnellement Intervenir sur des opérations exceptionnelles : Profil senior, capable par exemple d’intervenir quand une plateforme swape, d’organiser et de structurer des upgrades de versions (ex : spark 3 vers spark 4) Etre source de conseil Expected skills PYSPARK Confirmed POSTGRESQL Advanced LINUX Confirmed GIT Confirmed Programmation Python Expert ANGULAR Advanced Spark Streaming Expert
Mission freelance
Administrateur / Expert Big Data (Cloudera)
Publiée le
Apache Spark
Cloudera
Hadoop
3 ans
500-700 €
Île-de-France, France
Télétravail partiel
Vous serez en charge du déploiement ainsi que du MCO/MCS de l’écosystème Cloudera (Cloudera Manager, services Cloudera Data Platform : HDFS, Vous interviendrez également sur la gestion d’une architecture Lake house , comprenant : Data Security : Apache Ranger Data gouvernance : Apache Atlas Data processing : Spark, Apache Zeppelin Data ingestion : NiFi Data analytics : Apache Impala Data lake : Hadoop, Apache Kudu Data serving : Hue Responsabilités Documenter les procédures d’exploitation et rédiger des rapports synthétiques Garantir le bon fonctionnement des services dans le respect des SLA Opérer en environnement de production en s’appuyant sur les processus ITIL (gestion des incidents, problèmes, changements) Communiquer en anglais avec les éditeurs (dont Cloudera) et les fournisseurs Automatiser les déploiements (fichiers de configuration, certificats, keystores) via Ansible Utiliser les outils DevOps (GitHub, Jenkins) pour le versionning et les pipelines Exploiter les environnements Linux et analyser les logs dans le cadre du traitement des incidents Être force de proposition concernant l’amélioration de l'exploitabilité, la robustesse et la supervision des services Participer aux réunions d’équipe, aux projets et aux différents comités, et assurer un reporting régulier Livrables attendus Dossier d’ingénierie de la plateforme Lake house Fiches et procédures d’exploitation Dossier de mise en production PV de mise en production
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
2046 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois