Trouvez votre prochaine offre d’emploi ou de mission freelance Data Lake à Paris
Votre recherche renvoie 22 résultats.
Offre d'emploi
Architecte Data Azure
KLETA
Publiée le
Azure
Databricks
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Architecte Data Azure pour définir et piloter l’évolution des plateformes de données cloud natives sur Microsoft Azure. Vous analyserez les architectures existantes, identifierez les limites techniques et proposerez des trajectoires cibles adaptées aux enjeux métiers, techniques et opérationnels. Vous guiderez la conception de nouvelles architectures en intégrant des services et technologies Azure tels que Azure Data Lake, Azure Databricks, Azure Synapse, Azure Data Factory et Event Hubs, ou des approches lakehouse lorsque pertinent. Vous serez responsable des choix structurants en matière de stockage, de traitement, de gouvernance, de sécurité et de qualité des données, en veillant à la performance, à la scalabilité et à la résilience des plateformes. Vous travaillerez étroitement avec les équipes Data Engineering, Cloud et DevOps pour garantir une mise en œuvre industrialisée, alignée avec les standards d’entreprise et les contraintes d’exploitation. Vous aurez également un rôle clé dans l’animation d’ateliers techniques, la formalisation de patterns d’architecture et l’accompagnement des équipes dans l’adoption des meilleures pratiques data sur Azure.
Mission freelance
Un Développeur Senior Python à Paris
Almatek
Publiée le
Python
3 mois
340-370 €
Paris, France
Almatek recherche pour l'un de ses clients, Un Développeur Senior Python à Paris Ci dessous le besoin : Conception & Développement Backend Développer des fonctionnalités backend complexes en Python (APIs, services, moteurs de calcul, pipelines). Concevoir des architectures modulaires, performantes et maintenables. Optimiser les performances : temps d’exécution, consommation, robustesse, gestion d’erreurs. Data & Traitement avancé Intégrer et manipuler des données issues de différents environnements (bases SQL/NoSQL, data lakes, APIs). Développer des scripts d’automatisation, de transformation ou de scraping avancé. Participer à la mise en place ou l’évolution de pipelines Data/ETL. Qualité & Bonnes pratiques Écrire un code propre, testé, documenté, conforme aux normes (tests unitaires, CI/CD). Améliorer en continu l’existant : refactoring, gestion technique de la dette, optimisation. Participer activement aux revues de code et partager les bonnes pratiques. Intégration DevOps Contribuer aux chaînes CI/CD (GitLab, Jenkins, GitHub Actions…). Packager et déployer les applications (Docker, Kubernetes, OpenShift selon contexte). Travailler étroitement avec les équipes Cloud (AWS / Azure / On-prem) pour assurer la cohérence des environnements. Expertise & Support Technique Accompagner les développeurs moins expérimentés, apporter du mentorat technique. Challenger les décisions d’architecture et proposer des solutions pertinentes. Analyser et résoudre les incidents complexes, optimiser les flux et performances. Le client est très exigeant ; le profil recherché doit être résolument technophile, avec une véritable culture du développement et, idéalement, des compétences en IA.
Offre d'emploi
FinOps Cloud / Profil habilitable
ematiss
Publiée le
Cloud
FinOps
3 mois
Paris, France
CONTEXTE : Au sein de la Direction de la Transformation Numérique du client et sous la responsabilité du Chef du Bureau de l’Architecture et de la Cohérence des Infrastructures à la sous direction des architectures sécurisées, l’expert(e) technique en processus financiers du Cloud ou FinOps agit comme un levier de pilotage économique du Cloud grâce à sa maîtrise des outils de billing, garantissant la soutenabilité des dépenses pour la direction, la transparence des coûts et l’efficience de l’usage des ressources pour les entités clientes. ACTIVITES PRINCIPALES : Développer et maintenir des modèles de coûts du Cloud : Grâce à sa maîtrise des environnements Cloud et à sa compréhension fine des différentes offres (IaaS OpenStack, S3, GPU, OpenShift…), le FinOps identifie précisément les inducteurs de coûts (vCPU, RAM, Stockage Bloc et Objet etc.) et les traduit dans des modèles de facturation capables de s’adapter aux évolutions du catalogue de service. Il fait évoluer les normes de gestion budgétaires et les mécanismes de refacturation internes permettant de valoriser la consommation des ressources tout en s’assurant de leur alignement et de leur conformité avec les recommandations tarifaires. Réaliser des tableaux de bord et produire des reporting L’expérience requise avec les outils de collecte, d’automatisation et d’analyse de données (API, scripts, data lakes, Grist, Python, SQL etc.) doit permettre au FinOps d’agréger facilement l’ensemble des consommations en ressources des clients puis de les segmenter en fonction du projet ou de la ressource pour obtenir une allocation précise des coûts et des tableaux de bord et reporting ad hoc. Ces travaux enrichiront ceux de l’équipe chargée de mettre à disposition des clients des métriques de consommation dans la Console d’administration. Optimiser le capacity planning avec l’IA Le Finops consolide et fiabilise les outils existants de capacity planning en mettant en place des modèles prédictifs basés sur l’IA permettant d’anticiper les patterns d’usage des clients et donc les dépenses à engager. En outre, il anticipe les pics de charge et optimise les prévisions budgétaires. Diffuser les bonnes pratiques FinOps à l’échelle de la sous-direction Il travaille en étroite collaboration avec les différentes équipes en apportant une assistance concrète dans la définition et la mise en œuvre des actions de modernisation de la fonction financière. Il est force de proposition pour intégrer les contraintes financières dans les choix techniques et opérationnels des différents acteurs concernés. Il participe à une maîtrise des coûts conformes aux prévisions budgétaires et peut le cas échéant contribuer aux négociations avec les fournisseurs. CONTRAINTES 1-A minima une expérience précédente en tant que FinOps, de préférence dans un environnement Cloud. 2- Doit posséder des bases OpenStack. Durée : 3 mois renouvelables
Offre d'emploi
Data Engineer
VISIAN
Publiée le
Apache Hive
Apache Spark
Hadoop
1 an
45k-58k €
400-550 €
Paris, France
Le datalake est utilisé comme une data plateforme pour les équipes IT et métiers. L'objectif de la mission est d'assurer le rôle de Data Engineer de ce datalake : Gestion de la production Gestion de la dette technique Revoir l'architecture actuelle et proposer des évolutions Développements liés aux projets Description : Mettre en place la collecte et la mise à disposition des données au sein de l’entreprise Industrialiser et mettre en production des traitements sur les données (par exemple : mise à disposition de tableaux de bords, intégration de modèles statistiques) en lien avec les équipes métiers et les équipes qui les analysent Activités et tâches : Acheminement de la donnée Mise à disposition de la donnée aux équipes utilisatrices Mise en production de modèles statistiques Suivi de projet de développement Développement job spark Traitement et ingestion de plusieurs formats des données Développement des scripts Développement et Implémentation des collectes de données, des jobs de traitement et Mapping de données Développement des moyens de restitution via génération de fichier et ou API & Dashboarding Collecter toutes les données et les fournir aux clients en tant qu'API ou fichiers Développer de pipelines d'ingestion à partir de différentes sources (streaming et batch) ainsi que des spark jobs le prétraitement des données et calcul des indicateurs de performance (KPI) Développer des API génériques d’ingestion et de traitement de données dans un environnement HDP Participer à la conception, mise en place et administration de solutions Big Data Participation à l’installation, administration et configuration des Hadoop clusters. Mise en place en Spring Boot des services d'extraction de data du système legacy (tera data), la data sera par la suite envoyée au data lake via des topics Kafka Normalisation et agrégation des données afin de produire les rapports sous forme de Business View
Mission freelance
Développeur Senior Python sector Assurance Paris/su
WorldWide People
Publiée le
Python
6 mois
400-450 €
Paris, France
Développeur Senior Python sector Assurance Paris Aujourd’hui, plusieurs développeurs Python seniors disposant d’une dizaine d’années d’expérience interviennent déjà sur ce projet. Nous recherchons donc un profil encore plus expérimenté, capable d’apporter une vision globale, de challenger l’existant et de proposer une véritable expertise technique. Ci dessous le besoin : Conception & Développement Backend Développer des fonctionnalités backend complexes en Python (APIs, services, moteurs de calcul, pipelines). Concevoir des architectures modulaires, performantes et maintenables. Optimiser les performances : temps d’exécution, consommation, robustesse, gestion d’erreurs. Data & Traitement avancé Intégrer et manipuler des données issues de différents environnements (bases SQL/NoSQL, data lakes, APIs). Développer des scripts d’automatisation, de transformation ou de scraping avancé. Participer à la mise en place ou l’évolution de pipelines Data/ETL. Qualité & Bonnes pratiques Écrire un code propre, testé, documenté, conforme aux normes (tests unitaires, CI/CD). Améliorer en continu l’existant : refactoring, gestion technique de la dette, optimisation. Participer activement aux revues de code et partager les bonnes pratiques. Intégration DevOps Contribuer aux chaînes CI/CD (GitLab, Jenkins, GitHub Actions…). Packager et déployer les applications (Docker, Kubernetes, OpenShift selon contexte). Travailler étroitement avec les équipes Cloud (AWS / Azure / On-prem) pour assurer la cohérence des environnements. Expertise & Support Technique Accompagner les développeurs moins expérimentés, apporter du mentorat technique. Challenger les décisions d’architecture et proposer des solutions pertinentes. Analyser et résoudre les incidents complexes, optimiser les flux et performances. Le client est très exigeant ; le profil recherché doit être résolument technophile, avec une véritable culture du développement et, idéalement, des compétences en IA.
Offre d'emploi
Business Developer Senior – Data & IA
█ █ █ █ █ █ █
Publiée le
Paris, France
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
22 résultats
Contrats
Lieu
1
1
Paris, France
0 Km
200 Km
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois