Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 55 résultats.
Freelance

Mission freelance
Data ingénieur / Software ingénieur

SMH PARTICIPATION
Publiée le
Azure
Databricks
PySpark

1 an
100-350 €
Niort, Nouvelle-Aquitaine
Dans le cadre d’un projet Data à forte valeur ajoutée, nous recherchons un Data Engineer / Software Engineer orienté Data afin de renforcer une équipe agile SAFe. Le consultant interviendra sur la conception, le développement et l’industrialisation de pipelines Data et Machine Learning dans un environnement cloud Azure. Il participera à la transformation de solutions analytiques et prototypes Data Science en solutions robustes, scalables et industrialisées. Missions principales Data Engineering / Pipelines Data & ML Conception et développement de pipelines batch sur Azure Databricks Traitement et transformation de données avec PySpark Mise en place de workflows Data industrialisés Utilisation de Delta Lake pour la gestion des données Intégration de modèles ML en collaboration avec les Data Scientists 2. Industrialisation & performance Optimisation des performances Spark : partitionnement gestion mémoire optimisation des jobs Mise en place de mécanismes de : reprise sur erreur traçabilité des traitements monitoring des pipelines Software Engineering / Développement Développement de packages Python industrialisés Conception d’API (Azure Functions / Container Apps) Respect des standards de développement : tests unitaires qualité du code documentation CI/CD Contribution projet & Agile Participation aux phases projet : étude de faisabilité conception développement mise en production (MEP) Participation aux activités RUN et amélioration continue Contribution active aux cérémonies Agile SAFe
Freelance

Mission freelance
Data Ingénieur H/F

Insitoo Freelances
Publiée le
Google Cloud Platform (GCP)
HFSQL
Microsoft Power BI

2 ans
309-450 €
Lille, Hauts-de-France
Basée à Lille, Lyon, Nantes, Grenoble, Marseille, Paris et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data Ingénieur H/F à Lille, France. Contexte : Au cours de sa mission, le consultant : - Participera aux rituels agiles de l'équipe, - Analysera les besoins des utilisateurs et proposera des solutions innovantes et en phase avec les drivers de l'entreprises, - Développera les solutions data (Alimentation, stockage, modélisation, restitution), - Validera la qualité des développements de son équipe, - Améliorera et optimisera le patrimoine actuel de son équipe, - Maintiendra les solutions existantes (Run), - Contribuera à la construction du nouveau socle et des services sur la plateforme Google Cloud, - Accompagnera et acculturera les métiers sur les bonnes pratiques de l'exploitation de la Data Les missions attendues par le Data Ingénieur H/F : Il est garant de l'accès qualitatif aux sources de données. Il s'assure de la maîtrise de la donnée et est garant de la qualité de son utilisation (référencement, normalisation, et qualification) afin d'en faciliter l'exploitation par les équipes (Data Analysts et Data Scientists). Il contribue également à la définition de la politique de la donnée et à la structuration de son cycle de vie dans le respect des réglementations en vigueur, en collaboration avec le Chief Data Officer. Son périmètre d'intervention est axé sur les systèmes applicatifs autour de la gestion de la donnée et du traitement, et sur les plateformes Big Data, IoT, Il assure la supervision et l'intégration des données de diverse nature qui proviennent de ces sources multiples et vérifie la qualité des données qui entrent dans le Data Lake (il recette de la donnée, supprime les doublons, ). SON ACTIVITE : Capte les données (structurées et non structurées) produites dans les différentes applications ou à l'extérieur de l'entité Intègre les éléments Structure la donnée (sémantique, etc.) Cartographie les éléments à disposition Nettoie la donnée (élimination des doublons, ) Valide la donnée Éventuellement, il crée le référentiel de données SES LIVRABLES : Data Lake approprié et partagé et son dimensionnement Cartographie des données Les éléments permettant de garantir la qualité de la donnée
CDI

Offre d'emploi
Data ingénieur H/F

CONSORT GROUP
Publiée le

40k-45k €
Auvergne-Rhône-Alpes, France
Chaque moment compte. Surtout ceux que vous vivez à fond. Bienvenue chez Consort Group. Consort Group, accompagne depuis plus de 30 ans les entreprises dans la valorisation de leurs données et infrastructures. Elle s'appuie sur deux leaders, Consortis et Consortia, et place l’humain et la responsabilité sociétale au cœur de ses valeurs. Data ingénieur H/F C’est votre mission Vous êtes passionné·e par la data et les architectures Big Data ? Ce poste est fait pour vous. En tant que Data Engineer , vous êtes responsable du développement et de l’évolution de notre écosystème : Développer et maintenir les briques logicielles backend du système PNS (plateforme interne dédié au traitement , à la gestion et à la mise à disposition de données, basée sur des technologies Big Data et Cloud) Concevoir et implémenter des APIs, traitements batch, dashboards et modules de déploiement Participer activement à la migration on‑premises → GCP Migration en lift & shift ou réécriture complète Rédiger la documentation technique et les tests (unitaires & fonctionnels) Produire des livrables prêts à être mis en production C’est votre parcours Vous avez au moins 3 ans d’expérience dans des environnements Data exigeants. Vous aimez relever des défis techniques complexes sans jamais cesser d’innover. Vous cherchez un cadre où vos idées comptent et où la technique va de pair avec la collaboration. C’est votre expertise : Spark (batch ou streaming) – niveau expert Python ou Java/Scala – niveau avancé Bases NoSQL – maîtrise Kubernetes – maîtrise opérationnelle C’est votre manière de faire équipe : Esprit d’analyse et de résolution de problèmes Communication claire et collaboration transverse Autonomie et sens des responsabilités Proactivité et force de proposition C’est notre engagement Chez Consort Group, vous êtes un·e expert·e qu’on accompagne pour que chaque mission devienne une étape qui compte. Un onboarding attentif et humain Une vraie proximité managériale Des formations accessibles en continu Des engagements concrets : inclusion, égalité, solidarité Un package RH complet : mutuelle, carte TR, CSE, prévoyance Une culture du feedback et des projets qui font sens C’est clair Le process de recrutement : Un premier échange téléphonique avec notre team recrutement Un entretien RH ainsi qu’un échange métier avec un.e ingénieur.e d’affaires Un test ou un échange technique avec un.e de nos expert.es Un dernier point avec votre futur.e manager ou responsable de mission Et si on se reconnaît : on démarre ensemble C’est bon à savoir Lieu : Mougins Contrat : CDI Télétravail : Hybride Salaire : De 40000 € à 45000 € (selon expérience) brut annuel Famille métier : Data Ce que vous ferez ici, vous ne le ferez nulle part ailleurs. Ce moment, c’est le vôtre.
Freelance

Mission freelance
Data Ingénieur H/F

Insitoo Freelances
Publiée le
ETL (Extract-transform-load)
HFSQL
JIRA

2 ans
380-511 €
Hauts-de-France, France
Basée à Lille, Lyon, Nantes, Grenoble, Marseille, Paris et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data Ingénieur H/F à Hauts-de-France, France. Contexte : L’équipe Data Engineering recherche un développeur flux Stambia / Semarchy xDI confirmé pour renforcer ses capacités de conception et d’industrialisation de flux de données. Cette équipe intervient dans un environnement fonctionnel riche couvrant plusieurs domaines stratégiques (supply, commerce, customer, etc.). L’activité se concentre exclusivement sur des échanges de données opérationnels, hors périmètre décisionnel. Vous évoluerez dans une équipe expérimentée, sur des enjeux variés de BUILD (conception, création, évolutions) et de RUN (exploitation, optimisation, astreinte). Les missions attendues par le Data Ingénieur H/F : La mission se structure de la manière suivante : ● Analyse des besoins : ○ Comprendre les besoins en matière d'intégration de données en collaborant avec le Product Owner et les parties prenantes. ● Conception : ○ Concevoir des flux complexes en utilisant l’outil Stambia / Semarchy xDI. ○ Capacité à modéliser une base de données. ● Développement : ○ Développer les flux en appliquant les meilleures pratiques de développement. ○ Produire des scripts (Python, Beanshell, Shell...) pour enrichir ou personnaliser des traitements spécifiques. ○ S’appuyer sur Git pour faciliter la collaboration entre développeurs. ● Tests : ○ Tester ses développements (performance, robustesse, non-régression...) pour garantir qualité et fiabilité. ● Documentation : ○ Documenter et partager les connaissances. ○ Réaliser des spécifications techniques. ● Maintenance : ○ Assurer la maintenance (suivi de production, monitoring, support, astreinte) des flux de données et les mises à jour en cas de besoin.
Freelance

Mission freelance
Data ingénieur BI/SQL

INFOTEL CONSEIL
Publiée le
Microsoft Power BI
Microsoft SQL Server
Microsoft SSIS

6 mois
500-580 €
Paris, France
Un profil avec des connaissances sur les technologies Microsoft BI (SSIS, SSRS et SSAS) ainsi que la maitrise du SQL, doté d’un bon relationnel et ayant la volonté de travailler en équipe. Le profil devra avoir une capacité et une volonté de montée en charge et disposer d’un sens logique avancé. Par ailleurs il devra maitriser les composantes suivantes : • DataViz : rapports dynamiques et Power BI • Datawarehouse : conception et modélisation (y compris cube tabulaires) • Base de Données : SQL Server • ETL/ELT: SSIS Description détaillée des tâches qui incombent : o Migration entrepôt legacy BDD (800 tables) o Migration Datahub BDD (900 tables) o Migration des ETL SSIS (633 packages) o Migration de procédures stockées (1550 ps) o Migration DataViz SSRS, SSAS et power bi (300 rapports)
CDI

Offre d'emploi
Data Ingénieur - Expert Spark H/F

CONSORT GROUP
Publiée le

Tassin-la-Demi-Lune
Chaque moment compte. Surtout ceux que vous vivez à fond. Bienvenue chez Consort Group. Consort Group, accompagne depuis plus de 30 ans les entreprises dans la valorisation de leurs données et infrastructures. Elle s'appuie sur deux leaders, Consortis et Consortia, et place l’humain et la responsabilité sociétale au cœur de ses valeurs. Data Ingénieur - Expert Spark H/F Vous êtes passionné·e par les architectures de données à grande échelle et le traitement temps réel ? Ce poste est fait pour vous. En tant qu' Expert Spark Data Engineer , vous êtes responsable de l'analyse, de l'optimisation et de l'évolution de notre pipeline de données au cœur de notre écosystème BI et statistiques. Côté build Conception et préconisations d'architecture Réaliser l'analyse et l'état des lieux technique de la solution existante (Kafka Connect, Spark, Kubernetes, MongoDB sur OVH) Produire les préconisations d'amélioration du Spark streaming pour le traitement temps réel Définir le dimensionnement infrastructure adapté au streaming temps réel (350 bases, 5 000 req/s, 1 To/an) Proposer une stratégie de dimensionnement MongoDB et de structuration de la donnée (standardisation des patterns) Rédiger le document d'architecture cible et le dossier de préconisations Côté run Optimisation et maintien en condition opérationnelle Assurer la fiabilité et la performance du pipeline de données en production sur l'infrastructure OVH Superviser les flux Kafka Connect et garantir la continuité du traitement des données entrantes Monitorer les performances Spark et intervenir sur les axes d'optimisation identifiés Veiller à la cohérence et à la qualité de la donnée stockée dans MongoDB Participer aux revues techniques et accompagner les équipes internes ENOVACOM dans la montée en compétences C'est votre parcours Vous avez au moins 5 ans d'expérience dans des environnements Data Engineering exigeants, avec une forte exposition aux architectures de traitement temps réel et à la gestion de volumétries importantes. Vous aimez diagnostiquer, optimiser et concevoir sans jamais cesser d'innover. Vous cherchez un cadre où vos idées comptent et où la technique va de pair avec la collaboration. C'est votre expertise Apache Spark – maîtrise avancée du streaming et du batch, tuning et optimisation des performances MongoDB – modélisation, structuration de la donnée et bonnes pratiques de dimensionnement Kafka / Kafka Connect – conception et exploitation de pipelines de données en flux continu Déploiement Apache Spark sur Kubernetes – configuration, orchestration et gestion des ressources OVH Cloud – déploiement et exploitation d'infrastructures cloud dans un contexte de production C'est votre manière de faire équipe Capacité d'analyse et de synthèse : vous transformez des états des lieux complexes en préconisations actionnables Rigueur documentaire : vos livrables (architecture cible, dossiers techniques) sont clairs et exploitables Posture conseil : vous savez challenger l'existant et proposer des axes d'amélioration concrets Esprit de collaboration : vous travaillez en proximité avec les équipes internes et partagez vos expertises Autonomie et sens des priorités dans un environnement technique à fort enjeu de performance C’est notre engagement Chez Consort Group, vous êtes un·e expert·e qu’on accompagne pour que chaque mission devienne une étape qui compte. Un onboarding attentif et humain Une vraie proximité managériale Des formations accessibles en continu Des engagements concrets : inclusion, égalité, solidarité Un package RH complet : mutuelle, carte TR, CSE, prévoyance Une culture du feedback et des projets qui font sens C’est clair Le process de recrutement : Un premier échange téléphonique avec notre team recrutement Un entretien RH ainsi qu’un échange métier avec un.e ingénieur.e d’affaires Un test ou un échange technique avec un.e de nos expert.es Un dernier point avec votre futur.e manager ou responsable de mission Et si on se reconnaît : on démarre ensemble C’est bon à savoir Lieu : Marseille Contrat : CDI Télétravail : Hybride Salaire : De 40000 € à 45000 € (selon expérience) brut annuel Famille métier : Data Ce que vous ferez ici, vous ne le ferez nulle part ailleurs. Ce moment, c’est le vôtre.
Freelance

Mission freelance
Cloud Automation & Data Ingénieur junior (H/F)

Insitoo Freelances
Publiée le
AWS Cloud
Bash
Python

2 ans
350-400 €
La Ciotat, Provence-Alpes-Côte d'Azur
Basée à Lille, Lyon, Nantes, Grenoble, Marseille, Paris et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Cloud Automation & Data Ingénieur junior (H/F) à La Ciotat, France. Les missions attendues par le Cloud Automation & Data Ingénieur junior (H/F) : Automatiser l’intégralité des infrastructures Cloud et des services de données. Industrialiser les déploiements via des pratiques DevSecOps rigoureuses. Concevoir des architectures orientées données (Data Lakes, Streaming) hautement disponibles. Accompagner les équipes projets dans l’adoption des meilleures pratiques Cloud & Data. Responsabilités Principales 1. Automatisation & Infrastructure as Code (IaC) Concevoir et déployer des infrastructures via Terraform. Gérer le cycle de vie complet des ressources sur AWS. Automatiser les services Data (S3, Glue, Kinesis, etc.) et optimiser la performance des environnements. 2. DevSecOps & CI/CD Construire et maintenir des pipelines CI/CD (GitLab, GitHub ou Jenkins). Intégrer nativement la sécurité (contrôles de conformité, scans de vulnérabilités). Automatiser les tests de qualité de données et la validation des schémas. 3. Platform Engineering & Architecture Data Développer des frameworks internes pour faciliter l'usage du Cloud (Serverless, Conteneurs). Mettre en œuvre des architectures orientées événements (Kinesis, Lambda). Assurer l'ingestion, le stockage et la fluidité des flux au sein du Data Lake. 4. Sécurité, Gouvernance & Conformité Piloter la gestion des identités et des accès (IAM) et le chiffrement (KMS). Appliquer les politiques de gouvernance : catalogage, traçabilité et rétention des données. Garantir l'auditabilité et le monitoring des données sensibles. Compétences Requises Cloud : Maîtrise approfondie d'AWS (Core services & Data stack). IaC : Expertise confirmée sur Terraform. Conteneurisation : Docker, Kubernetes. Data Engineering : ETL/ELT, modélisation de données, cycle de vie de la donnée. Développement : Python (avancé), Bash, SQL. Outils : Écosystème CI/CD, la connaissance de Snowflake est un plus significatif.
Freelance

Mission freelance
POT9036 - Un Data ingénieur sur Massy

Almatek
Publiée le
SQL

6 mois
360-470 €
Île-de-France, France
Almatek recherche pour l'un de ses clients ,Un Data ingénieur sur Massy. Taches: Participation à la définition des solutions applicatives Développement, Intégration et Recette technique Surveiller et améliorer l'efficacité des processus Tenir à jour la documentation des systèmes et des processus. Contexte : Nous recherchons un/une Data Engineer expérimenté(e) pour contribuer à la réalisation des projets de la Squad Usages Data Avancé & IA: Conception et Maintenance de l'applicative Amélioration continue des produits / solutions de la squad Construction nouveaux usages Attendu: Construire et maintenir des pipelines ETL/ELT pour données structurées et non-structurées Mettre en oeuvre des chaines d'intégration, de déploiement et de suivi des solutions en production (DataOps). Préparer des datasets utilisés pour de l'exploration de données Développer et favorise l’industrialisation de modèles statistiques ou de machine learning Versionner données/modèles/code et monitorer performance/coûts Collaborer avec les équipiers de la squad et documenter vos travaux Compétences Humaines: Une bonne autonomie et capacité d'adaptation à des projets innovants et rythmés Sens du travail en équipe bonne communication et accompagnement utilisateurs Compétences Techniques: Langages : Python (FastAPI, Pyspark), SQL Qualité de code : Pytest, SonarQube MLOps/CI-CD : Docker, Kubernetes, GitHub/GitLab Actions Data & DB : PostgreSQL, Teradata, MySQL Observabilité : Stack ELK, Prometheus/Grafana, MLflow Plus si compétence en Big Data/Streaming : Spark, Kafka Experience 4 à 7 ans. Date de debut souhaitée :30 Mars 2026, mission longue
CDI

Offre d'emploi
Data Engineer/ Ingénieur Plateforme Datalab H/F

CELAD
Publiée le

Rennes, Bretagne
Envie d’un nouveau challenge... CELAD vous attend ! Nous poursuivons notre développement et recherchons actuellement un(e) Data Engineer/ Ingénieur Plateforme Datalab H/F pour intervenir chez un de nos clients. Contexte : Vous intervenez au sein d’une équipe Data en charge de la conception, de l’évolution et du maintien en conditions opérationnelles de plusieurs environnements Data (nouvelles plateformes et systèmes existants). Dans un contexte de transformation, vous contribuez à la mise en place de nouvelles architectures, à la stabilisation des environnements historiques et à la transition des activités du BUILD vers le RUN, avec des enjeux forts de performance, de disponibilité et de fiabilité. Votre mission : Au sein d'une équipe projet, vous serez en charge de : - Participer à la conception et à la mise en place de nouveaux environnements Data - Finaliser et optimiser des environnements existants (haute disponibilité, performance) - Assurer la montée de version des composants et produits Data - Analyser et résoudre les incidents et problèmes récurrents (RUN) - Contribuer à la rédaction des documents d’architecture (DAT) et documentations techniques - Accompagner la transition BUILD to RUN et assurer le suivi des environnements en production
Freelance

Mission freelance
Data Engineer/ Ingénieur Plateforme Datalab H/F

CELAD
Publiée le

1 an
400-450 €
Rennes, Bretagne
Envie d’un nouveau challenge... CELAD vous attend ! Nous poursuivons notre développement et recherchons actuellement un(e) Data Engineer/ Ingénieur Plateforme Datalab H/F pour intervenir chez un de nos clients. Contexte : Vous intervenez au sein d’une équipe Data en charge de la conception, de l’évolution et du maintien en conditions opérationnelles de plusieurs environnements Data (nouvelles plateformes et systèmes existants). Dans un contexte de transformation, vous contribuez à la mise en place de nouvelles architectures, à la stabilisation des environnements historiques et à la transition des activités du BUILD vers le RUN, avec des enjeux forts de performance, de disponibilité et de fiabilité. Votre mission : Au sein d'une équipe projet, vous serez en charge de : - Participer à la conception et à la mise en place de nouveaux environnements Data - Finaliser et optimiser des environnements existants (haute disponibilité, performance) - Assurer la montée de version des composants et produits Data - Analyser et résoudre les incidents et problèmes récurrents (RUN) - Contribuer à la rédaction des documents d’architecture (DAT) et documentations techniques - Accompagner la transition BUILD to RUN et assurer le suivi des environnements en production
CDI

Offre d'emploi
Data Engineer/ Ingénieur Plateforme Datalab H/F

CELAD
Publiée le

40k-48k €
Rennes, Bretagne
Envie d’un nouveau challenge... CELAD vous attend ! Nous poursuivons notre développement et recherchons actuellement un(e) Data Engineer/ Ingénieur Plateforme Datalab H/F pour intervenir chez un de nos clients. Contexte : Vous intervenez au sein d’une équipe Data en charge de la conception, de l’évolution et du maintien en conditions opérationnelles de plusieurs environnements Data (nouvelles plateformes et systèmes existants). Dans un contexte de transformation, vous contribuez à la mise en place de nouvelles architectures, à la stabilisation des environnements historiques et à la transition des activités du BUILD vers le RUN, avec des enjeux forts de performance, de disponibilité et de fiabilité. Votre mission : Au sein d'une équipe projet, vous serez en charge de : - Participer à la conception et à la mise en place de nouveaux environnements Data - Finaliser et optimiser des environnements existants (haute disponibilité, performance) - Assurer la montée de version des composants et produits Data - Analyser et résoudre les incidents et problèmes récurrents (RUN) - Contribuer à la rédaction des documents d’architecture (DAT) et documentations techniques - Accompagner la transition BUILD to RUN et assurer le suivi des environnements en production
CDI

Offre d'emploi
Consultant BI / Data Ingénieur Business Objects confirmé F/H - Système, réseaux, données (H/F)

█ █ █ █ █ █ █
Publiée le
Data management

Toulouse, Occitanie

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Ingénieur DATA

ROCKET TALENTS
Publiée le
Apache Kafka
Big Data
Cloudera

1 an
400-460 €
Saint-Quentin, Hauts-de-France
Ingénieur DATA : . Contexte Dans le cadre de l’exploitation et de l’optimisation de notre infrastructure Cloudera Data Platform (CDP), nous recherchons un prestataire expert capable d’assurer le support technique, l’analyse et la résolution des incidents critiques ainsi que l’optimisation continue de la plateforme. Le prestataire devra maîtriser les architectures Cloudera, posséder une expertise avancée en développement Shell, Ansible et Python, et être capable d’intervenir sur les problématiques de dimensionnement et de tuning de l’infrastructure. Une connaissance de Kafka est requise pour la gestion des flux de données en temps réel. Des connaissances en sur la plateforme Dataiku seraient un plus. 3. Missions Support Technique Niveau 2 et 3 sur Cloudera Data Platform • Analyser, diagnostiquer et résoudre les incidents complexes impactant la plateforme Cloudera. • Assurer un support de niveau 2 et 3 pour les équipes techniques et métiers. • Gérer les escalades des incidents critiques et collaborer avec l’éditeur si nécessaire. • Implémenter et améliorer les outils de monitoring avancés pour détecter et anticiper les problèmes. • Optimiser la performance des services et traitements Hadoop, Spark et Kafka. Gestion et Optimisation de Kafka • Administrer et optimiser l’infrastructure Kafka sur Cloudera. • Gérer la scalabilité et la résilience des clusters Kafka. • Assurer une supervision efficace des topics, brokers et consommateurs. • Résoudre les incidents liés à la latence, au throughput et à la gestion des offsets. • Mettre en place des stratégies de sécurisation et de haute disponibilité de Kafka. Automatisation et Développement • Développer et maintenir des scripts Shell, Ansible et Python pour automatiser le support et l’exploitation. • Automatiser la gestion des incidents récurrents et les procédures de maintenance. • Déployer des pipelines CI/CD pour les services Cloudera, Kafka et les bases de données associées. Optimisation et Dimensionnement de l’Infrastructure • Travailler sur le dimensionnement et le tuning des clusters Cloudera pour une meilleure gestion des charges de travail. • Dimensionner les divers clusters ElasticSearch en fonction des consommations des ressources. • Analyser et proposer des évolutions d’architecture en collaboration avec les architectes en fonction des besoins métier. • Assurer une veille technologique et être force de proposition pour améliorer la plateforme. Documentation et Transmission de Connaissances • Documenter les incidents récurrents, les procédures de résolution, les bonnes pratiques et le manuel d’utilisation de l’offre. • Former les équipes internes sur les outils de monitoring, Kafka, Cloudera et l’analyse des incidents. • Rédiger des guides de troubleshooting pour faciliter le travail des équipes de support niveau 1 et 2. 4. Profil Recherché Le prestataire devra justifier des compétences suivantes : • Expérience avérée en administration et support de Cloudera Data Platform. • Maîtrise de Kafka (optimisation, gestion des performances et de la scalabilité). • Capacité à analyser et résoudre des incidents critiques sur un environnement Big Data. • Maîtrise des langages Shell, Ansible et Python pour l’automatisation et le déploiement. • Expérience sur les bases de données Elasticsearch. • Capacité à intervenir sur des problématiques de dimensionnement et d’optimisation des performances. • Autonomie, rigueur et capacité à être force de proposition. • Une connaissance de la plateforme Dataiku serait un plus. • Capacité à collaborer avec des équipes multi-disciplinaires et à transmettre des connaissances. • Bonnes connaissances de Linux (à l'aise avec un terminal).
Freelance

Mission freelance
Data ingénieur Databricks  & Power BI Full remote ASAP (4-5 ans d'exp Databricks)

WorldWide People
Publiée le
Databricks

6 mois
320-340 €
France
Data ingénieur Databricks & Power BI Full remote ASAP (4-5 ans d'exp Databricks) Profil avant tout Data ingénieur Databricks avec des connaissances Power BI idéalement Python - SQL Data ingénieur Databricks & Power BI Full remote ASAP Profil avant tout Data ingénieur Databricks avec des connaissances Power BI idéalement Python - SQL Data ingénieur Databricks & Power BI Full remote ASAP Profil avant tout Data ingénieur Databricks avec des connaissances Power BI idéalement Python - SQL Data ingénieur Databricks & Power BI Full remote ASAP Profil avant tout Data ingénieur Databricks avec des connaissances Power BI idéalement Python - SQL
Freelance

Mission freelance
Data ingénieur Databricks  & Power BI Full remote ASAP

WorldWide People
Publiée le
Databricks

6 mois
320-340 €
France
Data ingénieur Databricks & Power BI Full remote ASAP Profil avant tout Data ingénieur Databricks avec des connaissances Power BI idéalement Python - SQL Data ingénieur Databricks & Power BI Full remote ASAP Profil avant tout Data ingénieur Databricks avec des connaissances Power BI idéalement Python - SQL Data ingénieur Databricks & Power BI Full remote ASAP Profil avant tout Data ingénieur Databricks avec des connaissances Power BI idéalement Python - SQL Data ingénieur Databricks & Power BI Full remote ASAP Profil avant tout Data ingénieur Databricks avec des connaissances Power BI idéalement Python - SQL
Freelance

Mission freelance
249595/DATA Q Ingenieur - Snowflake , Dataiku , 'ELT ou ETL, Python et SQL

WorldWide People
Publiée le
Snowflake

6 mois
Saint-Denis, Île-de-France
DATA Q Ingenieur - Snowflake Confirmed, Maitrise de Dataiku Confirmed, Familier avec le concept d'ELT ou ETL Expert, Modélisation de données Confirmed, Expertise SQL, Python Expert, Connaissance technique de l'environnement Data (architecture medaillon, principe des data mesh) Confirmed , Votre rôle axé Analytics Engineer sera de : - Transformer, modéliser et documenter les données brutes pour les rendre exploitables - Développer des modèles et produits de données axés conformité pour alimenter la base graphe en partant des données brutes des applications - Maintenir en condition opérationnel nos flux d'ingestion vers la base de données graphes - Améliorer des processus de traitement des données pour gagner en rapidité et en efficacité. - Créer et mettre à jour de la documentation pour aider à l’utilisation des produits de données. - Automatiser des tests de contrôle et surveillance de la qualité pour garantir l’intégrité des données traitées. - Produire des analyses à destination de nos métiers pour le calibrage de scénarios de fraude ou vigilance LCB-FT - Collaborer avec les différentes parties prenantes (notamment les Data Engineers et les métiers de la fraude et LCB-FT) pour enrichir les données de la base de données graphes en fonction de leur besoin - Collaborer avec l'équipe Data Plaform en mettre en production les différents produits de données"

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

55 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous