Trouvez votre prochaine offre d’emploi ou de mission freelance Apache à Paris

Offre d'emploi
DATA ENGINEER SPARK / SCALA / SSAS / AZURE / DATABRICKS
Bonjour, Pour le compte de notre client, nous recherchons un data engineer SPARK / SCALA / SBT / CUBE TABULAIRE / AZURE / DATABRICKS Au sein de l'équipe data / BI, vous interviendrez sur des projets stratégiques liés à la gestion, la transformation et la valorisation de la donnée. L’objectif de la mission est d’accompagner la Direction Financière à sortir d’Excel et aller vers Power BI. Pour cela, le data eng travaillera en binôme avec un PO pour comprendre l’existant et réaliser cette bascule. Vous aurez un rôle clé dans le développement, l'optimisation et la modélisation de traitements data complexes, avec un focus particulier sur la mise en place et la maintenance de cube tabulaires. Développement et intégration Optimisation Modélisation des données Recueil et analyse des besoins Documentation et support.

Offre d'emploi
Big Data Engineer
Environnement Technique : Tous composants de la distribution HDP 2.6.5 (Hortonworks) Tous composants de la distribution HDP 3.1.x (Hortonworks) Technologie KAFKA Compétences de développements en Shell, Java, Python Moteur Elasticsearch incluant les fonctionnalités soumises à licence Docker, Kubernetes, système distribué sur Kubernetes Infrastructure as Code DevOps : Ansible, Git, Nexus, Jenkins, JIRA, etc... Os Linux, Kerberos, SSL, Ldap, RDBMS, SQL Mandatory : Tous les composants des distributions Hadoop Tous les composants de la suite Elasticsearch : Kibana, Logstash, suite beats Administration de composants big data

Offre d'emploi
TECH LEAD BIG DATA
Bonjour, Pour le compte de notre client nous recherchons un TECH LEAD BIG DATA Le domaine d’intervention du Tech Lead Data Engineering comprend les études, l’architecture du SI Big Data, le choix des solutions et outils, le pilotage technique du Build et du Run. Comme référent technique Big Data, vous assurez le lead technique de l’équipe de développeurs, avec en responsabilité, la conception et la mise en œuvre des solutions Big Data, ainsi que le pilotage technique de projets. Sous la responsabilité du responsable du SI Big Data, vous piloterez techniquement les activités de Data Engineering : - étude et prise en compte des besoins de traitement de la data, - gestion des priorités et de la cohérence des besoins, - choix des outils et solutions - conception et mise en œuvre des architectures de données évolutives et performantes, sécurisées et résilientes - direction et encadrement technique d’une équipe de data ingénieurs composée d’intervenants externes : suivi, support, adoption des bonnes pratiques de développement sécurisé - suivi de la qualité, de la sécurité des données et des traitements, de la performance opérationnelle des traitements - participation et support au delivery nécessitant l’expertise technique et data - veille technologique pour rester à l’état de l’art en matière de traitement massif des données, et d’utilisation de l’IA pour l’automatisation, la prédiction, la génération de data et de code. - support des équipes Data Science et R&D sur le cycle de déploiement/optimisation et industrialisation des solutions d’IA - conception et mise en place d'API pour l'intégration des solutions Big Data avec d'autres systèmes, - développement et intégration de modèles d'IA générative pour des applications spécifiques, - assurer la maintenance et l'évolution des API et des modèles d'IA générative.

Mission freelance
Data Engineer GCP
Bonjour, Nous recherchons pour notre client grand compte un Data Engineer GCP . Nous étudions — prioritairement — les candidatures qui nous sont adressées à freelance à insyco . fr avec les informations suivantes : Argumentaire écrit répondant de façon ciblée au besoin ci-dessous CV à jour au format Word Date de prochaine disponibilité et mobilité sur site client Tarif journalier Merci d’indiquer la référence MDE/DATA/4901 dans l’objet de votre message Définition du besoin Une Direction numérique mène des projets transverses en collaboration avec d’autres directions, dont une Direction Data créée pour faire de la donnée un levier de croissance des offres numériques. La Direction Data a trois missions : Maximiser la collecte de données dans le respect des réglementations en vigueur, Développer la connaissance et l’expérience utilisateurs, Mettre à disposition des équipes internes des outils de pilotage et d’aide à la décision La prestation s’effectue au sein d’une équipe Data dédiée (composée d’un Product Owner, d’un Data Steward et d’un Data Engineer) et en collaboration avec les autres équipes Data, au cœur de la plateforme Data. Stack technique principale : Python, Spark, SQL, dbt, BigQuery, Airflow (orchestration), Terraform et Terragrunt (industrialisation), ainsi que d’autres services Google Cloud Platform (GCP) . Prestations attendues Déployer des datasets normés sur un ou plusieurs data domains : Utilisateurs , Comportements , Référentiels . Accompagner les utilisateurs dans leurs usages. Mettre en place le contrôle qualité sur ces datasets En interaction avec les membres de l’équipe, la prestation consiste à : Participer aux phases de conception, planification et réalisation des tâches, Construire et maintenir des pipelines data robustes et scalables, Accompagner l’équipe dans l’exploitation et le requêtage des données, Organiser et structurer le stockage des données, Mettre en place et maintenir des infrastructures scalables adaptées à l’accroissement des volumes, Contribuer à la gouvernance des données en assurant qualité, fiabilité, intégrité , Construire et maintenir les workflows CI/CD , Partager les bonnes pratiques avec les autres Data Engineers, Assurer l’ évolutivité , la sécurité et la stabilité des environnements, Participer aux instances des Data Engineers, Contribuer et maintenir la documentation , Assurer une veille technologique active
Mission freelance
Machine Learning Engineer Lead Expert
Métier : Data Management, Machine Learning Engineer Spécialités technologiques : Cloud, Deep Learning, Machine Learning, Big Data, Simulation Type de facturation : Assistance Technique (facturation avec un taux journalier) Compétences : Technologies et Outils : GIT, CI/CD, Pytorch, Python (5 ans), Xarray, AWS (5 ans), Docker Soft skills : Bonne pédagogie pour accompagner/coach l’équipe Secteur d'activité : Assurance Description de la prestation : Projet dans le secteur de l’assurance pour un Machine Learning Engineer Lead Expert spécialisé en recherche appliquée sur les événements climatiques extrêmes utilisant des modèles d’IA. Travail sur des simulations météo pour identifier les risques de catastrophes et développer des modèles de Machine Learning avec gestion de big data et code Python. Responsabilités principales : Fournir et gérer du code et des données de qualité pour l’équipe R&D. Refactoriser, structurer et documenter la bibliothèque Python pour les simulations, inférence et analyse. Développer des pipelines robustes pour la simulation, la détection d’événements extrêmes, l’entraînement et l’évaluation des modèles, notamment sur GPU. Appliquer les meilleures pratiques de développement logiciel scientifique : tests, CI/CD, conception modulaire, reproductibilité. Optimiser l’utilisation de serveurs multi-GPU pour des entraînements IA à grande échelle. Former et accompagner l’équipe sur les bonnes pratiques de développement scientifique et l’utilisation des GPU.

Mission freelance
Administrateur système - Hébergement Web
Nous recherchons pour notre client un Administrateur Système Senior ayant une expérience sur des problématiques liées à l'hébergement de site web (forte volumétrie). Contexte : Vous rejoindrez une équipe de 5 personnes, dont deux personnes dédiées à l'hébergement web. Les serveurs sont des NGINX et Apache. L'environnement est composé à 90% de Linux et 10% de Windows. Il y a principalement à gérer des sites WordPress mutualisés et quelques applications type Apache/Python. Des connaissances réseaux / DNS / Load Balancer / Healthcheck / WAF / Gestion de certificats letsencrypt sont requises. Il faut également avoir une expertise sur la CI (Gitlab) et sur les Pipelines / l'Automatisation (Ansible)

Mission freelance
Ingénieur de données GCP (H/F)
o Déployer les ensembles de données normés sur un ou plusieurs des domaines de données suivants : Utilisateurs, Comportements et Référentiels o Accompagner les utilisateurs dans leurs usages o Mettre en place le contrôle qualité sur ces ensembles de données En interaction avec les membres de l'équipe, la prestation consiste à : o Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l'équipe o Construire et maintenir des pipelines de données robustes et scalables o Accompagner les membres de l'équipe dans l'exploitation et le requêtage des données o Organisateur et structurer le stockage des données o Mettre en place et maintenir des infrastructures scalables capables de répondre aux besoins et à l'autonomie rapide du volume de données o Participer aux initiatives de gouvernance des données en assurant la qualité, la fiabilité et l'intégrité des données o Construire et maintenir les workflows de la CI/CD o Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur o Assurer l'évolutivité, la sécurité, la stabilité des environnements o Participer aux différentes instances des data ingénieurs o Contribuer et veiller à la mise à jour de la documentation o Faire de la veille technologique active dans le domaine Expertises demandées pour la réalisation de la prestation.

Mission freelance
Product Owner Data (H/F)
Freelance / Portage salarial - 🏠 2 jours de télétravail / semaine - 📍 Paris 8 - 🛠 Expérience de 5 ans minimum Envie d’un nouveau challenge... CELAD vous attend ! 🚀 Nous poursuivons notre développement et recherchons actuellement un.e Product Owner Data pour intervenir chez un de nos clients dans le secteur bancaire & assurance. 💻💼 Voici un aperçu détaillé de vos missions 🎯 : - Piloter le backlog Data et définir la vision produit autour des flux de données, de la recherche et de la visualisation. - Recueillir les besoins métiers liés à la collecte, l’analyse et la restitution des données. - Prioriser le backlog en fonction de la valeur métier et des contraintes techniques. - Rédiger les user stories et collaborer étroitement avec les Data Engineers et DevOps. - Piloter les développements et intégrations sur Apache NiFi, Grafana et Elasticsearch. - Valider les livrables : pipelines NiFi, dashboards Grafana, index Elasticsearch. - Animer les cérémonies agiles : Daily, Sprint planning, Sprint demo, rétrospectives. - Assurer la qualité des données et la performance des flux. - Suivre les KPI clés : latence, disponibilité, pertinence des recherches. - Collaborer avec les équipes interfonctionnelles (ingénieurs logiciels, architectes, analystes).

Mission freelance
Business Analyst – Expert EPI / WERO
Dans le cadre d’un projet stratégique pour le développement des paiements européens, mon client recherche un(e) Business Analyst – Expert EPI / WERO pour renforcer ses équipes. Vous interviendrez sur des sujets à fort enjeu autour du scheme EPI et de la solution WERO, en lien avec les équipes internes, les partenaires bancaires et les représentants d’EPI Company. Missions principales : Analyser les besoins métiers et fonctionnels Étudier les impacts applicatifs Participer à l’estimation de la complexité des évolutions Rédiger les spécifications fonctionnelles détaillées en intégrant les contraintes d’exploitabilité Définir les critères d’acceptation et accompagner les phases de développement Produire la documentation à destination des clients Gérer les incidents (validation, homologation, production) via Jira, de l’analyse à la résolution Appliquer un processus industriel de gestion des incidents Assurer un reporting régulier de l’avancement

Mission freelance
Data Analyst DBT GCP
En quelques mots Cherry Pick est à la recherche d'un "Data Analyst" pour un client dans le secteur du conseil. Description 🎯 Objectifs de la mission Renforcer l’équipe Data avec un profil senior capable de produire du reporting pour les équipes internes, tout en assurant une excellente maîtrise technique de la stack data. 🧱 Responsabilités Création de dashboards avec Looker Studio (ex-Data Studio) Interprétation métier des indicateurs et restitution claire aux équipes internes Collaboration avec les parties prenantes pour piloter des projets analytiques Réécriture / migration des flux analytiques vers DBT Exploitation de données hébergées sur GCP Contribution à la maintenance et l’évolution des flux Airflow 🔧 Compétences requises SQL avancé : obligatoirement confirmé GCP (BigQuery) DBT : bonne connaissance pour accompagner la migration Outils de data visualisation : Looker Studio Connaissance d’Airflow : apprécié

Offre d'emploi
Business Analyst - Intelligence Artificielle
Vos missions principales seront les suivantes : Assistance à Maîtrise d’Ouvrage : Organiser et animer les ateliers de recueil des besoins auprès des utilisateurs métiers. Analyser, modéliser et proposer des optimisations des processus existants. Rédiger les documents de cadrage et de qualification : études de faisabilité, chiffrage, analyse des risques, impact, et planning. Formaliser les processus et besoins fonctionnels en vue de leur développement. Rédiger les spécifications fonctionnelles détaillées. Élaborer les plans de test et accompagner les phases de recette. Accompagner les utilisateurs dans l’adoption des nouveaux outils et usages. Pilotage opérationnel : Participer à la coordination et au suivi de l’avancement des projets. Assurer le pilotage des projets dont vous avez la charge, en collaboration avec les développeurs (équipe SmartAutomation), le DataLab, les équipes API et autres parties prenantes. Superviser et réaliser les recettes techniques. Piloter les recettes fonctionnelles jusqu’à la mise en production des solutions automatisées. Réaliser un reporting régulier à la cellule de coordination projet. Maintenance et évolutions : Contribuer à la bonne tenue opérationnelle des solutions déployées. Participer aux évolutions fonctionnelles et techniques du parc applicatif existant.

Offre d'emploi
Data engineer GCP / Hadoop - DataOps
Au sein du département IT, l'équipe a pour vocation de fournir aux services Technologies & Opérations et Banque de Proximité et Assurance, l’ensemble des applications nécessaires à leur fonctionnement. L'appel d'offre vise à renforcer notre binôme de data engineers, en priorité sur le projet DatOps que nous opérons pour le compte de la Direction des Opérations. Celui-ci s'appuie sur la plateforme GCP, et représentera l'activité majeure du consultant. En mineure, il interviendra en parallèle sur un second projet, qui vise à le doter d'une plateforme data basé sur le Hadoop on premise du groupe. Nous recherchons un profil data engineer GCP + Hadoop qui sera en charge, en lien avec l'équipe de production applicative / devops, de mettre en œuvre techniquement les demandes métier sur le projet DatOps. Passionné par les données, capable de s’adapter à un environnement dynamique et en constante évolution, le prestataire doit faire preuve d'autonomie, d'initiative et d'une forte capacité d'analyse pour résoudre des problèmes complexes. Les tâches suivantes seront confiés au consultant : Mettre en œuvre de nouvelles ingestions de données, data prep/transformation Maintenir et faire évoluer nos outils de gestion des pipeline de données Adresser à l'équipe devops les demandes relatives aux évolutions de la plateforme

Mission freelance
Mission de Data Engineer - Retail
Nous vous proposons de rejoindre un grand acteur du retail pour une mission de Data Engineer. En tant que Data Engineer vous aurez un rôle clé dans l'amélioration des sales pipelines, la modélisation de nouveaux business models de données de vente et le support aux autres équipes pour une utilisation efficace des données de vente. En tant qu'entreprise de retail , des informations de vente précises et pertinentes sont cruciales, rendant cette équipe centrale pour les processus de décision opérationnels et stratégiques clés. Les responsabilités incluront la maintenance des data flows , avec un accent particulier sur la résilience des produits et l'excellence opérationnelle. Les missions : Développement et maintenance des Data Pipelines User Enablement & Support Promotion des Best Practices Operational Excellence Stack technique : Amazon Web Services (S3) Databricks Approche SQL first avec dbt et/ou Apache Spark (PySpark) Ordonnancement avec Airflow (Python) Github

Mission freelance
Data Engineer Intégrateur
Bonjour, Dans le cadre de ses projets clients, Visian est à la recherche d’un Data Engineer afin d’accompagner la transformation des systèmes d’information et l’évolution des architectures data. Vos missions principales consisteront à : Maîtriser et mettre en œuvre l’ensemble des techniques et technologies composant une Data Platform. Accompagner les projets de collecte, transformation, stockage et mise à disposition de données issues de sources variées. Concevoir et déployer des outils et processus d’automatisation (CI/CD) pour les pipelines d’ingestion de données, qu’ils soient en batch ou en temps réel. Développer et maintenir des mécanismes de contrôle qualité garantissant l’intégrité et la fiabilité des données. Participer à la conception des solutions techniques et fonctionnelles en lien avec les équipes opérationnelles. Gérer le cycle de vie complet des données (flux, traitement, stockage). Automatiser les installations des socles techniques et assurer un support technique et fonctionnel, incluant l’analyse et la résolution des incidents. Contribuer à la rédaction de la documentation fonctionnelle, technique et d’exploitation en respectant les normes existantes. Environnement technique : Bases de données SQL/NoSQL Kafka Dataiku Python / SQL / Java Suite Elastic Zabbix Dynatrace Si vous êtes actuellement à l’écoute du marché, je vous invite à m’envoyer votre candidature. Bien à vous

Mission freelance
Ingénieur de Production Sénior (MOE Infrastructure) (H/F) - PARIS
Espace Freelance recherche pour l'un de ses clients un Ingénieur de Production Sénior (MOE Infrastructure) (H/F) Objectifs de la mission : Assurer l’exploitation quotidienne des processus gérant les opérations financières. Se coordonner avec les équipes IT internes et externes pour garantir la fluidité des échanges. Mettre en œuvre les évolutions de sécurité et de qualité exigées par l’écosystème financier. Définir et appliquer les protocoles de livraison des nouvelles versions applicatives. Réaliser des diagnostics, proposer et mettre en place des solutions correctives et de back-up. Piloter l’intégration de nouvelles applications ou progiciels (transactionnel et batch). Installer, valider et mettre à disposition les composants applicatifs et progiciels. Rédiger la documentation technique et contribuer au GO/NOGO de mise en production. Participer activement à l’amélioration continue et à l’industrialisation des tests techniques.
Offre d'emploi
Techlead Big Data CDI
Dans le cadre d’un programme stratégique autour de la valorisation de la donnée client , nous recherchons un Tech Lead Data / Big Data confirmé pour accompagner la mise en place et l’évolution d’une Customer Data Platform (CDP) . Vous serez le référent technique au sein de l’équipe projet et jouerez un rôle clé dans l’ encadrement des développeurs , la structuration des solutions techniques et la qualité des livrables . 6 à 9 ans d’expérience minimum dans la Data / Big Data Expérience en tant que Tech Lead ou Lead Developer Data sur des projets complexes Capacité à challenger techniquement les choix et à proposer des solutions pragmatiques Autonomie, rigueur, proactivité et aisance dans les environnements agiles Bonnes qualités de communication, aussi bien avec les équipes techniques que métiers
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
Les métiers et les missions en freelance pour Apache
Administrateur·rice système Unix (linux...)
L'administrateur·rice système Unix utilise Apache pour configurer et gérer des serveurs web sous Linux, en assurant la disponibilité et la performance des services web.
Explorez les offres d'emploi ou de mission freelance pour Administrateur·rice système Unix (linux...) .
Découvrir les offresIngénieur·e systèmes & réseaux
L'ingénieur·e systèmes et réseaux administre les serveurs Apache, configure les protocoles de communication, et optimise les performances des sites web et des applications web.
Explorez les offres d'emploi ou de mission freelance pour Ingénieur·e systèmes & réseaux .
Découvrir les offresIngénieur·e d'exploitation
L'ingénieur·e d'exploitation utilise Apache pour déployer et maintenir les serveurs web, supervisant leur performance et leur disponibilité tout en garantissant la sécurité des applications web.
Explorez les offres d'emploi ou de mission freelance pour Ingénieur·e d'exploitation .
Découvrir les offresResponsable des infrastructures et de la production
Le / La responsable des infrastructures et de la production supervise l'usage d'Apache pour héberger des applications et sites web, en garantissant la sécurité et la performance de l'infrastructure.
Explorez les offres d'emploi ou de mission freelance pour Responsable des infrastructures et de la production .
Découvrir les offres