Trouvez votre prochaine offre d’emploi ou de mission freelance Apache

Votre recherche renvoie 310 résultats.
Freelance
CDI

Offre d'emploi
Business Analyst Senior – Dynamics 365 CRM

SKYLLIT
Publiée le
Apache Maven
Eclipse
Framework

1 an
Hauts-de-Seine, France
Nous recherchons pour un de nos clients, une/un Solution Analyst Senior capable de mettre en place les fonctionnalités nécessaires pour ces nouveaux produits, tant sur la partie applicative que sur les échanges de données via API (analyse technique, analyse fonctionnelle, spécifications, tests, déploiement). C’est la raison pour laquelle, cette personne doit avoir une solide expérience technique. La Prestation consiste à : • Analyser le besoin Métier, s’assurer de la bonne compréhension des attentes, et impact du besoin sur l’application • Rédiger la solution à mettre en place à travers la User Story • Challenger le besoin Métier, proposer des solutions ou des alternatives dans le cas de demande complexe qui ne serait pas en adéquation en termes de coût/bénéfice • S’assurer de la conformité de la spécification technico-fonctionnelle avec l’ensemble de l’application, et avec les prérequis et la structure de Contract Hub • Participer aux réunions internes de l’équipe (coordination, plan d’actions), aux ateliers avec le Métier dans le cadre de l’analyse du besoin et des phases de questions/réponses/clarifications, aux réunions avec Contract Hub • Identifier les risques et interdépendances • Exécuter les tests fonctionnels, les tests de non-régression, les tests de bout-en-bout, et s’assurer de la qualité de la solution au moment de la livraison en environnement de tests et en environnement de Production • S’assurer de la qualité et de la performance de la solution • Assurer la liaison/communication avec l’Application manager pour remonter les risques/problèmes, et également pour partager la progression sur les actions en cours
Freelance

Mission freelance
DATA ENGINEER AZURE - SNOWFLAKE

CHOURAK CONSULTING
Publiée le
Apache Airflow
Azure
Azure Data Factory

3 mois
400-550 €
Île-de-France, France
Nous recherchons un Data Engineer Confirmé/Senior pour renforcer une équipe Data dans un environnement cloud moderne, avec un fort niveau d’exigence sur l’ architecture, l’industrialisation et les bonnes pratiques . 🎯 Contexte de la mission : Vous interviendrez sur une plateforme Data reposant sur Azure et Snowflake , avec une architecture Médaillon . Le rôle inclut une forte dimension lead technique : qualité du code, CI/CD, revues de PR et accompagnement des équipes. ⚙️ Missions principales : Concevoir et faire évoluer des pipelines de données sur Azure et Snowflake. Mettre en œuvre et maintenir une architecture Médaillon (Bronze / Silver / Gold). Développer et orchestrer les flux via Azure Data Factory . Automatiser les processus via Azure Automation . Participer activement à l’ industrialisation CI/CD et aux pipelines Azure DevOps . Réaliser des revues de Pull Requests et promouvoir les bonnes pratiques de développement. Garantir la qualité, la performance et la fiabilité des traitements de données.
Freelance

Mission freelance
Architecte Entreprise SI (Secteur Industrie / Energie)

Atlas Connect
Publiée le
Amazon S3
Apache Kafka
API

12 mois
750-800 €
Paris, France
Notre client acteur majeur de l’agro-industrie, conduit une transformation SI d’envergure autour de la modernisation et de l’interopérabilité de son système d’information : Migration vers le cloud public Azure Mise en place d’une Data Platform Open Source (OpenShift, Kubernetes, Kafka, S3, etc.) Déploiement d’une plateforme d’interopérabilité (iPaaS) pour fluidifier les échanges inter-BU Modernisation de SAP et rationalisation des briques techniques Introduction d’un outil d’EAM (type LeanIX) pour la gouvernance du SI Le SI du groupe est complexe, hétérogène et distribué , avec des interactions entre environnements industriels, applicatifs et cloud, dans un contexte international et multi-BU . 🎯 Objectif du poste L’Architecte d’Entreprise interviendra en appui transversal des projets et participera à la structuration de la gouvernance d’architecture . Il combinera vision stratégique (urbanisation, standards, cartographie) et accompagnement opérationnel des projets IT. Missions principales 1. Accompagnement des projets IT (≈ 70%) Accompagner les équipes projets dans leurs choix d’architecture et de solutions. Garantir l’alignement avec les standards et la cohérence globale du SI. Soutenir la formalisation des besoins métiers et leur traduction en orientations techniques. Documenter les choix d’architecture dans un cadre structuré et partageable. 2. Cartographie du SI (≈ 30%) Élaborer et maintenir les cartographies du SI : métiers, applicatives, techniques et infrastructure. Mettre à disposition des représentations claires et synthétiques pour la prise de décision et la gouvernance SI . 3. Normes et Standards Définir et maintenir les principes directeurs et standards d’architecture . Garantir la cohérence, la sécurité et la maintenabilité du SI dans le temps. ⚙️ Environnement technique & organisationnel Cloud : Azure (IaaS, PaaS, intégration applicative) Data Platform : OpenShift, Kubernetes, Kafka, S3… Interopérabilité : plateforme iPaaS en cours de déploiement ERP : SAP (modernisation en cours) EAM : LeanIX (ou équivalent) Contexte : international, multi-pays, multi-langues, multi-BU 🧩 Compétences attenduesTechniques Maîtrise de l’ architecture d’entreprise et d’application (TOGAF, ArchiMate, LeanIX…) Bonne connaissance des écosystèmes Cloud Azure et environnements hybrides Capacité à formaliser des cartographies SI et modèles d’architecture Maîtrise des modèles d’intégration et d’interopérabilité (API, ESB, iPaaS, etc.) Comportementales Esprit d’analyse, de synthèse et de leadership Diplomatie et capacité à challenger sans bloquer Excellente communication orale et écrite Autonomie, rigueur et orientation résultats Profil recherché Expérience : 10+ ans en architecture d’entreprise ou applicative Expérience confirmée en environnements multi-filiales / multi-BU Connaissance des grands groupes industriels, agroalimentaires ou énergétiques appréciée Langues : français courant, anglais professionnel Mobilité : déplacements ponctuels à Bruz (banlieue de Rennes)
CDI

Offre d'emploi
Développeur .NET FullStack F/H - Informatique de gestion (H/F)

█ █ █ █ █ █ █
Publiée le
.NET CORE
Apache Kafka
ASP

Nice, Provence-Alpes-Côte d'Azur

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance
CDI
CDD

Offre d'emploi
Développeur backend confirmé

SARIEL
Publiée le
Apache Kafka
API
API REST

12 mois
43k-63k €
350-450 €
Châtillon, Île-de-France
Bonjour, Nous recherchons pour notre client basé en région parisienne (dans le 92) un développeur backend confirmé (4-10 ans d’expérience). Objectif global - Développer API e-Commerce Contrainte forte du projet Développement API pour la nouvelle application mobile Les livrables sont Dossier de conception Développement API Compétences techniques Java 11+ - Expert - Impératif Spring Boot 2+ - Expert - Impératif API Restful - Confirmé - Impératif SAP Hybris - Confirmé – Important Connaissances linguistiques Français Courant (Impératif) Anglais Lu, écrit (Secondaire) Description détaillée Dans le cadre du développement de la nouvelle application mobile, nous mettons en place une architecture e-commerce orientée API et Headless, s’appuyant sur la plateforme SAP Hybris et un écosystème de microservices Java. L’objectif est de concevoir, développer et faire évoluer les APIs e-commerce exposées aux canaux digitaux, notamment l’application mobile. Le prestataire interviendra sur : - Le développement et l’évolution des APIs e-commerce - L’intégration et l’extension des services SAP Hybris - La mise en place et la maintenance des flux asynchrones via messaging - L’amélioration de la performance, de la robustesse et de la scalabilité des services backend La mission couvre les services backend exposés à l’application mobile, notamment : - Catalogue produits - Recherche et navigation - Gestion panier - Services clients - Pricing et promotions - Disponibilités produits et stocks - Services transactionnels e-commerce Concevoir et développer des APIs REST e-commerce en Java - Implémenter et faire évoluer les fonctionnalités SAP Hybris - Participer à la conception technique et aux choix d’architecture - Garantir la qualité, la performance et la sécurité des services développés Intégration et messaging : - Mettre en œuvre des flux événementiels via Kafka - Assurer l’intégration avec les systèmes du SI e-commerce- Contribuer à la gestion des échanges inter-services Qualité et maintenance : - Réaliser les tests unitaires et d’intégration - Participer aux revues de code - Contribuer à la résolution des incidents et anomalies - Participer à l’amélioration continue des pratiques de développement Données complémentaires : Date de démarrage 02/03/2026 Lieu de réalisation Châtillon Déplacement à prévoir non Le projet nécessite des astreintes Non Nombre de jours souhaitables sur site 3 jours par semaine La sous-traitance (freelance, ESN ou autre) sur ce projet est Autorisée Dans le cas où vous êtes intéressé par ce poste, pourriez-vous SVP m'envoyer votre CV au format Word en indiquant votre disponibilité ainsi que vos prétentions salariales ou votre tarification journalière si vous êtes indépendant ?
Freelance

Mission freelance
Support Engineer

CAT-AMANIA
Publiée le
Apache Kafka
Java
Kubernetes

1 an
100-360 €
Lille, Hauts-de-France
Participer au traitement des tickets support de niveau 2 / Animer et accompagner le support de niveau 1 / Prioriser et suivre le support de niveau 3 avec les équipes de développeurs Assurer la conduite du changement en participant aux livraisons en production de nos releases Designer et exploiter nos solutions de monitoring/alerting (Datadog & Grafana) pour permettre d’anticiper les bugs avant qu’ils ne diminuent le niveau de service rendu à nos utilisateurs Garantir le niveau de service de l’application en animant la démarche SRE au sein des équipes Gérer les incidents de production Identifier les problèmes récurrents via la recherche de root cause, définir les plans d’actions avec les équipes produits et les applications partenaires Être force de proposition afin d'améliorer la qualité opérationnelle, les performances et la disponibilité des solutions Mettre en place ou contribuer au développement des outils de demain qui accompagnent la transformation du métier (automatisation, industrialisation, …) Documenter les process du Run afin de rendre autonomes les équipes produits et déploiement dans leurs réponses à nos utilisateurs
Freelance

Mission freelance
Développeur Back-End (TypeScript / Node.js)

ESENCA
Publiée le
Apache Kafka
Mongodb
NestJS

1 an
Lille, Hauts-de-France
🎯 Objectif global Développer la V2 d’un produit de gestion des offres (Offer Repository) , composant central d’une plateforme de commerce digital, avec une approche résolument orientée qualité, performance et software craftsmanship . 🧩 Contexte et contraintes du projet Produit stratégique à très forte criticité métier Exigences élevées en performance, scalabilité et robustesse Culture forte de software craftsmanship TDD comme fondation BDD comme source d’inspiration (Behaviour Driven Development) 📦 Livrables attendus Gestion des offres customer-centric , pilotée par zone géographique Intégration de la disponibilité des offres Code de haute qualité, maintenable et évolutif Contribution active à une dynamique d’ amélioration continue 🛠️ Description de la mission Le poste porte sur le développement et l’évolution d’un Offer Repository , véritable colonne vertébrale d’un écosystème SI de commerce digital. Ce composant critique consolide l’ensemble des offres de produits et de services (retail et marketplace) afin d’alimenter de nombreux systèmes consommateurs : front web, parcours omnicanaux, encaissement, etc. La mission s’inscrit dans une transformation majeure du modèle d’offre : Passage d’une logique centrée sur les stocks magasins Vers une offre dynamique , construite à partir du besoin géographique du client 🚀 Enjeux techniques Performance critique : jusqu’à 20 milliards d’appels API par mois Volumétrie massive : exposition et manipulation de centaines de millions d’offres Scalabilité & haute disponibilité : architectures capables d’absorber de forts pics de charge Fiabilité du code : la robustesse n’est pas négociable 🧠 Méthodologie & culture technique Vous évoluerez dans un environnement mature, exigeant et orienté excellence technique : Architecture : application stricte des principes d’architecture hexagonale Qualité logicielle : pratiques avancées de TDD et BDD Agilité réelle : cycles courts, feedback continu, amélioration permanente Collaboration : échanges techniques riches et forte responsabilité collective 🧰 Compétences techniques requises Impératif – Niveau confirmé à expert TypeScript, Node.js NestJS (concepts avancés, patterns, modularité) TDD & BDD (maîtrise réelle, pas théorique) Kafka (incluant Schema Registry, AVSC) MongoDB Conception & Architecture Domain Driven Design (DDD) Architectures Hexagonale, Onion, Event-Driven Observabilité Monitoring et performance applicative (Datadog apprécié) 🌍 Compétences linguistiques Français courant – Impératif Anglais professionnel – Impératif
Freelance

Mission freelance
DEVELOPPEUR FULLSTACK ( 500 euros max )

PARTECK INGENIERIE
Publiée le
Angular
Apache Kafka
J2EE / Java EE

12 mois
400-500 €
Boulogne-Billancourt, Île-de-France
Dans le cadre de la modernisation de son outil « cœur de métier », un projet de grande envergure est lancé pour entreprendre une refonte technique majeure : au sein de l’équipe de développement, vous participez au développement de la chaine métier selon la méthodologie Scrum de l’Agilité. Vous continuez au développement du nouvel outil (composants communs, CI, infrastructure, …) et réaliserez de nouveaux modules (mise en œuvre de micro-services et d’API) techniques et fonctionnels sur l’application dans un contexte des nouvelles technologies lié au Cloud du Groupe. Vous contribuerez à l’optimisation de la qualité du code, à sa maintenabilité. Vous pourrez aussi être amené à assurer les tests unitaires et automatiques Enfin, vous serez assuré de maintenir vos compétences à jour et d’acquérir celles nécessaires aux nouvelles activités : fonctionnelles, techniques, architecture. Profil recherché Profil ayant une expérience significative d’au moins 4 ans. Vous manifestez un vif intérêt pour les nouvelles technologies du Cloud, vous avez de solides connaissances des systèmes d’information, vous connaissez les principes de la méthodologie Agile, vous êtes curieux intellectuellement, force de proposition, vous n’hésitez pas à rédiger et publier de la documentation technique et enfin, vous souhaitez rejoindre une équipe dynamique et à taille humaine. Compétences souhaitables pour le poste · Applications et technologies Java (au moins 17), Intellij Spring Boot, Spring Cloud (Gateway, Kubernetes, Vault, Docker, …), Kafka, Kafka Connect … Angular (de preference 19+) · Continuous integration (CI) Gitlab, Artifactory, Jenkins · Base de données PostgreSQL, MongoDB Documentation Confluence Anglais lu, parlé et écrit.
Freelance
CDI

Offre d'emploi
Business Analyst / Data Analyst

R&S TELECOM
Publiée le
Apache Airflow
Azure Logic Apps
ETL (Extract-transform-load)

1 an
Lyon, Auvergne-Rhône-Alpes
Contexte de la mission : Pour l’un de nos clients, cette mission consistera par l’accompagnement du lancement d’un projet interne stratégique destiné à doter ses équipes commerciales d’un outil de pilotage centralisé axé sur la donnée. Tâches à réaliser : Recueillir et formaliser les besoins métier des équipes Sales / Sales Ops (indicateurs, rapports, cas d’usage). Analyser les sources de données existantes (dont Salesforce) et comprendre le business data model actuel. Concevoir et faire évoluer le modèle de données dans une logique Medallion / Canonical / Shared Data Model. Cadrer et spécifier les pipelines de données (ETL / workflows) avec les outils en place : Fabric Pipeline, dbt, Alteryx, Airflow, LogicApps, PowerAutomate, etc. Définir les règles de transformation et de qualité de données (nettoyage, harmonisation, gestion des doublons, référentiels). Mettre en place et documenter l’historisation et la data lineage de bout en bout (de la source jusqu’aux vues analytiques). Rédiger la documentation fonctionnelle et le dictionnaire de données pour les équipes data et métiers. Jouer le rôle de “go-to person” / référent data pour l’équipe projet, en répondant aux questions et en arbitrant les choix fonctionnels. Accompagner les utilisateurs (explication des KPIs, démonstration des vues, recueil de feedbacks) et proposer des améliorations continues.
Freelance

Mission freelance
Chef de Projet Technique Senior GED (H/F)

Nicholson SAS
Publiée le
Administration Windows
Apache Tomcat
CFT (Cross File Transfer)

12 mois
550-600 €
Paris, France
Nous recherchons un profil technique à forte dimension opérationnelle pour piloter le déploiement de nos solutions de GED (Gestion Électronique de Documents) et SAE (Système d'Archivage Électronique) au sein d'environnements complexes, qu'ils soient Cloud ou On-Premise. Votre Mission : Être l'architecte du concret Véritable pivot entre la Direction de Projet et les équipes Infrastructures/Exploitation, vous ne vous contentez pas de configurer un outil : vous lui donnez vie. Le point clé : Au-delà du simple paramétrage applicatif, nous recherchons une personne capable d' orchestrer l'installation complète et autonome d'une solution de GED , de la mise en place technique initiale jusqu’à sa parfaite mise en service opérationnelle. Vos principaux défis Maîtrise Technique : Déployer et administrer les solutions sur des stacks Linux/Windows, Tomcat et PostgreSQL avec une rigueur absolue sur la sécurité. Fluidité Opérationnelle : Assurer l'analyse et la résolution d'incidents complexes tout en garantissant une communication transparente entre les métiers et l'exploitation. Transmissibilité : Rédiger des dossiers d'exploitation soignés pour une transition fluide vers le "Run". Pilotage de l'effort : Gérer votre charge avec une vision acérée du calcul des restes à faire , garantissant la tenue des engagements du projet. Profil recherché : Expertise et Adaptabilité Vous êtes un profil hybride, capable de jongler entre une console de commande et une réunion de coordination. Le Socle Technique : Une connaissance approfondie des infrastructures (Linux Ubuntu, Windows) et des environnements Web (Web Services, SQL, Tomcat). Vous maîtrisez les flux (CFT, SFTP) et le scripting (Powershell, Bash, JS). L’Intelligence Projet : Vous savez planifier vos activités de manière autonome et adapter vos priorités face aux imprévus, sans jamais perdre de vue la conformité architecturale. La Posture : Doté d'un excellent relationnel, vous savez traduire des enjeux techniques complexes pour des interlocuteurs variés. Pourquoi nous rejoindre ? Environnement technique riche : XML, JSON, VPN, SSO, SQL... un terrain de jeu complet pour les passionnés d'infrastructure. • • Perspective : Ce poste est ouvert à une collaboration durable , avec une possibilité d'intégration définitive après un an.
Freelance

Mission freelance
MLOps - SageMaker

Celexio
Publiée le
Amazon SageMaker
Apache Airflow
AWS Cloud

3 mois
400-550 €
Paris, France
Au sein d'une équipe de 7 ML Engineers , vous serez l'expert Infrastructure dédié au pôle ML. Votre mission est de bâtir, maintenir et faire évoluer la stack technique permettant de propulser des systèmes de Machine Learning scalables et fiables. Vous ferez le pont entre le monde du DevOps et celui de la Data Science pour garantir l'efficacité opérationnelle des pipelines de production. Missions : Gestion de l’Infrastructure : Maintenir et optimiser la stack infrastructure dédiée au ML en respectant l'état de l'art et les bonnes pratiques AWS. Automatisation (IaC) : Provisionner et gérer les ressources via Terraform pour assurer la reproductibilité des environnements. Orchestration de Workflows : Piloter et configurer les pipelines de données complexes et les workflows ML via Apache Airflow (MWAA). Support Projets Spécifiques : Collaborer avec l'équipe sur l'intégration d'outils avancés comme les bases de données vectorielles (Vectiroeilles), Open Search et l'indexation. Cycle de vie ML : Mettre en place des serveurs dédiés MLFlow pour le suivi de l'entraînement des modèles et optimiser les phases de prédiction. Exploitation SageMaker : Utilisation intensive d'Amazon SageMaker pour l'entraînement et le déploiement de modèles.
CDI

Offre d'emploi
Expert /Administrateur Hadoop H/F

OCSI
Publiée le
Ansible
Apache Kafka
Big Data

40k-60k €
Île-de-France, France
Contexte Dans le cadre du développement et de la maintenance d’une plateforme Big Data stratégique , notre client grand compte renforce ses équipes techniques et recherche un(e) Administrateur Hadoop / Data Engineer confirmé(e) . Vous interviendrez au sein d’une équipe experte, sur une infrastructure Big Data critique, afin d’assurer sa disponibilité, son évolution et sa performance , dans un environnement à forts enjeux métiers et techniques. Missions En tant qu’ Expert Hadoop / Data Engineering , vos missions principales seront : Administrer, maintenir et optimiser les clusters Hadoop (Cloudera) Garantir la disponibilité, la performance et la sécurité de la plateforme Big Data Participer aux task forces techniques pour résoudre des incidents complexes Réaliser les montées de versions majeures des composants Hadoop Automatiser les déploiements, patching et configurations via Ansible et Terraform Gérer les incidents, changements et tickets d’infrastructure Contribuer aux évolutions du socle technique et au déploiement de nouvelles fonctionnalités Rédiger et maintenir la documentation technique Travailler en lien étroit avec les équipes internes et l’éditeur Cloudera Participer au suivi du planning global de production
Freelance

Mission freelance
Data Engineer - Secteur Assurance et Prévoyance (H/F)

EASY PARTNER
Publiée le
Apache NiFi
Bash
Gitlab

230 jours
420-450 €
Lyon, Auvergne-Rhône-Alpes
Contexte du poste Dans le cadre d'un projet de refonte de son SI, notre Groupe renforce son dispositif Data au sein de la Direction des Systèmes d’Information. L’objectif est de concevoir, développer et maintenir des flux de données fiables et industrialisés au service des équipes métiers Épargne et Services Financiers. Le poste est rattaché au DAS Épargne & Services Financiers et s’inscrit dans un environnement orienté data, qualité et automatisation. Missions Missions principales En tant que Data Engineer, vous interviendrez sur la conception, le développement et l’industrialisation des flux de données, dans un contexte finance / assurance à forts enjeux de qualité, de traçabilité et de performance. Concevoir et implémenter le socle data du Master Data Management (MDM) Intégrer et transformer les données issues de différentes sources Sécuriser et industrialiser les flux dans le respect des standards de qualité et de traçabilité attendus Mettre en œuvre des traitements de données (collecte, transformation, stockage) Garantir la qualité, la fiabilité et la performance des flux Travailler en lien étroit avec les équipes métiers et IT Contribuer aux bonnes pratiques de développement, d’automatisation et de CI/CD Stack technique Compétences requises (niveau confirmé) Data & traitement : Apache NiFi, requêtage et traitement de données (SQL / NoSQL) Connaissance des formats et protocoles : JSON, XML, CSV, REST API Base de données & stockage : PostgreSQL, Stockage objet (S3) DevOps & industrialisation : GitLab, GitLab CI, Pratiques CI/CD Compétences appréciées Langages & scripting : Python, Bash
Freelance
CDI

Offre d'emploi
Développeur fullstack (+front que back)

ICSIS
Publiée le
Apache Kafka
Google Cloud Platform (GCP)
Java

3 ans
30k-45k €
350-450 €
Lille, Hauts-de-France
La mission consiste à : - Mise à jour de l’architecture et travaux de conception - Rédaction des documentations techniques, étude des US - Développement de nouvelles fonctionnalités/features/APIs - Analyse et amélioration des performances du SI - Revue de code et accompagnement des membres de l’équipe - Missions basées en métropole lilloise avec présence sur site obligatoire 3j/semaine Compétences demandées : - Min. 3 ans d’expérience en développement (hors stage et alternance) - HTML, CSS, Javascript, Java 11+, SpringBoot, Vue JS, API, Kafka, BDD relationnelles et non relationnelles... - Intégration continue - Culture Devops, connaissances Docker et Kubernetes - Environnement GCP - Maîtrise et pratique de l’Agile - Anglais un +
Freelance

Mission freelance
Data Engineer Senior F/H

SMARTPOINT
Publiée le
Apache Spark
CI/CD
Data Lake

12 mois
400-530 €
Île-de-France, France
Nous recherchons un Data Engineer Senior pour rejoindre une équipe spécialisée dans la gestion et l’exploitation des données au sein d’une grande organisation numérique. L’équipe intervient au cœur de la plateforme Data et collabore étroitement avec les différentes directions techniques pour transformer la data en levier stratégique et opérationnel. L’équipe actuelle est composée d’un Product Owner, d’un Data Steward et de deux autres Data Engineers. La mission s’inscrit dans un contexte de traitement de volumes de données importants et de projets transverses autour de la connaissance utilisateur et de la mise à disposition d’outils de pilotage internes. Missions de l’équipe Collecter et centraliser des sources de données hétérogènes. Assurer la conformité, la sécurité et la qualité des données. Participer aux initiatives de gouvernance des données. Missions du Data Engineer En interaction avec les membres de l’équipe, le Data Engineer aura pour responsabilités de : Participer aux phases de conception, planification et réalisation des projets data. Construire et maintenir des pipelines de données robustes et scalables. Accompagner l’équipe dans l’exploitation et le requêtage des données. Organiser et structurer le stockage des données pour en faciliter l’accès et l’usage. Mettre en place et maintenir des infrastructures scalables capables de gérer l’augmentation rapide du volume de données. Développer et maintenir les workflows de CI/CD pour les pipelines data. Partager les bonnes pratiques et contribuer à la montée en compétences des autres data engineers. Garantir l’évolutivité, la sécurité et la stabilité des environnements de données. Participer activement aux instances techniques de l’équipe. Contribuer à la mise à jour et à la qualité de la documentation technique. Effectuer une veille technologique proactive sur les outils et méthodes data. Stack technique Langages & traitements : Python, SQL, Spark Orchestration : Airflow Stockage : Cloud Storage, Delta Lake Cloud & services associés : Google Cloud Platform (BigQuery, Dataproc, Pub/Sub) Infrastructure & IaC : Terraform, Terragrunt CI/CD & versioning : GitLab, GitLab CI/CD Méthodologie : Agile (Scrum ou Kanban) Profil recherché Minimum 7 ans d’expérience en Data Engineering. Expertise solide en structuration et traitement de données, code et architecture data. Expérience significative dans la conception et la maintenance de pipelines data . Expérience dans un environnement Google Cloud Platform et utilisation de BigQuery et Dataplex Universal Catalog. Maîtrise des langages Python et SQL et du framework Spark . Expérience avec Delta Lake , Terraform, Terragrunt. Maîtrise des outils GitLab et GitLab CI/CD. Capacité à vulgariser et communiquer sur des sujets techniques complexes. Autonomie, rigueur et capacité à travailler en équipe dans un contexte Agile. Qualités personnelles Esprit d’équipe et collaboration. Proactivité et sens de l’initiative. Curiosité technologique et veille active. Capacité à documenter et partager les bonnes pratiques.
CDI
Freelance

Offre d'emploi
Architecte Data (Snowflake - IA Gen) H/F

STORM GROUP
Publiée le
Apache Airflow
AWS Cloud
CI/CD

3 ans
55k-65k €
550-680 €
Lille, Hauts-de-France
Principales missions : - Contribuer aux cadrages des nouveaux besoins techniques des métiers liés à la plateforme SNOWFLAKE - Participer à l’évolution de la plateforme Data (gouvernance, contrôles, automatisation, etc) - Participer aux choix technologiques de l’offre à mettre en place - Analyser les documents d’architecture des assets à faire évoluer et définir les nouveaux PATTERN (architecture fonctionnelle, applicative, technique) - Analyser, définir et cadrer les adaptations nécessaires de l’offre proposée - Documenter les PATTERN retenus à un niveau plus détaillé, de sorte à la rendre exécutable pour les autres Business Units - Être l’interlocuteur privilégié des équipes portant les besoins d’agent/usages IA GEN au sein du pôle DATA - Accompagner au déploiement de la solution définie auprès de la BU et des autres Business Units - Accompagner à la prise en main de la plateforme Data

Les métiers et les missions en freelance pour Apache

Administrateur·rice système Unix (linux...)

L'administrateur·rice système Unix utilise Apache pour configurer et gérer des serveurs web sous Linux, en assurant la disponibilité et la performance des services web.

Ingénieur·e systèmes & réseaux

L'ingénieur·e systèmes et réseaux administre les serveurs Apache, configure les protocoles de communication, et optimise les performances des sites web et des applications web.

Ingénieur·e d'exploitation

L'ingénieur·e d'exploitation utilise Apache pour déployer et maintenir les serveurs web, supervisant leur performance et leur disponibilité tout en garantissant la sécurité des applications web.

Responsable des infrastructures et de la production

Le / La responsable des infrastructures et de la production supervise l'usage d'Apache pour héberger des applications et sites web, en garantissant la sécurité et la performance de l'infrastructure.

310 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous