Trouvez votre prochaine offre d’emploi ou de mission freelance EGEN

Votre recherche renvoie 786 résultats.
CDI

Offre d'emploi
Data Engineer (H/F)

OBJECTWARE
Publiée le
DBT
Google Cloud Platform (GCP)
Reporting

50k-60k €
Bordeaux, Nouvelle-Aquitaine
Contexte Dans le cadre du renforcement de ses équipes Data, notre client recherche un Data Engineer avec une forte appétence pour le reporting et la valorisation de la donnée. L’objectif est de structurer, industrialiser et exploiter les données afin de produire des indicateurs fiables et utiles aux métiers. Missions Concevoir, développer et maintenir des pipelines de données robustes et scalables Assurer la collecte, transformation et mise à disposition des données Participer à la modélisation des données (datawarehouse / datamart) Mettre en place et optimiser les flux via des outils d’orchestration Collaborer avec les équipes métiers pour comprendre les besoins en reporting Développer et alimenter des tableaux de bord et reportings Garantir la qualité, la fiabilité et la performance des données Participer à l’industrialisation des traitements (CI/CD, bonnes pratiques) Environnement technique Cloud : GCP (idéalement) ETL / Orchestration : Airflow, DBT Langages : Python BI / Reporting : Power BI, Tableau ou équivalent Data : SQL, modélisation data
Freelance
CDI

Offre d'emploi
OPS ENGINEER - CLOUD AWS - CLOUD LEGACY

HEEVOX
Publiée le
AWS Cloud
Azure DevOps
Bash

3 ans
40k-65k €
450-550 €
Île-de-France, France
Ingénieur Système - Cloud - DevOps Démarrage : ASAP Durée : 3 ans Localisation : Ile de France (Proche Paris) Télétravail : 50 % L’Ops, étroitement intégré dans les équipes de développement et en s’appuyant sur les experts techniques, est garant du service qu’il opère, en particulier : De la disponibilité du service Du bon fonctionnement des infrastructures sous-jacentes (Sécurité, Scalabilité…) Du monitoring global de son produit (alerting, monitoring, observabilité) De l’automatisation et de la modernisation des infrastructures (Migration Cloud, mise en place de CI/CD…) Du pilotage et de la résolution des incidents en cas de déclenchement jusqu’à leur résolution L’Ops contribue également très fortement à l’amélioration continue des outils comme des processus afin d’optimiser son travail (Automatisation, gestion des problèmes…) Mission : Être le premier point de contact technique sur les services que vous opérez Assurer ou coordonner un support Niveau 3 pour les équipes de développement (Mise en production, Déploiement, suivi des tâches “Infras”...) Assurer la bonne opérabilité du service en production (monitoring, alerting, documentation…) Optimiser votre travail et celui de vos collègues via l’automatisation (Déploiement, Maintenance, Détection de problèmes, Reporting…) Proposer, implémenter et assurer un bon niveau de sécurité Piloter et Investiguer sur la résolution d’incidents (Communication, Escalade, Animation…) Superviser son/ses services (Disponibilité, Latence, Erreurs, Sauvegardes…) Accompagner les équipes de développement et de TMA pendant les phases de conception et de développement afin d’apporter la vision “Opérationnelle” et détecter le plus tôt possible les “angles mort” Participer à l’amélioration continue des Infrastructures (migration des infrastructures “Legacy” vers le Cloud, Automatisation via d'Infrastructure as Code), de la qualité et des TTMs.
Freelance

Mission freelance
Lead / Senior Frontend Angular Engineer H/F

ADSearch
Publiée le
Angular
Preuve de concept (POC)
SaaS

3 mois
La Défense, Île-de-France
Contexte de la mission Dans le cadre du développement et de l’évolution du produit InsiderLog , nous recherchons un(e) Lead / Senior Frontend Angular Engineer capable de prendre en charge la conception, l’architecture et la maintenance d’une application frontend scalable, performante et maintenable . Le produit évolue dans un environnement SaaS exigeant , avec de fortes contraintes de qualité, sécurité, performance et évolutivité , ainsi qu’un fort niveau d’interaction avec les équipes Product, Design et Backend . Le/la consultant(e) interviendra sur des sujets à forte valeur ajoutée, en transformant des besoins métiers complexes — notamment autour de la Monetization , du module Advisor , ainsi que des évolutions réglementaires liées à MAR 2026 — en interfaces utilisateurs intuitives, robustes et durables . Au-delà du développement pur, cette mission nécessite une vraie dimension d’ownership technique : la personne attendue devra structurer l’architecture frontend , garantir la qualité du code , contribuer aux choix techniques stratégiques , et accompagner l’équipe dans l’adoption des meilleures pratiques Angular.
Freelance

Mission freelance
Architecte Technique | Massy - Habilitable obligatoire

5COM Consulting
Publiée le
Administration linux
Ansible
Openshift

3 ans
400-630 €
Massy, Île-de-France
Architecte Technique | Massy Nous recherchons un Architecte Technique pour accompagner la DSI d'un grand groupe industriel dans la conception et la rédaction de dossiers d'architecture technique (DAT) dans le cadre d'un projet de modernisation et de sécurisation du Système d'Information. Missions • Conception de l'architecture technique des solutions (HLD / LLD) • Rédaction de 12 DAT en français et/ou anglais • Étude de l'impact sur l'architecture existante et future • Participation aux comités d'architecture technique et sécurité (COPROJ hebdo / COPIL trimestriel) • Garantir la cohérence technique et la maintenabilité du SI Environnement technique Linux Red Hat, Unix Sun Solaris, OpenShift (conteneurisation), VMware, Active Directory, clustering, Cloud AWS, Ansible, Satellite Red Hat, AlgoSec, MSSQL, ETL, webservices, IDM
Freelance

Mission freelance
Data Engineer GCP - Anglais niveau C1

ALLEGIS GROUP
Publiée le
BigQuery
Google Cloud Platform (GCP)
Terraform

18 mois
470-520 €
Paris, France
Intégrer une mission au sein de notre client en tant que Data Engineer GCP. Missions : Créer de nouveaux projets et produits de données sur GCP au sein du sous-domaine Finance Procurement . Participer au développement back‑end sur GCP et, pour certains cas d’usage, créer également le modèle sémantique Power BI . Intégration au sein d’une sous‑équipe de 4 data engineers dans une équipe Finance de 10 personnes au total. 70 % du temps consacré à l’innovation et aux nouveaux projets sur GCP. 30 % du temps dédié à la continuité et à la maintenance.
Freelance

Mission freelance
Architecte IT

Codezys
Publiée le
Active Directory
AWS CloudFormation
Azure

12 mois
Massy, Île-de-France
Contexte général Dans un contexte de cybersécurité renforcée, notre entreprise vise à renforcer la sécurité de son Système d’Information. Par ailleurs, afin de conserver notre position de leader, nous devons accompagner nos métiers dans la mise en œuvre de nouvelles solutions. À cette fin, il est nécessaire de rédiger les dossiers d’architecture technique correspondant à ces solutions. Objet du cahier de consultation Dans le cadre de ce projet, l'entreprise a décidé de sous-traiter la conception de l’architecture technique pour ses sites en France et à l’international. Cette mission doit prendre en compte diverses caractéristiques et contraintes, tout en garantissant une cohérence technique et la stabilité du système d’information durant son évolution. Il s’agit également d’étudier l’impact de ces solutions sur l’architecture existante ou future. Cette prestation requiert une expertise approfondie sur les technologies telles que VMware, Windows, MSSQL, Cloud, clustering, et autres. Une capacité à rédiger une documentation technique détaillée est également indispensable. Logistique Date de démarrage : prévue le 01/04/2026, avec une livraison au plus tard le 31/12/2026 Lieu : Massy Profil recherché : Expert ou sénior avec nationalité ......................, contrôle élémentaire requis (FICE) Panel ciblé : Infrastructures Typologie de prestation : Architecture Le prestataire devra fournir un ordinateur personnel (PC) Maîtrise de l’anglais souhaitée Objectifs et livrables 1. Environnement technique de la prestation Les solutions techniques concernent notamment Windows, VMware, MSSQL, IIS, Active Directory, clustering, et Cloud. Toutes ces solutions doivent respecter les standards de l'entreprise, accessibles via l’ITRB. 2. Prestations attendues Concevoir l’architecture technique des solutions requises pour les sites en France et à l’international, en prenant en compte diverses caractéristiques et contraintes. L’objectif est d’assurer une cohérence technique et la stabilité du système d’information tout au long de son développement, tout en analysant leur impact sur l’architecture existante ou à venir.
Freelance

Mission freelance
Développeur Senior JAVA ANGULAR IA & Plateforme Agentique (H/F)

Freelance.com
Publiée le
Angular
Apache Kafka
Java

1 an
510-600 €
Île-de-France, France
Au sein d’un programme stratégique centré sur l’intelligence artificielle, vous intervenez sur une plateforme agentique visant à industrialiser et sécuriser l’usage d’agents IA à grande échelle. Véritable socle transverse, cette plateforme permet de concevoir, orchestrer et gouverner des agents intelligents utilisés par différents métiers. En tant que développeur senior, vous contribuez activement à la définition de la vision produit, à l’architecture technique et à l’alignement des besoins métiers. Vous travaillez sur des composants clés tels que des registres d’agents, des gateways sécurisées, ainsi que des workflows agentiques intégrant des contraintes de gouvernance, de sécurité et de conformité réglementaire. Votre rôle inclut également le développement de solutions basées sur des frameworks agentiques modernes, l’implémentation de mécanismes avancés (RAG, prompt engineering, guardrails), ainsi que la participation aux phases de qualification, expérimentation et industrialisation. Vous évoluez dans un environnement multi-équipes et contribuez à la cohérence globale de la plateforme.
Freelance

Mission freelance
Cloud Engineer Azure Resource Tagging mission

Gentis Recruitment SAS
Publiée le
Azure
CI/CD
IAC

9 mois
400-550 €
Luxembourg
Tagging manuel des ressources Azure liées aux applications métiers, aux services applicatifs et à la couche d’intégration Définition des politiques de tagging Azure Création de templates et de pipelines permettant aux équipes d’utiliser un tagging prédéfini conforme aux politiques Mise en application (enforcement) des politiques de tagging Exigences essentielles et expérience : Minimum 3 ans d’expérience en ingénierie cloud ou en infrastructure Certification Microsoft Azure Administrator (obligatoire) Certification Microsoft Certified: DevOps Engineer Expert (obligatoire) Expérience solide dans : Le tagging Azure et les politiques de tagging Azure L’Infrastructure as Code (IaC) avec Bicep, PowerShell, Azure CLI et les templates ARM La création et la maintenance de pipelines Azure DevOps pour le CI/CD et l’orchestration La conception et la mise en œuvre de pipelines de release avec templates YAML, groupes de variables, Azure App Configuration, gates de validation et processus d’approbation Le déploiement et la gestion des services Azure : machines virtuelles, Web Apps, APIs, Functions, Logic Apps, Event Grid, Service Bus La documentation et le suivi des tâches dans Azure DevOps et ServiceNow
Freelance

Mission freelance
Data Engineer ( Trino & Iceberg & dbt & Argo workflows & Superset & Metabase & OpenMetadata)

WINSIDE Technology
Publiée le
DBT
MySQL

3 ans
400-550 €
Île-de-France, France
le client lance l'étude d'un potentiel nouveau Data Lake afin de remplacer l’infrastructure legacy par une plateforme moderne, scalable et pleinement gouvernée. Le nouveau lake s’appuiera sur une architecture Medallion et intégrera les technologies suivantes : TrinoDB, Apache Iceberg, Parquet, dbt, Argo?Workflows, Apache Superset, Metabase et OpenMetadata. Voici les tâches attendues pour la mission : Analyse de l’existant & migration • Cartographier les sources, pipelines et jeux de données actuels (legacy, SQL, fichiers plats...). • Définition de la stratégie de migration vers le nouveau lake (bronze -> silver -> gold). • Conception des plans de bascule tout en minimisant les interruptions de service. Architecture & ingestion • Conception des couches Bronze / Silver / Gold du nouveau Data Lake avec TrinoDB, Apache Iceberg et Parquet. • Création de pipelines d’ingestion (batch & near-real-time) depuis les systèmes de crédit. Modélisation & transformation • Développement des modèles de transformation dans dbt?: scripts SQL, tests automatisés, documentation et versionning. • Harmonisation des schémas (normes de nommage, typage, PK/UK) avec les exigences du domaine crédit. Orchestration • Implémentation des workflows de migration et de rafraîchissement des données avec Argo?Workflows (planification, gestion des dépendances, monitoring). Self-service & visualisation • Déployement des espaces de travail Apache Superset et Metabase pour que les analystes métier puissent créer leurs propres dashboards à partir du nouveau lake. • Rédaction des guides d’utilisation et accompagner la montée en compétence des équipes. Gouvernance, catalogue & lineage • Intégration OpenMetadata pour le catalogage automatique, le suivi du lineage et la gestion des métadonnées (description, propriétaire, sensibilité). • Mise en place des processus de data ownership, de versionning et de validation. Qualité & validation • Implémentation, dans les modèles dbt, des tests de qualité (not-null, unicité, règles métiers spécifiques au crédit). • Mise en place des indicateurs de suivi (freshness, complétude, anomalies) et des alertes automatiques. Sécurité & conformité • Application des standards de sécurité du groupe (RBAC, data-masking). • Contribution aux audits internes et aux revues de conformité réglementaire.
Freelance

Mission freelance
Responsible AI Lead

ESENCA
Publiée le
Agent IA
Data quality
Large Language Model (LLM)

1 an
Lille, Hauts-de-France
Informations générales Département : Digital, Data & IA Localisation : Siège / Lille (présence obligatoire sur site) Supérieur hiérarchique : Head of IA Position dans l’organisation Le/la Responsible AI Lead pilote la gouvernance de l’intelligence artificielle et garantit la conformité, la sécurité, l’éthique et la maîtrise des risques des systèmes IA. Encadrement Management d’une équipe spécialisée pouvant inclure : Analyste Responsible AI & Traçabilité Responsable Contrôles & Tests IA (QA IA) AI Policy Manager Interactions internes Équipes Data (Data Hub, gouvernance, référentiels) Équipes IT / DSI Directions métiers Fonctions conformité (DPO, RSSI, juridique) Équipes Digital / Data / IA Interactions externes Partenaires technologiques et plateformes cloud Éditeurs de solutions IA (LLM, agents, etc.) Cabinets spécialisés (audit, conformité, IA) Mission Le/la Responsible AI Lead est garant(e) de la gouvernance globale des systèmes d’intelligence artificielle. Il/elle s’assure que les cas d’usage respectent les exigences réglementaires et internes (notamment en matière de conformité, d’éthique, de sécurité et de gestion des risques), tout au long de leur cycle de vie, du cadrage au run. Responsabilités principales 1. Gouvernance et conformité IA Définir et déployer la politique d’usage de l’IA Structurer le cadre de gouvernance (standards, processus, rôles) Classifier les cas d’usage selon leur niveau de risque Définir les exigences de documentation, traçabilité et versioning 2. Gestion des risques IA Conduire les analyses de risques par cas d’usage Classifier les systèmes selon leur criticité (faible, limité, élevé) Définir les contrôles adaptés (tests, supervision, documentation) Coordonner les validations avec les fonctions conformité (juridique, DPO, sécurité) 3. Contrôles et tests IA Définir les stratégies de tests non fonctionnels : robustesse biais sécurité hallucinations dérive des modèles Fixer les critères de validation (go / no-go) Superviser les campagnes de tests IA 4. Documentation et audit Piloter la documentation réglementaire des systèmes IA Maintenir un registre des cas d’usage IA Organiser les audits internes et externes Suivre les plans de remédiation 5. Supervision en production Définir les exigences de monitoring (logs, incidents, dérives) Suivre la performance et la fiabilité des systèmes IA Mettre en place des revues périodiques Piloter la gestion des incidents IA 6. Pilotage des coûts (FinOps IA) Définir les règles de consommation (quotas, garde-fous) Suivre les coûts et l’efficience des solutions IA Recommander des optimisations 7. Diffusion des bonnes pratiques Déployer la charte éthique IA Sensibiliser et former les équipes aux enjeux de l’IA responsable Accompagner les équipes projets dans l’application des standards Promouvoir une culture de l’IA responsable à l’échelle de l’organisation
Freelance
CDI

Offre d'emploi
Data Engineer

VISIAN
Publiée le
Apache Hive
Apache Spark
Hadoop

1 an
45k-58k €
400-550 €
Paris, France
Le datalake est utilisé comme une data plateforme pour les équipes IT et métiers. L'objectif de la mission est d'assurer le rôle de Data Engineer de ce datalake : Gestion de la production Gestion de la dette technique Revoir l'architecture actuelle et proposer des évolutions Développements liés aux projets Description : Mettre en place la collecte et la mise à disposition des données au sein de l’entreprise Industrialiser et mettre en production des traitements sur les données (par exemple : mise à disposition de tableaux de bords, intégration de modèles statistiques) en lien avec les équipes métiers et les équipes qui les analysent Activités et tâches : Acheminement de la donnée Mise à disposition de la donnée aux équipes utilisatrices Mise en production de modèles statistiques Suivi de projet de développement Développement job spark Traitement et ingestion de plusieurs formats des données Développement des scripts Développement et Implémentation des collectes de données, des jobs de traitement et Mapping de données Développement des moyens de restitution via génération de fichier et ou API & Dashboarding Collecter toutes les données et les fournir aux clients en tant qu'API ou fichiers Développer de pipelines d'ingestion à partir de différentes sources (streaming et batch) ainsi que des spark jobs le prétraitement des données et calcul des indicateurs de performance (KPI) Développer des API génériques d’ingestion et de traitement de données dans un environnement HDP Participer à la conception, mise en place et administration de solutions Big Data Participation à l’installation, administration et configuration des Hadoop clusters. Mise en place en Spring Boot des services d'extraction de data du système legacy (tera data), la data sera par la suite envoyée au data lake via des topics Kafka Normalisation et agrégation des données afin de produire les rapports sous forme de Business View
Freelance
CDI

Offre d'emploi
DATA ENGINEER / TECH LEAD

R&S TELECOM
Publiée le
Microsoft Access

12 mois
40k-48k €
400-480 €
Toulouse, Occitanie
Titre : Ingénieur Data Senior - Domaine Cargo DWH Contexte Renforcement de l'équipe Data Warehouse Cargo . Mission LCM (maintenance) + évolutions/projets nouveaux. Chargé de données ticketing/réservations, finances et opérationnel pour le domaine Cargo. Interface directe avec business, architecture, OPS. Stack Technique Actuel (répartition quotidienne) : ETL : PowerCenter (20%) SQL/Scripting : Teradata + BTEQ/Shell (50%) OS : Linux (10%) Reporting : SAP BI4 + PowerBI (20%) Prochaines évolutions : ETL : IDMC (20%) SQL/Scripting : BigQuery + Dataproc/Terraform (60%) Reporting : SAP BI4 + PowerBI (20%) Compétences soft clés : Communication, autonomie, adaptation, analyse complexe, coordination stakeholders.
Freelance

Mission freelance
SAP FS-PM consultant

Hanson Regan Limited
Publiée le
SAP

9 mois
750-900 €
Paris, France
Hanson Regan are looking for a strong techno-functional profile within Fioneer / SAP FS-PM (Financial Services - Policy Management) who can bridge business design and system implementation. The role requires both conceptual design capability and hands-on configuration experience, with the ability to support technical development if required. Le consultant agira en tant que responsable de la conception, possédant une expertise SAP FS-PM. Il sera chargé de traduire les besoins métiers en spécifications fonctionnelles et de configurer la solution au sein de SAP FS-PM. Ce rôle exige une collaboration étroite avec les parties prenantes métiers, les architectes et les développeurs, afin de garantir que la solution conçue soit alignée sur les besoins métiers et l'architecture technique. Principales responsabilités : Animer des ateliers de conception de solutions avec les parties prenantes métiers ; traduire les besoins métiers en spécifications fonctionnelles et techniques ; effectuer la configuration pratique dans SAP FS-PM. Support and guide developers with: Enhancements, Custom developments Interfaces Data migration If required, perform light development (e.g., ABAP/debugging, enhancements, rules configuration) Ensure end-to-end alignment across: Product configuration Policy lifecycle processes Integration with surrounding SAP modules / external systems Must Have: Strong experience in SAP FS-PM (Financial Services - Policy Management) Proven experience in solution design and functional architecture Hands-on configuration experience in FS-PM Understanding of insurance processes (Life / P&C depending on scope) Ability to translate business needs into structured system design Preferred: ABAP knowledge (debugging, enhancements, BADIs, user exits) Experience with integrations (IDocs, APIs, middleware) Experience with SAP Fioneer solutions landscape Experience in transformation programs The profile can only speak English (the project is not French) Full remote but only in France please contact me if this is of interest
CDI

Offre d'emploi
IT Support Engineer - Europe - Linux SQL H/F

ADSearch
Publiée le

50k-60k €
Valbonne, Provence-Alpes-Côte d'Azur
CDI – IT Support Engineer Specialist Europe - Linux SQL H/F – Création de poste – 50/60K€ – Sophia Antipolis – 2 jours de télétravail Je recrute pour une Fintech internationale en forte croissance un IT Support Engineer Specialist Europe - Linux SQL H/F , basé à Sophia Antipolis. Vous êtes à l’aise avec les requêtes SQL complexes et les commandes Linux de base ? Vous aimez travailler avec des clients exigeants ? Vous appréciez évoluer dans un environnement international ? On vous décrit souvent comme quelqu’un de brillant ? Ce poste est probablement fait pour vous. VOTRE POSTE Vous rejoignez une équipe composée de 3 développeurs back-end, 1 Technical Business Analyst et votre binôme Support Engineer basé à Valbonne. Vous collaborez également avec une équipe plus large située à Hong Kong. Avec votre binôme, vous accompagnez des clients répartis dans toute l’Europe (banques, sociétés de trading, fonds d’investissement, etc.). Vos missions : - Support technique de niveau 1 / niveau 2 auprès des utilisateurs (banquiers, traders, etc.) - Résolution d’incidents techniques via des requêtes SQL et du scripting - Installation et configuration d’équipements informatiques - Participation à l’amélioration continue des processus de support - Suivi des incidents et des demandes jusqu’à leur résolution complète Environnement technique : Linux, Windows,
Freelance
CDI

Offre d'emploi
Consultant fonctionnel SAP SD sur Massy

EterniTech
Publiée le
SAP

3 mois
Massy, Île-de-France
Je recherche pour un de mes client Contexte: Dans le cadre de la récente acquisition d’une société, notre client souhaite intégrer les processus et les données de la société rachetée dans son environnement SAP. La mission consiste à recueillir, analyser et structurer les informations métiers et systèmes de la société acquise afin de préparer leur intégration dans le système SAP existant. Le consultant interviendra en interaction avec : les équipes métiers de la société rachetée les équipes IT locales les équipes SAP internes Une expérience dans des contextes d’intégration post-acquisition (carve-in / carve-out) constitue un atout important. Missions principales : Analyse des processus Analyser les processus Order to Cash existants au sein de la société acquise Identifier les écarts entre les processus actuels et le modèle cible SAP Participer et animer des ateliers avec les équipes métiers et IT Collecte et structuration des informations Recueillir les informations liées notamment à : gestion des clients pricing et conditions tarifaires gestion des commandes livraison et facturation flux logistiques associés Documenter les processus existants et les spécificités locales Contribution à l’intégration SAP Proposer des solutions fonctionnelles adaptées dans SAP SD Participer à la définition de la cible fonctionnelle Rédiger les spécifications fonctionnelles Accompagner les phases de paramétrage, tests et validation Coordination et communication Assurer les échanges avec les équipes de la société rachetée Collaborer avec les autres domaines SAP (MM, FI, logistique, etc.) Contribuer à la préparation de l’intégration des données et des processus Compétences requises Expertise SAP Expertise SAP SD (Sales & Distribution) Très bonne maîtrise des processus Order to Cash Connaissance des intégrations avec : MM FI modules logistiques Expérience projet Expérience sur des projets d’intégration ou de transformation SAP Connaissance des contextes post-acquisition, carve-in / carve-out ou M&A IT appréciée Expérience en analyse d’écarts (gap analysis) Nationalité FR/EU Obligatoire (environnement industriel / exigences sécurité) Compétences fonctionnelles : Animation d’ateliers métiers Rédaction de spécifications fonctionnelles Bonne compréhension des processus métiers
Freelance

Mission freelance
Data Engineer (H/F)

Trust IT
Publiée le
Bash
Cloudera
DevOps

1 an
450-510 €
Charenton-le-Pont, Île-de-France
Rejoignez TRUST’IT 🚀 Créée en 2016, TRUST’IT compte aujourd’hui plus de 100 collaborateurs et un chiffre d’affaires de plus de 10 M€. Spécialistes de l’infrastructure, de la production et des métiers fonctionnels (Business Analyst, PO, Scrum Master…), nous proposons principalement des missions longues (2 à 3 ans). Notre force : une culture d’entreprise familiale , un turnover quasi nul et un mot d’ordre clair – la confiance . Chez TRUST’IT, nous plaçons l’épanouissement de nos collaborateurs au cœur de notre réussite. Nos avantages ✅ 25 CP + 10 RTT ✅ Mutuelle/prévoyance 100 % gratuite pour vous et votre famille ✅ Navigo intégralement remboursé + panier repas ✅ Prime d’intéressement & de cooptation (1 500 €) ✅ Chèques cadeaux, vacances, culture, rentrée scolaire ✅ Accès gratuit à + de 3 000 infrastructures sport & bien-être TRUST’IT, ce n’est pas une ESN comme les autres… c’est une famille ! Nous recherchons pour notre client, un Data Engineer (H/F) Contexte : Des tâches quotidiennes liées au maintien de la production en condition opérationnelle. Vos interlocuteurs privilégiés seront les équipes de production applicative, les équipes infrastructures, les plateformes internationales, mais également les équipes métiers pour lesquelles vous apporterez votre support et votre expertise technique. Missions : Conception et mise en œuvre de l'ingestion et du stockage de données : Identifier et formaliser les besoins des métiers en matière de collecte et de stockage de données. Développer des solutions d'acquisition de données via API. Concevoir et implémenter des architectures de stockage de données robustes (Ex: Ozone, Hadoop, Druid, Clickhouse…). Valider la qualité des développements par des tests unitaires et d'intégration. Automatiser les traitements de données via la mise en place et la maintenance de batch. Valorisation et sécurisation des données : Industrialiser les processus de nettoyage et de transformation des données. Gérer et documenter des bases de données hétérogènes, en intégrant diverses sources de données. Veiller à la conformité RGPD dans la gestion du cycle de vie des données. Superviser l'exploitation et assurer la maintenance corrective et évolutive des systèmes de données. Intégration et suivi des modèles prédictifs : Industrialiser le déploiement de modèles statistiques et de machine learning. Mettre en place des dispositifs de validation et de monitoring des modèles. Assurer le suivi opérationnel et la maintenance des modèles intégrés aux applications. Contribution au pilotage projet : Définir les spécifications techniques précises en appui de l'analyse des besoins. Environnement technique : Les composants basés sur le logiciel de l’éditeur Cloudera CDP 7.1 :Hbase, Hive, Kafka, Solr, Knox, Spark,Ranger, Zookeeper, Kerberos LDAP... •Être force de proposition sur les évolutions techniques du périmètre Data avec la nouvelle offre containérisée : Cloudera Data Services (Infra Openshift K8s) •Contribuer à l'élaboration et à l'exécution des stratégies de migration des clusters Hadoop Cloudera. •Aisance avec l’écosystème Apache (Outils OpenSource),Build (Java, Maven, Gradle...), Automatisation avec Ansible •Connaissance Trino/Starburst, AirFlow, Flink •Participer à la résolution de problèmes complexes sur les plateformes Data (Capacité d’analysedes incidents applicatif de type Hive, Yarn, Spark...) •Apporter un support quotidien aux équipes applicatives et métiers dans leurs études de cas d’usage, leurs problématiques de développement ou de montée en charge. •Le poste est soumis à astreintes et interventions hors périodes ouvrées par rotation .Couverture horaire de l’équipe : 8h/19h
786 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous