L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 833 résultats.
Offre d'emploi
Data Engineer Kubernetes
KLETA
Publiée le
Helm
Kubernetes
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Data Engineer Kubernetes pour concevoir, optimiser et industrialiser des plateformes de traitement de données déployées sur des environnements conteneurisés. Vous analyserez des architectures existantes, proposerez des trajectoires d’évolution (modernisation des pipelines, containerisation des traitements, optimisation de l’orchestration et de la scalabilité) et guiderez leur mise en œuvre avec Kubernetes et les outils associés (Helm, ArgoCD, Operators, Kubernetes Jobs). Vous serez responsable de la conception et de la fiabilisation des pipelines data exécutés sur Kubernetes, de l’amélioration des performances et de l’intégration de mécanismes de résilience, d’observabilité et de gestion des ressources. Vous travaillerez main dans la main avec les équipes Cloud et DevOps pour intégrer les traitements dans des pipelines CI/CD robustes et adaptés aux contraintes d’exploitation. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes client sur les meilleures pratiques de data engineering en environnement Kubernetes. Votre mission combinera expertise technique, rigueur méthodologique et capacité à structurer des solutions scalables et pérennes.
Mission freelance
Product Owner - Transaction Regulatory Reporting
NEXORIS
Publiée le
Data quality
1 an
560-650 €
Île-de-France, France
Notre client, Banque de Finance et d'Investissement, recherche un Product Owner Transformation Reporting Réglementaire – Capital Markets (H/F) dans le cadre d'une longue mission. Dans le cadre d’un programme pluriannuel de transformation et de sécurisation des reportings réglementaires transactionnels au sein des activités de marchés, la mission consiste à piloter la backlog et garantir la conformité réglementaire (MIFID II, EMIR, SFTR…) dans un environnement international. Rôles stratégiques : - Traduction des exigences réglementaires (MIFID II, EMIR, SFTR…) en user stories et critères d’acceptation métier - Priorisation des livrables selon les échéances réglementaires, l’impact business et les risques - Coordination des parties prenantes : IT, Compliance, Front Office, Middle & Back Office Rôles opérationnels : - Gestion et priorisation de la backlog, animation des cérémonies agiles - Définition et validation des solutions fonctionnelles de reporting - Contrôle du respect des formats techniques (ISO 20022, FpML) et des délais de transmission réglementaire - Encadrement des Feature Owners et des équipes en charge des expressions de besoins et des recettes - Pilotage des dépendances entre systèmes Front Office, post-trade et outils de reporting Rôles de pilotage : - Définition et suivi des KPIs (taux de rejet, complétude des données, délais de soumission) - Reporting aux instances de gouvernance (avancement, risques, alertes) - Accompagnement au changement et support aux équipes de production Livrables - Backlog priorisée et roadmap de transformation - User stories et critères d’acceptation formalisés - KPIs de pilotage et tableaux de bord - Documentation fonctionnelle et supports d’accompagnement au changement
Mission freelance
Devops (Niort)
STHREE SAS pour COMPUTER FUTURES
Publiée le
Java
Microsoft SQL Server
8 mois
Niort, Nouvelle-Aquitaine
Participer à l’élaboration du dossier d’architecture avec les architectes et analyser les impacts sur le SI, accompagner les équipes projets sur les déploiements et faire des feedback *Planifier les changements majeurs et transverses et mettre en place un suivi des changements *Industrialiser les traitements en lien avec les équipes études *Administrer les serveurs applicatifs et mettre à jour les normes et les environnements *Faire évoluer les environnements , les outils et les composants applicatifs *Contribuer au traitement et à la bonne résolution des problèmes en lien avec l’équipe d’exploitation * Communiquer et partager les principes d’architecture, les standards SI et l’innovation avec les communautés d’experts SI
Offre d'emploi
Tech Lead Data Engineer H/F
JEMS
Publiée le
50k-75k €
Levallois-Perret, Île-de-France
Nous recherchons un(e) Tech Lead Data Engineer capable de trouver des solutions innovantes et robustes à l'ensemble des problématiques Data. Vous aurez la charge de : • Assurer la mise en œuvre de l'accès, du référencement et de la qualité de la donnée • Assurer l'industrialisation, la supervision et l'intégration des solutions • Rédiger les normes de développement • Participer à la rédaction du manuel d'exploitation En tant que Tech Lead, vous savez : • Vous présenter et promouvoir des architectures data face au client • Identifier et comprendre les besoins métiers • Former, encadrer et faire évoluer les consultants juniors • Participer à la réponse aux appels d'offres (avant-vente) Référence de l'offre : i5nesk9tv3
Mission freelance
Data Engineer (Bordeaux) H/F
LeHibou
Publiée le
Azure Synapse
6 mois
400-450 €
Bordeaux, Nouvelle-Aquitaine
Notre client dans le secteur Immobilier recherche un/une Data Engineer H/F Description de la mission: Offre de mission – Data Engineer Contexte et objectif de la mission Notre client est composé de plusieurs filiales et structures de services partagés (IT, RH, juridique, finance, marketing). Le groupe est engagé dans une transformation digitale avec des enjeux autour de la gouvernance de la donnée, de l'harmonisation des systèmes d'information entre filiales et de la structuration d'une plateforme data moderne. La DSI pilote un programme de refonte de l'infrastructure data et souhaite renforcer son équipe avec un Data Engineer expérimenté capable de construire et maintenir des pipelines robustes, de structurer les flux de données entre les différentes entités du groupe et d'alimenter les outils de restitution. Missions principales Le/la consultant(e) interviendra au sein de l'équipe Data pour : • Concevoir, développer et maintenir des pipelines de données (ingestion, transformation, chargement) • Administrer et exploiter Azure Synapse Analytics comme socle de la plateforme data • Modéliser les données (modélisation dimensionnelle, data warehouse, data lakehouse) • Écrire et optimiser des requêtes SQL complexes sur les bases du groupe • Développer des scripts et orchestrateurs en Python pour l'automatisation des flux • Connecter les sources de données à Power BI et garantir la qualité des données exposées aux analystes • Contribuer à l'harmonisation des données entre les filiales du groupe • Participer à la gouvernance de la donnée (documentation, qualité, traçabilité) Stack technique Compétences obligatoires : • Azure Synapse Analytics : maîtrise obligatoire • SQL : maîtrise obligatoire (requêtes complexes, optimisation) • Python : maîtrise obligatoire (ETL, orchestration, scripting) • Power BI : bonne connaissance (alimentation des modèles) Environnement complémentaire apprécié • Azure Data Factory / Azure Data Lake • Spark / PySpark • Outils de versionning (Git) • Notions de modélisation dimensionnelle Profil recherché Compétences techniques : • Expérience confirmée sur la conception et le maintien de pipelines de données en environnement cloud Azure • Solide maîtrise de SQL et des environnements analytiques (Synapse, DWH) • Bonne maîtrise de Python dans un contexte data engineering (ETL, automatisation) • Capacité à exposer des données propres et fiables vers des outils de BI • Connaissance des bonnes pratiques de qualité et gouvernance de la donnée Compétences comportementales : • Autonomie et rigueur dans les développements • Adaptabilité dans un environnement multi-filiales en transformation • Sens du détail et souci de la qualité de la donnée • Bonnes capacités relationnelles pour collaborer avec les équipes métiers et IT • Dynamisme et réactivité face aux priorités Atout majeur • Certification Microsoft Azure (DP-203 Data Engineer ou équivalent) appréciée
Offre d'emploi
Expert Flux Data / Apache NiFi (Expérimenté)
Clostera
Publiée le
Apache NiFi
DevOps
SQL
1 an
Essonne, France
Qui sommes-nous ? Clostera est une société de conseil & intégration de solutions IT à taille humaine et localisée à Paris, résolument tournée vers l'humain et l’innovation : l’innovation génératrice de valeur ! CLOSTERA place le bien-être de ses CONSULTANTS au cœur de la stratégie de réussite des projets IT sur lesquels nous intervenons au travers d’une approche « employee centric » individualisée. Nos domaines d’expertise : Cloud et Infrastructures Systèmes, Réseaux & Cybersécurité ; Service Management & ITSM ; Project management ; Data & IA ; Services Applicatifs métiers & Digitaux. Rejoignez-nous ! Vous intégrez une équipe en charge des flux data critiques , avec un périmètre conséquent d’une centaine d’ instances Apache NiFi en production . Ce que vous ferez : Votre rôle est central dans la fiabilité et la continuité des échanges de données au sein du SI. Vous intervenez sur : la conception de flux leur exploitation en production leur industrialisation dans des environnements cloud (GCP / Azure) Contexte exigeant avec enjeux forts de disponibilité (astreintes possibles) . Vos missions principales : Concevoir et maintenir des flux complexes sous Apache NiFi Administrer et sécuriser les plateformes NiFi (multi-instances) Automatiser les déploiements (IaaS / CaaS) Développer des scripts d’automatisation (Groovy / Java) Superviser la performance et la disponibilité des flux Gérer les incidents et assurer le run Manipuler et transformer les données (SQL, formats variés) Documenter et standardiser les flux Garantir qualité, sécurité et traçabilité des données
Mission freelance
Data Scientist / AI Engineer
ESENCA
Publiée le
CI/CD
Docker
Google Cloud Platform (GCP)
1 an
Lille, Hauts-de-France
Contexte de la mission Dans le cadre du développement de solutions innovantes autour de l’intelligence artificielle, nous recherchons un Data Scientist / AI Engineer capable de concevoir, industrialiser et mettre en production des solutions IA performantes. Le rôle consiste également à instaurer des standards solides d’ingénierie logicielle afin de garantir la qualité, la fiabilité et la scalabilité des solutions développées. Vos missions Concevoir et développer des fonctionnalités basées sur l’intelligence artificielle. Construire et maintenir des pipelines de traitement de données. Industrialiser et monitorer les applications et services IA (latence, coûts, taux de réponse, satisfaction utilisateur). Mettre en place des pratiques MLOps / LLMOps : suivi d’expériences, déploiement, monitoring et observabilité des modèles. Garantir la qualité des données, la sécurité et la conformité réglementaire (notamment GDPR). Structurer les projets IA selon des standards d’ingénierie logicielle robustes (tests, CI/CD, documentation, bonnes pratiques). Participer aux revues d’architecture et diffuser les bonnes pratiques techniques au sein des équipes. Compétences techniques requises Machine Learning / Deep Learning (niveau expert). IA générative : LLM, RAG, prompt engineering, agents et orchestration. Analyse de données avancée. Traitement de données non structurées (PDF, images). Langages : Python avancé, SQL. Conception et intégration d’ APIs . Data pipelines : orchestration, streaming, feature stores. MLOps / LLMOps : CI/CD, Docker, Kubernetes, suivi des modèles, monitoring et observabilité. Bonnes pratiques de développement : structuration des projets, stratégie de tests, documentation technique. Environnement technique Python, SQL GCP Docker, Kubernetes CI/CD, MLOps / LLMOps
Offre d'emploi
Data Analyst
Atlanse
Publiée le
Dremio
ETL (Extract-transform-load)
SQL
3 ans
45k-55k €
400-500 €
Issy-les-Moulineaux, Île-de-France
Dans le cadre d’un projet de simplification et d’optimisation des données, vous intervenez sur l’analyse et l’amélioration des flux de données transactionnelles et géographiques. Vous analysez l’usage des données, identifiez les incohérences et contribuez à la mise en place d’un cadre de gouvernance des données. Votre rôle Analyse des flux et structures de données Analyser la structure des flux de données transactionnelles, les données échangées et leurs usages Identifier les incohérences, redondances ou données inutilisées Proposer des simplifications et optimisations des flux de données Amélioration de la qualité et optimisation des données Réaliser des analyses détaillées de jeux de données pour détecter anomalies, incohérences et problèmes structurels Mettre en place des indicateurs et contrôles de qualité des données pour suivre et piloter les améliorations Contribuer aux actions de nettoyage et de fiabilisation des modèles et structures de données Documentation et structuration des référentiels de données Documenter les flux transactionnels : modèles de données, règles métier, cas d’usage et guidelines Mettre à jour et clarifier le Data Catalog, les modèles de données et les spécifications de flux Définir et formaliser les règles d’utilisation et d’alimentation des données Gouvernance et collaboration Partager les résultats d’analyse avec les parties prenantes Accompagner les équipes dans la définition de plans d’action pour corriger les anomalies détectées Contribuer à la mise en place du cadre de gouvernance des données : rôles, responsabilités, règles de gestion et suivi de la qualité des données Participer aux routines de gouvernance et à l’analyse des impacts IT liés aux évolutions des données
Mission freelance
Data Engineer / Architecte Data (GCP)
ESENCA
Publiée le
Architecture
Big Data
BigQuery
1 an
Lille, Hauts-de-France
Contexte Dans le cadre d’un projet à forte composante data, la mission consiste à développer et mettre en œuvre une architecture applicative avec un enjeu majeur de fiabilisation des modèles de calcul . Vous interviendrez au sein d’une équipe existante pour consolider, améliorer et industrialiser les solutions déjà en place , tout en contribuant à la montée en compétence collective. Missions Concevoir et faire évoluer l’ architecture applicative et data Développer et industrialiser les traitements et jobs data Réaliser les tests d’intégration et garantir la qualité des livrables Fiabiliser les modèles de calcul et les résultats produits Valider et assurer la robustesse des interfaces entre systèmes Rédiger et maintenir la documentation d’architecture Garantir la cohérence du système d’information : assurer la bonne communication entre les applications respecter les standards et l’architecture globale Participer à l’amélioration continue des solutions existantes Partager les connaissances et accompagner les équipes Livrables attendus Dossier d’architecture (documentation, validation de l’existant) Développements et création de jobs data Validation des interfaces et flux Documentation technique à jour Environnement technique Google Cloud Platform : Compute, BigQuery, Big Data Python GitHub Terraform Kafka Dataflow (souhaité) Soft skills Esprit analytique et rigoureux Sens du service et orientation client Capacité d’adaptation à des environnements évolutifs Esprit d’équipe et partage de connaissances Autonomie et proactivité Langues Français : professionnel (impératif) Anglais : lu et écrit (secondaire)
Mission freelance
Business Developer Digital indépendant (H/F) Niort
Link Consulting
Publiée le
Commerce
12 mois
300-800 €
Niort, Nouvelle-Aquitaine
Vous êtes Business Developer et : * Vous trouvez que votre variable est toujours trop bas par rapport à vos résultats ? * Vous avez l’impression de subir des objectifs plutôt que de les choisir ? * Vous passez plus de temps en réunions qu’en rendez-vous clients ? * Vous êtes freiné par une hiérarchie et une stratégie déconnectées du terrain ? Si ces questions vous parlent, le modèle indépendant est peut-être votre alternative. Vous souhaitez plus d’autonomie, de sens et de rémunération ? Rejoignez un modèle indépendant et de franchise dans un secteur en forte croissance : le placement de consultants IT freelances. Vos missions > Développement commercial * Identifier et prospecter de nouveaux clients (ETI, Grands Comptes). * Qualifier leurs besoins IT. * Structurer et suivre votre pipe commercial en autonomie. > Qualification et placement de consultants * Sourcer des consultants IT freelances grâce aux outils mis à disposition. * Qualifier leur expertise, leurs attentes et leur disponibilité. * Présenter les profils aux clients, organiser les entretiens et ajuster les propositions. * Suivre les consultants tout au long de leurs missions pour sécuriser la relation. > Pilotage et fidélisation * Entretenir une relation durable avec vos clients et freelances. * Anticiper les renouvellements et identifier de nouvelles opportunités. * Assurer la qualité des prestations et le bon déroulement des projets. Ce que Link Consulting offre * Une rémunération non plafonnée, basée sur la marge brute. * Un parcours d’incubation structuré pour lancer votre activité. * Une formation dédiée aux commerciaux B2B, même sans expérience IT. * Des outils performants : CRM, sourcing, CVthèques, automatisation, IA. * Un support juridique, administratif et financier. * Une communauté active d’ingénieur.e.s d’affaires indépendant.e.s. * La possibilité de développer sa propre équipe.
Mission freelance
Data Configurateur
Codezys
Publiée le
12 mois
320-350 €
Lille, Hauts-de-France
Objectif principal : Garantir la structuration, la fiabilité et la performance des données produits dans le configurateur afin d’offrir une expérience digitale cohérente, performante et adaptée aux marchés, clients et collaborateurs en magasins. 1. Structuration et gouvernance des données produits Collecter, analyser, structurer et actualiser les données en lien avec fournisseurs et marchés. Assurer la fiabilité, cohérence et conformité des données produits et tarifaires (prix, options, évolutions). Maintenir la qualité et la pérennité des référentiels data. Définir les règles de compatibilité entre produits. Modéliser et unifier les données multi-fournisseurs pour leur intégration. Identifier les attributs produits pour l’animation des parcours digitaux et assurer leur complétude. Documenter les règles métier et référentiels pour une bonne transmission. 2. Pilotage du peuplement et performance produit Assurer le peuplement des produits dans le configurateur. Suivre et analyser les KPI liés aux produits et parcours. Identifier des axes d’optimisation par des analyses de performance. Proposer des plans d’action en lien avec les marchés. Contribuer à l’amélioration continue de l’offre et de l’expérience utilisateur. 3. Référent fonctionnel et animation de l'écosystème Être le référent fonctionnel de la data des configurateurs. Accompagner et sensibiliser le réseau aux évolutions. Communiquer sur les mises à jour, nouvelles fonctionnalités et impacts opérationnels. Structurer et animer les canaux d’échange pour remonter les retours terrain. Qualifier, prioriser et intervenir sur les anomalies. Intégrer les retours pour améliorer parcours et règles métier. Gérer les interdépendances avec marchés, fournisseurs, développeurs. Fournir une expertise stratégique sur les sujets transverses. 4. Contribution à l’organisation produit Participer au fonctionnement en mode produit. Contribuer aux phases de recette et validation des évolutions. Assurer le pilotage en l’absence du Product Owner. Suggérer des évolutions fonctionnelles et des optimisations. 5. Cadrage et activation de parcours digitaux Participer à la conception et au cadrage des parcours digitaux. Accompagner la digitalisation des parcours pour les marchés. Challenger les prérequis fonctionnels et data nécessaires. Paramétrer les outils de configuration des parcours clients et collaborateurs. Suivre la performance des parcours et proposer des ajustements.
Offre d'emploi
Intégrateur Production Data (Talend/PL-SQL)
TechOps SAS
Publiée le
SQL
Talend
50k-60k €
75003, Paris, Île-de-France
Responsabilités principales : Intégration & interopérabilité Concevoir, développer et maintenir les flux d’intégration entre les différents systèmes (ERP, CRM, e-commerce, logistique…) Assurer la cohérence et la fluidité des échanges de données entre les applications Participer à l’architecture des solutions d’intégration Développement & maintenance Développer et faire évoluer les traitements d’intégration via Talend Écrire, optimiser et maintenir des requêtes complexes en PL-SQL Garantir la qualité, la performance et la robustesse des flux Qualité & gouvernance de la donnée Assurer la fiabilité, l’intégrité et la traçabilité des données Mettre en place des contrôles et outils de monitoring Diagnostiquer et corriger les anomalies Collaboration transverse Travailler en étroite collaboration avec les équipes métiers et IT Participer aux projets de transformation digitale et d’évolution du SI Contribuer aux bonnes pratiques et à l’amélioration continue
Mission freelance
Data Analyst MSBI
Lùkla
Publiée le
ETL (Extract-transform-load)
MSBI
12 mois
400-550 €
Paris, France
L’ingénieur Data intervient sur la conception, la maintenance et l’évolution de l’écosystème décisionnel basé sur les technologies Microsoft SQL Server. Il garantit la qualité, la disponibilité et la performance des flux et des modèles de données utilisés au sein de l’organisation. Ses principales responsabilités sont : ▪ Concevoir, construire et maintenir les pipelines d’alimentation en données (ETL) via SSIS. ▪ Développer et optimiser les modèles analytiques sous SSAS ▪ Assurer la qualité, la fiabilité et l’intégrité des données stockées dans SQL Server. ▪ Produire, maintenir et déployer des rapports sur Power BI Report Server. ▪ Documenter les processus, architectures et flux afin d’assurer leur pérennité. ACTIVITES ET TACHES • Gestion et développement des pipelines de données (ETL – SSIS) ▪ Concevoir, développer et tester les flux d’intégration de données depuis différentes sources internes. ▪ Optimiser les traitements existants (performances, supervision, reprises sur erreur). ▪ Automatiser les processus d’intégration et de transformation. ▪ Mettre en place des contrôles qualité et suivre les indicateurs associés. ▪ Assurer la conformité et la sécurité des données traitées, notamment au regard du RGPD. • Modélisation et gestion des entrepôts / cubes (SQL Server & SSAS) ▪ Concevoir et maintenir les schémas de bases de données relationnelles (DWH, Data Marts). ▪ Développer et optimiser les cubes ou modèles tabulaires SSAS. ▪ Réaliser les optimisations de requêtes, indexation, partitionnement, optimisation SQL. ▪ Garantir la cohérence, la performance et la fiabilité des environnements analytiques. CIBTP FRANCE Ingénieur data n PAGE 2 • Production et maintenance de rapports (Power BI Report Server) ▪ Développer des rapports et visuels répondant aux besoins métiers. ▪ Assurer le cycle de vie des rapports : développement, validation, publication, mise à jour. ▪ Collaborer avec les métiers pour améliorer la lisibilité et l’adoption des reporting. • Support, exploitation et documentation ▪ Diagnostiquer et résoudre les incidents liés aux flux, bases ou modèles. ▪ Assurer un support technique de niveau avancé auprès des utilisateurs internes. ▪ Documenter les architectures, traitements et bonnes pratiques. ▪ Réaliser une veille technique sur le périmètre SQL Server / SSIS / SSAS / Power BI RS.
Mission freelance
QA Lead
Byrongroup
Publiée le
Data quality
ERP
KPI
1 an
400-500 €
Île-de-France, France
🎯 Vos missions : • Recueil et formalisation des besoins de test • Challenger pour anticiper les risques qualité • Pilotage des activités de tests : planifier, coordonner et exécuter les campagnes de tests (UAT, E2E...) • Concevoir et maintenir les référentiels de test (plans de test, cas de test, matrices de couverture) • Prioriser les scénarios • Définir les stratégies de validation de la qualité des données • Identifier et analyser les anomalies de données • Collaborer avec les équipes techniques pour la correction des écarts • Vérifier la fiabilité des échanges de données • Recueil et formalisation des besoins de test • Pilotage de la qualité et reporting
Offre d'emploi
Urbaniste Data (H/F)
█ █ █ █ █ █ █
Publiée le
Apache Kafka
PostgreSQL
54k-58k €
Roubaix, Hauts-de-France
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Offre d'emploi
SENIOR Data engineer MSBI Python Azure (7-8 ans minimum)
Digistrat consulting
Publiée le
Azure Data Factory
Azure DevOps
Microsoft SSIS
3 ans
50k-65k €
500-580 €
Paris, France
🏭 Secteurs stratégiques : Asset management 🗓 Démarrage : ASAP PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 💡 Contexte /Objectifs : Dans le cadre d'un projet au sein d'un client grand compte, nous sommes à la recherche d'un Data engineer avec une expertise sur la suite MSBI. Le profil recherché, Bac + 4/5 idéalement issu d’une école d’ingénieur, aura une expérience au minimum de 7/8 ans. Passionné par le développement, il aura la capacité de travailler en équipe et saura apporter une vraie valeur ajoutée par ses compétences techniques et humaines
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
2833 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois