L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 660 résultats.
Offre d'emploi
Chef de Projet IT – Data & MDM (H/F) - Marseille
VISIAN
Publiée le
Master Data Management (MDM)
3 ans
40k-45k €
400-450 €
Marseille, Provence-Alpes-Côte d'Azur
Contexte Vous intervenez au sein d’un programme international dédié à la gestion des données de référence (Master Data Management), dans un environnement IT complexe et structurant pour les activités métiers. Le projet s’inscrit dans une démarche d’amélioration de la qualité des données, notamment via l’intégration de sources externes certifiées, dans un contexte de conformité réglementaire forte. L’environnement est international, avec des équipes distribuées et une communication majoritairement en anglais. La méthodologie projet est principalement en cycle en V, avec des adaptations agiles. Missions Piloter un projet IT de bout en bout (cadrage → déploiement → clôture) Coordonner une équipe projet internationale de grande envergure (>50 contributeurs) Assurer l’alignement entre les équipes métiers, techniques et les parties prenantes Suivre le planning, le budget, les risques, les dépendances et les indicateurs projet Garantir la qualité des livrables et le respect des engagements (coût / délai / qualité) Piloter les activités de migration de données et assurer leur intégrité et traçabilité Superviser les aspects techniques liés à l’infrastructure (environnements hybrides) Produire les livrables projet (reporting, comités, documentation, plans d’action) Gérer les risques, incidents et plans de mitigation avec escalade adaptée Assurer la communication projet dans un contexte international (anglais courant) Conduire le changement et organiser le transfert de connaissances vers les équipes Garantir la conformité aux standards IT, sécurité et gouvernance des données Environnement technique Data Management / Master Data Management (MDM) Data Migration & Data Quality Architectures hybrides (Cloud / On-Premise) Outils de gestion de projet (type Jira, MS Project, etc.) Environnements internationaux multi-systèmes
Offre d'emploi
Développeur Fullstack Java/ Angular ou React F/H
cty
Publiée le
Apache Kafka
Apache Maven
CI/CD
Île-de-France, France
À propos de l’entreprise CTY est un cabinet de conseil fondé en 2015, dans le but de répondre à une problématique collaborative entre le besoin client et les attentes de nos consultants. Nous accompagnons nos clients (BFI, Assets Managers, Brokers, Editeurs de logiciels...) dans leurs projets IT les plus stratégiques via notre expertise : - Technique #DEVOPS #BigData #Hadoop #AngularJS #NoSQL # #Java - Gestion de projet #Agile #Scrum #Craftsmanship #Kanban #PMI #Lean Management - Métier #Pricers #TradingElectronique #TempsRéel #Risques #Réglementaires Mission: Concevoir, développer et maintenir des applications fullstack en s'appuyant sur une architecture microservices avec Java (Spring) Participer aux discussions techniques et contribuer aux choix architecturaux des projets Collaborer étroitement avec les équipes DevOps afin d’assurer une intégration fluide des systèmes Rester en veille sur les évolutions technologiques et s’impliquer activement dans l’amélioration continue des processus de développement Modéliser, concevoir et implémenter des bases de données robustes Effectuer les tests unitaires, d’intégration et de performance pour garantir la qualité des livrables Rédiger une documentation technique complète à destination des parties prenantes internes et externes Assurer la maintenance corrective et évolutive des applications existantes Environnement Technique : Langage : Java (Spring, Hibernate... ) et Angular, React Testing : Cypress, Tests unitaires et d’intégration Base de données : PostgreSQL, Oracle, SQL server Infra & Outils : AWS, GitLab, Jenkins, Sonar, Terraform, Suite Atlassian (Jira), Python (scripting), Kafka,
Mission freelance
Analyste Sales Posting & Intégration SAP / OMS - H/F - 75 + remote
Mindquest
Publiée le
Salesforce Commerce Cloud
6 mois
Paris, France
Mon client est à la recherche d'un consultant dans le cadre d'un projet de transition qui vise à sécuriser, harmoniser et standardiser l’ensemble des flux POS pour anticiper l’arrivée de SAP S/4HANA. L’objectif : passer d’un écosystème d’intégration complexe et hétérogène à un Core Model unifié, permettant une amélioration significative de la qualité, fraîcheur et fiabilité des données. Au sein de la Digital Factory, vous rejoignez l’équipe Payment & Finance pour piloter le projet stratégique. Vous prendrez en charge la structuration, modélisation et gouvernance des flux de ventes et retours digitaux, dans un environnement OMS / iPaaS / SAP ECC - S/4HANA. * Définir et harmoniser les processus OMS ? Middleware ? SAP * Construire et maintenir les mappings fonctionnels et techniques * Superviser la qualité, transformation et orchestration des flux * Maîtriser les API REST/SOAP * Collaboration transverse : Finance, Payment, SAP, Data, Retail * Contribution au core model et déploiement international Démarrage : ASAP Durée : 6 mois renouvelable Localisation : Paris + remote
Offre d'emploi
Data / IA Engineer (H/F)
CITECH
Publiée le
Docker
IA
Kubernetes
60k-70k €
Orléans, Centre-Val de Loire
🚀 CITECH recrute ! 👌 ✨ Vous souhaitez intervenir sur des projets IA & AIOps à fort enjeu , au cœur de la conception de moteurs d’intelligence artificielle et de pipelines de données avancés ? Nous recherchons un(e) Data / IA Engineer (H/F) pour participer à la réalisation des premiers cas d’usage IA (MVP) dans un environnement technique exigeant et innovant. 🙌🔽 Vos principales missions : 🔽🙌 IA & Data Engineering 🔸 Concevoir et développer des bases de connaissances (RAG) en ingérant et structurant des documents internes et issus d’outils tiers. 🔸 Mettre en place des agents IA dynamiques , capables de traiter des documents injectés en temps réel, de manière sécurisée. 🔸 Assurer la segmentation des documents (chunking) , l’ indexation vectorielle et le paramétrage des stratégies de recherche . Modélisation & Optimisation IA 🔸 Configurer et optimiser les modèles via Azure AI Foundry et LiteLLM (prompts, garde-fous, évaluation de la qualité). 🔸 Garantir la performance, la fiabilité et la pertinence des réponses générées. Intégration & Gouvernance 🔸 Participer activement aux processus CI/CD et au respect des normes de gouvernance technique . 🔸 Contribuer à l’industrialisation des solutions IA dans l’écosystème existant. Support & Collaboration 🔸 Fournir un support technique aux équipes projet. 🔸 Alimenter la FAQ technique et participer au partage de connaissances. 🔸 Travailler en collaboration avec les équipes Production et métiers.
Mission freelance
DATA MESH PLATFORM MANAGER SENIOR F/H
SMARTPOINT
Publiée le
AWS Cloud
Azure
CI/CD
12 mois
100-600 €
Île-de-France, France
Concevoir, construire, déployer et exploiter la plateforme Data Mesh du Groupe (appelée Group Data Platform – GDP) comme un produit interne, en garantissant : Sa livraison technique Son adoption à l’échelle de l’entreprise Son excellence opérationnelle Son amélioration continue RESPONSABILITÉS CLÉSConstruction et Livraison de la Plateforme (Responsabilité principale)1. Responsabilités Concevoir et implémenter l’architecture de la plateforme Data Self-Service Définir les capacités de la plateforme (data products, pipelines, gouvernance, observabilité, accès self-service) Définir et faire respecter les standards techniques et les patterns d’architecture Garantir la scalabilité, la performance et la sécurité Prendre des décisions techniques hands-on et valider les solutions 2. Livrables attendus Architecture Decision Records (ADR) Patterns d’architecture de référence et templates réutilisables Roadmap des capacités de la plateforme Standards techniques de la plateforme Architecture Cloud et Infrastructure3. Responsabilités Piloter la conception et l’exploitation d’architectures cloud et hybrides avec le Group Data Architect Coordonner avec l’équipe Group Data Delivery l’implémentation sur AWS et Microsoft Azure Piloter l’intégration des systèmes on-premise Piloter l’automatisation et l’Infrastructure as Code Garantir les exigences de sécurité et de conformité 4. Livrables attendus Blueprint d’architecture cloud (avec le Group Data Architect) Framework de sécurité et de gestion des accès Pilotage Delivery & Exécution5. Responsabilités Être responsable du cycle de vie de livraison de la plateforme Définir le backlog et le processus de priorisation Gérer les releases et les déploiements en production Suivre la performance et la fiabilité Gérer les risques et incidents techniques 6. Livrables attendus Roadmap plateforme (court / moyen / long terme) Backlog produit et framework de priorisation Plan de release et gestion des versions Dashboards de suivi delivery Indicateurs SLA / métriques de fiabilité Déploiement & Adoption par les Domaines7. Responsabilités Déployer la plateforme dans les différents domaines métiers Permettre aux équipes domaine de construire leurs data products Déployer le modèle opérationnel Data Mesh Accompagner l’onboarding et l’adoption Résoudre les problématiques d’adoption opérationnelle 8. Livrables attendus Framework et processus d’onboarding des domaines Guidelines du cycle de vie des data products Playbooks d’accompagnement des domaines Indicateurs d’adoption et d’usage Supports de formation et documentation d’onboarding Product Management (orienté usage) & Amélioration Continue9. Responsabilités Recueillir les besoins utilisateurs et exigences plateforme Définir la vision produit et la roadmap Mesurer l’usage et la création de valeur Améliorer l’expérience développeur et utilisateur 10. Livrables attendus Vision produit et proposition de valeur KPIs plateforme et métriques d’adoption Boucles de feedback utilisateur et backlog d’amélioration Roadmap d’évolution de la plateforme Documentation, Standardisation & Gouvernance11. Responsabilités Documenter les capacités et processus de la plateforme Garantir la conformité avec la gouvernance fédérée des données du Groupe 12. Livrables attendus Référentiel documentaire de la plateforme Standards techniques et guides d’implémentation Framework de gouvernance et conformité Playbooks de bonnes pratiques Communication Opérationnelle & Reporting Exécutif13. Responsabilités Communiquer sur l’avancement et l’impact de la plateforme Fournir un reporting de niveau exécutif Assurer l’alignement des parties prenantes 14. Livrables attendus Dashboard exécutif du projet Dashboards de performance plateforme Présentations en comité de pilotage Suivi des décisions, risques et incidents Promotion Interne & Évangélisation15. Responsabilités Promouvoir la valeur de la plateforme dans l’organisation Soutenir les initiatives d’adoption interne Construire une communauté plateforme 16. Livrables attendus Supports de communication interne Stratégie d’adoption et plan de déploiement Démonstrations plateforme et portfolio de cas d’usage Expérience requise Minimum 15 ans d’expérience en data platform, data engineering ou architecture Expérience prouvée dans la construction et livraison de plateformes data en production Forte expérience hands-on en delivery technique Expérience en platform engineering ou data engineering avancé Expérience en environnement grand groupe ou multi-entités Expérience pratique du Data Mesh obligatoire Compétences techniquesArchitecture & Engineering Architecture data distribuée Conception de systèmes distribués Infrastructure as Code Pratiques DevOps / DataOps / CI/CD Ingénierie performance et scalabilité Cloud & Infrastructure Expertise avancée AWS et Azure Architectures hybrides et on-premise Sécurité et gouvernance cloud Plateforme Data Data products & gestion du cycle de vie Pipelines et orchestration Gestion des métadonnées et catalogues Frameworks de gouvernance data Observabilité data Product & Delivery Approche produit appliquée aux plateformes techniques Gestion roadmap & backlog Méthodologies Agile Développement orienté valeur Soft Skills critiques Leadership technique et opérationnel fort Orientation exécution et delivery Capacité à intervenir de manière hands-on dans des environnements complexes Excellente communication transverse Sens fort de la responsabilité Esprit analytique et pragmatique Capacité d’influence sans autorité hiérarchique directe Vision stratégique avec focus opérationnel Gestion des parties prenantes au niveau exécutif et opérationnel Anglais courant obligatoire (écrit et oral) Indicateurs de succès Plateforme livrée et opérationnelle en production Adoption par les domaines métiers Nombre et qualité des data products déployés Fiabilité et performance de la plateforme Satisfaction et usage des utilisateurs Réduction du time-to-market des cas d’usage data
Offre d'emploi
Consultant décisionnel BI H/F
CONSORT GROUP
Publiée le
Jenkins
37k-42k €
Auvergne-Rhône-Alpes, France
Chaque moment compte. Surtout ceux que vous vivez à fond. Bienvenue chez Consort Group. Consort Group, accompagne depuis plus de 30 ans les entreprises dans la valorisation de leurs données et infrastructures. Elle s'appuie sur deux leaders, Consortis et Consortia, et place l’humain et la responsabilité sociétale au cœur de ses valeurs. Consultant décisionnel BI H/F C’est votre future équipe Fondée en 2012, l'agence Rhône-Alpes rassemble une équipe de 120 collaborateurs. Elle accompagne près d’une vingtaine de clients, allant des grands comptes aux ETI et PME. Elle s’appuie sur un Centre de Services spécialisé dans le stockage et la sauvegarde ainsi que sur un Centre d'Expertise en sécurité. L'agence accorde une importance particulière à un recrutement fondé sur l'humain et la transparence. C’est votre mission Vous êtes passionné·e par la Data et la valorisation des données ? Ce poste est fait pour vous. En tant que Consultant décisionnel BI, vous êtes responsable de la conception et de l’évolution des solutions de reporting ainsi que de la valorisation des données au sein de notre écosystème décisionnel : Vous intervenez dans un contexte applicatif mature (plus de 6 ans), actuellement en phase de refonte des dashboards afin d’améliorer l’expérience utilisateur et la pertinence des analyses. Vous évoluez au sein d’une équipe Agile d’une dizaine de personnes (Chef de projet / Scrum Master, PO, développeurs BI, DevOps, Lead Tech). Côté build : Recueillir, analyser et challenger les besoins fonctionnels et techniques des métiers Identifier et exploiter les sources de données pertinentes Concevoir et faire évoluer l’architecture décisionnelle Modéliser et enrichir les Datawarehouses et Datamarts Développer les processus d’intégration de données (ETL) Concevoir, améliorer et refondre des dashboards orientés utilisateurs Produire des rapports et tableaux de bord fiables, lisibles et performants Accompagner les métiers dans la compréhension et l’exploitation des données Côté run : Garantir la qualité, la performance et la fiabilité des livrables Tester et valider les développements (recette technique et fonctionnelle) Optimiser les performances des traitements et des dashboards Participer aux cérémonies Agile (daily, sprint planning, rétrospective…) Assurer le support aux utilisateurs et la prise en compte des retours métiers Maintenir et faire évoluer la documentation applicative Contribuer à l’amélioration continue de la plateforme décisionnelle C’est votre parcours Vous avez au moins 2 ans d’expérience dans des environnements Data exigeants. Vous aimez analyser, structurer et valoriser la donnée tout en restant proche des enjeux métiers. Vous cherchez un cadre où vos idées comptent et où la technique va de pair avec la collaboration. C’est votre expertise : Maîtrise des environnements BI : modélisation de données, ETL, reporting Solide expérience sur des outils de datavisualisation (Tableau et/ou Power BI) Bonne maîtrise des bases de données relationnelles (Oracle, PostgreSQL) Expérience sur Informatica ou équivalent Connaissances en langages de programmation (notamment Python – 2 ans minimum) Familiarité avec les outils DevOps et d’intégration continue (Git, Jenkins, Ansible) Connaissances en streaming de données (Kafka, RabbitMQ) appréciées Compréhension des architectures décisionnelles complexes Maîtrise des principes Agile C’est votre manière de faire équipe : Esprit d’analyse et de synthèse Autonomie et rigueur Force de proposition et capacité à challenger l’existant Excellent relationnel et sens du service Capacité à travailler en équipe Agile Adaptabilité et proactivité C’est notre engagement Chez Consort Group, vous êtes un·e expert·e qu’on accompagne pour que chaque mission devienne une étape qui compte. Un onboarding attentif et humain Une vraie proximité managériale Des formations accessibles en continu Des engagements concrets : inclusion, égalité, solidarité Un package RH complet : mutuelle, carte TR, CSE, prévoyance Une culture du feedback et des projets qui font sens C’est clair Le process de recrutement : Un premier échange téléphonique avec notre team recrutement Un entretien RH ainsi qu’un échange métier avec un.e ingénieur.e d’affaires Un test ou un échange technique avec un.e de nos expert.es Un dernier point avec votre futur.e manager ou responsable de mission Et si on se reconnaît : on démarre ensemble C’est bon à savoir Lieu : Lyon Contrat : CDI Télétravail : Hybride Salaire : De 37000 € à 42000 € (selon expérience) brut annuel Famille métier : Data Ce que vous ferez ici, vous ne le ferez nulle part ailleurs. Ce moment, c’est le vôtre.
Offre d'emploi
Architecte DATA CMDB SERVICE NOW
OBJECTWARE
Publiée le
ServiceNow
2 ans
Île-de-France, France
Dans le cadre de la mise en conformité avec les recommandations de la Banque Centrale Européenne (BCE) sur la fiabilité des référentiels IT, notre client engage un programme d’amélioration et de gouvernance de sa CMDB Groupe et de ses référentiels techniques . L’objectif de cette mission est de concevoir et mettre en œuvre une architecture de données robuste et gouvernée , permettant d’assurer la qualité, la cohérence et l’exploitabilité des informations relatives aux actifs IT. Le consultant interviendra au cœur du dispositif pour structurer et améliorer le modèle de données CMDB , industrialiser l’intégration des sources d’inventaire et renforcer la gouvernance des données techniques. Architecture et modélisation des données CMDB Concevoir et optimiser le modèle de données des référentiels IT techniques (Configuration Items, relations et métadonnées). Simplifier et rationaliser les structures existantes afin d’améliorer la lisibilité et la maintenabilité du modèle. Garantir l’évolutivité de l’architecture des données pour intégrer de nouvelles sources d’inventaire et répondre aux besoins futurs. Identification et réconciliation des données Définir et implémenter les règles d’identification et de réconciliation (IRE) au sein de ServiceNow CMDB . Déterminer les clés d’identification des Configuration Items afin d’assurer l’unicité et la cohérence des données. Mettre en place des mécanismes de consolidation des informations issues de multiples sources d’inventaire. Gestion des sources d’inventaire Identifier et qualifier les sources de données techniques alimentant les référentiels IT . Définir les sources de vérité pour chaque type d’information. Cartographier et structurer les flux d’alimentation des référentiels IT . Qualité des données et gouvernance Définir et mettre en œuvre une stratégie de Data Quality pour la CMDB : déduplication fiabilité des données complétude fraîcheur des informations gestion de l’obsolescence. Mettre en place des indicateurs de qualité et des tableaux de bord de suivi . Gouvernance des référentiels IT Appliquer les principes de Master Data Management (MDM) au contexte des référentiels IT. Définir les rôles et responsabilités autour des données (Data Owner, Data Steward). Structurer un cadre de gouvernance des référentiels IT documenté et partagé. Collaboration transverse Travailler en étroite collaboration avec les équipes : ITSM / CMDB ServiceNow Discovery équipes MDM sécurité IT infrastructures et exploitation. Accompagner les équipes responsables des inventaires techniques et outils de découverte . Reporting et produits de données Développer des produits de données exploitant les référentiels IT pour répondre aux besoins de reporting et d’audit. Contribuer à la production d’indicateurs et de tableaux de bord permettant de piloter la qualité et la fiabilité des données.
Mission freelance
CONSULTANT TECHNQUE BI DATA EXPERT SSIS SQL SERVEUR AZURE DEVOPS
PROPULSE IT
Publiée le
Azure
BI
DevOps
24 mois
300-600 €
Nanterre, Île-de-France
CONSULTANT BI DATA EXPERT SSIS SQL SERVEUR AZURE DEVOPS Expérience ciblée : PLUS DE 10 ANS Compétences impératives - Compétences techniques : Conception / Modélisation BI (Flux & modèles de données) Expériences significatives sur la mise en place complète de projets BI Data ETL (conception, modélisation, réalisation) et sur le RUN en environnement Full Microsoft (SSIS, SQL Server : Modélisation, procédures stockées, optimisation SQL, etc.). Connaissance et mise en œuvre de la suite Microsoft AZURE DEVOPS (Git, Board Agile, Pipeline de déploiement CI/CD). Anglais professionnel courant - Compétences organisationnelles Expérience significative sur l'implémentation de projets BI d'intégration de données (datawarehouse & datamarts) Avoir la capacité de mener des mini-projets en autonomie tout en étant accompagné par un(e) maitrise d'ouvrage et/ou le métier. Capacité à s'organiser, à s'adapter sur les priorités, à synthétiser l'état d'avancement de ses activités et à remonter les alertes si besoin. - Compétence(s) appréciée(s) : Outils de reporting BI : TABLEAU, IBM Cognos, Power BI Habitué aux relations avec des partenaires offshore Certifications sur la suite MSBI - Descriptif détaillé de la mission : Assurer le RUN des applications existantes (ETL, Bases de données, support niveau 3) Comprendre les enjeux métier, problématiques à résoudre et opportunités à concrétiser. Echanger et challenger les besoins métiers avec les équipes AMOA BI en tenant compte des contraintes techniques. Proposer, concevoir et spécifier des solutions techniques viables, évolutives et tenant compte de l'existant. Rédaction des documents techniques (spécification techniques, document d'exploitation…etc). Conseiller, proposer des axes d'amélioration, alerter si besoin. - Environnement technique de la mission : Socle Data : SSIS, SQLServer (2016), procédures stockées, Azure DevOps (Git, Board Agile, Pipeline de déploiement CI/CD) Reporting : COGNOS BI 10.2 et 11 & Tableau Date début de mission : ASAP Durée estimée de la mission : longue - 3 mois (renouvelables)
Mission freelance
Data Scientist / AI Engineer
ESENCA
Publiée le
CI/CD
Docker
Google Cloud Platform (GCP)
1 an
Lille, Hauts-de-France
Contexte de la mission Dans le cadre du développement de solutions innovantes autour de l’intelligence artificielle, nous recherchons un Data Scientist / AI Engineer capable de concevoir, industrialiser et mettre en production des solutions IA performantes. Le rôle consiste également à instaurer des standards solides d’ingénierie logicielle afin de garantir la qualité, la fiabilité et la scalabilité des solutions développées. Vos missions Concevoir et développer des fonctionnalités basées sur l’intelligence artificielle. Construire et maintenir des pipelines de traitement de données. Industrialiser et monitorer les applications et services IA (latence, coûts, taux de réponse, satisfaction utilisateur). Mettre en place des pratiques MLOps / LLMOps : suivi d’expériences, déploiement, monitoring et observabilité des modèles. Garantir la qualité des données, la sécurité et la conformité réglementaire (notamment GDPR). Structurer les projets IA selon des standards d’ingénierie logicielle robustes (tests, CI/CD, documentation, bonnes pratiques). Participer aux revues d’architecture et diffuser les bonnes pratiques techniques au sein des équipes. Compétences techniques requises Machine Learning / Deep Learning (niveau expert). IA générative : LLM, RAG, prompt engineering, agents et orchestration. Analyse de données avancée. Traitement de données non structurées (PDF, images). Langages : Python avancé, SQL. Conception et intégration d’ APIs . Data pipelines : orchestration, streaming, feature stores. MLOps / LLMOps : CI/CD, Docker, Kubernetes, suivi des modèles, monitoring et observabilité. Bonnes pratiques de développement : structuration des projets, stratégie de tests, documentation technique. Environnement technique Python, SQL GCP Docker, Kubernetes CI/CD, MLOps / LLMOps
Mission freelance
Data Platform Engineer (Hadoop CDP/HDP, Spark, Airflow, Kubernetes) - IDF
ISUPPLIER
Publiée le
Apache
Hortonworks Data Platform (HDP)
Kubernetes
1 an
450-650 €
Île-de-France, France
Objectifs de la mission Le bénéficiaire souhaite une prestation d’accompagnement pour assurer le MCO des Infrastructures HDP et CDP, administration des Clusters, Prestations demandées Les missions sont: Les consultants retenus auront pour mission : • Administration et optimisation de clusters HDP/CDP • Installation, configuration et maintenance des clusters. • Gestion des mises à jour et des patchs de sécurité. • Surveillance des performances et optimisation des ressources. • gestion/administration de clusters Kubernetes • Automatisation des déploiements avec Operators…, etc. • Sécurisation et monitoring des environnements conteneurisés. • Orchestration des workflows avec Apache Airflow : • Développement et optimisation des DAGs pour la gestion des pipelines de données. • Gestion des dépendances et optimisation des temps d’exécution. • Intégration avec les autres outils de l’écosystème. • Traitement et analyse des données avec Apache Spark : • Développement et optimisation des jobs Spark (batch et streaming). • Gestion des performances et tuning des jobs. • Intégration avec les systèmes de stockage distribués. • Optimisation des requêtes et accès aux données avec Starburst : • Configuration et administration de Starburst. • Optimisation des requêtes SQL distribuées. • Sécurisation et gestion des accès aux différentes sources de données. Français/Anglais
Offre d'emploi
Consultant.e Data Talend F/H
ADDIXWARE
Publiée le
Qlik
Talend
1 an
39k-43k €
370-410 €
Avignon, Provence-Alpes-Côte d'Azur
Nous recherchons un Consultant Talend expérimenté pour accompagner nos clients dans leurs projets Data : intégration, transformation, qualité et gouvernance des données. Vos missions : - Développer et maintenir des flux d'intégration de données via Talend - Participer aux projets de gouvernance data, de la conception à la mise en production - Intervenir sur la visualisation et le pilotage des données (compétences Qlik appréciées) - Analyser les besoins métiers et proposer des solutions fiables et performantes - Assurer le support, la documentation et la qualité des livrables - Accompagner les équipes internes et favoriser la montée en maturité data
Mission freelance
250824/Expert Talend, Talend Data management, Anglais Courant
WorldWide People
Publiée le
Talend
6 mois
Vélizy-Villacoublay, Île-de-France
Expert Talend, ETL, Talend Data management, Anglais Courant L’équipe Data Foundations souhaite bénéficier de l’assistance technique d’un expert technique Talend, disposant d’une solide expérience Data, afin d’accompagner les projets d’intégration de données. Goals and deliverables Le consultant interviendra notamment sur les activités suivantes : Application des bonnes pratiques et standards Talend Data Management, de la phase de développement jusqu’au déploiement, en collaboration avec le ETL Tech Lead Support aux projets lors des phases d’implémentation : qualification des données, transformation et intégration Mise en œuvre et respect de l’architecture cible, de la stratégie Data et des patterns ETL, en collaboration avec les experts techniques Analyse des besoins métiers et techniques, incluant l’évaluation de la faisabilité technique et de la charge associée Développement des jobs Talend, déploiement, réalisation des tests d’acceptation et rédaction de la documentation Réalisation d’audits de jobs ETL Définition des pré‑requis techniques et des templates Rédaction des spécifications techniques Expected skills Skills Skill level ETL Expert TALEND Expert Talend Data management Expert Languages Language level Anglais Bilingual
Offre d'emploi
Scrum Master DATA IA
Le Groupe SYD
Publiée le
12 mois
35k-55k €
350-550 €
Niort, Nouvelle-Aquitaine
🌟 Quel sera ton poste ? 🌟Scrum Master Data & IA 📍Lieu : Niort 🏠 Télétravail : 2 jours par semaine 📝Contrat : CDI, Freelance, Portage 👉 Contexte client : Nous recherchons un Scrum Master spécialisé Data & IA pour accompagner l’un de nos clients majeurs du secteur de l’assurance, basé à Niort. Dans un contexte de transformation digitale avancée et de montée en puissance des usages Data/IA, tu rejoindras une organisation en mode produit, articulée autour d’environnements agiles matures (Scrum, SAFe). Ton rôle sera central pour accélérer la délivrance , renforcer la dynamique agile des équipes et garantir un delivery fluide, orienté valeur, sur des projets Data, Analytics et Intelligence Artificielle. Tu auras pour missions de : Garantir le respect des pratiques Scrum et promouvoir les valeurs agiles. Animer l’ensemble des cérémonies : Daily, Sprint Planning, Review, Rétrospectives. Faciliter la collaboration entre Data Scientists, Data Engineers, Product Owners et équipes métiers. Accompagner les équipes dans la compréhension et l’intégration des flux data, des modèles IA/ML et de la chaîne analytique. Aider à la priorisation des sujets avec une approche orientée valeur, ROI et usages opérationnels. Contribuer à la fluidité du delivery pour des produits tels que : modèles prédictifs, NLP/LLM, automatisation IA, cas d’usage data métier. Lever les irritants organisationnels et techniques pour fluidifier la production. Suivre et faire progresser les indicateurs d’équipe : vélocité, qualité, DORA metrics, etc. Coach agile auprès des équipes et des parties prenantes métier. Partenaire du Product Owner pour clarifier le backlog, préparer les sprints, sécuriser le périmètre. Contribuer à la cohésion, la motivation et la montée en compétence de l’équipe.
Offre d'emploi
Architecte solution/ applicatif
OCTOGONE
Publiée le
ArchiMate
SOA (Service Oriented Architecture)
TOGAF
6 mois
40k-70k €
Paris, France
Contexte Au sein de l’Autorité de Solutions de la DSI : - Accompagner le Client dans les orientations, les choix de solutions et de mise en œuvre - Participer aux cérémonies agiles liées aux périmètres traités pour le suivi des dossiers - Passage de jalons du cycle de vie d’une application/solution/plateforme en Comité de validation du Design SI - Participer à des études transverses - Définir le cadrage des interfaces transverses aux solutions - Modéliser les premiers niveaux d d'architecture applicative en lien avec les architectures métier (Modélisation ArchiMate) et les intégrer dans les dossiers de solutions - Assister les Architectes Systèmes dans la modélisation des solutions Description - Conception d’Architecture : MDA, SOA, EDA, Microservices, Cloud, Big Data - Cadres d’Architecture : TOGAF - Méthodologies : Agiles (SCRUM, SAFe), DevOps - Modélisation : Données, UML, ArchiMate - Intégration de Systèmes, de Progiciels, Echanges - Urbanisation et Migration de Systèmes, Migration de Données - Sécurité : Chiffrement de données, d’échanges, mesures Livrables Comptes rendus d’ateliers, Notes de cadrage, Rédaction d’exigences, de guidelines, Préparation de supports de formation Dossier d'architecture technique
Offre premium
Mission freelance
Data Analyst - Expert Excel VBA
Keros group
Publiée le
Microsoft Access
Microsoft Excel
VBA
12 mois
300-450 €
Paris, France
Secteur : immobilier Dans le cadre d’un programme stratégique d’intégration de sociétés récemment acquises, nous recrutons un(e) Analyste Préparation de Données & Migration . Intégré(e) à la direction en charge des projets d’intégration, vous jouez un rôle clé dans : L’analyse et la compréhension des données sources Leur normalisation et préparation Leur migration vers les systèmes internes cibles Vous intervenez en interaction étroite avec les équipes IT, comptables, chefs de projets et équipes locales. Rattachement hiérarchique Poste rattaché à la Direction des Projets d’Intégration. Vos missions 1️⃣ Analyse, structuration et préparation des données Analyse des exports issus des outils métiers des sociétés intégrées Identification des spécificités et cas particuliers propres à chaque environnement Nettoyage, normalisation et organisation des données selon les standards internes Vérification de la complétude et de la cohérence des jeux de données 2️⃣ Réalisation des opérations de migration Préparation des jeux de données destinés aux imports Constitution des fichiers structurés par lots fonctionnels Réalisation des transcodages et enrichissements nécessaires Génération des fichiers destinés aux outils/kits de migration Tenue d’un journal des corrections et ajustements Contrôles post-migration : Rapprochements volumétriques (lots, contrats, interventions…) Rapprochements comptables (budgets, quittancement…) Contrôle de cohérence des références métiers Établissement d’une check-list finale et recensement des écarts 3️⃣ Contrôle qualité & sécurisation des données Mise à jour des tableaux de bord de contrôle Suivi des indicateurs qualité (taux de complétude, erreurs, écarts avant/après mapping) Identification, correction et documentation des anomalies Tenue d’un registre des écarts et actions correctives 4️⃣ Collaboration transverse Coordination avec les équipes IT, comptabilité et chefs de projets Interaction avec les agences locales pour clarifier et collecter les données Accompagnement et vulgarisation des besoins data 5️⃣ Standardisation & amélioration continue Documentation des règles, processus et modèles utilisés Optimisation continue des méthodes de transformation Proposition d’améliorations pour réduire les délais et fiabiliser les traitements Participation aux retours d’expérience post-migration Mise à jour des guides et templates opérationnels 6️⃣ Partage & montée en compétence Transmission des bonnes pratiques Contribution à la montée en compétence des équipes Modalités Déplacements ponctuels en agence possibles (audit et migration)
Offre d'emploi
INGÉNIEUR TALEND ESB H/F
S-quaar
Publiée le
ODI Oracle Data Integrator
SQL
Talend
45k-50k €
Ancenis, Pays de la Loire
Lieu : Ancenis (44) Salaire : 45 à 50 000 euros annuel brut Rythme : 2 jour(s) de télétravail à l’issue de la période d’essai Dans le cadre du déploiement et de la montée en puissance d’une plateforme d’intégration de données , nous recherchons un·e Ingénieur.e TALEND ESB pour intervenir sur des flux d’échanges batch et temps réel . Vous intégrerez une équipe SI structurée et jouerez un rôle clé dans la standardisation, la gouvernance et l’industrialisation des flux inter-applicatifs au sein d’un environnement multi-applicatif en forte évolution. Vous serez également impliqué·e dans un programme stratégique de migration des flux existants vers la nouvelle plateforme d’intégration. VOS MISSIONS : En tant que référent·e technique intégration, vous interviendrez sur les missions suivantes : Animer et fédérer une communauté de développeurs spécialisés dans les flux inter-applicatifs Piloter les développements d’interfaces (estimation des charges, réalisation, coordination de partenaires externes, accompagnement aux phases de tests et de recette) Concevoir et développer certains flux complexes à forte valeur ajoutée Apporter une expertise technique sur les sujets complexes : résolution d’incidents, revues de code, amélioration continue des pratiques Contribuer à la définition et à la validation des livrables d’architecture SI (schémas d’échanges, spécifications d’interfaces, documentation technique et référentiels) Travailler en étroite collaboration avec les responsables applicatifs et les équipes exploitation afin d’optimiser la fiabilité et la performance des flux Définir, documenter et faire appliquer les normes de développement et les processus de mise en production Participer au cadrage technique et au dimensionnement de la plateforme d’intégration en lien avec l’architecture SI Accompagner et faire monter en compétences les équipes internes sur les sujets d’intégration et de gouvernance des données Superviser la configuration, l’exploitation et la surveillance des services déployés sur la plateforme dans le respect des exigences de sécurité Garantir la conformité du cycle de vie de la donnée avec les réglementations en vigueur (RGPD)
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- PER/EURL - Obligation d'en créer un nouveau ?
- Ajout activité micro-entreprise en attendant de créer la société
- Je galère à trouver une mission CDP sénior
- Modalités de conversion des factures en devises (USD) et traitement TVA/IS
- Etat du marché 2026: rebond ou stagnation ?
- Courrier recommandé non récupéré
660 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois