Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 264 résultats.
Offre d'emploi
BUSINESS ANALYST SQL- Assurance Vie
Publiée le
Big Data
PL/SQL
3 ans
Paris, France
Télétravail partiel
Objectif : constitution et contrôle des déclaratifs réglementaires (FICOVIE en priorité, puis FATCA, IER, ECKERT, AGIRA/RNIPP). Missions principales Analyser les besoins & rédiger spécifications fonctionnelles détaillées. Concevoir des solutions, modéliser des traitements, définir des jeux de données. Élaborer stratégie & plan de tests, exécuter et suivre la recette. Support aux Data Engineers (Build & MCO). Contrôle qualité des déclaratifs avant dépôts (notamment FICOVIE). Suivi de production et résolution des anomalies. Pilotage : avancement, chiffrages, communication, respect des normes. Compétences clés Obligatoires : Assurance Vie / Prévoyance (5–8 ans exp.). Déclaratifs réglementaires (FICOVIE impératif). SQL confirmé. Data (qualité, mapping, transformations). Souhaitées : Connaissances Big Data. Pratiques Agiles / SAFe, Jira. Pilotage / lead fonctionnel. Anglais lu/écrit.
Offre d'emploi
Dev Engineer
Publiée le
Control-M
Data analysis
1 an
38k-43k €
380-430 €
Bruxelles, Bruxelles-Capitale, Belgique
Télétravail partiel
Contexte Nous recherchons un Data Operations Engineer chargé d’assurer le bon fonctionnement des pipelines de données, des workflows et des systèmes de gouvernance des données . Votre rôle sera essentiel pour soutenir les activités de gouvernance des données au quotidien, en garantissant la qualité, l’intégrité et la disponibilité des données . Vous travaillerez en étroite collaboration avec les data engineers, analystes et autres parties prenantes pour optimiser les workflows, gérer la planification et les mises en production , et résoudre les incidents afin d’assurer des opérations de données stables et fiables. Vos missions Opérations des pipelines de données Gérer et maintenir des pipelines de données sous Linux , en garantissant des flux fiables et performants. Développer et maintenir des scripts Shell pour automatiser le traitement, la transformation et le chargement des données. Collaborer avec les data engineers pour optimiser les workflows et améliorer la qualité des données. Planification des jobs & Release Management Créer, planifier et gérer des jobs dans Control-M pour assurer un traitement et une livraison des données dans les délais. Préparer et exécuter les mises en production, en limitant l’impact opérationnel. Surveiller l’exécution des jobs, analyser les logs et résoudre les échecs pour garantir l’intégrité des données. Gestion des incidents Identifier et résoudre rapidement les incidents liés aux données, en minimisant leur impact sur les utilisateurs. Réaliser des analyses de causes racines et mettre en place des mesures préventives Documenter les incidents, les actions correctives et les enseignements pour enrichir la base de connaissances. Gestion des données Administrer les bases de données, exécuter des requêtes et résoudre les problèmes de connectivité pour assurer la disponibilité des données. Collaborer avec les analystes et les ingénieurs pour renforcer la gouvernance et la qualité des données. Mettre en place et maintenir des contrôles de qualité pour garantir la fiabilité et la cohérence des données.
Offre d'emploi
Data Steward
Publiée le
Data governance
12 mois
Liège, Belgique
Télétravail partiel
1. Contexte du poste Dans le cadre de la mise en place d’un data warehouse Snowflake alimenté par SAP et d’autres sources, le Data Steward assure la qualité, la cohérence et la documentation des données critiques pour l’entreprise. Il joue un rôle central dans la gouvernance des données et dans le support aux équipes métier et techniques. 2. Missions principalesa) Qualité et gouvernance des données Définir et appliquer les standards de qualité des données (complétude, exactitude, cohérence). Identifier, analyser et corriger les anomalies ou incohérences dans les données SAP et Snowflake. Mettre en place des indicateurs de qualité et suivre leur évolution. b) Gestion des métadonnées et documentation Maintenir un dictionnaire de données à jour pour toutes les tables critiques. Documenter les flux, transformations et règles métier appliquées lors des extractions SAP → Snowflake. Garantir la traçabilité et la conformité des données (ex. RGPD, audits internes). c) Support aux projets ETL/ELT Collaborer avec les data engineers et analystes BI pour assurer la bonne réplication et transformation des données. Valider les mappings et règles métier lors de l’intégration dans Snowflake. d) Collaboration et sensibilisation Être l’ interlocuteur privilégié pour les questions de données auprès des équipes métier et IT. Former et sensibiliser les utilisateurs aux bonnes pratiques de gestion des données. Participer aux comités de gouvernance de données. 3. Profil recherchéCompétences techniques Connaissance des systèmes SAP (FI, MM, SD, ou modules liés au master data). Expérience avec un data warehouse cloud (Snowflake de préférence) et outils ETL/ELT. Maîtrise des concepts de data governance, qualité et master data management . Bonnes compétences en SQL et manipulation de données. Connaissance des outils de documentation et data catalog (ex. Collibra, Alation) est un plus. Compétences comportementales Esprit analytique et rigueur. Capacités à communiquer avec les équipes métiers et techniques. Sens de l’organisation et autonomie. Capacité à prioriser et à gérer plusieurs sujets transverses. Télétravail 2 jours par semaines et 3 jours sur site. La maitrise de l'anglais courant est nécessaire. Formation Bac+3/5 en informatique, statistiques, gestion des données, ou disciplines équivalentes. Certification en data governance ou MDM est un plus.
Offre d'emploi
Architecte Solutions Data
Publiée le
Big Data
CI/CD
SAS
2 ans
Île-de-France, France
1G-Link est une entreprise innovante en pleine croissance, au cœur de la transformation numérique. Nous accompagnons les organisations dans la valorisation de leurs données à travers des architectures scalables, modernes et performantes. Dans le cadre de notre développement, nous recherchons un(e) Architecte Solutions Data avec une expertise forte sur Snowflake et Microsoft Azure. Vos missions En tant que membre de l’équipe Data Capture, le poste requiert un bagage technique et architectural ainsi qu’une solide expérience pratique des technologies Cloud, du développement de microservices et de l’Event Driven Architecture. Il implique également une collaboration étroite avec les équipes IT Groupe/Zone, les partenaires métiers, les partenaires externes et l’ensemble des membres de l’équipe d’intégration. En tant qu’Architecte Data, vous serez au centre des projets de transformation data de nos clients. Vos responsabilités incluront : Concevoir et proposer des solutions sur la donnée en utilisant les technologies Azure Cloud dans notre cadre de référence Concevoir et proposer des solutions sur Snowflake Appliquer la stratégie « Data as a Service » conformément aux bonnes pratiques architecturales Concevoir et développer des APIs / Microservices pour enrichir notre cadre de solutions Soutenir la stratégie d’Event Driven Architecture basée sur Azure Event Hub et Azure IoT Hub Contribuer à notre catalogue de services pour l’enrichissement en self-service Participer à la modernisation et à la sensibilisation technologique au sein de l’équipe Data Capture et à travers l’organisation Data & Analytics Être le référent Cloud de l’équipe Animer des ateliers et faciliter la collecte des besoins Accompagner les Data Engineers sur les sujets liés au Cloud Apporter un support à l’équipe Sécurité sur les sujets concernés Contribuer à la feuille de route et à l’évolution de Data Capture Challenger et accompagner les prestataires externes Capacité à produire une restitution documentaire (dans le cadre d’un audit, d’un POC, ou selon les standards et l’architecture) Les + de l’offre Projets innovants à fort impact Culture d’entreprise basée sur la collaboration, la montée en compétence et la bienveillance Environnement de travail flexible (télétravail possible : 2 jours par semaine) Accès à un programme de certification et de formation continue
Mission freelance
Data Product Manager (Business Analyst / Solution Architect)
Publiée le
Data management
1 an
400-600 €
Île-de-France, France
Le consultant interviendra au sein de l’équipe Data-as-a-Service et aura pour mission de structurer et piloter une étude stratégique Data couvrant plusieurs régions et métiers. Ses responsabilités incluront : Organisation et pilotage de l’étude : définition du cadrage, identification des parties prenantes et animation des ateliers avec les directions métiers et IT dans un contexte international. Analyse des besoins et des processus : collecte et formalisation des exigences business & IT (globaux et régionaux), compréhension des ambitions stratégiques du segment Construction Chemicals , identification des enjeux majeurs et priorisation. Documentation et modélisation : formalisation de l’architecture fonctionnelle cible, préparation des plans de communication et restitution claire et visuelle des livrables. Planification des travaux : séquencement des différents lots, définition des jalons, intégration des meilleures pratiques issues de la Data & Analytics Factory. Coordination des acteurs Data : organisation et suivi des contributions des équipes internes (Architecte Technique, Data Engineers, BI Engineers), gestion des interfaces avec les métiers et autres départements IT. Évaluation de la valeur métier : identification et documentation des bénéfices attendus, évaluation des impacts business, estimation du ROI. Préparation du projet de mise en œuvre : construction du budget Build/Run, élaboration du planning de déploiement, et rédaction de la proposition finale “Go to Project” à présenter au management. L’objectif final est de fournir une vision claire, structurée et orientée valeur permettant de sécuriser la décision de lancement du projet et de garantir l’alignement entre les ambitions business et les capacités Data & Analytics.
Mission freelance
DataOps AWS Engineer -MlOps
Publiée le
Apache Airflow
AWS Cloud
AWS Glue
12 mois
500-580 €
Paris, France
Télétravail partiel
Nous recherchons un(e) Data Engineer expérimenté(e) pour renforcer notre équipe data et prendre un rôle clé dans la conception, l’industrialisation et la mise en production de nos pipelines et services de données. Le poste s’adresse à un profil autonome, passionné par les bonnes pratiques de développement , capable de challenger les architectures existantes et de proposer des solutions robustes et scalables . 🧩 Missions principales Concevoir, développer et optimiser des pipelines de données performants, scalables et résilients . Encadrer et accompagner techniquement les équipes sur les choix d’architecture et de stack technologique . Déployer et orchestrer des traitements distribués (PySpark, AWS Glue, Airflow). Concevoir et exposer des APIs de données (via AWS API Gateway / Lambda). Industrialiser les environnements via Terraform et des pipelines CI/CD (GitLab, Jenkins…). Garantir la fiabilité, la performance et la sécurité des flux et services de données. Mettre en place du monitoring et de l’alerting pour la supervision des traitements. Contribuer à la diffusion des bonnes pratiques (tests, code review, documentation, CI/CD). Participer à la formation et au mentoring des ingénieurs juniors. 📦 Livrables attendus Schémas et modélisation des structures de données . Pipelines industrialisés et interconnectés avec les assets produits. Mise à disposition de la data vers des systèmes externes (APIs, exports, injections). Documentation technique et dashboards de suivi. Solutions conformes aux exigences RGPD / Data Privacy / éco-conception . Mise en place du monitoring et alerting en production. Contribution à l’ usine logicielle (intégration continue, tests automatisés, déploiements). Présentation régulière des réalisations techniques aux équipes métiers et produit. 🧠 Compétences techniques requises (Must Have) Python (expert). PySpark et Pandas (traitement et transformation de données). AWS (Glue, Lambda, API Gateway, ECS, IAM). Terraform (infrastructure as code). CI/CD (GitLab, Jenkins ou équivalent). Observabilité et supervision (logs, metrics, alerting). Pratiques de code propre, testé et documenté . 🌱 Compétences appréciées (Nice to Have) Airflow pour l’orchestration des jobs. AWS SageMaker pour le déploiement ou l’entraînement de modèles IA. Sensibilité MLOps et DataOps . Connaissance des standards de l’éco-conception et de la sécurité des données . Expérience en mentorat technique ou lead technique data .
Mission freelance
Data Product Manager (Data Solution Architect)
Publiée le
Business Intelligence
Data analysis
ERP
6 mois
600-650 €
La Défense, Île-de-France
Télétravail partiel
En tant que membre de l'équipe Data as a Service Customer, vous serez en charge de conduire des études et de participer à la phase d’exécution projet. Profil recherché : Senior Responsabilités principales : Organiser la phase d’étude et recueillir les besoins auprès de l’ensemble des parties prenantes Planifier et animer des ateliers de travail avec les équipes métiers Rédiger la documentation de l’architecture fonctionnelle Réaliser la modélisation des données et concevoir les couches métier (Silver layer) Coordonner les différents contributeurs Data as a Service (architecte technique, data engineers, ingénieurs BI) Préparer le budget et le planning des phases de réalisation (build) et d’exploitation (run) Formaliser la proposition finale en vue du passage en phase projet (« Go to Project ») Compétences : Excellente communication en français et en anglais Maîtrise de l’analyse et de la modélisation des données (modélisation conceptuelle et physique) Bonne connaissance des systèmes ERP (SAP, QAD) et CRM (Salesforce) ; une expérience dans les systèmes de production est un plus. Méthodique, sens de l’organisation et approche structurée. Focus Client (capacité à mener des entretiens clients, réactivité et clarté dans les réponses).
Offre d'emploi
Data Cloud Architect
Publiée le
Azure
Domain Driven Design (DDD)
1 an
La Défense, Île-de-France
Télétravail partiel
🎯 En tant que membre de l’équipe Data Capture, le poste requiert un bagage technique et architectural ainsi qu’une solide expérience pratique des technologies Cloud, du développement de microservices et de l’Event Driven Architecture. Il implique également une collaboration étroite avec les équipes IT Groupe/Zone, les partenaires métiers, les partenaires externes et l’ensemble des membres de l’équipe d’intégration. En tant qu’Architecte Data, vous serez au centre des projets de transformation data de nos clients. Vos responsabilités incluront Concevoir et proposer des solutions sur la donnée en utilisant les technologies Azure Cloud dans notre cadre de référence Concevoir et proposer des solutions sur Snowflake Appliquer la stratégie « Data as a Service » conformément aux bonnes pratiques architecturales Concevoir et développer des APIs / Microservices pour enrichir notre cadre de solutions Soutenir la stratégie d’Event Driven Architecture basée sur Azure Event Hub et Azure IoT Hub Contribuer à notre catalogue de services pour l’enrichissement en self-service Participer à la modernisation et à la sensibilisation technologique au sein de l’équipe Data Capture et à travers l’organisation Data & Analytics Être le référent Cloud de l’équipe Animer des ateliers et faciliter la collecte des besoins Accompagner les Data Engineers sur les sujets liés au Cloud Apporter un support à l’équipe Sécurité sur les sujets concernés Contribuer à la feuille de route et à l’évolution de Data Capture Challenger et accompagner les prestataires externes Capacité à produire une restitution documentaire (dans le cadre d’un audit, d’un POC, ou selon les standards et l’architecture)
Mission freelance
POT8670 - Un Data Scientist sur Paris
Publiée le
Machine Learning
6 mois
220-480 €
Paris, France
Télétravail partiel
Almatek recherche pour l'un de ses clients Un Data Scientist sur Paris Fonctions et responsabilités En tant que Data Scientist confirmé(e), vous disposez d’une expérience avérée dans la conception et le développement de solutions centrées Machine Learning / Deep Learning. Vous souhaitez développer et approfondir cette expertise. Vous rejoignez notre pôle d’expertise Data & IA pour accompagner nos clients dans la valorisation de leurs données et le déploiement de solutions d’intelligence artificielle à impact. Vous interviendrez sur des projets variés, de l’idéation à l’industrialisation, en apportant votre expertise technique et votre capacité à créer de la valeur métier. Vous pourrez développer vos compétences clés dans la résolution de problèmes, le passage à l’échelle et l’industrialisation des solutions, le déploiement de solutions dans le cloud, …etc. Vous pourrez également développer vos compétences autour des technologiques et des cas d’usage de l’IA Genarative. Vos missions seront les suivantes : Comprendre les enjeux métiers et les traduire en cas d’usage pertinents Collecter, explorer, nettoyer et structurer des données hétérogènes Concevoir et entraîner des modèles de machine learning et deep learning (classification, NLP, vision, séries temporelles…) Collaborer avec des équipes pluridisciplinaires (consultants, data engineers, architectes…) Participer à la mise en production des modèles (MLOps, monitoring, robustesse) Contribuer au cadrage, à la méthodologie et à l’innovation continue sur les projets IA Mais aussi : Déployer des solutions d’IA générative (LLMs, RAG, embeddings, agentique) dans des cas concrets : copilotes métiers, assistants intelligents, extraction d’information, etc. Qualités requises pour réussir dans ce rôle De formation Bac+5 (école d’Ingénieurs/ Université), vous avec une expérience d’au moins 3 ans en tant que Data Scientist. Vos compétences sont les suivantes : Une première expérience en ESN ou en cabinet de conseil Autonomie, esprit d’équipe, proactivité et curiosité technologique Capacité à vulgariser les concepts techniques et à co-construire des solutions IA avec les métiers Expérience en méthodologies Agile (Scrum, Kanban, SAFe…)
Offre d'emploi
Tech Lead Data
Publiée le
Azure
Azure Data Factory
Microsoft Fabric
6 mois
Paris, France
Télétravail partiel
Mission Freelance – Tech Lead Data Client : secteur Minéraux / Industrie Localisation : Paris 16ᵉ Télétravail : 1 à 2 jours par semaine Équipe : environ 10 collaborateurs Durée : 6 mois minimum Contexte et enjeux Le client engage une transformation data ambitieuse avec la mise en place d’une Data Factory moderne et scalable basée sur Microsoft Fabric . Le dispositif repose sur trois volets complémentaires : Program Management – pilotage global et coordination. Tech Enablers – construction des fondations techniques de la plateforme. Data Use Cases – livraison de cas d’usage métiers à fort impact (supply chain, finance, production, etc.). L’objectif est double : livrer rapidement 2 à 3 cas d’usage prioritaires et structurer une organisation agile et durable , intégrée à l’écosystème Azure. Rôle : Tech Lead Data En tant que référent technique , vous jouerez un rôle clé dans la conception, la structuration et la mise en œuvre de la Data Factory. Vous serez le garant de la cohérence technique et du bon niveau d’exécution des équipes. Missions principales : Piloter la mise en œuvre technique des cas d’usage et assurer leur intégration dans la plateforme cible. Encadrer et accompagner une équipe de 2 Data Engineers et 1 Analytical Engineer. Définir les standards d’architecture, bonnes pratiques et guidelines techniques. Garantir la qualité du code, des pipelines et des livrables. Participer activement aux décisions d’architecture et aux revues techniques. Contribuer à la mise en place d’une gouvernance agile structurée (PI Planning, rituels d’équipe). Environnement technique Cloud & Data Platform : Microsoft Fabric, Azure Traitement & Intégration : Spark, Data Factory, Synapse Langages : Python, SQL, Scala CI/CD & Infrastructure as Code : Git, Terraform Méthodologie : Agile SAFe / Scrum Profil recherché Expérience confirmée en tant que Tech Lead ou Architecte Data (5+ ans) , idéalement dans un environnement Microsoft. Maîtrise des architectures cloud Azure et des pipelines de données (ETL/ELT). Leadership technique, sens du collectif et goût du mentoring. Bonne compréhension des enjeux d’intégration et de gouvernance data. Anglais courant, environnement international. Atouts de la mission Projet stratégique et structurant : construction d’une Data Factory from scratch. Rôle clé dans la définition de l’architecture et des standards techniques. Environnement de travail moderne et exigeant, favorisant l’excellence technique.
Mission freelance
Product Owner _ Data
Publiée le
Apache NiFi
12 mois
500-550 €
Paris, France
Télétravail partiel
Nous sommes à la recherche pour l'un de nos clients dans le domaine de l'assurance d'un Product Owner sur des projets DATA : Tâches : - Piloter le backlog Data autour des technologies de la plateforme data - Définir la vision produit autour des flux de données, de la recherche et de la visualisation. - Recueillir les besoins métiers liés à la collecte, l’analyse et la restitution des données. - Prioriser le backlog en fonction de la valeur métier et des contraintes techniques. - Rédiger les user stories pour les équipes techniques (Data Engineers, DevOps). - Piloter les développements et les intégrations sur NiFi, Grafana et Elasticsearch. - Valider les livrables : pipelines NiFi, dashboards Grafana, index Elasticsearch. - Piloter les cérémonies agiles : Daily, Sprint planning, Sprint déma, Sprint rétrospectives - Assurer la qualité des données et la performance des flux. - Suivre les indicateurs clés : latence des flux, disponibilité des dashboards, pertinence des recherches. -Collaboration : Collaborer avec les équipes interfonctionnelles, notamment les ingénieurs logiciels, les architectes de données et les analystes, pour comprendre les exigences métier et assurer une intégration harmonieuse des pipelines de données.
Offre d'emploi
Chef(fe) de Projet Coordinateur(rice) - Pilotage de flux - Data
Publiée le
Azure
Databricks
Méthode Agile
14 mois
Châtillon, Île-de-France
Télétravail partiel
Contexte de la mission - Au sein du pôle Produits/Projets Data, vous interviendrez en tant que Chef de Projet Coordinateur pour piloter les flux d’ingestion et d'exposition de données dans le cadre de projets stratégiques (analyse client, performance commerciale, etc.). Expertises REQUISES - Tableaux de bord de suivi des flux - Azure - Modélisation data - Databricks - Agilité Objectifs de la mission - Coordonner des projets d’ingestion de données depuis les sources (internes ou externes), jusqu’à la plateforme de traitement Data, sous Cloud Microsoft Azure - Coordonner des projets d'exposition de données vers des partenaires (internes ou externes) - Assurer la qualité, la traçabilité et la conformité des données ingérées. - Collaborer avec les équipes techniques (responsables d’application ; Data Engineers ; System Architect ; DevOps), ainsi qu'avec les PO et PM métiers - Garantir le respect des délais, des coûts et de la qualité des livrables. - Participer à l’amélioration continue des processus d’ingestion Compétences techniques requises - Gestion de projet : méthodologie Agile/Scrum/Kanban ; Outils Jira, Confluence - Bonnes connaissances des architectures Data : Data Lake, APIs, batch & streaming. - Expérience confirmée sur des projets Data : pilotage ; conception ; modélisation - Suivi de la mise à jour des livrables de documentations : Contrats d’interface ; Inventaire des flux - Maîtrise des outils d’ingestion : Azure Data Factory - Bonnes connaissances des environnements Cloud - Notions de gouvernance des données : qualité, catalogage, sécurité, RGPD. - Expérience dans le secteur du retail serait un plus Qualités humaines - Leadership collaboratif : capacité à fédérer des équipes pluridisciplinaires. - Excellente communication : vulgarisation des enjeux techniques auprès des métiers. - Rigueur et sens de l’organisation : gestion multi-projets, priorisation, autonomie et sens du service - Orientation résultats : focus sur la valeur métier et la livraison. - Curiosité et proactivité : force de proposition
Offre d'emploi
Chef(fe) de Projet Coordinateur(rice) - Pilotage de flux - Data
Publiée le
Azure
Databricks
Méthode Agile
14 mois
Châtillon, Île-de-France
Télétravail partiel
Contexte de la mission - Au sein du pôle Produits/Projets Data, vous interviendrez en tant que Chef de Projet Coordinateur pour piloter les flux d’ingestion et d'exposition de données dans le cadre de projets stratégiques (analyse client, performance commerciale, etc.). Expertises REQUISES - Tableaux de bord de suivi des flux - Azure - Modélisation data - Databricks - Agilité Objectifs de la mission - Coordonner des projets d’ingestion de données depuis les sources (internes ou externes), jusqu’à la plateforme de traitement Data, sous Cloud Microsoft Azure - Coordonner des projets d'exposition de données vers des partenaires (internes ou externes) - Assurer la qualité, la traçabilité et la conformité des données ingérées. - Collaborer avec les équipes techniques (responsables d’application ; Data Engineers ; System Architect ; DevOps), ainsi qu'avec les PO et PM métiers - Garantir le respect des délais, des coûts et de la qualité des livrables. - Participer à l’amélioration continue des processus d’ingestion Compétences techniques requises - Gestion de projet : méthodologie Agile/Scrum/Kanban ; Outils Jira, Confluence - Bonnes connaissances des architectures Data : Data Lake, APIs, batch & streaming. - Expérience confirmée sur des projets Data : pilotage ; conception ; modélisation - Suivi de la mise à jour des livrables de documentations : Contrats d’interface ; Inventaire des flux - Maîtrise des outils d’ingestion : Azure Data Factory - Bonnes connaissances des environnements Cloud - Notions de gouvernance des données : qualité, catalogage, sécurité, RGPD. - Expérience dans le secteur du retail serait un plus Qualités humaines - Leadership collaboratif : capacité à fédérer des équipes pluridisciplinaires. - Excellente communication : vulgarisation des enjeux techniques auprès des métiers. - Rigueur et sens de l’organisation : gestion multi-projets, priorisation, autonomie et sens du service - Orientation résultats : focus sur la valeur métier et la livraison. - Curiosité et proactivité : force de proposition
Mission freelance
Développeur QlikSens/Talend
Publiée le
Data Warehouse
ETL (Extract-transform-load)
Qlik Sense
6 mois
Lille, Hauts-de-France
Télétravail partiel
Data Engineer – Projet Data/BI/EDIVos missions : Collecter, transformer et intégrer des données issues de différentes sources (ERP, CRM, WMS, TMS) au sein de la plateforme décisionnelle. Développer, automatiser et maintenir des flux ETL performants et sécurisés avec Talend . Mettre en place des processus de Data Quality pour fiabiliser les informations exploitées par les métiers. Contribuer à la conception de l’architecture Data Warehouse et modéliser des schémas adaptés aux besoins analytiques. Déployer et optimiser des modèles et applications QlikSense pour rendre les données accessibles et compréhensibles. Participer à la configuration et à l’intégration des flux EDI , en choisissant les protocoles adaptés (EDIFACT, AS2, SFTP, etc.). Surveiller la performance des traitements, détecter et corriger les anomalies dans les pipelines de données. Collaborer avec les chefs de projets Data et les équipes métiers pour traduire les besoins en solutions techniques concrètes. Contribuer aux phases de tests, de validation et de mise en production des projets BI et EDI.
Mission freelance
Product Owner Data (H/F)
Publiée le
Agile Scrum
Apache NiFi
Data Warehouse
12 mois
550-620 €
Paris, France
Télétravail partiel
Freelance / Portage salarial - 🏠 2 jours de télétravail / semaine - 📍 Paris 8 - 🛠 Expérience de 5 ans minimum Envie d’un nouveau challenge... CELAD vous attend ! 🚀 Nous poursuivons notre développement et recherchons actuellement un.e Product Owner Data pour intervenir chez un de nos clients dans le secteur bancaire & assurance. 💻💼 Voici un aperçu détaillé de vos missions 🎯 : - Piloter le backlog Data et définir la vision produit autour des flux de données, de la recherche et de la visualisation. - Recueillir les besoins métiers liés à la collecte, l’analyse et la restitution des données. - Prioriser le backlog en fonction de la valeur métier et des contraintes techniques. - Rédiger les user stories et collaborer étroitement avec les Data Engineers et DevOps. - Piloter les développements et intégrations sur Apache NiFi, Grafana et Elasticsearch. - Valider les livrables : pipelines NiFi, dashboards Grafana, index Elasticsearch. - Animer les cérémonies agiles : Daily, Sprint planning, Sprint demo, rétrospectives. - Assurer la qualité des données et la performance des flux. - Suivre les KPI clés : latence, disponibilité, pertinence des recherches. - Collaborer avec les équipes interfonctionnelles (ingénieurs logiciels, architectes, analystes).
Mission freelance
Architecte Solution Data AWS
Publiée le
AWS Cloud
AWS Glue
Big Data
3 ans
600-700 €
Paris, France
Missions principales : * Conception et définition de la plateforme Data : -Définir le plan fonctionnel de la plateforme Data en fonction des besoins -stratégiques et opérationnels de l'entreprise. -Conceptualiser et structurer les fonctionnalités de la plateforme pour répondre aux exigences métiers. * Industrialisation et optimisation des processus : -Optimiser les processus de collecte, gestion, transformation et restitution des données pour les rendre plus efficaces. -Garantir la performance et la scalabilité des solutions mises en œuvre. * Urbanisation des Data Lakes : -Concevoir un schéma d'architecture fonctionnelle pour l’urbanisation des Data Lakes existants. -Mettre en place un référentiel des schémas d'interface d’entrée et gérer le versionning des données. -Assurer la cohérence de la circulation de la donnée, de l'acquisition jusqu’à son utilisation. *Collaboration avec les équipes métiers et techniques : -Travailler en étroite collaboration avec les chefs de projets Data, les architectes techniques et les Data Engineers. -Collecter et classifier les besoins fonctionnels des métiers pour les traduire en solutions techniques. *Rédaction de la documentation fonctionnelle : -Élaborer et maintenir à jour la documentation technique et fonctionnelle de l’architecture Data. -Proposer et formaliser des nomenclatures et des règles de gestion adaptées. *Référent technique : -Jouer un rôle de conseil et d’appui sur la conception des flux de données et la structuration des objets (Data Lake, Dataware, Datamart). -Être un point de référence pour l’équipe Data et garantir l’application des bonnes pratiques dans le cadre de la conception des solutions. Compétences requises :
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
264 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois