Trouvez votre prochaine mission ou futur job IT.
Mission freelance
Data Analyst Confirmé
A. Analyse des données existantes Étudier les structures de données complexes issues de systèmes Mainframe. Travailler avec les équipes techniques pour comprendre les règles d'extraction et de traitement des données. Participer à l'analyse des flux batch et de leur transformation vers une architecture cible. B. Data Mapping & Transformation Élaborer des documents de mapping détaillés entre les anciennes sources (in/out)Mainframe et la cible (Data Lake…). Spécifier les règles de transformation (calculs, concaténations, pivotages) à intégrer dans les outils ETL. Collaborer avec les développeurs ETL/API pour tester et valider les jobs de transformation. C. Contrôle qualité et validation Mettre en place un cadre robuste de contrôle qualité des données migrées. Réaliser des audits de cohérence entre l'ancien et le nouveau système (réconciliation des indicateurs clés, traçabilité). Gérer les phases de validation progressive pour sécuriser les mises en production par lots (cut-over partiels, big bang, etc.). D. Continuité de reporting métier Analyser les besoins de reporting opérationnel et réglementaire pendant la période transitoire. Garantir que les rapports critiques (finance, risque, conformité, etc.) restent disponibles et cohérents. Identifier les écarts éventuels entre les jeux de données Mainframe et les données migrées, et alerter sur les impacts. E. Documentation & Suivi Documenter l'ensemble des règles de mapping, des spécifications de qualité et des plans de test. Produire des dashboards de suivi de migration, de la qualité des données, et de traçabilité. Participer aux comités de suivi projet pour exposer les résultats d'analyse et les indicateurs de qualité.

Mission freelance
Chef de projet Data Confirmé
Dans le cadre du développement de ses produits et projets Data, notre client recherche un Chef de Projet Data confirmé pour piloter l’ingestion et l’exposition de données dans un environnement Microsoft Azure . La mission s’inscrit dans un programme stratégique de long terme visant à optimiser la circulation et la mise à disposition des données via des pipelines performants, avec pour livrable principal un tableau de bord de suivi des flux . Vous aurez la responsabilité de coordonner l’ensemble des parties prenantes, de garantir la qualité des livrables techniques et de veiller au respect des délais dans un environnement structuré par les méthodologies agiles. Vous interviendrez aussi bien sur les aspects techniques que fonctionnels du projet, avec une forte sensibilité aux enjeux de modélisation et de qualité des données .
Offre d'emploi
Consultant Data Semarchy/Talend/MdM
Contexte Un acteur majeur du secteur agroalimentaire recherche un·e consultant·e spécialisé·e en solutions de Master Data Management (MDM) afin d’accompagner la mise en œuvre, l’intégration et la valorisation d’une plateforme de gestion unifiée des données. Missions principales Analyse et cadrage : Recueillir les besoins auprès des métiers et de la DSI, animer des ateliers et traduire les enjeux business en exigences data. Conception et modélisation : Définir les modèles de données, les règles de gestion (qualité, consolidation, validation, transcodification) et la gouvernance associée. Intégration et déploiement : Développer et configurer les flux de données, paramétrer la plateforme MDM, assurer les phases de tests et accompagner les mises en production. Qualité et conformité : Mettre en place des contrôles de qualité, garantir la traçabilité (data lineage) et contribuer au respect des exigences réglementaires. Valorisation des données : Concevoir des tableaux de bord et indicateurs de pilotage pour faciliter la prise de décision. Support et formation : Accompagner les utilisateurs, assurer la montée en compétences des équipes métiers et techniques, proposer des bonnes pratiques.

Offre d'emploi
Data Analyst Senior Snowflake & PowerBI (H/F) (Bordeaux)
Skiils recrute un(e) Data Analyst Snowflake & PowerBI (H/F) pour rejoindre une équipe data en pleine transformation et participer à la valorisation des données et à la création de dashboards impactants ! Au cœur d’une petite équipe agile, tu auras pour mission de prendre le lead sur tes sujets , d’accompagner la migration et la refonte du datalake vers Snowflake, et de produire des analyses et visualisations pour soutenir les décisions stratégiques. En tant que tel(le), ton rôle consistera à : Concevoir et réaliser des dashboards PowerBI performants et intuitifs, permettant aux équipes métiers de prendre des décisions éclairées. Analyser, harmoniser et améliorer les datasets , identifier les données manquantes ou à enrichir pour répondre aux besoins business. Réaliser et optimiser des requêtes SQL complexes , avec une compréhension fine des besoins fonctionnels. Collaborer à l’alimentation de Snowflake via Python , selon tes appétences, pour garantir la qualité et la fiabilité des données. Proposer des analyses et insights pour orienter les décisions et arbitrages de l’équipe. Participer activement à l’amélioration continue de l’équipe, challenger et être challengé dans un esprit

Mission freelance
Data Manager / Analyst Tableau Lille 3j sur site obligatoire
En quelques mots Cherry Pick est à la recherche d'un "Data Manager / Analyst Tableau" pour un client dans le secteur du commerce de détails Description 🎯 Contexte de la mission Les équipes Digital for Industry du groupe s’inscrivent dans un programme ambitieux de transformation digitale visant à mieux maîtriser le patrimoine de données industrielles et à renforcer leur valeur pour les métiers. Avec 35 processus industriels, 47 pays de production, 1 400 fournisseurs et 52 partenaires industriels, les enjeux sont multiples : Garantir la qualité des données industrielles Réduire les écarts et risques Faciliter la durabilité des matières et le suivi des impacts CO2 Vous intégrerez l’équipe Data Composants, Matières et Traçabilité au sein de Digital Industry, composée d’un Data Governance Manager, de 2 Data Owners, d’un BI Engineer et d’un Data Steward. 🧠 Rôle et responsabilités En tant que référent des données matières premières, vous serez en charge de : Gouvernance des données : Tenir à jour le dictionnaire d’entreprise (Business Objects, indicateurs, définitions). Suivre les règles de gouvernance déjà définies. Qualité & Fiabilité des données : Assurer la fiabilité des volumes de matières premières (analyse des écarts entre systèmes et relevés terrain). Mettre en place des plans de remédiation : contrôles, formations métiers, outils correctifs. Gestion du référentiel matières (RUN) : Modérer et valider les nouvelles entrées du référentiel. Communiquer et animer la communauté des relais métiers. Accompagnement des métiers : Développer la culture data auprès des équipes industrielles. Prioriser les KPI sur volumes et % de preferred materials. Accompagner le changement (communication et formations). Collaboration transverse : Travailler étroitement avec les équipes PLM pour aligner les modèles de données sur les besoins métiers. Coopérer avec les experts Analytics & Data Science de l’équipe Data for Industry.

Mission freelance
Data Analyst
Un grand compte du secteur Assurance recherche un Data Analyst expérimenté pour rejoindre son pôle Data et Intelligence. Cette mission s’inscrit dans le cadre de projets structurants visant à renforcer la maîtrise des risques, améliorer le pilotage et accompagner la transformation de l’entreprise. Sous la supervision d’un responsable du pôle, vous contribuerez à la conception et à la maintenance d’outils de pilotage, ainsi qu’à l’analyse des données afin d’éclairer les décisions stratégiques. Vous interviendrez en étroite collaboration avec les équipes métiers et techniques. Vos missions : Recueillir les besoins métiers et accompagner les équipes dans l’expression de leurs besoins. Réaliser des études ponctuelles sur la base des données existantes (QlikSense, QlikView) et rédiger des préconisations. Créer ou mettre à jour des applications de pilotage selon les normes internes (principalement sous QlikSense). Extraire et manipuler des données via SQL. Participer aux réunions et aux groupes de travail liés aux projets confiés. Développer des traitements ETL via Informatica. Vous serez intégré à une équipe data dynamique et participerez activement à des projets à fort impact sur la performance globale de l’entreprise.

Offre d'emploi
Data Engineer GCP + Talend
Pour l’un de nos clients Grand Compte, nous recherchons un Data Engineer spécialisé sur GCP et Talend . Missions principales : Analyser les besoins métiers et comprendre les impacts business des données afin de proposer une conception pertinente et alignée avec les objectifs stratégiques. Concevoir et développer des pipelines de données robustes et scalables en utilisant Talend et les services de Google Cloud Platform (BigQuery, DataForm, Dataflow, Pub Cloud Composer). Améliorer la performance et la scalabilité des solutions existantes. Collaborer étroitement avec les architectes, PO et data analystes pour garantir la qualité et la bonne exploitation des données. Maintenir une documentation technique claire et à jour des processus et solutions mises en place. Réaliser la recette technique et participer à l’animation de la recette fonctionnelle avec les utilisateurs et le PO. Mettre en place et gérer des systèmes de monitoring pour assurer la supervision proactive des pipelines. Participer aux phases de déploiement et assurer la maintenance corrective et évolutive. Veiller à la cohérence des livrables avec les standards et bonnes pratiques de l’équipe. Compétences techniques requises :
Mission freelance
DATA ENGINEER
Dans le cadre d’un projet de migration à l’échelle internationale, une équipe Data recherche un(e) Data Engineer pour intervenir sur des environnements Big Data basés sur Google Cloud Platform (GCP) . Le poste est orienté Build , avec un fort accent sur la conception et le développement de flux de données (batch et temps réel). Les missions incluent : L’analyse des besoins métiers et leur traduction en spécifications techniques. La conception et le développement de pipelines de données performants. La rédaction de livrables techniques : dossiers de conception, packages techniques. La contribution à l’amélioration continue de la plateforme data. La collaboration avec des profils variés : Data Engineers, Data Scientists, équipes métiers.

Mission freelance
Data Ops
Fiche de Poste : Ingénieur DevOps Contexte Notre technologie répond aux défis persistants du monde des paiements. Nous concevons et exploitons des solutions de paiement numérique et transactionnelles de pointe, favorisant une croissance économique durable tout en renforçant la confiance et la sécurité dans nos sociétés. Le poste En tant qu’ Ingénieur DevOps , vous jouerez un rôle clé dans l’intégration, le déploiement et la validation de solutions logicielles et matérielles. Vous interviendrez sur l’ensemble du cycle de vie des projets, de la préparation des environnements à la validation finale, en passant par les tests automatisés et le support client.

Offre d'emploi
Data Engineer | AWS | Databricks | Big Data
Contexte Dans le cadre de la mise en place et de l’évolution d’une plateforme DATA centralisée, nous renforcons son équipe avec un Data Ingénieur confirmé. Cette plateforme permet l’intégration, la mise en qualité et la mise à disposition de données brutes ou retravaillées issues de différents producteurs, afin de répondre à des besoins métiers opérationnels et analytiques à grande échelle. Rôle et responsabilités Développement et ingestion de données Concevoir, développer et optimiser des jobs d’ingestion et de transformation de données en Python et Spark sur Databricks , avec gestion de gros volumes. Mettre en place et maintenir des flux de données entre sources externes (ex. bases Oracle) et Delta Lake sur AWS S3 . Orchestration et supervision Créer et orchestrer des workflows avec AWS Airflow et automatiser les traitements. Mettre en place des mécanismes de contrôle qualité et de validation des données pour garantir cohérence et fiabilité. Développer des jobs de monitoring pour détecter et corriger automatiquement les anomalies. Maintien en condition opérationnelle Assurer la disponibilité et la performance des jobs en production. Analyser et corriger les incidents et anomalies détectées. Contribution stratégique Participer aux ateliers de conception technique et fonctionnelle. Promouvoir les bonnes pratiques de développement et d’optimisation Big Data. Documenter les processus, architectures et scripts. Compétences techniques requises MUST : Python Spark Databricks SQL SHOULD : AWS (S3, Glue, Airflow, CloudWatch, Lambda, IAM) COULD : Big Data (gestion et traitement de très gros volumes de données) WOULD : Git Méthodologies et outils : CI/CD avec GitLab JIRA / Confluence Méthodologie agile Scrum
Mission freelance
MOE DATA
Bonjour, je recherche pour l'un de mes clients un(e) MOE DATA. Skills : DATA - Azure Mission : -coordonner des projets d’ingestion de données depuis les sources (internes ou externes) jusqu’à la plateforme de traitement Data sous Cloud Microsoft Azure -assurer la qualité, la traçabilité et la conformité des données ingérées -garantir le respect des délais, des coûts et de la qualité des livrables -participer à l’amélioration continue des processus d’ingestion N'hésitez pas à revenir vers moi pour des informations complémentaires.

Mission freelance
Chef de projet Data Gouvernance
Je suis à la recherche pour un de nos clients d'un Chef de projet Data Gouvernance. Bonne maîtrise technique et fonctionnelle des solutions modernes d’intégration de données. Il devra s’assurer de la bonne application des lignes directrices d’implémentation. Il devra assurer le déroulé projet dans le respect des engagements et des livrables, participer à l’élaboration des choix techniques ou d’architecture, orienter les développements pour garantir l’adéquation entre le besoin fonctionnel et les bonnes pratiques du marché en termes d’intégration et de gestion des pivots. Environnement technique basé sur GCP et articulé autour de Kafka

Offre d'emploi
Data engineer - Vannes - 5-10 ans d'éxpérience
Merci de bien lire l'annonce ci dessous et vérifier que vous correspondez au besoin. Nous recherchons exclusivement des candidats basés à Vannes ou en Bretagne . Merci de ne pas envoyer de candidature si vous êtes situés hors de cette zone géographique. En tant que Data Engineer , votre mission principale sera de produire des solutions techniques robustes et performantes pour exploiter au mieux les données du client. Cependant, votre rôle ne se limitera pas à l’aspect technique : vous serez également un partenaire stratégique des métiers , capable d’identifier leurs besoins, de comprendre leurs enjeux et de proposer des solutions techniques adaptées. Vos responsabilités : Concevoir, développer et maintenir des pipelines de données performants et évolutifs Participer à la définition de l'architecture Data Développer les solutions de collecte et de stockage des données Mettre en place les tests unitaires et automatisés Garantir la qualité, la sécurité et l’intégrité des données tout au long de leur cycle de vie. Implémenter des solutions qui optimisent la gestion des données pour les équipes métier. Collaborer étroitement avec les équipes métier pour comprendre leurs objectifs stratégiques. Faciliter la communication entre les équipes techniques et les non-techniciens Vous serez à la croisée des chemins entre technique et métier , jouant un rôle clé pour transformer les données en un véritable levier de décision. Votre capacité à allier expertise technique et vision stratégique fera de vous un acteur indispensable pour relever les défis de l’entreprise.
Mission freelance
Data engineer Snowflake (H/F)
Nous recherchons pour le compte de l’un de nos clients un Data Engineer Snowflake (H/F) dans le cadre d’un remplacement : Missions : Concevoir et maintenir des pipelines de données dans Matillion vers Snowflake. Intégrer diverses sources de données (API, bases, fichiers plats) dans Snowflake. Optimiser les traitements SQL et les configurations pour améliorer la performance et réduire les coûts. Mettre en place le monitoring et résoudre les anomalies sur les workflows ETL. Garantir la qualité, la fiabilité et la sécurité des données en production.
Mission freelance
Data Analyst Senior – Spécialisation ERP Infor M3
Dans le cadre de l’enrichissement d’un Datahub Finance / Achats , nous recherchons un Data Analyst expérimenté pour cartographier et valoriser les données issues de l’ERP Infor M3 . Le consultant interviendra au sein d’une équipe Data pour identifier et documenter les liens entre les données brutes de M3 (tables, champs) et les jeux de données analytiques cibles (comptes fournisseurs, clients, P&L, grand livre, etc.). Responsabilités principales : Identifier, en lien avec les Data Engineers, les tables et champs clés dans M3 Réaliser la cartographie des données brutes vers les datasets analytiques Finance / Achats Formaliser les règles de gestion et de transformation des données Assurer la qualité documentaire et la cohérence des mappings Collaborer avec les différentes parties prenantes (IT, métiers, data)

Offre d'emploi
Data Engineer GCP DBT LOOKER (H/F)
En tant que Data Engineer, vous intégrerez une feature team pour participer aux différents projets de développement. Pour cela vous aurez en charge : · Compréhension des besoins métiers · Conception des solutions nécessitant l’utilisation de technologies cloud & data pour répondre aux besoins métier · Déploiement, optimisation et industrialisation au quotidien des pipelines de données dans le Cloud · Travaille avec différents profils data du groupe (Data Scientist, data engineer, data architect, data analyst) · Assurer le monitoring des modèles en production · Contribuer au développement et à l’amélioration continue des outils data interne
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.