Trouvez votre prochaine mission ou futur job IT.

Offre d'emploi
Consultant Data Quality
Description de l'offre : Nous sommes à la recherche d'un consultant en qualité de données, avec des connaissances en assurance et en Solvency 2. Compétences attendues : · Connaissances en : Assurance, Réglementation Solvency 2 et Data Quality · Maîtrise Excel · Connaissance QLikSense serait un plus · Disposer d’un minimum de connaissances en gestion de projet · Aisance relationnelle Merci de ne pas postuler si vous ne respectez pas les compétences attendues, principalement concernant les connaissances en assurance, Solvency 2 et Data Quality, votre candidature sera refusée. Contexte : Nous sommes un jeune cabinet de conseil en pleine expansion, spécialisé dans l’accompagnement des entreprises sur des enjeux stratégiques et opérationnels. Pour répondre à la demande croissante de nos clients, nous développons une nouvelle offre de services dédiée à la data. Un de nos clients recherche un consultant pour les aider à consolider et pérenniser l'Unité Qualité des données, notamment vis-à-vis des textes réglementaires. · Prestations à réaliser : La mission se focalisera principalement sur quatre rubriques et les documents associés : · Gouvernance : Politique QDD / Reportings QDD · Répertoire des données : · Traçabilité : Cartographie des flux / Note de collecte / PV QDD · Dispositifs de contrôles : Référentiel de contrôles / Fiches méthodologiques / Fichier de formalisation / Plan de contrôles de 2nd niveau / Cartographie des risques Accessoirement, il pourrait être demandé au consultant d’intervenir sur des sujets annexes en relation directe avec la Qualité des données.

Offre d'emploi
Chef de projet Infrastructure / Gestion du processus data
Descriptif du poste : Chef de projet Infrastructure / Gestion du processus data Au sein d'une entreprise, un processus data et applications management a été mis en place afin de cadrer la gestion des données. L'équipe de GPO (Global Process Owner) GPM (Global Process Manager) doit être renforcée afin de permettre le déploiement du processus dans l'entreprise. Missions principales : Revu et mises à jour du processus et des procédures Suivi des indicateurs du processus Préparation des comités d'axes (AQR Axis Quaterly Review, AMR Axis Monthly Review, AYR Axis Yearly Review) Proposer des actions d'amélioration continu du processus et des indicateurs Mise en conformité du processus vis à vis des règles groupe Participation aux audits ISO, internes et BCE

Mission freelance
Data Engineer
Dans le cadre du renforcement de l’équipe Socle Performance , rattachée à la direction DELIVERY BACK (département Finance, Services d’Appui, RH et RSE), nous recherchons un profil DevOps orienté data capable de faire le lien entre les enjeux métiers et les solutions techniques. Vos responsabilités : Analyser et comprendre les besoins des utilisateurs métiers, Proposer des conceptions techniques alignées avec les orientations cibles d’Auchan (GCP : BigQuery, Airflow, Cloud Run, etc., RDO, Git...), Prendre en charge l’ensemble des phases projet : de la conception au déploiement, en passant par le développement, les tests et la mise en production, Contribuer activement aux activités de RUN , de BUILD et aux démarches d’ amélioration continue .

Offre d'emploi
Data Architecte
Missions Participation à la maintenance opérationnelle de l'outillage Amélioration de l'industrialisation des outils Participation au projet de migration vers Openshift et à sa sécurisation Test et proposition des solutions innovantes pour améliorer notre offre de service Accompagnement des clients dans l'implémentation et le design de l'intégration et la sécurité Participation à l'amélioration du monitoring avec Dynatrace Participation à l'intégration de solutions Data Responsabilités Principales Fournir et maintenir l'outillage facilitant l'intégration de solutions Data (datahub, open metadata, Spark, Trino, airflow, Vault, Kubernetes, Monitoring, Gitlab CI, ArgoCD, sécurité) Fournir des standards et modèles d'intégrations de solutions Data Accompagner et former les équipes de solutions Data Supporter/maintenir la plateforme en PROD

Offre d'emploi
Consultant(e) Data Analyst
Mission Vous avez une forte appétence au Marketing et le monde de la Data vous passionne ? Rejoignez Consortia en qualité de consultant(e) Data Analyst / Gestionnaire de campagnes marketing. Votre mission principale consiste à participer à l'application de la stratégie marketing multicanal de votre client : du recueil des besoins aux déploiements des ciblages en passant par la coordination des besoins et la gestion des échéances ou au suivi de la délivrabilité Vous participez à la mission de communiquer au bon client au bon moment à travers le meilleur canal, avec pour objectif l'augmentation des conversations (achats, trafic, branding, ...) et/ou la limitation de l'attrition Vous analysez la performance des campagnes à travers nombres d'indicateurs permettant d'optimiser les ciblages des campagnes futures Vous recommandez des axes d'améliorations en vous appuyant sur la pertinence de vos analyses et votre force de proposition

Mission freelance
Un Data Engineer sur Paris + TT
Smarteo recherche pour l'un de ses clients, Un Data Engineer sur Paris + TT Projet : Participation à la définition des solutions applicatives Développement, Intégration et Recette technique Assurer l’assistance technique auprès de nos client Surveiller et améliorer l'efficacité des processus Tenir à jour la documentation des systèmes et des processus. Principaux livrables : Participer au cadrage technique Refonte et re-design de l'application existante Initialisation et préparation de l'environnement de DEV et de la chaine DEVOPS Développement Front avec UX/Design, gestion des exceptions. Développement des pipelines de données (Extraction via API externe et d'autres sources, Intégration dans une Base de données SQL et construction des données nécessaires pour exposition dans le portail) Intégration et déploiement continue via une chaine CI/CD sur l'ensemble des environnements Documentation technique et utilisateurs. Recette technique et tests de bout en bout. Traitement des incidents & assistance utilisateurs Respect des normes et règles de développement Python. Travailler étroitement avec les équipiers pour s’assurer que les solutions mises en œuvre répondent bien aux besoins métiers et sont alignées avec les meilleures pratiques. Compétences requises : Maitrise de Python et de Framework Streamlit Expertise en déploiement et configuration de Streamlit en environnement python Maîtrise de HAProxy et des concepts de reverse proxy et connexion SSL/TLS Maitrise Bash et chaine DEVOPS (GitLab, Jenkins, Ansible, Nexus, Sonar, …) Maitrise des base de données relationnelle SQL Experience sur la consommation et l'exposition API REST Kubernetes, pratiques MLOPS Une bonne autonomie et capacité de prendre le lead sur la définition des solutions applicatifs et le développement des évolutions bonne communication et accompagnement utilisateurs Sens du travail en équipe Best to have : - Connaissance LLM et IA GEN Si vous êtes intéressé, merci de me faire parvenir votre TJM ainsi que votre CV à jour au format Word
Mission freelance
Consultant Tableau Freelance en Requêtage et Data Viz
Hoxton Partners recherche un consultant Tableau freelance spécialisé en requêtage et Data Viz pour une mission passionnante. Le candidat idéal devra maîtriser l'outil Tableau et être capable de modéliser des datasets complexes. Une expérience avancée avec les fonctions cartographiques de Tableau, y compris l'intégration de cartes Mapbox, est essentielle. De plus, une expertise dans les fonctions analytiques et de data science, telles que l'intégration de programmes Python pour l'analyse de données, est fortement appréciée. Responsabilités : Créer des visualisations de données interactives et informatives à l'aide de Tableau. Développer des requêtes efficaces pour extraire, transformer et charger des données. Intégrer des visualisations cartographiques avancées à partir de sources diverses. Collaborer avec l'équipe pour comprendre les besoins analytiques et concevoir des solutions adaptées. Compétences requises : Excellente maîtrise de Tableau et de ses fonctionnalités avancées. Solides compétences en requêtage SQL et capacité à manipuler des datasets complexes. Connaissance pratique des fonctions cartographiques de Tableau, en particulier avec Mapbox. Expérience avec des outils de data science, notamment Python, pour l'analyse de données. Conditions : Type de contrat : Freelance Durée : 3 ans Lieu : Paris 13ème Télétravail : 3 jrs sur site et 2 jrs en TT
Offre d'emploi
Tech Lead / Senior Data Engineer Python Spark AWS
Je recherche un profil senior Data Engineer avec une évolution rapide vers un poste de Tech Lead. Points clés : • Solides connaissances et pratique en Python (design, tests, processus de développement, etc.) • Data Engineering : architecture big data / modélisation / optimisation / environnement distribué • Connaissance du cloud AWS ; un niveau intermédiaire minimum est requis, avec une expérience pratique • Bon esprit d'équipe et capacité d'adaptation • Bonnes compétences en communication en anglais L'objectif est de développer une plateforme basée sur des technologies Big Data robustes et évolutives. Cette plateforme sera capable de traiter un volume important de données dans les différents pays où le client opère. Son objectif principal est de capturer divers indicateurs dans un référentiel centralisé, permettant d'accéder à des vues standardisées et transversales de ces indicateurs. Outre ses responsabilités techniques, le data engineer veillera au respect des directives du groupe concernant l'utilisation du cadre interne et l'architecture. Il collaborera également avec les autres parties prenantes du projet afin de promouvoir ces directives et de proposer des solutions communes pour la plateforme. Le rôle du data engineer senior dans ce projet consistera à concevoir et à mettre en œuvre les composants suivants de la plateforme : • Ingestion des données • Traitement et normalisation des données. • Distribution des données aux différentes parties prenantes. • Construire et améliorer le cadre commun, notamment en matière de surveillance, de CI/CD, de tests, de performances, de résilience, de pratiques de développement et de qualité du code.

Mission freelance
Data Analyst – SQL / PowerBI – Lille
Nous recherchons un Data Analyst pour accompagner la direction Performance dans la réalisation de projets d’analyse de données et de dashboarding, en lien avec l’animation opérationnelle en magasin (suivi des remises, opérations commerciales) et la supply chain. La mission inclut : L’accompagnement des équipes métier au sein du pôle data (17 personnes) La proposition de solutions innovantes aux problématiques métiers La réalisation d’analyses statistiques préparatoires La création de dashboards clairs, ergonomiques et performants sous PowerBI Une forte autonomie, rigueur et sens de l’organisation Une aisance dans la communication avec des interlocuteurs techniques et métiers La capacité à restituer des résultats concrets de manière synthétique

Offre d'emploi
Data Engineer
Engineer System DREMIO Descriptif du poste Nous recherchons un Ingénieur Systèmes expérimenté sur la solution DREMIO pour intégrer l’organisation d’une Data Tribe. Vous interviendrez en support des filiales dans le cadre de leurs activités récurrentes (BAU) liées aux systèmes IT de données sur la plateforme de virtualisation des données Dremio. Vos missions incluront notamment : La surveillance quotidienne de la plateforme La gestion des incidents et des problèmes La coordination des déploiements avec les équipes IT OPS L’identification et la mise en œuvre des tâches projets ⚠️ Ce poste s’adresse exclusivement à un ingénieur systèmes disposant d’une expérience significative sur le logiciel DREMIO. Responsabilités Les principales responsabilités sont : • Production' Daily morning check: En cas de problème et/ou de retard avec les processus et/ou les flux, s'assurer que les bonnes équipes gèrent le problème et que l'entité est correctement informée dès que possible. D'autres environnements peuvent être inclus dans cette tâche de surveillance, mais la priorité est toujours la Production. • Surveiller le cycle de vie des incidents de production avec les filiales et les équipes IT OPS appropriées, et lancer une procédure d'escalade si nécessaire Communication régulière vers l'entité qui leur donnera la bonne visibilité sur l'évolution des problèmes. Soutenir les différentes équipes dans le dépannage et la résolution des problèmes liés aux données • Préparer des rapports : incidents, événements majeurs et proposer des améliorations dans les tableaux de bord de surveillance • Gestion des demandes d'infrastructure (bases de données, stockage, communications de flux ouvert, planification, surveillance, etc.) sur les différents environnements avec IT OPS Responsable de s'assurer que les modifications par IT OPS sont effectuées (surveiller, rapporter, communiquer) • Coordination de la gestion des livraisons avec IT OPS (chaîne d'outils CI/CD) pour les environnements de pré-production et de production – après validation des phases de test des entités • Surveillance des coûts d'infrastructure avec FINOPS • Analyser les modifications à apporter dans les environnements de production et fournir des recommandations • Analyser et évaluer les incidents opérationnels pour optimiser les actions correctives et préventives par l'escouade de la filiale • Favoriser une culture d'apprentissage et d'amélioration continue au sein de l'équipe

Mission freelance
AWS Data Engineer
Développer et maintenir des pipelines de données évolutifs à l’aide de Python, Spark et des services AWS. Effectuer des calculs sur des données chronologiques et événementielles issues de parcs solaires et de systèmes de stockage d'énergie. Concevoir et mettre en œuvre une infrastructure sous forme de code (IaC) avec Terraform pour gérer les ressources cloud. Collaborer avec les responsables des parcs solaires et de stockage afin de comprendre les besoins en données et de fournir des informations pertinentes. Développer des API ou des interfaces de données pour exposer les données traitées à des fins d'analyse et de visualisation. Garantir la qualité, la fiabilité et la performance des données à toutes les étapes du pipeline. Documenter les processus et contribuer aux meilleures pratiques en ingénierie des données et en analyse des énergies renouvelables.

Offre d'emploi
DATA ENGINEER DATAMARTS F/H | NANTES (44)
VOTRE QUOTIDIEN RESSEMBLERA A… Vous rejoignez notre client et interviendrez sur l'alimentation des datamarts. A ce titre, vous serez en charge de : Comprendre l’activité et les attentes des utilisateurs, en lien avec la MOA et les équipes métiers. Appréhender le SI de production et échanger avec les équipes techniques pour assurer une bonne intégration des solutions. Structurer les données via des modèles adaptés (ex : schéma en étoile, tables de dimensions). Développer des traitements d’alimentation Concevoir et modéliser des schémas de données. Créer et alimentation des datamarts (ex : via DBT). Mettre en place de processus CDC. Gérer les anomalies et assurer la maintenance Accompagner les équipes métiers et rédiger la documentation technique. Environnement Technique : Business Object, BI, Semarchy, Talend, AWS, Amazon RedShift, PySpark, SQL, Power Designer Le poste est basé à Nantes (44) . Dans le cadre de vos fonctions, vous pourrez bénéficier de 1 jour de télétravail par semaine après votre période d'intégration.

Offre d'emploi
DATA ENGINEER SEMARCHY F/H | DIJON (21)
VOTRE QUOTIDIEN RESSEMBLERA A… Vous rejoignez notre client en qualité de Data Engineer F/H et serez en charge de : Participer à la configuration de la plateforme selon les besoins métier. Concevoir et optimiser des modèles de données et des workflows d’intégration. Rédiger des spécifications techniques et fonctionnelles. Développer et exécuter des requêtes SQL avancées. Gérer les bases de données Vertica et assurer leur performance. Assurer la qualité des données et leur conformité aux standards en vigueur. Former et accompagner les utilisateurs. Environnement Technique : Semarchy / Stambia, Vertica, SQL Le poste est basé à Dijon (21) . Dans le cadre de vos fonctions, vous pourrez bénéficier de 1 jour de télétravail par semaine après votre période d'intégration.

Offre d'emploi
Data Cloud Architect
NE PAS POSTULER SI VOTRE PROFIL NE CORRESPOND PAS A L'OFFRE OU SI NE VOUS SOUHAITEZ PAS VOUS ALIGNER AU TJM MENTIONNÉ Contexte de la mission En tant que membre de l’équipe Data Capture , le poste requiert une solide expérience technique et en architecture, ainsi qu’une forte maîtrise des technologies Cloud , du développement de microservices et de l’ architecture orientée événements (Event Driven Architecture) . Ce rôle implique également une collaboration étroite avec les équipes IT du Groupe et des zones, les partenaires métiers, les partenaires externes, ainsi que l’ensemble des membres de l’équipe d’intégration. Les compétences suivantes sont clés et obligatoires : Leadership et autonomie Engagement sur les sujets Capacité à produire de la documentation (dans le cadre d’un audit, d’un POC, ou pour formaliser des standards et de l’architecture) Objectifs et livrables Concevoir et proposer des solutions autour de la donnée en utilisant les technologies Azure Cloud dans le cadre de notre framework Concevoir et proposer des solutions sur Snowflake Appliquer la stratégie "Data as a Service" en respectant les bonnes pratiques d’architecture Concevoir et développer des API / microservices pour enrichir notre framework de solutions Soutenir la stratégie Event Driven Architecture basée sur Azure Event Hub et Azure IoT Hub Contribuer à l’enrichissement de notre catalogue de services en self-service Participer à la modernisation et à la veille technologique au sein de l’équipe Data Capture et de l’organisation Data & Analytics Être le référent Cloud au sein de l’équipe Animer des ateliers et faciliter la collecte des besoins Accompagner les Data Engineers sur les sujets liés au Cloud Apporter un support à l’ équipe Sécurité sur les sujets associés Contribuer à la roadmap Data Capture et à son évolution Challenger et accompagner les prestataires externes Compétences demandées Compétence Niveau Snowflake Expert Event Driven Architecture (EDA) Confirmé Architecture Expert Réseau Confirmé Intégration continue Expert SQL Expert Azure Confirmé Données (Data) Expert Codage Confirmé Anglais Courant
Mission freelance
Data Engineer senior/ Python/ Talend / Looker/ GCP - Domaine Retail (H/F)
Nous recherchons pour le compte de notre client dans le retail, un data Engineer senior. En tant que Data Engineer, vous aurez la charge de concevoir, développer et d’optimiser des solutions Data adaptées aux besoins de nos différents métiers. Votre expertise avancée sur les différents services GCP, combinée à une solide maîtrise de SQL et python, sera essentielle pour concevoir des solutions performantes et alignées avec les besoins métiers. Vous serez un acteur clé de l'équipe technique de la Data Factory pour garantir la fiabilité et la performance des systèmes de traitement de données. Missions principales : • Analyser les besoins métiers et comprendre les impacts business des données afin de réaliser une conception pertinente et alignée avec les objectifs stratégiques. • Concevoir et développer des pipelines de données robustes et scalables en utilisant Talend et les services de Google Cloud Platform (BigQuery, DataForm, Dataflow, Pub/Sub, CloudComposer). Vous serez au cœur de la construction d’une infrastructure de données moderne et performante. • Améliorer la performance et la scalabilité des solutions existantes pour répondre aux besoins stratégiques de l’entreprise. • Collaborer étroitement avec les architectes, PO et Data Analyst pour garantir la qualité et l’exploitation optimale des données. • Maintenir une documentation technique précise et complète sur les processus et les solutions implémentés. • Réalise la recette technique et participe à animer la recette fonctionnelle avec les utilisateurs et le PO • Mettre en place et gérer des systèmes de monitoring et d’alerting pour assurer une supervision proactive des pipelines et systèmes de données, garantissant leur fiabilité et leur disponibilité. • Support au déploiement • Assure la maintenance corrective ou évolutive • S’assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l’équipe

Mission freelance
Consultant Data
CONTEXTE Expérience : 5 ans et plus Métiers Fonctions : Data Management, Consultant Data Spécialités technologiques : Cloud, Qualité des données, Transformation digitale Description et livrables de la prestation Contexte de la prestation : Afin d’accompagner son développement, notre client souhaite mettre la donnée au service de sa transformation digitale afin d’encourager l'innovation, d’améliorer l'excellence opérationnelle et de maintenir la satisfaction client au centre des préoccupations et de la proposition de valeur. Avec une forte augmentation de l’exposition et des demandes d’exploitation autonome de la donnée, notre client souhaite désormais proposer à ses utilisateurs, IT comme métier, un dictionnaire de données enrichi, fiable et à jour. MISSIONS L’objectif de la prestation est d’accompagner notre client dans l’enrichissement du Data Catalog et son déploiement au sein des différentes équipes métiers. Une première version du catalogue de données a en effet été déployée sur l’année 2024 pour accompagner la migration des référentiels Clients – Contrats vers Informatica. Cette première version a principalement permis de documenter les interfaces entre le back office, le référentiel et le CRM et est utilisée au sein des équipes Data & SI. Un premier volet de la prestation doit permettre de « challenger » et valider cette première implémentation, puis de l’enrichir avec les nouveaux cas d’usage : • Les traitements de qualité de données réglementaires (Solva II / QRT) migrés vers le socle data en 2024 • L’intégration des données Clients et Contrats dans le référentiel depuis les SI Partenaires • L’intégration des données Collaborateur dans le référentiel depuis le SIRH du client • L’intégration des données « Personnes morales » dans le référentiel depuis un SI Partenaire Un second volet doit permettre d’accompagner notre client dans le déploiement de l’outil à l’ensemble des directions métiers, notamment en validant l’organisation à mettre en place derrière l’usage de la solution. Livrables attendues : Enrichissement dans Data Galaxy des modules Glossaire, Dictionnaire, Traitement et Gouvernance pour le(s) cas d’usage identifié(s) avec les équipes data
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.