Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Offre d'emploi
Ingénieur Data / BI H/F
📊🚀 Rejoignez notre équipe en tant qu’Ingénieur(e) Data & BI ! Vous êtes un(e) passionné(e) dans le domaine de la Data et de la BI, avec une expérience de plus de 5 ans ? Vous recherchez un environnement stimulant où vous pourrez mettre en œuvre vos compétences et contribuer à des projets novateurs ? Nous vous offrons l'opportunité de rejoindre une entreprise innovante. En tant qu’Ingénieur(e) Data & BI, vos missions principales seront de : · Assurer la continuité de tous les services de reporting data (rapports, dashboards, etc.) tout en mettant en place une nouvelle architecture. · Piloter la partie Data sur un projet de migration, en combinant une approche LCM (Lifecycle Management) et des solutions innovantes. · Concevoir des solutions de migration de données en assurant un très bon niveau de conception. · Travailler dans un environnement de Business Intelligence traditionnelle avec un usage fréquent de QlikView et PowerBI. · Faire preuve d'une grande autonomie et d'une appétence à comprendre les enjeux techniques et fonctionnels de l'environnement pour proposer des solutions adaptées. · Développer une excellente capacité d'analyse, une bonne capacité de synthèse, une curiosité naturelle et une force de proposition. · Communiquer efficacement avec les différentes parties prenantes du projet et assurer une coordination optimale des activités.
Offre d'emploi
data product owner AND supply chain H/F
Missions : En charge d’identifier les données nécessaires à la construction des KPIs et des produits analytiques et de l'exploration et de la compréhension des modèles de données liées à la supply chain dans les différents pays, le Data Product Owner sera responsable de : Obtention, compréhension et documentation approfondie des modèles de données existants dans chaque pays, en s’appuyant sur les coordinateurs et les Business owner au sein de la direction supply chain groupe Identification des règles de gestion spécifiques, des exceptions par format, pays, secteur de produit, et autres critères pertinents. Delivery : Pour assurer une harmonisation efficace des modèles de données à l'échelle du groupe, le Data Product Owner sera chargé de : Rédaction de spécifications détaillées pour adapter les modèles locaux au modèle harmonisé du groupe. Adaptation du modèle harmonisé en fonction des particularités propres à chaque pays, tout en assurant l'alignement sur les standards du groupe. Écriture et ajustement du modèle pour répondre aux besoins spécifiques des principaux indicateurs de performance (KPI) identifiés. Présentation des spécifications auprès des data engineer de united et animation du backlog sur ce domaine Tester et valider la donnée en sortie de United Data Governance & Communication : En tant que garant de la qualité des données en sortie de l'unité, le Data Product Owner aura pour missions de : Valider la documentation générée auprès des autres Data Product Owners et des parties prenantes impliquées. Documenter et communiquer régulièrement sur l'avancement du projet aux responsables produits et autres parties prenantes pertinentes Mettre en place des processus spécifiques pour gérer l'accès et la confidentialité des données, en impliquant activement les responsables métiers au sein de chaque pays. Participer activement aux ateliers d'harmonisation organisés au niveau du groupe, notamment au sein du data afin de favoriser la cohérence et la convergence des pratiques.
Mission freelance
Expert Technique DATA
Bonjour, Pour le compte de l'un de mes clients dans le secteur de l'énergie, je suis à la rercherche d'un expert technique en DATA. Ses impératifs : Une expérience technique forte en Data Et XP Responsable d'équipe de développement +10personnes. Une culture générale technique sur l’ensemble de la chaîne de création de valeur et de l’environnement de dev jusqu’à la prod. Une connaissance sérieuse des problématiques sécurité, performance et robustesse Stack technique du projet : o Big Data : Spark, Hive, Indexima. o Stockage : Oracle, CEPH S3 (parquet). o Langages : Java, Python, PL/SQL, Shell. o CI/CD : Ansible, Terraform, Jenkins, GIT. o ETL : Informatica. o Dataviz : Tableau Server. o Ordonnanceur : Control-M.
Mission freelance
Big Data Tech Lead H/F
Missions En tant que Tech Lead Data, votre rôle principal sera de diriger avec succès le déploiement de l'architecture Big Data dans l'écosystème informatique cloud. Vous serez le principal interlocuteur entre l'équipe d'architecture et les développeurs et serez responsable de la bonne mise en œuvre des architectures définies dans les délais impartis. Vos tâches seront les suivantes : Concevoir, mettre en œuvre et déployer une architecture dans le cloud pour des projets Big Data : Travailler avec les architectes pour concevoir une architecture de pointe pour les projets Big Data dans un contexte de volumétrie élevée. Implémenter les architectures définies selon le planning et les exigences définis. Excellence technique : Satisfaire aux exigences du Big Data, capacité à travailler dans un contexte de volumétrie élevée. Remettre en question les décisions architecturales clés en fonction d'un contexte spécifique (topologie des données, volume, exigence de temps d'exécution, etc.). Optimiser le traitement et le stockage des données pour l'efficacité. Assurer un dépannage rapide des problèmes avec la surveillance appropriée . Gestion de projet : Superviser plusieurs projets en parallèle , en veillant à ce que les délais soient respectés, les normes maintenues et les objectifs atteints. Collaboration : Agir comme le lien principal entre l'architecture et la mise en œuvre dans le projet. Travailler en étroite collaboration avec d'autres responsables techniques et architectes . Échanger des connaissances et se synchroniser avec d'autres équipes. Gouvernance des données : Garantir le respect des politiques de gouvernance des données liées à l'industrie financière. Documentation : Superviser la création et la maintenance d'une documentation précise des développements, des procédures techniques et des configurations système pour améliorer les connaissances et faciliter les processus d'intégration pour l'équipe.
Offre d'emploi
Développement backend SQL/clickhouse
Dans le cadre d'un projet au sein d'un client grand compte, nous sommes à la recherche d'un développeur backend SQL/clikhouse. Périmètre fonctionnel : banque d'investissement Au sein d’une équipe qui travaille sur une application d'aide à la décision pour le trading. Elle permet de gérer des données historiques sur les clients, et les données de marché, ainsi que des données intraday et des mesures de risques, il permet aussi de visualiser les axes de trading. L’application utilise Angular 15 comme front end, Java 11 et Python 2 en back end, base de donées distribuée avec un systel de cache in memory, et Mongo DB comme base de données. Pour la partie déploiement, on utilise Docker / Kubernetes et Jenkins. Les principales tâches de la missions sont les suivantes : Le but est d'développer des nouvelles fonctionnalités demandées par le trading, et aussi techniquement améliorer la stabilité et la partie calcul distribué de l'application en testant de nouvelles solutions. Le candidat sera chargé de la partie back end ainsi que de la partie devops.
Offre d'emploi
Bigdata Engineer Cloud
💼 Poste : Bigdata Engineer Cloud 🏭 Secteurs stratégiques : Banque d’investissement 📍Localisation : Ile de France 🗓 Démarrage : ASAP Expérience souhaité : 0 - 3 ans Principales missions sont : Création et maintenance des architectures Big Data pour les besoins interne de l’entreprise. • interaction avec REST APIs • Kafka • gestion des jobs et administration Ansible • Technologies Confluence /JIRA pour la gestion documentaire, Git /Bitbucket Création et maintenance des architectures Big Data pour les besoins interne de l’entreprise. • interaction avec REST APIs • Kafka • gestion des jobs et administration Ansible • Technologies Confluence /JIRA pour la gestion documentaire, Git /Bitbucket
Mission freelance
Référent technique MLOps
Au sein d'un client du domaine bancaire, vous intervenez au sein de la DSI en qualité de Référent technique MLOps. Dans ce cadre, votre quotidien s'articule autour des missions suivantes : mettre en place l'outillage Datascience et MLOPS et identifier les patterns pour un usage global évaluer et adpoter de nouvelles technologies et méthodologie pour améliorer les processus MLOps et l'efficacité de l'équipe Diriger l'élaboration et la mise en oeuvre de pipelineSuperviser et encadrer une équipe technique, en fournissant une orientation technique, en fixant des objectifs et en assurant la montée en compétence des équipes interne Participer à l'exploration continue (étude d'opportunité, cadrage) et aider à estimer l'effort et la valeur délivrée par les choix de designs éligibles pour favoriser la priorisation par le Product Owner et le Pôle Utilisateur (évolutivité, testabilité, déployabilité...) Collaborer avec les parties prenantes internes pour comprendre les besoins métier et fournir des solutions ML efficaces et évolutives Décliner le cadre d’Architecture d’Entreprise(processus, normes, patterns …) et contribuer à son évolution Faciliter la prise de décision de manière collaborative sur la meilleure architecture (conformité, sécurité, risques...), avec un juste équilibre entre le respect de la cible d'entreprise et la réponse pragmatique au besoin Maitrise les objectifs visés par le cadre d'Architecture d’Entreprise et décrit des solutions qui s'y conforment et sont implémentables sous forme incrémentale dans les sprints Suivre et facilite la visibilité de la conformité des solutions de son périmètre par rapport à la stratégie d'entreprise Responsable de la documentation produit(s) en veillant à sa pertinence, fiabilité et sa cohérence avec les cadres de référence de l'architecture (processus, guides, patterns...).s / solutions MLOps pour l'entrainement, le déploiement et la surveillance des modèles ML
Offre d'emploi
Développeur JAVA / BIG DATA
Le client a lancé un programme de mise en place d'un nouveau dispositif de management de la liquidité permettant de satisfaire les nouvelles contraintes réglementaires et de répondre aux besoins internes de pilotage. Un des projets SI en support de ce programme a pour objectif la mise en place d'une base de synthèse transversale au Groupe, contenant les indicateurs de pilotage et assurant des restitutions sous diverses formes. Le Bénéficiaire souhaite mettre en œuvre les cadrages/développements/les tests unitaires/l'homologation technique sur des composants applicatifs dans les plannings et délais demandés. Les technologies utilisées seront Java J2EE/PL-SQL/Spark/Nifi/Oozie/Openshift. Ces actions doivent être effectuées dans le cadre des normes du projet. Le bénéficiaire souhaite mettre en œuvre plusieurs évolutions de son socle technique. A ce titre, le Bénéficiaire souhaite bénéficier de l'expertise du Prestataire en termes de Conception et développement. Dans ce cadre la prestation consiste à contribuer à/au(x) : Maintien de l'environnement legacy et contribution au projet de migration de l'application vers le Big Data. - Mise en place d'une Plateforme (On premise + Cloude public) - Challenge des choix architecturaux - Audit du codes existants et solutions de factorisation du code - contribution à la validation des futurs développement - Développements, tests unitaires et homologation technique sur des composants applicatifs dans les plannings et délais demandés. Etre effectuée dans le cadre des normes du projet. - assistance sur les développements produits jusqu'à la mise en production. - Support de production
Offre d'emploi
Ingénieur Big Data - DevOps (H/F)
Orienté Big Data et ayant des compétences dans les domaines listés ci-joint : Kafka, Spark, Hbase, Hive, Hadoop, Jenkins, Ansible, Github, Scala, Python, Linux, Kube, Linux. Objectifs et livrables L’expertise technique sur le Datalake (plateforme Big Data) consistera à : · Assurer le maintien en conditions opérationnelles de la plateforme Datalake : gestion des incidents et des demandes effectuées par les projets ou les utilisateurs finaux · Contribuer à l’implémentation/automatisation des solutions · Effectuer les actions de mises en production · Contribuer à l’amélioration continue des outils d’exploitation · Communication auprès des utilisateurs finaux Le consultant devra fournir les livrables suivants : · Récapitulatif mensuel des tickets traités (incidents, demandes de travaux) · Statut bi-mensuel sur l’avancée des projets sur lesquels il sera contributeur
Offre d'emploi
Expert Big Data & GCP
Au sein d'une équipe d'expertise sur le volet Ops & Architecture vous intégrez la team en tant qu'architecte Cloud GCP & DevOps Big Data. Vos missions sur ce volet : Administration de la plateforme Hadoop présente Développer et continuer la migration vers GCP sur certaines applications Excellente maîtrise de Kubernetes attendues Connaissance complète de l'environnement Big Data et de la culture DevOps (Hadoop, Kafka, Elastic, Ansible, Kubernetes...) Endosser le rôle de référent technique sur le sujet Big Data
Offre d'emploi
Chef de projet Infra/Obsolescence - H/F
Mission : Piloter le programme Obsolescence en assurant l’exécution du plan de levée d’obsolescence du socle et piloter le dispositif global associé. · Consolide le plan pluriannuel de levée d’obsolescence à partir des roadmap Produits, en lien avec les PO et les Responsables d’Activités ; · Pour chaque année, définit le plan de traitement : inventaires consolidés, périmètres d’actions et objectifs de traitement, budget et ressources ; · Engage les projets associées du Plan Projets et organise les travaux ; · Coordonne la communauté des Squad leads du socle et leurs PO et tout autre ressources engagés dans le programme ; · Définit et publie les KPI de suivi ; et réalise les Contrôles Permanents associés · Gère les budgets ; · Gère les risques et met en œuvre les mesures d’atténuation ; · Suit les demandes de dérogations et alerte sur les risques associés (financier, sécurité, opérationnel) ; · Organise et anime les Comités associés : mensuels NDC, stratégiques · Contribue à l’animation et à la performance du Processus de Gestion des Obsolescences
Mission freelance
Consultant Data et BI expérimenté (Power BI et ETL Talend) H/F
Notre client dans le secteur Assurance recherche un/une Consultant Data et BI expérimenté (Power BI et ETL Talend) H/F Description de la mission: Le client est un acteur majeur du secteur de l'assurance/assistance. Fondé en 1963 et inventeur du concept d'assistance, le client soutient 300 millions de clients dans le monde entier avec des solutions adaptées à toute situation d'urgence ou de la vie quotidienne, 24/7, dans cinq secteurs d'activité : Automobile, Voyages, Santé, Famille & Domicile, et services de Conciergerie. **Description de la Mission:** En tant que consultant en data pour notre projet d'implémentation de dashboard avec Power BI et ETL Talend, vous serez responsable de comprendre les besoins métier, de traduire ces besoins en solutions de données efficaces, et de mettre en place une architecture de données robuste pour soutenir nos initiatives d'analyse. **Responsabilités:** 1. - Collaborer avec les parties prenantes métier pour comprendre leurs besoins en matière d'analyse et de reporting. - Identifier les indicateurs clés de performance (KPI) et les exigences de reporting pour chaque domaine fonctionnel. - Développer un modèle de données d'entreprise (Enterprise Data Model) qui capture les entités métier et leurs relations. - Concevoir une architecture de données comprenant un datawarehouse et des datamarts pour répondre aux besoins de reporting et d'analyse. 3. **Mise en Œuvre des Outils de Business Intelligence:** - Utiliser Power BI pour créer des dashboards interactifs et des rapports personnalisés répondant aux besoins métier. - Configurer et optimiser les ETL (Extract, Transform, Load) avec Talend pour l'ingestion des données depuis différentes sources. Gestion de Projet et Coordination: - Diriger et coordonner les activités liées à la mise en œuvre de la solution data. - Suivre les jalons du projet, gérer les risques et assurer le respect des délais et des budgets. - Expérience préalable dans la mise en œuvre de solutions BI avec Power BI et ETL avec Talend. - Solides compétences en modélisation de données et conception d'architectures de données. - Capacité à travailler de manière autonome et à gérer efficacement les priorités. - Excellentes compétences en communication et en collaboration avec les équipes métier. - Maîtrise des langages de requête SQL et des principes de gestion de bases de données. - Connaissance des bonnes pratiques en matière de gouvernance des données et de sécurité. Compétences / Qualités indispensables : Power BI, ETL talend, conception architecture de données (data warehouse & datamart), Développement d'un modèle de données (EDM), Maîtrise des langages de requête SQL et des principes de gestion de bases de données, gouvernance de données et sécurité, anglais Informations concernant le télétravail : 2 jours par semaine
Mission freelance
Ingénieur Big Data
Nous recherchons un Ingénieur Big Data Compétences techniques: Hadoop Hive - Confirmé - Impératif Kubernetes - Junior - Important Description détaillée: Il s’agit de participer à la migration de données hébergées sur une plateforme obsolète Hortonworks vers la solution cible. La mission comprend 3 activités principales : - Gestion de la plateforme actuelle Hortonworks 2.6 (run) - Construction de la plateforme cible sur openshift (build) - Préparation à la migration depuis Hortonworks vers openshift (build) Un membre de l’équipe participera également à ces mêmes activités Savoir-faire : - Maitrise de Kafka et Spark - Connaissance de la plateforme Hortonworks et du concept de Big Data - La connaissance d’openshift est un plus - Automatisation (python, shell, SQL, ansible) - Processus ITIL
Mission freelance
Data PO / PMO Confirmé BI & SAP - Déploiement Spend Bridge (chef de projet transverse)
Nous sommes à la recherche d'un Data PO / PMO - Confirmé pour l'un de nos projets de Déploiement Spend Bridge Contexte de la mission Les Achats font une refonte de l’intégralité de ses Reportings & Analytics afin de profiter des bénéfices du Big Data. Rattaché(e) au Directeur Data & Digital, vous jouerez le rôle de chef de projet transverse. Vous serez responsable de la mise en œuvre de nouveaux produits Reportings & Analytics en fonction des besoins de la fonction Achats et de vos interlocuteurs métiers. En particulier, vous serez référent(e) des analyses Achats basées sur la consolidation des transactions faites dans les ERP (consolidation des documents et chiffres des Achats du Groupe, analyse du coût des facteurs et des effets prix, optimisation des délais de paiement…). vous contribuerez au déploiement du rapport Spend Bridge à travers les Activités et Pays du Groupe. Sur les produits data qui vous seront confiés, vos missions seront les suivantes : Cadrer les besoins fonctionnels en données, en rapports et en analyse de la fonction Achats en échangeant avec vos interlocuteurs dans les entités, les activités et les pays du Groupe, Coordonner les travaux d’alimentation des données en collaboration avec la DSI en s’assurant de l’adéquation entre les choix techniques, les besoins fonctionnels et le planning, Superviser le développement des tableaux de bord en partenariat avec les donneurs d’ordre de la fonction Achats et en collaboration avec les développeurs MicroStrategy et Power BI, Développer une vision produit (feuille de route, évolutions, etc.). Objectifs et livrables Les principaux objectifs sont les suivants : Déploiement des rapports et des processus de Spend Bridge à travers les Activités et Pays du Groupe, Gestion de produit sur les rapports basés sur les données ERP (Purchasing Details, Payment Terms, Spend Bridge)
Offre d'emploi
DÉVELOPPEUR JAVA / BIG DATA H/F
La prestation consiste à contribuer à/au(x) : Maintien de l'environnement legacy et contribution au projet de migration de l'application vers le Big Data. - Mise en place de la One Plateforme (On premise + Cloude public) - Challenge des choix architecturaux - Audit du codes existants et solutions de factorisation du code - contribution à la validation des futurs développement - Développements, tests unitaires et homologation technique sur des composants applicatifs dans les plannings et délais demandés. La mission doit être effectuée dans le cadre des normes du projet. - Assistance sur les développements produits jusqu'à la mise en production. - Support de production
Mission freelance
Support Data Engineer H/F
Description du poste : En tant que Data Support analyste, vous serez responsable de fournir un soutien technique et opérationnel pour les systèmes et les processus liés aux données au sein du département de Data Technology. Vous travaillerez en étroite collaboration avec les équipes de développement et de data ingénierie pour résoudre les problèmes liés à la data, assurer la qualité des données et maintenir la disponibilité des systèmes. Responsabilités : 1. Soutien technique : Diagnostiquer et résoudre les problèmes liés aux données, tels que les erreurs de chargement, les incohérences de données et les performances dégradées. Collaborer avec les équipes Data pour résoudre les problèmes techniques et d'intégration liés aux données. 2. Gestion de la qualité des données : Surveiller et analyser la qualité des données, identifier les anomalies et les incohérences, et proposer des solutions pour améliorer la qualité des données. Mettre en place des contrôles de qualité des données pour garantir la précision, la cohérence et l'intégrité des données. Participer à la définition et à la mise en œuvre des normes et des bonnes pratiques de gestion de la qualité des données. 3. Maintenance et support opérationnel : Assurer la disponibilité des systèmes de données en surveillant les performances et en gérant les problèmes de capacité. Collaborer avec les équipes de développement pour effectuer des mises à jour logicielles, des correctifs de bugs et des améliorations des fonctionnalités des systèmes de données. Documenter les procédures opérationnelles et les problèmes rencontrés, ainsi que les solutions mises en œuvre, pour faciliter le support et la résolution de problèmes ultérieurs. Être proactif sur l’amélioration des process et outils. 4. Formation et communication : Collaborer avec les différentes équipes pour communiquer les changements, les mises à jour et les problèmes liés aux données de manière claire et concise. Participer à des réunions et à des projets interfonctionnels pour fournir un aperçu et un soutien relatif aux données.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Offres par villes