Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Mission freelance
Consultant Support BI (H/F)
Dans le cadre de notre développement, nous recherchons un(e) Consultant Support BI pour accompagner un de nos clients grand compte localisé à 30 min de Brest (29). Démarrage ASAP 30 min de Brest (29) – 2 jours de télétravail possible Mission longue (freelance, portage salarial ou CDI) Vous venez en renfort à l’équipe BI en place, à ce titre vos missions sont : Assurer le support niveau 2 sur l’environnement BO utilisant les technologies BO et Informatica (SQL, PL/SQL, ScriptShell, Mailbox serait un plus) Gérer les flux d’alimentation Analyser et corriger les anomalies Mettre en place les évolutions et les développer Effectuer les recettes Rédiger les spec et la documentation de l’ensemble des actions effectuées
Mission freelance
Data Engineer Informatica
Bonjour, VISIAN est une société de conseil spécialisée autour de l'innovation, la conception produit et la data. Dans un marché où les enjeux de recrutement sont clés et où le nombre de freelances est en constante augmentation, Visian a créé une entité dédiée au recrutement de freelances experts du digital et d’IT: VASKA. Dans le cadre de ses projets clients, VISIAN recherche un/e Data Engineer. Contexte : Le candidat intégrera un pôle Data à la DSI et une équipe projet qui sera responsable de migrer des flux d'intégration de données de POWER Center vers Databricks. Missions : Le candidat sera responsable de migrer des flux ETL développés sur Informatica vers Databricks. Une connaissance d'informatica et AWS est très appréciée. Le candidat doit maitriser le langage SQL et Python et avoir une bonne culture Data des best practices en terme de nettoyage, de transformation et modélisation de données Une certification sur Databricks est également fortement appréciée. Si vous êtes à l’écoute du marché en ce moment, je vous invite à postuler en m’envoyant votre candidature. Bien à vous, Justine
Mission freelance
Data Engineer Databricks / Python
Data Engineer confirmé ayant une expérience de 3 à 5 ans sur des projets de tranformation de données dans un environnement cloud. Le candidat sera responsable de migrer des flux ETL développés sur Informatica vers Databricks. Une connaissance d'informatica et AWS est très appréciée. Le candidat doit maitriser le langage SQL et Python et avoir une bonne culture Data des best practices en terme de nettoyage, de transformation et modélisation de données Une certification sur Databricks est également fortement appréciée
Offre d'emploi
Concepteur développeur BO - Informatica - BREST
L’agence NORGAY Brest recherche pour l’un de ses clients un Concepteur Développeur BO - Informatica . Votre mission si vous l'acceptez, sera d'assurer le support de niveau 2 sur un environnement BO & Flux d'alimentation des univers qui comprend : Correction d'anomalies Mise en place d'évolutions (Analyse - Développement - Recette - Rédaction des spécifications) Documentation de l'ensemble des actions effectuées Projet de 3 mois avec renouvellement envisagé dans un environnement Business Intelligence (BI) passionnant et en pleine évolution .
Mission freelance
Data Engineer (H/F) - Toulouse
Notre client dans le secteur Transport et logistique recherche un Data Engineer Confirmé H/F Descriptif de la mission: Dans le cadre de l'un de ses projets, notre client souhaite faire appel à un Freelance expérimenté sur la Data. Vous serez intégré au sein d'une équipe 13 personnes dédiées aux données BI des opérations de notre client. Travail en mode Agile/Safe (suite Atlassian/JIRA/Confluence), en collaboration avec nos AMOs et MOAs du domaine CLIENT. Les livrables attendus sur toute la chaîne BI traditionnelle autour de Qlickview et PowerBI. Vous aurez pour mission d'assurer la continuité de tous les services de reporting data (rapports, dashboards, univers) tout en mettant en place une nouvelle architecture. Environnement technique : - ETL Powercenter - SQL (autonome) - Teradata (environnement Teradata, non requis, la formation sera assurée) -Qlickview - Business Object La mission peut s'effectuer en remote avec un jour de déplacement par semaine sur site client à Toulouse.
Offre d'emploi
Consultant(e) Informatica
Vous intégrerez intégrer notre communauté d'Experts ETL. En tant que Consultant Informatica vous serez amenés à apporter votre expertise et à : · Analyser et recueillir les besoins · Effectuer le support et l’assistance aux équipes de développements · Produire les différentes documentations · Faire la modélisation du datawarehouse · Développer et maintenir les Flux sur Informatica · Optimiser et automatiser les Workflows Informatica · Veille technologique · Veille technologique
Offre d'emploi
Consultant BI
- Assurer le pilotage du système et des processus métier associés - Garantir la qualité et la sécurité des informations - Contribuer à l’amélioration continue du système L’application permet trois principales fonctionnalités : - Le reporting - L’export des données - L’exploitation de données Elle est utilisée par environ 1500 utilisateurs (analystes, experts métiers, experts SI). L’équipe se compose de plus de quarante compétences, réparties en six sous équipes, qui a comme périmètre un ensemble de thématiques métiers et une plateforme technique. Activité principale o Analyser les besoins fonctionnels et techniques o Localiser les données de production permettant de répondre au besoin o Documenter / spécifier les livrables o Développer les processus d’intégration de données o Modéliser et enrichir les datawarehouse (entrepôts de données) et les datamarts (magasins de données) o Produire des rapports ou tableaux de bords lisibles et compréhensibles par le métier, et répondant à leur besoin o Tester la qualité et la performance de ses livrables
Mission freelance
Business Analyst Data Gouvernance
Contexte : Le dictionnaire de Données de Bpifrance et l'outil de mesure de la qualité de données sont des solutions centrales dans la mise en oeuvre de la transformation de Bpifrance pour le data Centric. L'équipe qui a en charge son déploiement est constitué de : 7 personnes : un PO, un Scrum, un TeachLead, 1 BA, 3 Dev et DevOps. Ces deux produits offriront une vue 360° de la donnée : de sa définition à son usage en passant par sa qualité. Le BA a un rôle essentiel dans la réussite du projet. Il a un rôle de transmission de la connaissance des solutionq IDQ/CDQ (Informatica) et DataGalaxy, et d'animation afin d'onboarder tout Bpifrance dans le projet de façon très concrète. Objectifs: Les missions de la prestation du Data Analyst sont les suivantes : • Contribution à la préparation des comités avec la data Gouvernance et répondre à leurs besoins. • Mise en place du support des formations DataLink & DataCLean (espace neurone) • Accompagnement des équipes Agiles sur 3 volets *** Documentation dans un dictionnaire de données *** Qualité de donnée - les principes *** Contrôles qualité - mise en oeuvre • Formation à un dictionnaire de données : *** à destination des gestionnaires de données *** à destination des propriétaires de données *** des agiles teams • Formation outils de mesures de la qualité de données *** Onboarding des équipes Agiles *** Onboarding Métiers (gestionnaires/propriétaire) du TDB de qualité et de la solution de mesure de la qualité *** Accompagner les équipes dans la mise en place des contrôles complexes *** Tâche d'Administration (gestion des projets/habilitations...) • Suivi de l'avancement des agiles teams sur le volet documentaire & qualité • Mise en place, suivi des KPI de DataLink & DataCLean • Gestion des habilitations (affectation et récupération des licences) • Formulation et suivi des demandes éditeurs • Recette du RUN du mois et correction en cas de problème
Mission freelance
Développeur Confirmé/Sénior Panorama
Bonjour, Pour le compte de l'un de mes clients dans le secteur de l'énergie, je suis à la recherche d'un développeur confirmé/sénior Panorama. Ses compétences : • Compétences sur la spécification/conception : Design Pattern, Modélisation (Classe, Table, Diagramme de séquences, etc.). • Compétences en ergonomie, conception d’IHM • Développement, test et intégration logiciel *Compétences attendues & Niveau de compétence - Progiciel Panorama – Interface Utilisateur : Maitrise - Progiciel Panorama - Configuration : Maitrise - C# (Visual Studio) : Pratique ou Maitrise - Classe utilisateur Panorama : Pratique ou Maitrise - API ReST : Théorique ou Pratique - Windows : Pratique ou Maitrise - GitLab : Théorie ou Pratique - IEC 61850 : Théorie ou Pratique ou Maitrise - SNMP : Théorie ou Pratique • Compétences en conception fonctionnelle et technique d’applications ; • Connaissance des méthodes et outil de modélisation des cas d’utilisation et de définition de backlog produit ; • Autonomie et force de proposition ; • Profil d’un niveau senior (ou confirmé) ; • Compétences de développement avec les méthodes Agiles Scrum. Le périmètre de la prestation : Le titulaire s’engage à réaliser les activités suivantes : 1. Prendre connaissance du modèle applicative et technique des applications à développer basé sur la norme IEC 61850 spécifique au client [R1] ainsi que des cas d’usages définis par l’équipe projet du sous-lot B.1 en relation avec les métiers Rte (avec l'appui des référents techniques client); 2. Mettre en œuvre les cas d’usage, en se basant sur le modèle objet définie par la norme IEC 61850 pour la création d'objets graphiques, vues, scripts applicatives et paramétrisation générale sur le progiciel SCADA. Pour cela, le titulaire conduira les étapes de conception technique, de codage, tests et déploiement, selon la méthode Agile Scrum.
Mission freelance
Data Quality Analyste / ETL Matillion / SQL / Python /Azure / snowflake
Au sein de la DSI du groupe, la direction Data s’appuie sur les meilleures expertises et technologies pour accompagner les équipes opérationnelles au quotidien en leur mettant à disposition outils, Description de la mission En tant que Data Quality, vos responsabilités seront les suivantes : • Assister les Product Owners dans la mise en place du dispositif de qualité des données défini par les Data Owners (définition des exigences qualité, des contrôles, des KPIs et seuils d’alerte) • Animer le processus de gestion des incidents de qualité de données en faisant le lien entre les utilisateurs opérationnels et les équipes Data & IT • Aider les équipes opérationnelles à qualifier les incidents (impacts sur les usages, chiffrage, sévérité) • Analyser les root causes des incidents grâce à l’exploration des données des différentes bases • Proposer et instruire des plans de remédiations (identifier les solutions de contournement si besoin) • Prioriser les sujets en fonction de leur importance / urgence et de la difficulté à les développer • Collaborer avec les équipes de développement (Data Enginer, Dataviz Enginer) pour les analyses et la mise en place de solutions de correction • Collaborer avec les Data Owners afin de s’assurer de la cohérence et pertinence des solutions proposées • Proposer des outils / process / KPI afin de contribuer à l’amélioration continue de la qualité des données • Assister le Product Owner Master Data dans la conception de tableau de bord de pilotage de la qualité des données
Offre d'emploi
Analyste-Développeur STAMBIA (F/H)
Nous poursuivons notre développement et recherchons actuellement un.e Analyste développeur STAMBIA pour intervenir chez un de nos clients au sein du secteur de la salle des marchés. Missions principales : L’équipe de développement a pour mission de développer et d’intégrer des solutions front-to-back. Les principales activités de l’équipe incluent : Développement et intégration d'automates facilitant le dialogue entre les différents intervenants du passage des ordres. Création d'outils de gestion incluant la gestion des TTF (Transactions sur les Taxes Financières), la gestion de la commission de recherche et d'exécutions, la facturation des clients Buy Side, l'outil de suivi des Instructions de règlement livraison, ainsi qu'un outil Middle Office. Développement d'outils de génération de rapports, tels qu'un entrepôt de données décisionnel Vertica / Business Object, un service d’abus de marché, un service d’analyse des coûts de transaction, des rapports réglementaires (EMIR, RDT, RTS27, RTS28…), et des rapports commerciaux. Vous prendrez également part au projet « d’installation sur des infrastructures décisionnelles », impliquant l'alimentation d'une base de données VERTICA via l'ETL Stambia, la migration des procédures SQL existantes avec des mapping Stambia, la modification des univers existants pour qu’ils interrogent cette nouvelle base de données, et la migration des univers conçus avec l’outil Univers DesignTools vers l’outil Information DesignTools. Vous participerez également à la maintenance évolutive du socle existant (univers, rapports Business Objects, rapports SSRS, procédures stockées).
Mission freelance
Lead Data Engineer spécialisé en Qlik et architectures ETL
PAS DE SOUS-TRAITANCE // MERCI Nous recherchons un Lead Data Engineer dynamique et expérimenté pour rejoindre notre équipe passionnée. En tant que Lead Data Engineer, vous serez responsable de la conception, du développement et de la maintenance des pipelines de données critiques pour notre organisation. Vous dirigerez une équipe de professionnels talentueux et travaillerez en étroite collaboration avec les départements métier pour comprendre leurs besoins en matière de données et leur offrir des solutions efficaces. Responsabilités : Concevoir, développer et déployer des pipelines de données robustes et évolutifs en utilisant des outils et des technologies ETL, avec une expertise particulière dans Qlik. Diriger une équipe d'ingénieurs de données et les guider dans la réalisation des objectifs de développement. Collaborer avec les départements métier pour comprendre leurs besoins en matière de données et proposer des solutions adaptées. Optimiser les performances des pipelines de données pour garantir une récupération et une analyse rapides des données. Veiller à ce que les meilleures pratiques en matière de sécurité des données et de gouvernance soient suivies tout au long du processus de développement.
Offre d'emploi
Chef de Projet Flux ETL (H/F)
Dans le cadre de notre développement, nous recherchons un Chef de Projet Flux ETL (H/F) afin d’accompagner un de nos clients grand compte localisé à Vannes (56) . Démarrage ASAP Vannes (56) - possibilité de 80% de télétravail Mission longue - freelance, portage salarial ou CDI En tant que chef(fe) de projet, vous intégrez le plateau projet en charge du programme de transformation digitale du client (entre 80 et 100 personnes) . A ce titre vos missions sont : Participer au déploiement de 2 ERP connus du marché choisis par le client Coordonner les flux dans le cadre de cette migration (plus de 400 applications concernées) Coordonner les intervenants (responsables d’applications, développeurs, chefs de projet …) sur les flux engendrés par la migration S’assurer de la cohérence des projets avec la stratégie d’entreprise (aspects fonctionnels et techniques)
Mission freelance
Architecte flux H/F
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Architecte flux H/F à Lille, Hauts-de-France, France. Les missions attendues par le Architecte flux H/F : Posture transverse et de conseil - Assurer une bonne communication avec les équipes transverses et projets : avec les archis d'entreprise, la team data, les archis platform pour garantir une cohérence entre l'architecture fonctionnelle et technique. - Etre force de conviction et de proposition auprès des projets et les challenger sur le choix du type de transport de la donnée. - Analyser les impacts sur les flux en cas de changement d'architecture (applicative/data structure). - Challenger les domaines et projets sur l'aspect dette technique des échanges (Flux/API/Streaming). - Comprendre les devs effectués et bugs à analyser avec les leads dev/dev. Garantir la qualité des échanges - Garantir une traçabilité des échanges (Flux/API/Streaming) et une cartographie à jour (contrôler la qualité au quotidien et l'application du process de référencement). - Concevoir les échanges en fonction des besoins fonctionnels et projets tout en respectant les principes d'architecture d'échange établis. Assurer une vision long terme - Partager une démarche de rationalisation, de réutilisation des flux et de standardisation (aspect contrat pivot). - Participer en tant qu’acteur majeur à l'amélioration continue du processus Flow Factory et de son outillage (et maximiser l'industrialisation du process). - Co-construire et documenter les nouveaux patterns d'architecture avec les Architectes Platforms et Lead developers. - Co-construire l’outillage de la plateforme d’Echange (eg cockpit) en collaboration avec l’équipe Platform
Mission freelance
Azure Data Engineer - Connaissances SSAS/AAS Tabular - NORD (59)
Le client est un groupe dans le domaine de l'immobilier, dont le siège est sité à Villeneuve d'Ascq, proche Croix. Si vous êtes intéressé, merci d'envoyer votre CV word + TJ souhaité + une lettre de motivation et préciser si vous pouvez venir travailler sur site 2 à 3 jours par semaine à dorra @ axande fr ( sans espaces ) Profil recherché Ingénieur ou Master 2 en informatique, en data science ou en statistiques Connaissances SSAS/AAS Tabular Expérience d’au moins 4 ans en tant que Data Engineer ou développeur ETL Maîtrise de l’environnement Microsoft Azure. Il est recherché un Data Engineer dont la mission sera : • Développer les compétences techniques et l'autonomie de l'équipe de Data Engineer • Faciliter la coopération • Développer et garantir les pratiques de développement et de documentation associés (DevOps) • Développer l'industrialisation de modèles statistiques ou de machine learning demandés par le Product Owner • Garantir le maintien et la qualité de fonctionnement d'ensemble ainsi que la performance • Assurer une veille technologique sur les outils data • Collecter, stocker puis exposer les données • Recueillir les besoins métiers détaillés auprès du Product Owner • Définir et valider avec le Data Architect les solutions techniques en cohérence avec les normes, standards et processus • Développer les solutions techniques de collecte / stockage / exposition de la donnée • Mettre en place l'automatisation des traitements (pipelines) • Réaliser les tests unitaires, d'intégration et procéder à la mise en production • Mettre et maintenir en qualité les données • Industrialiser et automatiser le nettoyage de la donnée selon les règles du Data Steward • Gérer le cycle de vie de la donnée conformément aux règles définies • Manager la qualité technique, la gestion du run et sécuriser l’accès aux données
Mission freelance
Senior Data Engineer Azure
Prendre en charge la transformation des données (nettoyage, préparation) pour y appliquer les traitements analytiques pour les DS et les DA. Les missions : - Recueillir les besoins en données (Data Product Owner, Data Analysts, Data Scientists) et analyser les sources de données. - Coordonner la mise en place de l’architecture Data &Analytics, conçue avec le data architect et en garantir le bon fonctionnement, la disponibilité, l’évolution et la performance technique des outils - Développer les pipelines d’intégration de donnée et la data quality en collaboration avec les Data Product Owner, Data Analysts et Data Scientists - Garantir l’industrialisation et l’automatisation de la chaîne de valeur de la donnée, en y intégrant les algorithmes décisionnels et les modèles de prédiction des données - Effectuer une veille sur les nouvelles technologies et solutions et participer activement à l’effort R&D - Contribuer à l’évolution des pratiques dans son domaine de compétences, en étant actif dans des réseaux de veille
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Offres par villes