Trouvez votre prochaine offre d’emploi ou de mission freelance Teradata

Offre d'emploi
Consultant Teradata
Dans le cadre d’un projet stratégique orienté data, la mission consiste à intervenir sur des traitements ETL complexes au sein d’un environnement décisionnel basé sur Teradata. Le poste couvre à la fois des activités d’étude et de réalisation : 🔍 Phase d’étude Analyse de l’existant sur un périmètre de traitements ETL Définition de la cible technique sur Teradata Découpage en lots, estimation des charges et planification 🛠️ Phase de réalisation Conception des solutions cibles Développement et tests en SQL Teradata Exécution de doubles RUN et bilans en vue des mises en production Suivi des traitements post-MEP durant la phase de VSR Proposition et mise en œuvre d’optimisations techniques 📑 Livrables attendus Documentation technique et fonctionnelle Dossiers d’étude, d’architecture, de sécurité et de mise en production Résultats de tests, PV de recette, fiches d’anomalies Comptes rendus d’activité et de réunions 🤝 Interactions Collaboration avec les équipes métiers pour la mise à disposition et l’exposition des données Coordination avec les autres équipes IT et partenaires externes

Offre d'emploi
Data Engineer – Teradata / Décisionnel- Nantes
Contexte de la mission Vous interviendrez au sein d’une équipe en charge de la mise en œuvre et de l’évolution de solutions décisionnelles autour de la plateforme Teradata . L’objectif est de développer et maintenir des traitements de chargement, d’extraction et de restitution de données à destination d’un Datawarehouse, ainsi que des reportings et tableaux de bord à usage métier. Vous contribuerez également à des projets transverses d’amélioration continue et d’optimisation des processus de production de données. Vos principales missions Développer les User Stories relatives aux solutions de chargement et de restitution sur Teradata. Mettre en œuvre les tests unitaires et assurer la qualité des développements. Garantir le bon fonctionnement des produits en environnement de production . Produire la documentation technique associée. Participer à l’ affinage et au chiffrage des solutions. Contribuer aux rituels agiles de l’équipe.

Mission freelance
Développeur TERADATA (H/F)
Envie d’un nouveau challenge... CELAD vous attend ! 🚀 Nous poursuivons notre développement et recherchons actuellement un Développeur Teradata (H/F) pour intervenir chez un de nos clients du secteur bancaire / data analytics. 💻💼 Voici un aperçu détaillé de vos missions 🎯 : Développer de nouvelles requêtes Teradata pour le moteur de calcul des indicateurs commerciaux. Optimiser le moteur actuel afin d’améliorer les performances et la fiabilité des calculs. Intervenir éventuellement sur le portail de publication des indicateurs, réalisé en Java SweetDev. Travailler dans un environnement Agile, en collaboration avec l’équipe de développement et le Product Owner.

Offre d'emploi
Architecte Solutions Data
1G-Link est une entreprise innovante en pleine croissance, au cœur de la transformation numérique. Nous accompagnons les organisations dans la valorisation de leurs données à travers des architectures scalables, modernes et performantes. Dans le cadre de notre développement, nous recherchons un(e) Architecte Solutions Data avec une expertise forte sur Snowflake et Microsoft Azure. Vos missions En tant que membre de l’équipe Data Capture, le poste requiert un bagage technique et architectural ainsi qu’une solide expérience pratique des technologies Cloud, du développement de microservices et de l’Event Driven Architecture. Il implique également une collaboration étroite avec les équipes IT Groupe/Zone, les partenaires métiers, les partenaires externes et l’ensemble des membres de l’équipe d’intégration. En tant qu’Architecte Data, vous serez au centre des projets de transformation data de nos clients. Vos responsabilités incluront : Concevoir et proposer des solutions sur la donnée en utilisant les technologies Azure Cloud dans notre cadre de référence Concevoir et proposer des solutions sur Snowflake Appliquer la stratégie « Data as a Service » conformément aux bonnes pratiques architecturales Concevoir et développer des APIs / Microservices pour enrichir notre cadre de solutions Soutenir la stratégie d’Event Driven Architecture basée sur Azure Event Hub et Azure IoT Hub Contribuer à notre catalogue de services pour l’enrichissement en self-service Participer à la modernisation et à la sensibilisation technologique au sein de l’équipe Data Capture et à travers l’organisation Data & Analytics Être le référent Cloud de l’équipe Animer des ateliers et faciliter la collecte des besoins Accompagner les Data Engineers sur les sujets liés au Cloud Apporter un support à l’équipe Sécurité sur les sujets concernés Contribuer à la feuille de route et à l’évolution de Data Capture Challenger et accompagner les prestataires externes Capacité à produire une restitution documentaire (dans le cadre d’un audit, d’un POC, ou selon les standards et l’architecture) Les + de l’offre Projets innovants à fort impact Culture d’entreprise basée sur la collaboration, la montée en compétence et la bienveillance Environnement de travail flexible (télétravail possible : 2 jours par semaine) Accès à un programme de certification et de formation continue

Offre d'emploi
Data Engineer Teradata
Contexte : Nous recherchons des développeurs Teradata pour accompagner notre client, un grand compte bancaire dans le développement d'application sur la base de puissantes plates-formes DATA. Votre environnement de travail en tant de Data Engineer TERADATA : Développement Teradata / SQL Connaissance de Unix Connaissance de Control M La connaissance de la démarche DevOps est un plus Mode de chargement dans l’entrepôt : T3R , BTEQ , Datastage Teradata Mode d’historisation dans l’entrepôt (CRI, CRE, CRO) Chargement par flux MVS (anciens chargements avec TPT MVS) Chargement par flux Big Data Suivi des chargements sous CONTROL-M Formation succincte de Collecte / alimentation de Datastage Environnement UNIX (répertoires principaux, Usage & Entrepôt) SQL sur SGBD relationnel (Teradata) Outils collaboratifs et documentaires : GIT, Jira, Confluence, MEGA, Zeenea L’environnement technique : BTEQ Teradata Datastage Datawarehouse SQL DevOps

Offre d'emploi
Architecte Data Expérimenté
Dans le cadre du renforcement de l'équipe Socles Data pour un grand acteur bancaire, nous recherchons un Architecte technique Solutions Data. Sa mission consistera à : - Accompagner les équipes Data en expertise sur les solutions et architectures actuelles autour des deux grandes plateformes DATA que sont Teradata et Cloudera CDP (HDFS, Hive, Spark, Hbase,...). - Participer aux réflexions et aux études sur les trajectoires DATA (dont la trajectoire post SAS). - Apporter une expertise sur les architectures de traitement des données en temps réel (KAFKA) ainsi que leur exposition en mode API. - Accompagner la modernisation technologique sur des solutions innovantes de type Data LakeHouse “On premise” (Storage MINIO, Compute KUB, Processisng SPARK et TRINO, Services JUPYTER) et “Cloud/GCP” (Big Query, ....).
Mission freelance
Data Scientist Python
(Expérience du domaine de l'énergie obligatoire) Profil capable de s’adapter à l’environnement technique du département SCC et aux pratiques de l’équipe qu’il va rejoindre • Capacité de travailler de manière autonome • Disposant d’un bon sens de l’organisation et de la rigueur • Capacité de synthétiser ses travaux pour communiquer efficacement à ses commanditaires Participation à des ateliers avec des experts métiers pour collecter le besoin et comprendre les données • Conception et développement de traitements de données • Réalisation d’études statistiques • Présentation de résultats sous la forme de rapports d’étude ou de tableaux de bord • Développement d’outils de visualisation de données pour faciliter les analyses • Documentation des traitements en vue d’une industrialisation Mise en production des traitements de données • Suivi de l'industrialisation, maintien des traitements en production • Participation aux cérémonies agiles de l’équipe • Diffusion et vulgarisation des résultats d’étude L’environnement technique du projet est le suivant : • Python • R • PostgreSQL • Teradata • Hadoop • Gitlab CI • Ansible • Jira / Confluence / Bitbucket • Git Compétences attendues sur le profil : o Maîtrise de Python et de ses librairies pour le traitement et l'analyse de données (pandas, scikit-learn, TensorFlow/PyTorch) o Maitrise des notions d’électricité (puissance/énergie) et notions sur le réseau électrique o Bonne connaissance des bases de données SQL, notamment PostgreSQL et Teradata. o Maîtrise des outils de versioning et d'intégration continue, notamment Git et Gitlab CI/CD. o Familiarité avec Spark (PySpark ou Scala) pour le traitement de grandes volumétries de données o Proactif et autonome, avec une capacité à prendre des initiatives et à résoudre des problèmes. o Capacités à communiquer efficacement et avec pédagogie o Bonnes compétences rédactionnelles o Connaissance dans la rédaction de documents de cadrage du projet o Connaissance approfondie des métiers autour des chaînes communicantes o Expérience dans le recueil de besoins et l’animation d’ateliers métiers o Capacité de synthèse et de restitution d’informations o Capacité à animer des groupes de travail autour des organisations et des processus métiers. o Expérience avérée dans un environnement Agile à l’échelle o Est bon communicant
Offre d'emploi
Consultant BI– Stambia & Power BI H/F
Contexte de la mission L’objectif principal, dans un premier temps, est d’acquérir une parfaite compréhension de l’organisation du SI MYSYS et de ses spécificités techniques et fonctionnelles. Rôle et responsabilités - La mission ne se limite pas au développement : la personne recherchée devra également assurer une véritable analyse fonctionnelle et technique, incluant : - La rédaction des spécifications fonctionnelles et techniques ; - L’analyse des besoins métiers en lien avec les équipes fonctionnelles ; - Le développement et la maintenance des solutions décisionnelles ; - La participation aux phases de test et de recette ; - La contribution à la feuille de route PIA (Projets et Initiatives Applicatives) - La consultante interviendra à la fois sur : - Des sujets RUN récurrents sur les deux systèmes d’information : MYSYS et Équinoxe. Environnement technique = Les impératifs - ETL / Data Integration : Stambia, Semarchy - Bases de données : Teradata, Oracle - Data Visualisation : Power BI

Offre d'emploi
Consultant Teradata H/F
Nous recherchons un Développeur Teradata h/f motivé(e) et curieux(se), souhaitant évoluer dans l’univers de la data et de la BI. Vous intégrerez une équipe dynamique où vous participerez à la conception, au développement et à l’optimisation de solutions décisionnelles basées sur l’environnement Teradata. Participer à l’analyse des besoins métiers et à la conception de solutions techniques Développer et maintenir des scripts Teradata Contribuer à l’optimisation des performances des requêtes et processus Participer aux tests et à la validation des développements réalisés Assurer la qualité, la fiabilité et la sécurité des données traitées

Offre d'emploi
Consultant Teradata / DataStage Confirmé
Participer à l’analyse des besoins métiers et à la définition des solutions techniques Concevoir, développer et maintenir des flux d’alimentation ETL sous DataStage Optimiser et industrialiser les traitements de données sur Teradata Garantir la qualité, la performance et la disponibilité des solutions mises en œuvre Réaliser les tests, recettes techniques et mises en production Apporter un support de niveau confirmé aux utilisateurs et aux équipes projet Contribuer aux bonnes pratiques et à l’amélioration continue des process BI

Mission freelance
Data scientist
Vous aurez l’opportunité de contribuer à un projet d’envergure : le déploiement massif de bornes de recharge pour véhicules électriques dans les parkings collectifs. Ce programme, déjà en cours, se renforce et constitue une nouvelle équipe de 3 Data Scientists, intégrée à une équipe pluridisciplinaire d’une dizaine de personnes dédiée à la mobilité électrique et aux solutions de demain. Vos missions : - Réaliser des études statistiques et de la modélisation prédictive pour optimiser les déploiements, - Traiter et analyser des données massives en Python (un peu de R possible, mais non indispensable), - Collaborer avec des experts métiers et techniques pour transformer les données en leviers concrets de performance, - Participer au Comité Data interne pour partager les bonnes pratiques et enrichir vos compétences, - Évoluer dans une méthodologie SAFe, au cœur d’un environnement structuré et collaboratif.

Mission freelance
Développeur SAS
Je recherche actuellement un développeur SAS pour intervenir chez l’un de nos clients. La mission consiste à réaliser des développements sur les technologies SAS et Shell , avec des livraisons de packages via GIT , Jenkins et XLD/XLR . Une bonne maîtrise du SQL , idéalement sur Teradata ou Exadata , est fortement attendue. .. ... ... .... ... .... ... ... ... .... ... ... ... .... ... .... ... ... ... ... ... ... ... ... ... ... ... ... ... .. .... ... ... .... ... ... ... ... ... ... ... .. .... ... ... .... ... ...

Mission freelance
Consultant Dataiku h/f
Dans le cadre d’une initiative stratégique pilotée par la DSI de notre client, nous engageons un projet de migration de nos plateformes de données : Migration de l’ETL Informatica vers Dataiku Migration du Data Warehouse Teradata vers BigQuery Environ 100 traitements à migrer (flux de données entre fichiers, bases de données, traitements métier diversifiés : comptabilité, fraude, recouvrement, etc.). Missions Prendre en charge la migration des traitements existants vers Dataiku. Assurer la transposition des flux entre l’environnement actuel (Informatica/Teradata) et la nouvelle stack (Dataiku/BigQuery). Être autonome et force de proposition sur la mise en place des bonnes pratiques. Collaborer avec les équipes internes (apport fonctionnel) tout en apportant une expertise technique Dataiku. Faciliter la montée en compétence des équipes internes sur les traitements migrés.
Mission freelance
Développeur BI / Décisionnel
Travailler sur la maintenance et la mise en place de dispositif de refinancement Modalités de mission: Localisation : Nantes Début : 29 septembre Objectifs et livrables Les développements informatiques sont sur les technologies ALTAIR (langage SAS) et shell. Les livraisons de packages se font à partir de GIT, Jenkins, XLD/XLR. Une bonne connaissance du SQL sur Teradata ou EXADATA est attendue. Le périmètre fonctionnel est un périmètre sensible, il conviendra d'avoir une bonne rigueur sur la qualité des développements, des tests unitaires et de la documentation confluence.

Mission freelance
Business Analyst / Test API - Banque
Dans le cadre du déploiement généralisé d’un produit de conseil en patrimoine, domaine stratégique pour l’entreprise, vous apportez votre expertise en qualité de service et amélioration continue au sein de la Squad CEP. Vous contribuez à l’amélioration et à la délivrance des fonctionnalités co-construites avec le métier et les développeurs. Profil / Séniorité ☑ Expérimenté (3 à 7 ans d’expérience) Description de la mission Rattaché(e) à la tribu ACE (Assurances, Comptes, Epargne) de la DSI, vous intégrerez la Squad CEP "Conseil en Epargne et Patrimoine" pour travailler sur un projet visant à délivrer une solution 100% digitale de conseil en épargne et patrimoine pour les conseillers commerciaux. Missions principales : Piloter la qualité de fonctionnement et améliorer les processus liés au run. Gérer les incidents fonctionnels : analyse, suivi et propositions de solutions correctives. Animer le partage des bonnes pratiques relatives à la qualité de fonctionnement. Participer à l’analyse des besoins métiers et formaliser les exigences fonctionnelles. Contribuer à la définition et au pilotage des évolutions fonctionnelles du SI. Participer au choix des solutions fonctionnelles et garantir leur cohérence avec l’existant. Animer des ateliers avec le métier et les partenaires. Définir et exécuter les plans de tests fonctionnels et participer à la recette. Rédiger les livrables fonctionnels (cahiers des charges, cahiers de recettes). Assurer l’assistance fonctionnelle auprès des métiers et le support aux utilisateurs. Participer aux rituels Agile : daily, planning, review, rétrospectives, estimation et mûrissement des User Stories. Compétences requises Maîtrise complète des activités de Business Analyse : recueil des besoins, analyse de l’existant, formalisation, plan de test, exécution de la recette, déploiement, conduite du changement. Expérience solide en Business Analyse dans un contexte Agile , avec appétence pour la data et la conception centrée utilisateur . Capacité de communication orale et écrite : synthèse, clarté et efficacité. Expérience dans le suivi de la qualité de service d’un produit sensible et déployé à grande échelle , gestion d’incidents et pilotage de cellules de crise. Connaissance des activités de recette fonctionnelle et préparation de campagnes de tests . Connaissances en conception et test fonctionnel d’API . Rigueur et organisation pour concevoir la stratégie de gouvernance des données et mettre en œuvre un plan d’actions. Compétences techniques : SQL , Teradata ou PostgreSQL. Maîtrise des outils Jira et Confluence .

Mission freelance
INGENIEUR DATA BI - GENIO
INGENIEUR DATA BI GENIO / SQL / BIG QUERY / TERADATA / GCP nous recherchons un Data Engineer entre 3 et 7 ans d'expérience qui aura la capacité de gérer à la fois les aspects MCO/TMA mais également la partie projets pour les différentes directions du groupe en collaboration avec le reste de l'équipe. À la suite d'une passation avec notre centre de service, il devra également être en mesure d'innover et d'améliorer les processus existants pour perfectionner l'efficience de l'équipe au quotidien dans ses différentes tâches. DESCRIPTION DE LA MISSION • Participe à l'analyse du besoin avec la supervision du PPO ou Manager et à la conception du modèle de données permettant de répondre aux enjeux. • Utilise l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets • Conçois, développe et maintien les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. • Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale • Identifie et résout les goulots d'étranglement et les problèmes de performances dans les flux de données • Met en place des processus et des contrôles pour garantir la qualité des données • Conçoit et met en œuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. • Réalise la recette technique et anime la recette fonctionnelle avec les utilisateurs • Rédaction des documents associés au projet (Spécification Fonctionnelles, Spécifications Techniques, Cahier de recette Technique, Document d'exploitation) • Être force de proposition sur l'amélioration de notre stack Data • Faire le reporting d'avancement des travaux • Support au déploiement • Assure la maintenance corrective ou évolutive • S'assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe ENVIRONNEMENT TECHNIQUE L'environnement Data dans le cadre de cette mission est actuellement constitué principalement d'une base de données Teradata (Cloud) ainsi qu'un environnement BigQuery. • Langages/Framework : SQL, BigQuery, Python, Java, Shell • Outils : OpenText GENIO, Talend • Base de données : Teradata, BigQuery, SQL Server, IBM DB2 PLANIFICATION ET LOCALISATION Démarrage ASAP / PARIS
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.