L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 4 333 résultats.
Offre d'emploi
(H/F) Développeur Scala
Publiée le
50k-60k €
Lyon, Auvergne-Rhône-Alpes
en bref : Développeur Scala / Lyon 3 / 50-60K€ / Editeur de logiciels Adsearch, cabinet de conseil en recrutement, vous propose un poste de Développeur Scala (H/F) chez son client éditeur de logiciels. Poste : Vous rejoignez une PME qui édite une gamme de logiciels dans le domaine du médical. Au sein du pôle R&D vous intégrez l’équipe backend composée de plusieurs développeurs Scala. En tant que Développeur Scala (H/F) vous travaillez sur l’architecture et le développement des services qui alimentent la plateforme. Au quotidien vous : - développez et maintenez les API Rest de la plateforme - concevez l’architecture backend - veillez à garantir performance, fiabilité et scalabilité - intégrez les systèmes tiers des partenaires - travaillez en collaboration avec l’équipe produit et frontend - participez aux choix techniques et à l’évolution de la stack. Stack technique : Scala, écosystème Typelevel PostgreSQL / MongoDB CleverCloud CI/CD
Mission freelance
DATA ENGINEER - SNOWFLAKE
Publiée le
Snowflake
6 mois
100-400 €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
Dans le cadre d’un programme stratégique de modernisation de la plateforme data , notre client recherche un Data Engineer expérimenté (5 à 10 ans d’expérience) pour renforcer son pôle Data & Cloud Engineering. La mission s’inscrit dans un environnement à forte composante technologique, reposant sur une architecture cloud-first hébergée sur AWS , et visant à industrialiser, fiabiliser et automatiser les traitements de données à grande échelle. Le consultant interviendra sur la conception et l’optimisation des pipelines de données (Snowflake, DBT, Pandas), la gestion de l’infrastructure via Terraform , et la mise en place de processus de monitoring, sécurité et SLA . L’objectif principal est de garantir la performance, la qualité et la traçabilité des données tout en accompagnant la transformation digitale de l’entreprise dans un cadre agile et collaboratif .
Offre d'emploi
Business Analyst - Vannes
Publiée le
Business Analyst
JIRA
Recette
6 mois
40k-45k €
400-550 €
Vannes, Bretagne
Télétravail partiel
Merci de bien lire l'annonce ci dessous et vérifier que vous correspondez au besoin. Nous recherchons exclusivement des candidats basés à Vannes ou en Bretagne . Merci de ne pas envoyer de candidature si vous êtes situés hors de cette zone géographique. Dans le cadre du développement de nos activités, notre cabinet de conseil Agrain Consulting Innovation recherche un Consultant Business Analyst confirmé (H/F) pour renforcer nos équipes. Tâches : Dans le cadre de la mission: - Recueil des besoins - Elaborer en équipe une réponse fonctionnelle au besoin métier - Rédiger les user Stories - Rédiger la documentation pérenne du produit et les supports de conduite du changement - Rédiger les scénarios de tests et plan de test - Exécution des tests -Capacité à challenger les équipes métiers & techniques
Mission freelance
Chef de projet IT - Migration Exchange
Publiée le
Exchange Online
MFA
12 mois
400-550 €
Île-de-France, France
Télétravail partiel
Dans le cadre d’un programme IT à dimension internationale, nous recherchons un(e) Chef de Projet IT pour piloter des projets structurants autour de la sécurité des accès (2FA/MFA) et de la migration vers Exchange Online . 🎯 Vos missions Piloter le déploiement du 2FA pour une filiale et l’ensemble de ses utilisateurs à l’international Piloter la migration vers Exchange Online pour environ 20 000 utilisateurs Assurer la gestion budgétaire du projet Préparer et animer les comités projet et comités de pilotage Identifier les risques , définir et suivre les plans de mitigation Être l’ interlocuteur principal du client et des parties prenantes
Mission freelance
CONSULTANT MOA BI - EQUIPEMENT
Publiée le
BI
MOA
24 mois
300-600 €
Le Plessis-Robinson, Île-de-France
Télétravail partiel
AMOA BI - Equipement - GMAO MISSION l'AMOA BI est le point d'entrée de la DSI pour toute demande de BI sur les Solutions Equipement. Il fait l'interface entre les interlocuteurs Métier les équipes BI de développement et l'équipe Solution équipement. Son rôle est de comprendre les enjeux et besoins Métier en coordination avec l'AMOA BI pour les spécifier aux équipes de développement. Dans le cadre de la Roadmap BI le Référent fonctionnel BI devra notamment : • Travailler en étroite collaboration avec les équipes équipement pour spécifier l'extraction des données Maximo servant aux KPI Métier (utilisé dans Power BI) • Préparer le modèle de données BI pour l'intégration des données MAXIMO (équipement). Une attention toute particulière sera apportée aux notions de site Maximo ainsi qu'à la consolidation des données. • Spécifier les traitements d'intégration à destination du pole DATA. • Identifier les dimensions de « croisement » avec les Terminaux (équipement, temps, site etc…) • Proposer et accompagner les ajustements pour le portage des rapports MAXIMO & leur version consolidé sur la source. ACTIVITES PRINCIPALES 1. Piloter les projets BI opérationnels et l'implémentation des nouveaux usages / nouvelles solutions, coordonner les parties prenantes métier et DSI, et accompagner le changement associé (y compris la transition en RUN) 2. Sous l'impulsion des équipes BI, accompagner la diffusion d'une culture Data au sein des équipes DSI et Métier 3. Contribuer à la gouvernance appropriée pour mener à bien les projets BI sur le périmètre concerné 4. Proposer, en étroite collaboration avec les équipes Solutions et BI les solutions /modèles pour consolider et croiser les données équipement 5. Participer à la rédaction des spécifications fonctionnelles aux équipes BI de la DSI 6. Réaliser les Tests d'intégration, une fois les Données & rapports BI livrés 7. Organiser les UAT avec le Métier/Solution 8. Contribuer au déploiement des nouveaux rapports équipement 9. Être le garant du delivery (coût, qualité, délai) 10. Accompagner les pays et les équipes de déploiement pour s'approprier les outils et reporting BI et opérationnel existants Conditions particulières de travail Déplacements ponctuels à l'étranger dans le cadre des déploiements, de formations, d'Université ou de cadrage de sujets à enjeux majeurs
Offre d'emploi
PIXIE - Mission -Freelance - Tech Lead - Réseau - ENV. Multi Cloud - LONG TERME - LILLE
Publiée le
BGP (Border Gateway Protocol)
Cloud
Open Shortest Path First (OSPF)
3 ans
Nord, France
Télétravail partiel
Bonjour Pour l’un de mes clients je recherche un Tech Lead Réseau Mission Tech Lead Réseau Contexte BU Cloud Platform Engineering en forte croissance environ 170 personnes Objectif simplifier et standardiser les outils IT et renforcer la collaboration Equipe Equipe Core Network avec une double compétence réseau et DevOps Travail sur l’automatisation la fiabilité et la sécurité en environnement hybride et multi cloud Rôle Référent technique réseau Définition de la roadmap avec le PO Choix des architectures et accompagnement de l’équipe Garantie de la qualité des livrables automatisation IaC CI CD sécurité by design Pilotage des déploiements et des projets de transformation Reporting clair auprès du management Environnement technique Backbone BGP OSPF Juniper IPAM Netbox Infoblox Cloud AWS GCP DirectConnect Interconnect VPN IPSEC SSL ZTNA DNS Route53 CloudDNS VPC Security Groups PrivateLink Transit Gateway Shared VPC Egress Fortinet Squid Profil 7 à 8 ans d’expérience réseau avec un rôle de référent ou Tech Lead Très bonne maîtrise AWS et ou GCP certification attendue Automatisation Python Terraform CI CD Leadership esprit d’équipe méthodes agiles Anglais professionnel Si vous êtes intéressé et que votre profil correspond merci de m’envoyer votre CV à jour Je reviens vers vous rapidement pour échanger
Mission freelance
POT8768 - Un Architecte Data Azure sur Lyon
Publiée le
Azure
6 mois
260-380 €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Almatek recherche pour l'un de ses clients, un Architecte Data Azure sur Lyon. Profil: Un expert capable de concevoir et piloter des architectures robustes et évolutives sur Azure, Faveod, et d’autres technologies pertinentes. Il interviendra sur des projets complexes : reprise et évolution de systèmes, transfert de compétences, et accompagnement stratégique. Missions : Mise en place technique : Installation et configuration des environnements, paramétrage des données, des accès et de la sécurité, mise en place des connecteurs hors production, proposition d’architecture et documentation. Adaptation des cas d’usage : Collecte des besoins, formalisation des scénarios, configuration des parcours et automatisations, recommandations d’optimisation. Formation & transfert : Création de supports et animation de sessions pour les équipes techniques et métiers. Pilotage & ajustement : Suivi des livrables et du planning, contrôle des KPI et qualité des données, ajustements, rapport final et recommandations (bilan et ROI). Profil : Expertise confirmée : Technologies Azure, Faveod, et autres outils pertinents. Expérience significative : Projets de consultation IT, reprise et évolution de systèmes, transfert de compétences, projets IT complexes. Certifications appréciées : Certifications Azure et autres liées aux technologies utilisées.
Offre d'emploi
Data Scientist – Expert
Publiée le
Deep Learning
Domino
Framework
6 mois
Bruxelles, Bruxelles-Capitale, Belgique
Télétravail partiel
Au sein de la Tribe Artificial Intelligence , vous participez au développement d’applications d’IA générative et prédictive. Vos responsabilités : Développer des applications IA (assistants virtuels, outils internes, automatisation). Concevoir des modèles IA robustes et mesurables (qualité, précision, garde-fous). Déployer des modèles en production. Communiquer les résultats aux dirigeants.
Mission freelance
FREELANCE – Solution Owner S2S (H/F)
Publiée le
Coupa
P2P
6 mois
550-600 €
Suresnes, Île-de-France
Notre client, basé à Suresnes (92), est à la recherche d’un Solution Owner S2S (H/F) freelance pour l’accompagner sur un projet. MISSIONS Rattaché(e) au département Digital, Data and IS (DDSI), vous intervenez sur le programme d’optimisation du processus Source to Settle, couvrant principalement les périmètres Procure to Pay, Source to Contract et Supplier Relationship Management, avec le déploiement de la solution Coupa en France et aux États-Unis. · Participer à la mise en œuvre de la solution Coupa sur l’ensemble du processus Source to Settle · Accompagner les métiers dans l’expression et la formalisation des besoins fonctionnels et techniques, en vérifiant leur faisabilité · Contribuer à l’élaboration des cahiers des charges et à la documentation des spécifications techniques · Challenger les éditeurs et intégrateurs sur les aspects techniques des solutions proposées · Évaluer et anticiper les prérequis et étapes techniques nécessaires à l’implémentation des évolutions · Être acteur des travaux Build to Run de la solution Coupa · Organiser et participer au paramétrage, aux phases de recette et à l’intégration de la solution dans l’écosystème applicatif (SAP, EBX, Talend, etc.) · Coordonner, avec le chef de projet, l’avancement des activités techniques et le suivi des interfaces inter-applicatives · Jouer un rôle d’interface entre les équipes métiers, techniques et les partenaires externes (intégrateurs, éditeurs) · Renforcer le dispositif de support et de gestion évolutive de la solution, en lien avec les centres de services partagés · Assurer un support technique de proximité auprès des utilisateurs · Contribuer au suivi fonctionnel et technique des outils existants supportant le processus Source to Settle (Corcentric, Aravo, Per Angusta) ENVIRONNEMENT TECHNIQUE · Coupa, Source to Settle (S2S), Procure to Pay (P2P), Source to Contract (S2C), Supplier Relationship Management (SRM)
Offre d'emploi
CHEF DE PROJET DATA opérationnel
Publiée le
Dash
18 mois
40k-45k €
100-550 €
Paris, France
Télétravail partiel
CONTEXTE : Dans le cadre de plusieurs projets Data sont en cours : conformité de la collecte et des usages des données, identification des nouveaux cas d’usage d’activation des données utilisateurs, constitution du socle de données utilisateurs, développement de la connaissance des utilisateurs, gouvernance des données… MISSIONS : Nous recherchons un chef pour la gestion opérationnelle des cas d’usages d’activation publicitaires et d’acquisition issus de la CDP : Mediarithmics. La Customer Data Platform Mediarithmics a été déployée en 2020. Elle est implémentée sur la plupart des offres. Les données issues de la CDP servent actuellement de cas d’usages à destination des équipes métiers Acquisition, CRM et de la Publicité. Les tâches confiées dans le cadre de la mission couvrent la mise en place de la collecte, le suivi du déploiement, l’exploitation et la maintenance de notre CDP mais aussi la gestion de projets data transverses (suivi de la mise en place de solutions face à la fin des cookies tiers, amélioration de l’usage de la donnée en fonction des cas d’usage publicitaires et d’acquisition en place, création de nouveaux cas d’usages transverses…). 1. Répondre aux différents besoins des équipes métiers Acquisition & Publicité - Challenger les besoins et identifier les projets/chantiers à mettre en place : a) création de nouveaux segments au sein de l’outil b) mise en place de nouveaux flux d’envoi de donnée c) mise en place de nouvelles collectes de données d)… - En tant que point d’entrée pour ces équipes, animer les points hebdo sur leurs besoins et l’évolution des projets en cours - Proposer et défendre la mise en place de nouveaux cas d’usages liées aux nouvelles features de l’outil CDP Mediarithmics, aux nouvelles collectes de données, … - Concevoir et animer des workshops de cas d’usage avec les équipes des offres & des équipes métiers pour développer l’usage de la CDP (cas d’usage par métier & transverse) 2. Participer au run et à l’amélioration continue la CDP Mediarithmics (collecte, flux, dash, …) pour répondre aux besoins métiers Acquisition & Publicité - Création de segments dans la CDP et suivi de l’envoi de données dans les applicatifs - Pilotage de la donnée Mediarithmics en créant des dashboards de Data Quality, d’insights et de mesure, - Définir les plans de marquage de la CDP sur chacune des offres/ environnements (implémentation ou corrections), accompagner les équipes dans l’implémentation et veiller à ce que la collecte correspondant aux souhaits (rédiger et réaliser les recettes, …) - Concevoir et cadrer la mise en place de nouveaux projets / implémentation de nouvelles features ou de nouvelles données / mise en place de correctif pour donner suite à des incidents : pré-requis, risques, parties prenantes, facteurs clés de succès… - Rédiger les documentations nécessaires au partage de la connaissance (CDP, cas d’usage, bonnes pratiques, … ) à destination des équipes. - Assurer la relation, la coordination et les évolutions des outils avec l’éditeur Mediarithmics 3. Gérer et suivre la mise en place des projets / cas d’usage pour les équipes Acquisition & Publicité - Organiser et animer les ateliers de conception et de cadrage avec les équipes des offres, les équipes techniques et les experts métiers - Organiser et animer les comités de pilotage des projets confiés - Coordonner et communiquer les actions entre les parties prenantes : Data, Technique, Offres numériques, Croissance des offres, Stratégie éditoriale, Equipe RGPD, … - Coordonner et communiquer avec les différents métiers en cohérence avec l’objectif projet et la roadmap - Partager les alertes projet aux différentes parties prenantes, - Identifier et partager les impacts entre les roadmaps des différents métiers, - Garantir l'avancée des projets et la qualité des livrables, - Assurer la création et l’évolution de la documentation projet / cas d’usage - Suivre, mesurer & communiquer sur les performances des projets, de l’outil CDP ou des cas d’usages - Prendre en charge, dans une démarche d’amélioration continue, les actions nécessaires pour améliorer les performances tout au long du cycle de vie des projets
Mission freelance
Concepteur Technique .NET REACT
Publiée le
.NET
Apache Kafka
Microsoft SQL Server
6 mois
400-430 €
Rouen, Normandie
Télétravail partiel
Bonjour, Nous recherchons pour l'un de nos clients intégrateurs un Concepteur Technique avec un background .NET REACT. Secteur d'activité du client final : assurance Contenu mission : Revue des US métiers lors d’un point hebdomadaire o Echanger sur la faisabilité technique de la demande (plutôt au niveau micro – le macro est cadrée en amont) et la cohérence par rapport au système existant o S’assurer que la rédaction est compréhensible, complète pour qu’un développeur comprenne la tâche à réaliser Réaliser les analyses d’impacts pour implémentation des fonctionnalités o Quels composants, quelles modifications, identifier les risques de régression sur les composants mutualisés ou les opportunités de refactoriser pour garder la maintenabilité Rédiger des documents de conception qui tracent ces analyses o Page de conception dédiée qui représente le delta à mettre en œuvre § Lister les impacts par composants, avec les arbitrages réalisés § Rédiger les contrats d’interface swagger (yaml) des API o Pages du 'référentiel applicatif’ qui doit représenter le système tel qu’il est/sera en production à la fin du projet. Présenter les conceptions aux développeurs qui prendront la réalisation Présenter les conceptions aux développeurs qui prendront la réalisation · Accompagner les développeurs · Valider les PR du point de vue conception en s’assurant que la réalisation a été faite conformément à l’attendu Le cœur du travail étant surtout sur l’aspect analyse d’impact, où il faut bien étudier le système existant pour voir comment le déformer (ou le réutiliser) au mieux.
Mission freelance
Un Administrateur Kubernetes à Lyon
Publiée le
Administration linux
6 mois
340-440 €
Lyon, Auvergne-Rhône-Alpes
Almatek recherche pour l'un de ses client, Un Administrateur Kubernetes à Lyon. Mission Nous recherchons un administrateur Kubernetes qui participera au tour d’astreinte Le produit Hadock est une offre d’hébergement et d’orchestration de conteneurs on-premise basée sur Kubernetes. Nos grands enjeux actuels tournent autour: - du run zéro crise (sujet valable pour toute la DSI) - d'une nouvelle version de l’offre «?v2?» (nouvelle stack technique basée sur Rancher/ArgoCD) laquelle doit arriver pour la fin de l’année 2025 - d’un sujet de transformation des applications pour les accompagner vers la mise en œuvre des bonnes pratiques Kube et ainsi une préparation à la migration vers notre offre V2 et à terme vers le cloud pour certaines - de l’automatisation pour se rapprocher des services des hyperscaleurs: services standardisés, as code,provisioning rapide, rationalisation des ressources, scalable, etc... (sujet valable pour tous les services d’infrastructure dont ceux de DIGIT) Afin de renforcer l’équipe Hadock, nous recherchons un profil SysOps Kubernetes senior avec une expérience confirmée en administration de clusters Kube / outillages associés, en environnements de production à fort enjeu. Le service Hadock est un produit du département DIGIT qui vise à fournir de l’hébergement de conteneurs orchestrés par Kubernetes. Nous utilisons également Rancher pour gérer nos quelques dizaines de clusters (et Kubespray pour nos 4 « gros » clusters historiques). Profil recherché : Les compétences recherchées sont les suivantes?(non exhaustives) : Système et Administration Linux : commandes Linux, scripting shell, file systems etc. Scripting: langages BASH, Python, etc. Networks and security : connaissances de base concernant DNS, VPN, firewall, proxy server, loadbalancer Stockage : connaissance de base concernant SAN, NAS CI/CD pipeline : Git, Ansible, ArgoCD Monitoring-supervision/logs : Victoria Metrics, Grafana, Prometheus, ... Containers : connaissances avancées concernant Kubernetes, Docker. Certification CKA, la CKS est un plus En complément, « nice to have » : Rancher, Peering BGP pour la micro-segmentation (Cilium <-> Cisco ACI et Cilium <-> Fortinet) Cloud computing : AWS, Azure, GCP... Les activités se déroulent autour de 3 grands axes : Le «build» qui suit le cycle de vie produit : Prototypage / Conception / Réalisation / Tests & Recette / Déploiement / livraison / Résorption Le MCO évolutif/correctif : Suivi du bon fonctionnement en production / Assurer les évolutions techniques de la plate-forme / Maintenir le niveau de sécurité des éléments de la plate-forme / Assister les équipes projets dans la prise en main de l’environnement Le «run» : Réponse à des demandes, support aux équipes projets et traitement des incidents/crises + Participation aux astreintes technique N3 soir&WE une fois les compétences suffisantes acquises; accompagnement à la mise en œuvre des bonnes pratiques Les livrables attendus sont les suivants: Code, Documentation technique, Procédures Techniques, Dossier d'Architecture Technique, Request For Change pour les CAB, MaJ des tickets dans Jira, Participation à lapréparation des PI planning ... Technologies & outillage mis en oeuvre : Kubernetes (kubeadm, rke2) 1.30; RedHat 9; f5 Big-IP; Calico; Cilium; Traefik 2 & 3; Docker ; Kyverno; Victoria Metrics; Prometheus; Grafana ; Loki ; Helm ; Chaos Mesh; Ansible ; Git; Artifactory; Kubespray, rke2, Rancher, Argo CD, Trident L’équipe est actuellement composée de 5 experts techniques et d’un Product Owner, accompagné d’un Scrum master et d’un Teachnical Leader Kubernetes?; fonctionne selon le modèle SAFe (Agilité à l’échelle). Les activités assurées peuvent concerner : Définir une architecture cible opérationnelle et résiliente / Réaliser des maquettes et des recettes afin de valider les choix, être force de proposition pour des évolutions Porter des arbitrages sur les solutions techniques et fonctionnelles à embarquer / S’assurer de la pertinence des briques choisies dans le contexte, comme de leur pérennité Assurer les montées de versions des différentes briques de la plate-forme et résoudre les problèmes (au sens ITIL) Accompagner et promouvoir l’approche micro-services des applicatifs et les bonnes pratiques induites / Assurer une veille technologique, autour des solutions retenues à minima.
Mission freelance
Responsable d’application ADOBE Campaign
Publiée le
Adobe
Adobe Campaign
12 mois
550-600 €
Paris, France
Télétravail partiel
Vous serez responsable de projets et des activités courantes liés à l’évolutivité autour de notre outil de gestion de campagne ADOBE et des flux associés. Principales missions : Gestion de backlog : maîtrise, organisation et ordonnancement du backlog de ses sujets / projets Escalades métiers, tickets de bugs et évolutions TMA, projets Qualité du backlog : complétude et état des tickets, ... Phases amont (roadmap, recueil des besoins, cadrage et macro impact/chiffrage) amenant à la rédaction des SFD et la compréhension de celles-ci par l’équipe Réalisation de la stratégie de recette et exécution de la recette Communication auprès des différents interlocuteurs IT et / ou métiers : coordination des différents interlocuteurs lors des différentes phases projet en accompagnement du chef de projet et/ou de la Responsable de Domaine Réalisation de la stratégie de déploiement et évaluation des impacts Gestion des adhérences : cohérence technico-fonctionnelle de son backlog et des adhérences de celui-ci avec les autres équipes Passation des informations aux équipes d’exploitation à la suite de changement ou mise en production Production de la documentation fonctionnelle et de la capitalisation de cette documentation Synchronisation technico-fonctionnelle avec les autres équipes et les partenaires externes le cas échéant Amélioration continue Priorisation de ses sujets entre le RUN et les différents projets BUILD en fonction des impacts et priorités annoncées. Environnement technologique : ADOBE Cloud : GCP APIs JIRA Postman Talend Informatica Vous intervenez sur des projets variés liés aux domaines clients et en serez le référent. Votre rôle est d’assurer une continuité de service et délivrer les nouveaux projets inscrits à la roadmap tout en vous coordonnant avec les autres domaines (E-commerce, CRM, Fidélité, DATA, ...) Si vous avez une expertise technico-fonctionnelle sur ce sujet, on vous veut !! Profil recherché : Expérience dans le secteur de du retail et idéalement dans la grande distribution Minimum Bac+5 en école d’ingénieur ou master Minimum 3/4 ans d’expérience sur un poste similaire Expérience forte sur l’applicatif ADOBE, et une expérience dans le domaine du retail et/ou du e-commerce Maitrise de Jira Expérience dans un environnement multipartenaire : aisance à travailler avec une direction métier comme avec un développeur
Mission freelance
Consultant Data Migration – SAS / SQL – Contexte Épargne & Transformation SI
Publiée le
SAS
SQL
2 ans
400-580 €
Île-de-France, France
Télétravail partiel
Description de la mission : Dans le cadre d’un programme de transformation du système d’information épargne , nous recherchons un consultant confirmé spécialisé en migration de données pour intervenir sur la construction et l’industrialisation d’un modèle de données pivot entre les systèmes existants et un nouvel outil de gestion. Vos missions : Analyser les traitements et modèles de données existants sous SAS Enterprise Concevoir et faire évoluer le modèle de données Pivot servant d’interface entre les systèmes source et cible Développer et industrialiser les flux SAS (pré-traitement, transformation, injection) Réaliser les tests unitaires et suivre les anomalies Participer au passage de run de migration et assurer le suivi des compteurs Rédiger la documentation technique et les spécifications fonctionnelles détaillées
Offre d'emploi
Consultant Business Intelligence Alteryx H/F
Publiée le
35k-45k €
Toulouse, Occitanie
Télétravail partiel
Contribuer à la performance décisionnelle d’une organisation en transformant les données en leviers d’action mesurables. Au sein de TOHTEM, vous intervenez au cœur des projets Business Intelligence pour optimiser la gestion et la valorisation des données des caisses d’épargne. Vous intégrez une équipe décisionnelle expérimentée où rigueur et sens de l’analyse guident chaque intervention. Votre objectif est clair : concevoir, maintenir et faire évoluer les flux de données qui alimentent les outils d’analyse et de reporting de nos clients. Vous travaillez dans un environnement structuré, en interaction avec des experts BI, des responsables métiers et des interlocuteurs techniques. Vos principales responsabilités couvrent les activités suivantes : - Concevoir, développer et maintenir les flux ETL sous Alteryx - Assurer la qualité et la cohérence des données traitées - Documenter les processus et garantir la traçabilité des traitements - Identifier et corriger les anomalies dans les flux de données - Collaborer avec les équipes métiers pour comprendre les besoins d’évolution - Participer à l’intégration et à la mise à jour des entrepôts de données - Contribuer à des travaux complémentaires sur Power BI ou Easymorph selon expérience Ce poste requiert rigueur, méthode et une approche orientée résultat. Vous évoluerez dans un contexte où la qualité des données conditionne la fiabilité des décisions stratégiques.
Mission freelance
Senior Data Scientist - Gen AI - Finance (h/f)
Publiée le
12 mois
650-750 €
75008, Paris, Île-de-France
Télétravail partiel
Vous êtes un Data Scientist expérimenté, spécialisé dans l'IA générique et Python ? Emagine vous offre l'opportunité de guider et de diriger le développement de structures et d'outils efficaces afin de créer des applications d'IA fiables et dignes de confiance dans un environnement bancaire international. Are you an experienced Data Scientist with expertise in Gen AI and Python? Emagine has an opportunity for you to guide and lead the development of effective structures and tools to create reliable, trustworthy AI applications within a global banking environment. As part of an AI-focused emagine team working on Gen AI initiatives that leverage LLMs and advanced techniques to solve complex business problems. You will work on unstructured data from sources such as legal documents and financial trading policies, building solutions that enable accurate and reliable outcomes. Main Responsibilities Lead the design and implementation of Gen AI solutions for text-based and LLM-driven use cases. Develop Python-based tools for data ingestion, modelling, and manipulation of large volumes of unstructured data. Define effective structures and frameworks to ensure reliability and trustworthiness in AI applications. Collaborate with legal and compliance teams to process and model complex datasets. Key Requirements 5+ years of experience in Data Science including international corporate environments. Strong expertise in Python and hands-on experience with LLMs (e.g., Lama 7DB, GPT-4 API). Familiarity with vectorization, chunking, and advanced data modelling techniques. Knowledge of tools such as PySpark, MongoDB, graph databases, SparkleDP. Self-driven, proactive, and comfortable working in a fast-paced environment. Nice to Have Exposure to legal or procedure-focused applications. Other Details Work is a minimum of 3 days per week on-site (8th). Apply with your latest CV or reach out to Brendan to find out more.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
4333 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois