The job you are looking for has been deleted or has expired.
Here are some jobs that could be of interest.
Find your next tech and IT Job or contract role.
Your search returns 1,395 results.
Job Vacancy
Business analyst ERP H/F
Published on
60k-65k €
Nantes, Pays de la Loire
Intégré à une équipe projet de 1 personnes, vous travaillez en étroite collaboration avec la Direction Informatique. Vos missions sont les suivantes : Collaborer sur des projets avec les parties prenantes internes et les fournisseurs externes. Piloter le déploiement de l'ERP dans les différentes branches de l'entreprise. Assurer la liaison entre l'entreprise et l'informatique, en coordonnant les échanges avec les parties prenantes. Organiser et animer des ateliers pour recueillir les besoins métier et les traduire en analyses commerciales. Analyser et modéliser les processus métier existants dans les différentes unités et départements. Contribuer à la création ou à l'amélioration des processus métier pour optimiser l'efficacité opérationnelle. Suivre la livraison des projets en termes de contenu et valider la conformité des résultats par rapport aux attentes.
Job Vacancy
Data Architecte Databricks
Published on
Databricks
65k-80k €
Lyon, Auvergne-Rhône-Alpes
Hybrid
Ton quotidien chez Komeet sera rythmé par : Animation des ateliers afin d’étudier et cadrer les besoins clients Préconisation, conception et mise en œuvre des plateformes Data (datawarehouse, datalake/lakehouse ) Rédaction de dossiers d’architecture et spécifications techniques Mise en œuvre des stratégies d’exploitation de plateformes Data Construction et déploiement des pipelines de données (ETL / ELT) à l’aide de langage de programmation ou d’outils de type Low-Code Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. Tests, validation et documentation des développements Réalisation d'audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP
Job Vacancy
Data Architecte Databricks
Published on
Databricks
65k-80k €
Paris, France
Hybrid
Ton quotidien chez Komeet sera rythmé par : Animation des ateliers afin d’étudier et cadrer les besoins clients Préconisation, conception et mise en œuvre des plateformes Data (datawarehouse, datalake/lakehouse ) Rédaction de dossiers d’architecture et spécifications techniques Mise en œuvre des stratégies d’exploitation de plateformes Data Construction et déploiement des pipelines de données (ETL / ELT) à l’aide de langage de programmation ou d’outils de type Low-Code Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. Tests, validation et documentation des développements Réalisation d'audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP
Job Vacancy
Chargé de Pilotage SI / PMO Confirmé – Pilotage d’Équipe Delivery -Saint Herblain(H/F)
Published on
Agile Method
Git
Java
1 year
Saint-Herblain, Pays de la Loire
🎯 Contexte & Mission Dans le cadre d’un projet stratégique, nous recherchons un Chargé de Pilotage SI (PMO) Confirmé capable de piloter une équipe de delivery, coordonner les développements applicatifs et assurer le suivi opérationnel des projets IT. Vous serez le point central entre les équipes techniques, les équipes métiers et l’infrastructure, avec un rôle clé dans la planification, le reporting, le pilotage des charges et la qualité des livrables. 🛠️ Livrables attendus Planning de charge détaillé Board Jira structuré et régulièrement mis à jour 🧠 Compétences techniques recherchées Excel : Confirmé – Important Jira : Confirmé – Souhaitable Environnement outils : Redmine, Sciforma, Excel, PowerPoint Environnement technique : Java, Spring, Hibernate, Maven, ReactJS DevOps : Git, Nexus, Jenkins 📌 Description de la mission1. Pilotage de projet Agir comme interlocuteur principal du chef de projet métier Assurer un reporting régulier et rigoureux Identifier les risques, les dépendances et les interactions Animer les cérémonies Agile (daily, démo, etc.) Être force de proposition pour assurer le respect du planning et la qualité des livrables 2. Pilotage des développements Calculer la capacité de charge de l’équipe de développement Estimer la charge des différentes tâches Suivre le reste à faire et anticiper les dérives 3. Pilotage des chantiers infrastructure (hébergement) Coordonner les actions avec l’équipe Infrastructure Gérer le planning de réalisation et les validations techniques 4. Activités complémentaires Organiser et participer aux audits externes Planifier et suivre les tests de performance Assurer le support et l’assistance jusqu’à la clôture des opérations critiques (dont opérations de vote) 📊 Indicateurs de performance Respect des délais de livraison des versions applicatives Fiabilité et mise à jour des tableaux de bord Qualité des mises en production
Job Vacancy
Business Analyst SAP ECC
Published on
SAP ECC6
6 months
Hauts-de-Seine, France
Hybrid
Description du poste : Dans le cadre d’un vaste programme de refonte des processus métiers au niveau mondial, le poste s’articule autour de l’analyse et l’amélioration des processus métier sur le périmètre SAP ECC. La mission comprend : Interaction directe avec les équipes métiers pour recueillir, analyser et formaliser leurs besoins. Animation d’ateliers afin de challenger et d’optimiser les processus actuels en collaboration avec les équipes globales. Participation active à la refonte et au déploiement de nouvelles solutions SAP en adéquation avec les enjeux stratégiques du marché français. Rédaction de la documentation fonctionnelle pour l'intégration et l’évolution des applications interconnectées.
Contractor job
DATA SCIENTIST EXPERT / DATA PRODUCT – DATAIKU (H/F) 75
Published on
Apache Spark
Dataiku
PySpark
6 months
Paris, France
Hybrid
Contexte: Dans un contexte de structuration et de montée en maturité des usages Data au sein d’une Direction Financière, la mission vise à renforcer les capacités analytiques autour de la prévision du chiffre d’affaires. L’objectif est de concevoir et d’industrialiser un produit Data stratégique permettant une projection automatisée et multidimensionnelle du chiffre d’affaires (produits, zones géographiques, canaux de vente, infrastructures). Le consultant interviendra au cœur d’une organisation Finance & Data, en tant que référent Data Finance, à l’interface entre les équipes Finance, Data et Produit. Missions: Concevoir, maintenir et faire évoluer un produit Data de projection du chiffre d’affaires Développer et industrialiser des modèles de prévision intégrant des mécanismes basés sur les volumes Permettre des ajustements manuels des projections par les équipes métiers Garantir la qualité, la fiabilité, la traçabilité et l’exploitabilité des données Développer et maintenir des pipelines de données sous Dataiku Implémenter des traitements SQL avancés et des flux de transformation complexes Exploiter Spark / PySpark pour gérer des volumétries importantes Automatiser, monitorer et documenter les chaînes de traitement Mettre en œuvre des contrôles de qualité et contribuer à la gouvernance des données financières Rendre les modèles explicables et actionnables pour les équipes Finance Mettre à disposition les données projetées dans le datalake Collaborer étroitement avec les équipes Finance, Data et Produit Participer aux rituels agiles et au suivi des livrables via des outils de gestion de projet
Contractor job
Analyste IT Risque de Marché
Published on
AWS Cloud
Gitlab
Jupyter Notebook
6 months
500-550 €
Paris, France
Hybrid
Poste : Analyste IT Risque de Marché 📍 Paris, France 🎯 Contexte Vous rejoindrez une équipe Risque de Marché en charge de la conception du cadre de risque, du suivi opérationnel, de la modélisation et de l’évolution des outils de risk management. Le poste s’inscrit dans un environnement innovant lié aux produits dérivés et aux actifs digitaux. 🚀 Vos missions 🧪 Développement & Data Risk Développer des scripts, outils, rapports et dashboards en Python : analyse de marge, backtesting, contrôles qualité, analyse de portefeuille, outils de gestion du défaut… Contribuer à la construction d’une librairie Python robuste et documentée. Garantir la fiabilité et l’automatisation des scripts dans un environnement local et cloud. 📊 Business Analyse Recueillir et analyser les besoins fonctionnels liés aux risques de marché & opérationnels. Rédiger les spécifications fonctionnelles / user stories. Participer activement aux ateliers et réunions projets, identifier les impacts et proposer des solutions. Préparer et exécuter les tests, documenter les résultats et participer à la mise en production. Contribuer à la stratégie de déploiement et former les autres membres de l’équipe. 🎓 Compétences clés Très bonne maîtrise de Python et des outils de versioning (GitLab). Connaissance de Jupyter, AWS ou Snowflake appréciée. Excellente communication en français et anglais. Expérience projet dans la finance de marché (BA ou testing). Compréhension des notions de risque de marché et des produits dérivés (Delta, Gamma, Vega…). Rigueur, autonomie, esprit analytique, capacité à anticiper.
Job Vacancy
Analyste fonctionnel Trésorerie
Published on
Kyriba
3 years
52k-55k €
500-550 €
Paris, France
Hybrid
Nous recherchons un Analyste fonctionnel Trésorerie, pour intégrer le domaine Trésorerie au sein de la DSI d'un grand compte. L'équipe d’Administration du Système d’Information Trésorerie, à la responsabilité applicative et fonctionnelle du patrimoine informatique du domaine trésorerie. L’équipe est responsable de la gestion fonctionnelle et applicative du patrimoine informatique dédié à la Trésorerie. Vous accompagnez la Direction des Flux Financiers et du Recouvrements, la Direction des Placements et de l’Actif-Passif, et les services métier utilisant les outils de trésorerie. Vos activités portent sur l’administration du SI Trésorerie, les contrôles d’alimentation des outils de la trésorerie. Vous participez aussi aux projets de transformation du SI Trésorerie pour lesquels vous serez force de proposition. Vous aurez en charge la gestion des outils ainsi que du suivi des flux d'alimentation des SI liés aux applications de trésorerie. Vos activités: -Vérification de la bonne intégration quotidienne des flux dans le SI Analyse des incidents et résolutions fonctionnelles Paramétrage des outils de trésorerie y compris les tables de paramétrage Spitab Traitement des demandes des utilisateurs en lien avec les anomalies fonctionnelles. Gestion des habilitations Contribution aux projets et participer aux validations fonctionnelles Mise à jour de la documentation Assistance métier sur les flux des moyens de paiement (CB, TPE)
Job Vacancy
Développeur Data/Data Engineer
Published on
AWS Cloud
Azure
Azure Data Factory
40k-65k €
Charleroi, Hainaut, Belgium
Hybrid
ATTENTION, 2 JOURS DE PRESENCE SUR SITE A GOSSELIE NON NEGOCIABLE. Ne pas postuler le cas échéant. Le consultant rejoindra l’équipe Factory Data , spécialisée dans les technologies Microsoft Fabric et Azure Data . La mission s’inscrit dans le cadre de la mise en place et l’optimisation des flux de données, la modélisation du Lake House et l’architecture médaillon (Silver & Gold). Responsabilités Développer les flux d’ingestion via Fabric Data Factory (et compréhension d’Azure Data Factory). Développer les flux de transformation via Fabric Factory Notebook . Optimiser les requêtes de transformation en tenant compte des coûts Azure. Contribuer à la modélisation du Lake House et à l’architecture médaillon. Établir le design technique et rédiger la documentation. Mettre en place et exécuter les tests unitaires automatisables . Participer à l’estimation des efforts de développement. Contribuer à la maintenance et résolution des incidents en production. Participer à l’amélioration continue (guidelines de développement).
Contractor job
INGENIEUR DATA BI - CLOUD AZURE
Published on
Azure
BI
Cloud
24 months
200-400 €
Paris, France
Hybrid
Pour l'un de nos clients, nous recherchons un(e) Ingénieur DATA BI & Cloud Azure pour renforcer leurs équipes IT. Votre poste et vos missions Membre de l'équipe IT & Digital, vous intervenez au cœur des différents projets de développement du Groupe sur un périmètre international. Dans le respect de la stratégie IT établie par le DSI, votre mission consiste à : Mise en place d'une vraie démarche data-driven au niveau technique - Apporter votre expertise technique et vos idées lors de la mise en place de projets concernant les développement données / BI - Force de proposition sur des nouvelles architectures et solutions d'intégration des données - Connaissances des principes big data et IoT - Connaissances avancées en datawarehouse et modèles de gouvernance des données - Connaissances des API Data pour le temps réel
Job Vacancy
Data Analyst - Qlik Sense - Rennes
Published on
Dashboard
Data visualisation
Qlik Sense
3 months
40k-45k €
400-450 €
Rennes, Brittany
Hybrid
Nous recherchons pour le compte de notre client grand compte national un(e) consultant développeur décisionnel . Ses Principales missions : Accompagnement des métiers dans l’expression des besoins et dans les recettes Modélisation décisionnelle Conception, réalisation et maintenance de tableaux de bord ou applications décisionnelles sous QlikView et/ou QlikSense Argain Consulting Innovation est une marque forte spécialisée en performance des projets, des organisations et valorisation de la donnée au sein de l'écosystème Alan Allman Associates implantée à Paris, Nantes, Lyon, Niort. Nous mettons un point d'honneur à maintenir le lien avec chacun de nos talents et mettons tout en œuvre pour développer et entretenir un fort sentiment d'appartenance. Nous rejoindre, c’est intégrer une équipe à taille humaine dont l’humain est l’épicentre, un cabinet où autonomie, confiance et partage sont des principes forts.
Contractor job
Data Engineering Manager – Data Platform & Transformation H/F
Published on
Azure
Snowflake
6 months
450-580 €
Bordeaux, Nouvelle-Aquitaine
Hybrid
Notre client dans le secteur Santé et pharma recherche un/une Data Engineering Manager – Data Platform & Transformation H/F Description de la mission: L’entreprise accélère sa transformation Data & IA et structure son organisation Data autour d’un modèle opérationnel à deux squads : Data Product Squad (orientée métier et création de valeur) Data Engineering Squad (mise à disposition de la plateforme, exploitation et enablement) L’entreprise recherche un(e) Data Engineering Manager expérimenté(e) pour piloter la Data Engineering Squad durant une phase de transition critique. La mission couvre trois objectifs menés en parallèle : Lancer et structurer la future plateforme Data cible , dont le socle technologique est en cours de validation et devrait s’appuyer sur Databricks ou Snowflake sur Microsoft Azure Migrer progressivement les environnements data historiques vers la nouvelle plateforme Assurer la livraison des projets métiers et clients en cours , à la fois sur les stacks existantes et sur la nouvelle plateforme, sans perturber les opérations Ce rôle requiert un fort leadership et une excellente capacité d’exécution . Responsabilités principales Piloter et manager la Data Engineering Squad (équipes internes et partenaires externes) Être responsable de la delivery , de la capacité et de la performance opérationnelle sur les plateformes legacy et cible Garantir la fiabilité , la performance , la scalabilité et l’ optimisation des coûts Structurer et piloter le bootstrap de la plateforme Data cible Planifier et exécuter la migration progressive des stacks legacy vers la plateforme cible Sécuriser la livraison des projets métiers et clients en cours sur les deux environnements Définir et faire respecter les standards Data Engineering et les modes de fonctionnement Agir comme point de contact principal avec les équipes Data Product, Architecture et IT Accompagner et faire monter en compétence les équipes Data locales sur les stacks technologiques Data Compétences & Expérience requises Expérience avérée en tant que Data Engineering Manager / Lead dans des environnements complexes et en transformation Solide expertise en plateformes Data et en Data Engineering Expérience confirmée avec Databricks et/ou Snowflake , idéalement sur Azure Expérience du management d’équipes mixtes (internes, consultants, offshore / AMS) Bonne maîtrise des enjeux de run , de gestion des incidents et de pilotage des coûts Expérience de migration de plateformes legacy vers une plateforme cible Excellentes capacités de leadership et de gestion des parties prenantes Profil senior requis (autonome, pragmatique, orienté delivery) Modalités de la mission Démarrage : janvier 2026 Langues : français & anglais
Contractor job
DATA ARCHITECT (GCP)
Published on
Apache Airflow
BigQuery
CI/CD
6 months
580-720 €
Ile-de-France, France
Hybrid
Dans le cadre du renforcement de sa Data Platform , l’un de nos clients grands comptes recherche un Architecte Data confirmé à senior pour accompagner ses équipes Data et garantir la cohérence, la performance et la scalabilité de l’architecture globale. Architecte Data – Environnement Cloud GCP Votre rôle Intégré(e) aux équipes Data (Product Owners, Data Engineers, Data Scientists…), vous interviendrez en accompagnement transverse sur l’architecture de la plateforme Data et des dispositifs associés. Vos principales responsabilités : Définir et garantir la cohérence de la stack technique Data Assurer le respect des normes et standards d’architecture Mettre en place et sécuriser les contrats d’interface entre équipes Auditer l’architecture existante et proposer des axes d’amélioration Réaliser une veille technologique et contribuer à l’introduction de nouvelles solutions Participer aux tests et à l’intégration de nouvelles technologies 🛠️ Developer Experience & FinOps Contribution à l’écriture de modules Terraform / Terragrunt Accompagnement des équipes sur l’ Infrastructure as Code et la CI/CD Définition des standards de développement et de déploiement Mise en place du suivi budgétaire par équipe (FinOps) Implémentation des outils de monitoring, alertes et seuils Identification et priorisation des optimisations de coûts Compétences recherchées 3 ans minimum d’expérience en tant qu’ Architecte Data Solide expertise en architecture Data & Cloud Excellente maîtrise des bonnes pratiques d’architecture Expérience en sécurisation des applications Cloud Environnement Google Cloud Platform (GCP) Maîtrise de BigQuery , Cloud Composer (Airflow) , Dataplex Langages Python et SQL Expérience avec Spark Expérience avec dbt Maîtrise de Terraform et Terragrunt
Job Vacancy
DATA ENGINEER
Published on
24 months
35k-40k €
250-400 €
Nantes, Pays de la Loire
Hybrid
L'objectif de la mission est de mettre en place des nouveaux produits accompagnant la transition technologique de la plateforme et des pratiques associées tout en accompagnant la montée en compétence de l'équipe sur les outils du socle, notamment DBT, Kafka, KafkaCOnnect, Trino - Concevoir, implémenter et documenter des pipelines d'ingestion et de transformation (DBT, Kafka Connect, Trino). - Mettre en place des modèles de données optimisés et cohérents avec les standards du socle. - Participer à la migration et l'optimisation des traitements depuis Cloudera/Spark vers les nouvelles technologies (Kafka / Trino / Iceberg). - Intégrer les développements dans la chaîne CI/CD, en lien avec les pratiques de déploiement du socle. Participer à la gestion des habilitations et du contrôle des accès, en cohérence avec les principes de sécurité et conformité RGPD. - Contribuer à la mise en place d'outils d'observabilité (logs, monitoring, audit des accès, performance des jobs). - Accompagner les membres de l'équipe dans la prise en main des outils DBT et Kafka. - Partager les bonnes pratiques de développement, de testing et de gestion du code (revues, documentation, mentoring). - Être force de proposition sur l'amélioration continue du socle et des workflows de développement. - Travailler en étroite collaboration avec le Tech Lead, les PO et les Data Stewards pour assurer la cohérence des modèles et des processus. - Participer activement aux rituels agiles (daily, sprint planning, review, rétrospective). Les activités confiées supposent la maîtrise de : - Kafka - DBT - Python - Trino
Contractor job
Monétique : Ingénieur Support / Analyste fonctionnel et IT
Published on
Electronic banking
12 months
550 €
Ile-de-France, France
Remote
NEXORIS recherche pour l'un de ses clients bancaires, 2 Ingénieurs Support et Assistance IT monétique (H/F) pour effectuer de l'analyse et de la résolution d'incident sur l'environnement monétique. Le service de notre Client opère sur tous les aspects de la Monétique (et des moyens de paiements) : Référentiels, Autorisations / Acceptations, Opérations, Rapprochement bancaire. Il est notamment en relation avec les clients bancaires, les grands commerçants, avec les fournisseurs tiers techniques et/ou fonctionnels. Il fait le lien entre les services techniques, les équipes métiers et les clients / prospects de notre Client. Afin de répondre aux enjeux à venir et contribuer à l'amélioration de la qualité de service, le consultant prendra en charge : - Support et assistance dont analyse (compte-rendu...), communication (fonctionnelle/métier) et traitement des incidents de 2nd niveau sur le domaine monétique - Supervision des flux monétiques essentiels - Contrôles et suivi des mises en production (correctifs, évolutions, nouveaux services) - Gestion des migrations techniques et/ou fonctionnelles sur les systèmes d'informations de notre Client - Coordination et gestion des changements opérationnels - MCO d'un point de vue métier (ex. changements de réseaux...) - Veille fonctionnelle et réglementaire.
Job Vacancy
Analyste d'Exploitation - Supervision & Scripting (H/F)
Published on
34k-38k €
Le Mans, Pays de la Loire
Vous aimez résoudre des incidents, automatiser les tâches et garantir la performance d'un SI critique ? Rejoignez SEA TPI au Mans et contribuez à la fiabilité de systèmes qui tournent 24/7. Nous recherchons des Analystes d'Exploitation passionnés par la technique, souhaitant évoluer dans un environnement exigeant où la performance et la fiabilité du SI sont au cœur des priorités. Vos missions principales s'articuleront autour des axes suivants : • Gestion des incidents : Identifier, diagnostiquer et résoudre les incidents techniques dans le respect des SLA. • Exploitation courante : Traiter les demandes de travaux et assurer la continuité opérationnelle du SI. • Maintenance et optimisation : Réaliser les maintenances préventives et correctives afin d'optimiser les performances et la fiabilité des systèmes. • Amélioration continue : • Rédiger et mettre à jour la documentation technique d'exploitation et d'incident. • Proposer et mettre en œuvre des actions d'amélioration des processus. • Développer et maintenir des scripts d'automatisation et de remédiation automatique pour fiabiliser les opérations. • Collaboration inter-équipes : Travailler en synergie avec les équipes techniques pour garantir la disponibilité et la performance du SI. • Astreintes : interventions 1 semaine par mois en HNO ( 19h00-07h00) Les missions énumérées ne sont pas exhaustives, il s'agit des missions principales. Référence de l'offre : fcesk1psm1
Submit your CV
-
Manage your visibility
Salary, remote work... Define all the criteria that are important to you.
-
Get discovered
Recruiters come directly to look for their future hires in our CV library.
-
Join a community
Connect with like-minded tech and IT professionals on a daily basis through our forum.
Latest forum topics
Jobs by city
Jobs by country
1395 results
Contracts
Location
Remote type
Rate minimum.
£150
£1300 and more
Salary minimum
£20k
£250k