The job you are looking for has been deleted or has expired.
Here are some jobs that could be of interest.
Find your next tech and IT Job or contract role.
Your search returns 1,365 results.
Contractor job
POT8816 - Un Data Engineer sur Clermont-ferrand
Published on
Google Cloud Platform (GCP)
6 months
320-410 €
Clermont-Ferrand, Auvergne-Rhône-Alpes
Hybrid
Almatek recherche pour l'un de ses clients, un Data Engineer sur Clermont-Ferrand. Description détaillée Data engineer senior Connaissance essentielle de GCP : Google Cloud platforme. Compétences techniques : GCP - Expert - Important Data - Confirmé - Important Connaissances linguistiques Anglais Professionnel (Impératif) Almatek recherche pour l'un de ses clients, un Data Engineer sur Clermont-Ferrand. Description détaillée Data engineer senior Connaissance essentielle de GCP : Google Cloud platforme. Compétences techniques : GCP - Expert - Important Data - Confirmé - Important Connaissances linguistiques Anglais Professionnel (Impératif)
Job Vacancy
Product OWNER DATA / BI (Compétence Salesforce Obligatoire)
Published on
Salesforce CPQ
3 years
40k-55k €
380-530 €
Boulogne-Billancourt, Ile-de-France
La Direction des Technologies d’un grand groupe média français conçoit, opère et fait évoluer les systèmes techniques (IT et diffusion) qui soutiennent l’ensemble de ses activités. Elle travaille en étroite collaboration avec les différents métiers du groupe (publicité, contenus, antennes, production, entertainment…) et intervient sur des enjeux clés de support et de transformation digitale . Avec plusieurs centaines de collaborateurs, cette direction accompagne chaque année de nombreux projets stratégiques, innovants et à fort impact business . Le Pôle Produits Publicitaires est en charge de la conception, du développement et de la maintenance des outils de la régie publicitaire, organisés autour de 7 grands produits structurants : Commercialisation : prospection, négociation, contractualisation Offre : catalogue, tarification, inventaire, optimisation Achat : commande, valorisation, arbitrage, programmation Diffusion : gestion des créations, panachage, conducteur Gestion financière : valorisation, prévisions de chiffre d’affaires, facturation Portail client : digitalisation de la relation client BI / Data : entrepôt, consolidation et diffusion des données Dans ce contexte de forte transformation digitale , le pôle recherche un Product Owner CRM – Data Client BtoB & Prospection pour piloter des produits au cœur de la stratégie commerciale et data. Vous êtes animé(e) par les enjeux CRM BtoB , la valorisation de la donnée client et l’optimisation des process de prospection ? Vous aimez faire le lien entre vision business, besoins métiers et delivery produit dans un environnement agile et exigeant ?
Job Vacancy
Quality Analyst
Published on
Cucumber
Gherkin
1 year
11k-45k €
100-400 €
Nantes, Pays de la Loire
Nous recherchons un(e) SetOps passionné(e) et curieux(se) pour rejoindre une équipe pluridisciplinaire travaillant sur un projet stratégique dans le domaine de la distribution ferroviaire . 💡 Le rôle de SetOps, c’est comme du DevOps, mais pour le paramétrage :) Vous interviendrez sur le cœur fonctionnel du système de distribution, en collaboration étroite avec les équipes métier, techniques et run. Vos missions: Analyser les demandes d’évolution métier et concevoir les solutions adaptées Développer et paramétrer sur le progiciel central Coordonner les tests et accompagner les équipes de recette Gérer les anomalies de niveau 2 et assurer le support technique associé Participer au move to prod , à la supervision applicative et au suivi des déploiements Maintenir la documentation et assurer un reporting clair et régulier Collaborer activement avec les équipes Build et Run , dans un cadre agile
Contractor job
Architecte Réseaux & Data Center Mission d’Audit
Published on
Networks
7 days
Paris, France
Hybrid
Dans un contexte important au sein de l’équipe IT , l’entreprise souhaite réaliser un audit approfondi de l’infrastructure réseaux et data center. L’objectif est d’évaluer l’état actuel, identifier les risques techniques et organisationnels, documenter l’existant et proposer une trajectoire de sécurisation et d’optimisation. Audit technique Analyse complète des architectures réseau LAN, WAN, WLAN, SD-WAN, VPN, firewalls. Diagnostic de l’infrastructure Data Center (virtualisation, stockage, sauvegardes, cluster, hyperviseurs…). Vérification des normes, bonnes pratiques, segmentation, redondance, haute disponibilité. Identification des faiblesses, risques, dettes techniques, SPOF. 2. Audit documentaire & organisationnel Revue de la documentation existante : schémas réseau, procédures, configurations. Évaluation du niveau de connaissance interne. Analyse des processus d’exploitation : supervision, gestion des incidents, PRA/PCA, sauvegardes, mises à jour. 3. Recommandations & stratégie Élaboration d’un rapport d’audit structuré (constats, risques, niveaux de criticité). Propositions d’améliorations : sécurité, performance, disponibilité, conformité. Priorisation des actions (quick wins / moyen terme / long terme). Feuille de route de transformation (Network & Data Center). 4. Accompagnement & transfert de compétences Présentation des conclusions aux équipes IT et à la direction. Support à la mise en œuvre des premières actions. Contribution à la reconstitution du patrimoine documentaire technique.
Job Vacancy
Analyste Développeur PL/SQL
Published on
PL/SQL
24 days
35k-48k €
340-400 €
Marseille, Provence-Alpes-Côte d'Azur
Hybrid
Dans le cadre du renforcement de l’équipe « Projet » , notre client recherche 1 Analyste Développeur PL/SQL pour participer à l’intégration complète des packages de déploiement destinés à l’exploitation. L’équipe « Projet » (8 personnes) prend en charge l’ensemble du cycle de développement : Compréhension du besoin et rédaction des spécifications techniques Développement et optimisation des bases de données Réalisation et suivi des tests (unitaires, d’intégration) Livraison et transmission des packages à l’équipe d’exploitation Maintenance préventive et corrective des applications Vos missions : Développer et optimiser les applications métiers, interfaces et outils en PL/SQL Maintenir les bases de données Oracle Effectuer les tests unitaires et d’intégration des développements Assurer la qualité et la conformité des livrables par rapport aux spécifications Gérer la maintenance évolutive et corrective des applications Communiquer régulièrement avec des interlocuteurs à l’étranger (20% du temps) Environnement Technique Base de données : Oracle Outils : TOAD, SVN Applications : WMS, ERP, Middleware OpenText (Liaison ECS) Méthodologie : Développement, intégration et maintenance
Contractor job
Data Engineer Python AWS
Published on
AWS Cloud
Python
12 months
620 €
Paris, France
Hybrid
Cherry Pick est à la recherche d'un Data Engineer Python AWS pour l'un de ses clients dans le secteur de l'énergie. Missions : Le Data Engineer sera responsable de la conception, du développement et de la mise en production de l'architecture de données. Il devra notamment : Collecter les exigences des métiers et des utilisateurs Concevoir l'architecture de données Concevoir les pipelines de données Mettre en production l'architecture Assurer la maintenance et l'évolution de l'architecture Le Data Engineer travaillera en étroite collaboration avec : Les Product Owners Les Data Analysts Les équipes métiers (marketing, trading, exploitation, supply chain…) Les équipes DataOps / MLOps
Contractor job
Développeur AWS Data et spark
Published on
API
AWS Cloud
AWS Glue
1 year
540-580 €
Maisons-Alfort, Ile-de-France
Hybrid
Dans le cadre d’un programme stratégique de pilotage financier, nous recherchons un Ingénieur Logiciel Data Cloud AWS confirmé (+7 ans d’expérience) pour rejoindre une équipe de développement et d’ingénierie orientée données et services cloud. Vous interviendrez sur la conception, l’implémentation et l’amélioration continue des services AWS nécessaires au traitement, à l’analyse et à la planification financière. Le contexte est exigeant : réglementaire, sécurité, performance, optimisation des coûts et démarche DevOps/DORA. Vous intégrerez une équipe de 9 personnes, dont un pôle cloud/data AWS déjà en place. Vos missions : Concevoir, développer et faire évoluer les services applicatifs AWS (Glue Spark, Lambda, Step Functions, Athena, S3, IAM). Intégrer les services aux différents écosystèmes techniques (plateforme Data, MDM, ZDP, Data Link, Anaplan). Proposer des optimisations, améliorer les architectures existantes, renforcer la robustesse et la performance. Prendre en compte les exigences métiers, réglementaires, sécuritaires et environnementales. Participer à une démarche d’amélioration continue (Lean, DevOps, DORA). Documenter les architectures, formaliser les conceptions, assurer un bon niveau de qualité. Implémenter les bonnes pratiques TDD / BDD. Collaborer en équipe dans un environnement cloud industriel avancé.
Job Vacancy
Data Engineer Snowflake - Lyon
Published on
Snowflake
40k-60k €
Lyon, Auvergne-Rhône-Alpes
Hybrid
Ton quotidien chez Komeet sera rythmé par : - Animation des ateliers afin d’étudier et cadrer les besoins clients en collaboration avec le Data Platform Architect - Analyser et conseiller pour améliorer l’efficacité des solutions Snowflake chez nos clients. - Participer à la rédaction des dossiers d’architecture et des spécifications techniques. - Mettre en œuvre des stratégies d’exploitation de la plateforme Snowflake. - Développer et superviser des flux d’intégration (batch ou streaming) pour des volumes importants de données. - Surveiller les jobs ETL/ELT, logs et alertes, et optimiser les temps de traitement. - Administrer Snowflake chez ton client (gestion des rôles, permissions, warehouses). - Optimiser les requêtes SQL (à l’aide du Query Profile). - Contrôler la qualité des données (Data Quality) et la consommation des ressources (FinOps). - Tester, valider et documenter les développements. - Réaliser des audits et projets d’optimisation.
Job Vacancy
Consultant Data Databricks (F/H)
Published on
Apache Spark
Databricks
DevOps
3 years
60k-75k €
550-610 €
Paris, France
Hybrid
🔎 Contexte de la mission Intervention au sein de la Direction des Systèmes d’Information d’un acteur bancaire. Mission réalisée dans une équipe de données transverses opérant en support des directions : Finance Marketing Crédit L’équipe n’intervient pas sur des sujets cybersécurité , mais se concentre sur : Les enjeux réglementaires Le reporting opérationnel et financier La mise à disposition de données à d’autres équipes (dont IA et modernisation Azure) 👥 Organisation Équipe de 10 à 15 personnes (mix France + offshore Inde) 3 internes / plusieurs prestataires externes Encadrement par un IT Lead ⚙️ Environnement technique Cloud & orchestration Azure Azure Databricks Azure DevOps (CI/CD) Data pipeline Python (Airflow, FastAPI) SQL / PostgreSQL Spark DataVault (modélisation) DBT (prochainement intégré) Fichiers via couche FTP Visualisation & automatisation Power BI (rationalisation en cours) Power Automate Azure AI / ML (projets IA à venir en 2026) Gouvernance & data Data Store Domain Atlas Autres informations 📍 Localisation : Paris 8ème 🕒 Durée estimée : 3 ans 🗓️ Démarrage souhaité : ASAP selon disponibilité 🗣 Langue de travail : anglais courant (collaboration avec équipes offshore)
Job Vacancy
TECH LEAD MDM – SEMARCHY xDM
Published on
Master Data Management (MDM)
Microsoft SQL Server
Microsoft SSIS
1 year
40k-45k €
400-470 €
Ile-de-France, France
Hybrid
🚨 MISSION TECH LEAD MDM – SEMARCHY xDM 🚨 Pour un projet stratégique dans le secteur de l’énergie, nous recherchons un Tech Lead MDM expert SEMARCHY xDM. 📍 Localisation : 92 📆 Démarrage : ASAP / janvier 2026 🏢 Présence : 3 jours sur site / semaine Compétences clés (impératif) SEMARCHY xDM – Expert Master Data Management SQL Server / SSIS Environnement Cloud containerisé (Kubernetes) Profil 10 ans d’expérience minimum Expérience significative sur des plateformes MDM en production Leadership technique, autonomie, capacité à cadrer et structurer Français courant, anglais professionnel apprécié
Contractor job
Analyste Cybersécurité - Forensic
Published on
SOC (Security Operation Center)
1 year
Marseille, Provence-Alpes-Côte d'Azur
Hybrid
Ce poste requiert des compétences en informatique légale, conservation des preuves et sécurité de l’information. L’objectif principal est de réaliser des enquêtes informatiques légales, la récupération de données et la réponse aux incidents. Le candidat devra posséder une solide expérience technique et expertise, de bonnes capacités de communication et dépasser les attentes de l’entreprise. Le candidat retenu travaillera au sein de l’équipe SOC RUN 24h/24, 7j/7, sous la responsabilité du SOC Run Lead et au sein d’un groupe international de cybersécurité. Il fera partie du pool des analystes SOC L3, où il/elle traitera des alertes de haute sévérité et effectuera des analyses, en plus des activités forensiques. Une solide expérience des pratiques et procédures de laboratoire forensique, de la gestion des preuves et de la capacité à témoigner en tant qu’expert est requise. Une expérience dans les forces de l’ordre, les enquêtes de base, la réponse aux incidents ou au sein d’une société de services professionnels est souhaitée. Le candidat sera responsable de la qualité des livrables, de l’assistance aux besoins métiers et du support du processus de réponse aux incidents et de la communication associée. RESPONSABILITÉS * Leader et exécution des missions de réponse aux incidents pour déterminer la cause et l’étendue des incidents * Participation et gestion des missions de réponse aux incidents forensiques (analyse des réseaux, systèmes et malwares, etc.) * Conduite d’enquêtes informatiques légales et demandes d’e-discovery pour le groupe cybersécurité et le département juridique, en utilisant des méthodologies propriétaires et des outils forensiques de pointe * Support au manager DFIR en communiquant l’avancement et les éventuels problèmes liés à toutes les missions * Participation aux activités transversales du Cyber Defense Center * Participation aux projets, améliorations et efforts de conformité liés aux questions CERT Ces activités ne sont pas exhaustives et peuvent évoluer selon les besoins opérationnels.
Contractor job
Data Scientist - (h/f)
Published on
12 months
400-450 €
69000, Sainte-Foy-lès-Lyon, Auvergne-Rhône-Alpes
Hybrid
Ce poste vise à exploiter les données grâce à des modèles statistiques et des analyses avancées afin de faciliter des décisions commerciales éclairées et d’optimiser les résultats. Responsabilités : Développer des modèles statistiques et des algorithmes en utilisant une approche expérimentale et de découverte. Exécuter une modélisation avancée des données pour extraire des insights et des prédictions. Créer une chaîne analytique complète incluant la transformation, la structuration, la modélisation, la visualisation et l’obtention d’insights exploitables. Utiliser divers outils et méthodes pour appliquer des analyses avancées aux défis métier et optimiser les résultats. Compétences : Maîtrise de la modélisation statistique et des algorithmes. Expérience dans l’exécution de modèles de données avancés. Solides compétences en transformation et visualisation des données. Capacité à créer des insights exploitables à partir des données. Bons à avoir : • Familiarité avec les techniques d’apprentissage automatique. • Expérience avec des outils de visualisation de données comme Tableau ou Power BI. • Connaissance des stratégies d’optimisation métier.
Contractor job
Ingénieur DataOps / SRE Data
Published on
5 months
500 €
France
Objet de la prestation Le consultant interviendra pour assurer le support opérationnel et contribuer à la fiabilité, la performance et la bonne utilisation des plateformes Big Data. Missions principales Assurer le support de niveau 2 en production (PROD) sur les plateformes Spark, Airflow et Starburst. Prendre en charge la gestion des incidents , l'analyse des causes racines ( RCA ) et la résolution. Contribuer à l' optimisation des traitements Spark sur Kubernetes : tuning, configuration, dimensionnement, gestion des ressources. Optimiser et fiabiliser l' orchestration Airflow/Astronomer . Participer à la gestion des catalogues Starburst (Trino) et au suivi des performances des requêtes distribuées. Accompagner les équipes métiers pour un usage efficace, sécurisé et performant des plateformes. Maintenir et enrichir la documentation d'exploitation , procédures et guides utilisateurs. Participer à l' amélioration continue de l'écosystème : automatisation, standardisation, observabilité, fiabilité. Compétences techniques attendues Expertise en environnement Data / Production Expérience confirmée en exploitation Big Data en production . Technologies (au moins 2 maîtrisées) Kubernetes / IKS / OpenShift Apache Spark Apache Airflow / Astronomer Starburst (Trino) Compétences associées Maîtrise du support et du troubleshooting sur des services déployés sur Kubernetes (Helm charts, opérateurs…). Solide expertise en monitoring / observabilité : logs, métriques, dashboards. (Dynatrace, Kibana, Grafana…) Bonnes pratiques d'exploitation de traitements distribués. Connaissances approfondies en : Tuning Spark Profiling applicatif Gestion fine des ressources (executor, driver, mémoire, shuffle…) Compétences en scripting : Bash, Python, Ansible (appréciées). Maitrise des chaînes CI/CD : Git, Jenkins, GitLab CI… Compétences en sécurité : Hashicorp Vault Secrets , PKI, gestion des certificats. Compétences transverses Excellente capacité d'analyse et de diagnostic d'incidents complexes. Rigueur et fiabilité en environnement de production critique. Capacités rédactionnelles pour formaliser procédures, guides et rapports. Bon relationnel et capacité à accompagner les équipes métiers. Français et anglais opérationnel. Montreal Associates is acting as an Employment Business in relation to this vacancy.
Contractor job
Analyste Développeur Mainframe COBOL / DB2
Published on
COBOL
8 months
400 €
Paris, France
Remote
Contexte Au sein d’un environnement bancaire/assurantiel à forts enjeux opérationnels et réglementaires, le collaborateur interviendra sur la maintenance, l’évolution et le support des applications Mainframe. Le périmètre inclut la gestion des flux financiers, la production quotidienne et le traitement d’incidents complexes. Missions Développer et maintenir les applications et batchs Mainframe (COBOL, JCL, DB2). Développer et maintenir des transactions en environnement CICS / Mainframe. Assurer le suivi récurrent de la production : surveillance des jobs, alimentation d’indicateurs, communication avec le support N2 et les équipes métier. Analyser les incidents de production complexes : identification de la cause racine (doublons, formats, erreurs d’encodage, etc.). Proposer et mettre en œuvre les actions correctives (bistouris, correctifs ciblés, optimisation de traitements). Gérer les problématiques de codage multi-systèmes (caractères, conversions, compatibilité). Participer à la gestion des services exposés via API (consommation, supervision, échanges inter-systèmes). Assurer la gestion des habilitations, simples ou complexes, selon les règles de sécurité interne. Travailler sur les flux financiers et assurantiels : paie, salaires, remboursements, primes, règlements sinistres. Contribuer aux sujets Instant Payment, traitement des lettres chèques et gestion des RIB. Appliquer les règles d’archivage, conformité RGPD et standards internes. Travailler en mode agile : participation aux cérémonies, interaction avec les équipes produit et les supports. Faire preuve d’autonomie dans l’analyse de code et la consultation des bases documentaires. Gérer les priorités et les situations de stress en contexte de production critique. Compétences techniques attendues Batch COBOL / DB2 : maîtrise Endevor, Xpeditor, MVS : maîtrise SQL : maîtrise ServiceNow : intermédiaire Gsysout : intermédiaire Topaz : intermédiaire Telon : intermédiaire ESB : intermédiaire CFT : intermédiaire Services & API : intermédiaire Excel / macro Excel : intermédiaire XML : intermédiaire Jira / Teams / SharePoint / Confluence : intermédiaire Java : notions Compétences comportementales Autonomie forte Rigueur dans l’analyse et la production Capacité à prioriser et gérer les urgences Communication claire avec équipes techniques et métiers Adaptabilité en contexte agile
Job Vacancy
Data Scientist
Published on
Data science
Machine Learning
40k-62k €
Levallois-Perret, Ile-de-France
Hybrid
l’Assistant(e) Externe / Datascience & AI Business jouera un rôle clé dans la conduite et le développement des projets d’intelligence artificielle, depuis le cadrage des besoins métier jusqu’à la mise en production des solutions. Votre mission consistera à allier compétences en gestion de projet et savoir-faire technique en datascience pour garantir la réussite des initiatives IA menées au sein de Personal Finance. Vous interviendrez en appui stratégique et opérationnel, en lien étroit avec les équipes Datascience, IT, et les directions métiers. Vos principales responsabilités incluront : • Piloter et coordonner les projets IA / Data : cadrage, suivi des livrables, reporting et animation des points d’avancement. • Analyser les besoins métiers et les traduire en cas d’usage data exploitables. • Contribuer aux travaux de data science : préparation et analyse de données, validation et suivi de modèles (ML, NLP, IA générative). • Produire des livrables de synthèse (dashboards, rapports, présentations) à destination des équipes métiers et du management. • Assurer la communication transverse entre les équipes techniques et métiers, et participer à la documentation et la capitalisation des bonnes pratiques.
Job Vacancy
Développeur Data Integration – Chaîne d’Intégration Comptable (NodeJS/TypeScript, Java, GCP)
Published on
Java
Node.js
SQL
62 days
Hauts-de-France, France
📢 Appel d’Offre – Développeur Data Integration / Chaîne d’Intégration Comptable (H/F) Programme Finance – Finalisation Core Model | Contexte international Bonjour à tous, Nous recherchons un développeur expérimenté pour participer aux évolutions de notre chaîne d’intégration comptable dans le cadre d’un programme Finance international, afin de finaliser notre Core Model Finance . Le consultant interviendra sur deux composants majeurs : L’interpréteur comptable (transformation, validation, enrichissement des données) Un ETL (transport/conversion des fichiers + appels services web) 📅 Informations clés Type de contrat : Assistance technique Démarrage souhaité : 05/01/2026 Fin estimée : 31/03/2026 Volume prévisionnel : 62 jours Présence sur site : 3 jours / semaine Déplacements : Non Astreintes : Non Langue : Anglais professionnel impératif Code profil : 3.2.2 – Concepteur/Développeur – Medium 🎯 Objectif de la mission Contribuer au développement et à la stabilisation des évolutions nécessaires sur la chaîne d’intégration des données comptables, afin de garantir la qualité , la cohérence et la fiabilité des flux dans un contexte international . 🧩 Responsabilités principales Développer et mettre au point des programmes de transformation et d’enrichissement de données en NodeJS typé TypeScript + SQL sur GCP (interpréteur comptable) Développer et mettre au point des programmes équivalents en Java dans l’ ETL Concevoir et réaliser les tests unitaires Corriger les anomalies et contribuer à la stabilisation des composants Participer à la rédaction / mise à jour des spécifications techniques Respecter les normes, procédures et standards de développement (qualité, sécurité, performance) 💡 Compétences techniques attendues (Impératif) NodeJS (TypeScript) – Expert Java – Expert SQL – Expert GCP – Expert Web Services REST – Expertise solide ⭐ Compétences appréciées Expérience sur des chaînes d’intégration de données / projets Finance Pratique des environnements ETL , flux fichiers, traitements batch & contrôles Autonomie, rigueur, sens du résultat Capacité à évoluer dans un contexte international (échanges en anglais) 🧠 Profil recherché Développeur / Concepteur-Développeur confirmé À l’aise sur des sujets data transformation , intégration, APIs REST Capacité d’analyse, qualité de code, esprit d’équipe Orienté delivery (développement + tests + correction) 📄 Livrables attendus Programmes de transformation/enrichissement de données (NodeJS/TS + SQL + Java) Spécifications techniques (flux, mapping, interfaces, règles techniques) Tests unitaires (jeux de tests, résultats, couverture) Suivi des anomalies / corrections (selon processus interne)
Submit your CV
-
Manage your visibility
Salary, remote work... Define all the criteria that are important to you.
-
Get discovered
Recruiters come directly to look for their future hires in our CV library.
-
Join a community
Connect with like-minded tech and IT professionals on a daily basis through our forum.
Latest forum topics
Jobs by city
Jobs by country
1365 results
Contracts
Location
Remote type
Rate minimum.
£150
£1300 and more
Salary minimum
£20k
£250k