Find your next tech and IT Job or contract role.

Your search returns 1,226 results.
Contractor
Permanent

Job Vacancy
Data Manager

Published on
Dataiku
Microsoft SQL Server
Sass

1 year
40k-45k €
330-540 €
Paris, France
Hybrid
Contexte de la mission Cette mission s'inscrit dans le contexte actuel de l'augmentation de la surveillance réglementaire sur les activités de financement associées aux Private Equity (PE) et Private Crédit (PC). Au sein du département RISK, l'équipe Data Management a pour rôle d'accompagner les équipes RISK dans leurs activités quotidiennes en mettant en œuvre des solutions agiles et innovantes en termes de traitement, d'automatisation et de visualisation des données ; et contribue aux demandes réglementaires complexes à l'échelle du Groupe nécessitant une forte expertise technique et fonctionnelle des données. Sur le périmètre crédit, la production d'analyses de portefeuilles et d'exercices réglementaires s'effectue dans l'environnement UDS (Unified Data Set), une solution SAS pour la collecte et la préparation des données et SQL Server / Tableau Server pour la visualisation des données. Une migration de la plateforme de collecte et de préparation des données de SAS vers Dataïku est en cours de finalisation dans le cadre d'un projet Risk Data Services. La mise en service de la nouvelle plateforme est prévue début 2026. Sur cette nouvelle plateforme, l'UDS devra évoluer pour intégrer un nouveau besoin permettant à la banque de mieux monitorer ses risques face à des contreparties financées par des Private Equity ou des Private Credit. Cette mission consistera à implémenter une solution pour couvrir ce besoin au niveau de l'UDS, d'abord en mode tactique puis en mode cible. Dans le cadre de cette mission, de nouvelles données devront être collectées, contrôlées, agrégées et restituées dans des dashboards. Cette mission s'inscrit dans un projet plus global qui vise à faire évoluer l'ensemble du dispositif IT RISK/Finance pour couvrir ce besoin d'une manière globale.
Permanent
Contractor

Job Vacancy
Data Engineer

Published on
Apache Hive
Apache Kafka
Apache Spark

6 months
Vannes, Brittany
Hybrid
Dans le cadre des travaux à réaliser, nous recherchons un profil Data Engineer confirmé : Participer à la définition de l'architecture Data (en lien avec les architectes et la Squad) Concevoir, Affiner et Développer les solutions de collecte et de stockage des données (provenant de multiples sources) afin de le rendre disponibles pour les usages métiers Mettre en œuvre les tests unitaires et automatisés Déployer le produit dans les différents environnements Garantir le bon fonctionnement du produit en production et assurer le suivi / l'assistance / la gestion des incidents Accompagner l’évolution des pratiques de l’équipe dans une logique d’amélioration continue de la qualité du code
Contractor
Permanent

Job Vacancy
PIXIE - Architecte Data Sénior Lyon/Paris +7 ans - Data IA

Published on
AWS Cloud
Big Data
Google Cloud Platform (GCP)

3 years
Clipperton Island, France
Bonjour Pour un de mes clients, je recherche un(e) Architecte Data Sénior Site : Lyon (2 jours par semaine sur site) ou Paris Expérience : +7 ans Contexte : Mission pour la cellule Marché Data IA Profil recherché : Architecte Data Sénior Missions principales : Définir la stratégie et la feuille de route Data Structurer et cadrer les chantiers Data Animer la communauté Data Mettre en place la gouvernance des données Contribuer aux choix d’architecture et d’outils Produire des livrables Data Piloter l’avancement en mode Agile avec reporting Compétences clés : Stratégie Data expert Gouvernance Data expert Architecture Data expert Animation transverse maîtrise Agile et Planisware connaissance Environnement : Planisware Outils Data GitLab, Jira, Confluence, ITSM Teams, SharePoint AWS, GCP Résumé : Architecte Data Sénior avec forte expertise en stratégie, gouvernance et architecture Data, environnement cloud et Agile Si vous êtes intéressé(e) et que votre profil correspond, merci d’envoyer votre CV à jour. Je reviendrai vers vous rapidement pour échanger.
Contractor

Contractor job
Tech Lead Data Center Migration

Published on
Data Center
Migration

6 months
400-600 €
Paris, France
Hybrid
Dans le cadre d’un programme stratégique de consolidation des infrastructures européennes, l’entreprise mène un vaste projet visant à fusionner deux Data Centers historiques situés en France et en Allemagne vers un Data Center unique opéré chez des prestataires spécialisés. Cette initiative, inscrite sur plusieurs années, implique une préparation approfondie dès début 2025, suivie d’une phase d’exécution de grande ampleur à partir de mi-2026. La mission s’inscrit dans le pilier technique du programme, avec un rôle central dans la définition des enchaînements de migration, l’analyse des dépendances entre services techniques (DNS, proxy, cyber defense, plateformes VMware, stockage, réseau…), et la garantie d’une transition maîtrisée pour toutes les entités consommatrices. Le Tech Lead agit comme pivot entre les équipes produit, les équipes architecture et la direction du programme, avec une forte responsabilité d’anticipation et de sécurisation des opérations.
Contractor

Contractor job
Data Analyste Senior

Published on
Microsoft Power BI
Piano Analytics
SQL

210 days
Paris, France
Hybrid
Contexte et définition du besoin Une grande Direction Data rattachée à la Direction du Numérique d’un acteur majeur du secteur médias / contenus numériques recherche un Data Analyste Senior pour soutenir la transformation data-driven et le pilotage des performances de ses plateformes numériques. La mission vise à accompagner les équipes produit et éditoriales sur l’analyse de la performance des contenus jeunesse dans un contexte de forte évolution des usages digitaux. 2. Prestations attendues Analyse et reporting Recueil et formalisation des besoins auprès des équipes internes. Définition des sources de données et rédaction des cahiers des charges à destination des Data Engineers. Conception, automatisation et maintenance des dashboards Power BI . Itérations et validations en mode agile. Accompagnement et pilotage Coaching et acculturation data des équipes internes. Définition, harmonisation et suivi des KPIs transverses. Contribution au déploiement et à l’amélioration du tracking multi-supports (Web, App, TV). Formalisation des besoins analytics en lien avec les équipes produit et techniques. Analyse des usages Analyse des audiences et comportements utilisateurs via Piano Analytics / AT Internet , Nielsen , eStat Streaming . Analyse des parcours et de l’expérience utilisateur avec ContentSquare . Collaboration avec l’équipe Études pour les analyses vidéo et usage. 3. Compétences recherchées Compétences techniques Maîtrise confirmée de : Piano Analytics / AT Internet , eStat Streaming, Nielsen. Expertise Power BI. Très bonne connaissance SQL. Connaissance GCP, Power Automate. Outils : Excel, PowerPoint, Jira, Confluence, GetFeedback/Usabilla. Compétences solides en tracking multi-supports. Expérience en analyse UX avec ContentSquare. Compétences fonctionnelles Capacité à structurer des KPIs, piloter des sujets analytics et produire des reporting fiables. Expérience en coaching et accompagnement data. Gestion de projet.
Contractor

Contractor job
Architecte Data GCP

Published on
Architecture
Google Cloud Platform (GCP)
Python

3 months
620-700 €
Hauts-de-Seine, France
Nous recherchons un Architecte Data GCP senior pour accompagner une grande organisation française dans la structuration et l’évolution de sa Data Platform au sein d’équipes pluridisciplinaires (Data Engineers, Data Scientists, Product Owners, équipes techniques transverses…). Vos missions En tant qu’Architecte Data, vous interviendrez sur un périmètre stratégique incluant : Architecture Data Garantir la cohérence et la standardisation de la stack technique entre les différentes équipes. Auditer l’architecture existante et proposer des améliorations structurantes. Définir les contrats d’interface entre les équipes (data products / data mesh). Participer à l’introduction et aux tests de nouvelles technologies. Veille technologique continue sur les solutions Cloud & Data. Developer Experience Contribuer à la rédaction et à l’industrialisation de modules Terraform / Terragrunt. Accompagner les équipes dans la montée en compétence sur l’Infrastructure as Code. Définir les standards CI/CD applicables à l’ensemble des équipes Data. FinOps Suivi et contrôle du budget Data (multi-équipes). Mise en place d’outils de monitoring, alerting et optimisation des ressources. Identification et priorisation des optimisations de coûts Cloud.
Premium Job
Permanent

Job Vacancy
Data Architecte Databricks - Paris

Published on
Databricks

65k-80k €
Paris, France
Hybrid
Ton quotidien chez Komeet sera rythmé par : Animation des ateliers afin d’étudier et cadrer les besoins clients Préconisation, conception et mise en œuvre des plateformes Data (datawarehouse, datalake/lakehouse ) Rédaction de dossiers d’architecture et spécifications techniques Mise en œuvre des stratégies d’exploitation de plateformes Data Construction et déploiement des pipelines de données (ETL / ELT) à l’aide de langage de programmation ou d’outils de type Low-Code Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. Tests, validation et documentation des développements Réalisation d'audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP
Contractor
Fixed term

Job Vacancy
Architecte Réseau Datacenter (H/F)

Published on
Cisco
Data Center
F5

1 year
80k-85k €
540-570 €
Yvelines, France
Hybrid
Ce poste s’adresse à un expert réseau ayant une solide maîtrise des technologies Datacenter modernes (Cisco Nexus, VXLAN EVPN, ACI, NSX-T). VOS RESPONSABILITES PRINCIAPLES : 1. Conception & architecture réseau Datacenter Définition d’architectures Datacenter complexes (multi-DC, fabrics) Design underlay/overlay en VXLAN EVPN Conception backbone DC sous Cisco NX-OS / IOS-XR Contribution aux choix techniques & roadmap réseau Intégration SDN (ACI, NSX-T) 2. Implémentation & intégration Mise en œuvre des nouveaux composants réseau Intégration des applications / services / environnements DevOps dans le réseau DC Configuration fabrics (ACI policies, overlays NSX-T…) 3. Supervision, MCO & optimisation Support expert sur incidents critiques Troubleshooting avancé Optimisation routage (BGP, OSPF) Participation aux astreintes (HNO) Suivi des performances & capacity planning 4. Sécurité & continuité d’activité Participation aux démarches PRA / PCA Contribution aux stratégies de segmentation & micro-segmentation (NSX-T) Relations étroites avec équipes sécurité & workplace 5. Documentation & gouvernance Rédaction HLD / LLD , procédures & standards Participation aux comités d’architecture Capitalisation & amélioration continue
Contractor

Contractor job
Chef.fe de projet Data

Published on
Animation
Control
Dataiku

3 months
400-550 €
Niort, Nouvelle-Aquitaine
Hybrid
Notre client recherche un.e Chef.fe de projet Data qui sera un point pivot essentiel essentiel dans le cycle de vie de la donnée. Le consultant sera au cœur du nouveau modèle DATA, il en sera l'animateur. Les missions principales incluront : · Pilotage d'activité Management opérationnel d'une équipe composée de 2 pôles Accompagner l'équipe dans les conceptions Accompagner les PO dans l'aide à la relation métier Etre le garant des livrables avec nos clients ( entrants / sortants ) Mener à bien des ateliers métiers Mener à bien des Task force en cas d'incidents Compétences Techniques et Expertise Requises Nous recherchons un profil hybride : Pilotage & animation technique. L'appétence aux sujets techniques : DATA | IA | RPA | Data Science doit être présente.
Contractor

Contractor job
Data Engineer Scala/Spark.

Published on
Azure
Databricks
Datadog

1 month
450-520 €
Saint-Denis, Ile-de-France
Hybrid
Client : Entreprise de transport Poste : Architecte technique Senior DSM Expérience : Plus de 8 ans TJM d’achat max : 5 15€ Localisation : Banlieue parisienne Deadline réponse : 09/12 Démarrage : 01/01/2025 Durée : Mission très longue DESCRIPTION DE LA MISSION Objectifs La prestation, objet du présent cahier des charges, est une prestation à temps plein de Data Engineer Senior Scala/Spark. Vous interviendrez en tant que contributeur individuel sur l’étude, le chiffrage, la réalisation et l’exploitation de tâches liées à la constitution de traitements Data complexes. Les projets sont menés en équipe de 2 à 6 Data Engineers, accompagnés d’opérateurs, d’architectes et encadrés par un chef de projet. Description détaillée des tâches qui constituent la mission Dans le cadre de cette prestation, il est notamment demandé de réaliser les livrables décrits ci-dessous. S'agissant d'un projet mené en méthodologie agile, le découpage des livrables est réalisé par sprints. Le contenu de chaque sprint est variable mais toujours constitué sur la base d’US (User Stories). Les livrables liés aux US sont donc variables mais suivent généralement une recette commune liée à la Definition of Done du projet. Ces livrables sont réalisés par l'équipe projet, sans responsabilité de production individuelle. Les sprints s’échelonnent généralement sur 2 semaines. Contenu général des sprints : Développement des US et tests associés ; Documentation du projet, mapping des données, modélisation des pipelines, documents d’exploitation ; Mise en place du CI/CD sur l’usine logicielle ; Mise en place du monitoring ;
Contractor

Contractor job
Expert Denodo (H/F)

Published on
Data Lake
ELK

1 year
Châtillon, Ile-de-France
Hybrid
Si manipuler et structurer les données est pour toi une passion plus qu'une compétence, rejoins notre univers technique qui t'attend de pied ferme avec ce poste d’Expert Denodo ! 🚀 Ton challenge si tu l’acceptes : Administrer et paramétrer des requêtes dans Denodo pour répondre aux besoins métiers Assister les utilisateurs et les projets dans l’exploitation de la solution Denodo Maintenir et optimiser la plateforme pour garantir un service de qualité Structurer, intégrer et sécuriser les flux de données venant de multiples sources Participer à la supervision et au nettoyage des données pour assurer leur fiabilité Contribuer à la documentation et à la cartographie des sources de données Proposer des évolutions techniques et des améliorations des infrastructures existantes
Fixed term

Job Vacancy
Data operations analyst

Published on

1 month
SW1A 2AH, London, England, United Kingdom
. Overall Purpose of Role Responsible for ensuring the accuracy, integrity, and availability of asset-related data across the organisation. Supports asset lifecycle management, compliance, and operational reporting to enable effective decision-making and adherence to regulatory and audit requirements. Key Accountabilities Maintain accurate and consistent asset records across systems. Implement and monitor data governance frameworks for IT assets. Analyse asset utilisation, lifecycle trends, and inventory data. Produce regular reports on asset performance, compliance, and cost optimisation. Support forecasting for asset procurement, refresh, and disposal. Assist in managing asset-related incidents and changes. Ensure asset management processes comply with internal and external standards. Provide documentation and evidence for audits and regulatory checks. Skills & Experience Strong analytical and problem-solving skills. Proficiency in SQL, Excel, and asset management tools (e.g., ServiceNow, SCCM). Understanding of IT asset lifecycle and configuration management. Familiarity with data governance and compliance standards. Excellent communication and stakeholder engagement skills. Please click to find out more about our Key Information Documents. Please note that the documents provided contain generic information. If we are successful in finding you an assignment, you will receive a Key Information Document which will be specific to the vendor set-up you have chosen and your placement. To find out more about Computer Futures please visit Computer Futures, a trading division of SThree Partnership LLP is acting as an Employment Business in relation to this vacancy | Registered office | 8 Bishopsgate, London, EC2N 4BQ, United Kingdom | Partnership Number | OC387148 England and Wales
Contractor

Contractor job
Consultant / Business analyst SAP MDG

Published on
Master Data Management (MDM)
SAP S/4HANA

6 months
750-930 €
Lyon, Auvergne-Rhône-Alpes
Hybrid
Consultant / BA SAP MDG - Programme S/4HANA - Remote + 2 à 3 jours par semaine sur site Dans le cadre d'un programme S/4HANA (migration brownfield), chez un de nos prestigieux clients, nous recherchons un consultant SAP MDG pour implémenter le module de Master Data Gouvernance. C’est une mission full time pour 6 mois renouvelable (mission prévue pour au moins 18 mois). Tout est en français (atelier, rédaction de la conception) sauf la doc technique qui est en anglais. L'architecture est terminée, il faut désormais travailler main dans la main avec les équipes métier. Il faudra se déplacer sur site 2 ou 3 jours semaine en fonction des contraintes (plus au début et quand il y aura les ateliers, et le reste en remote). Entretiens et sélection dès cette semaine. Démarrage prévu début Janvier. Merci de nous transmettre votre CV en français pour considération immédiate.
Contractor

Contractor job
Ingénieur Big Data / Infrastructure en Île-de-France

Published on
Big Data
Cloud
Infrastructure

6 months
Ile-de-France, France
Hybrid
Au sein d’une DSI ou d’une équipe Data/Cloud en pleine transformation numérique, l’ingénieur Big Data / Infrastructure intervient pour concevoir, déployer et maintenir des plateformes de traitement de données à grande échelle. Il joue un rôle clé dans la fiabilité, la performance et la sécurité des environnements Big Data utilisés par les data engineers, data scientists et équipes métier. Responsabilités principales 1. Conception et mise en place de l’infrastructure Big Data Concevoir des architectures de données distribuées (Hadoop, Spark, Kafka, HDFS, NoSQL, S3…). Participer au dimensionnement des clusters, à la définition des SLA et des bonnes pratiques d’industrialisation. Déployer et configurer les services Big Data dans un contexte On-premise, Cloud (AWS/GCP/Azure) ou hybride. 2. Administration et exploitation des plateformes Assurer l’administration quotidienne des clusters : gestion des ressources, supervision, montée de version, tuning des performances. Implémenter des mécanismes de haute disponibilité, d’équilibrage de charge et d’optimisation du stockage. Réaliser des diagnostics avancés en cas de dysfonctionnement et mettre en place des correctifs durables. 3. Automatisation, CI/CD et industrialisation Développer et maintenir des pipelines d’automatisation (Terraform, Ansible, Jenkins, GitLab CI…). Standardiser les déploiements via Infrastructure as Code. Contribuer à l'amélioration continue de la plateforme, en proposant des optimisations de performance et des outils de monitoring. 4. Sécurité, conformité et gouvernance Intégrer les contraintes de sécurité : gestion des accès (Kerberos, IAM, Ranger), chiffrement, segmentation réseau. Participer à la mise en œuvre de la gouvernance Data (catalogue, lineage, qualité, traçabilité). Veiller au respect des politiques RGPD et des normes internes. 5. Support aux équipes Data et accompagnement technique Accompagner les data engineers, développeurs et data scientists dans l’utilisation des ressources Big Data. Optimiser les jobs Spark/Kafka/Hadoop pour réduire les coûts et améliorer la latence. Participer à la rédaction de documentation technique, guides d’usage et bonnes pratiques.
Contractor

Contractor job
Data Automation Engineer Confirmé

Published on
CI/CD
Dataiku
DevOps

6 months
470-550 €
Ile-de-France, France
Hybrid
Dans le cadre de notre croissance stratégique, nous recherchons un Data / AI Engineer senior (Dataiku) pour rejoindre l’équipe Group Data Office , au service des métiers. Le consultant jouera un rôle clé dans l’accélération de la création de nouveaux produits data-driven, l’automatisation des processus métiers via l’automatisation agentique des processus, et l’aide à la prise de décisions stratégiques. Sa contribution apportera à la fois rapidité et robustesse à nos pipelines de données et à nos solutions. En collaboration étroite avec les parties prenantes métiers, il interviendra sur l’ensemble du cycle projet — de l’idéation et du prototypage rapide jusqu’au déploiement en production. Objectifs et livrables Collaborer avec les équipes métiers, opérationnelles et IT afin de recueillir les besoins et concevoir des solutions data adaptées. Développer et optimiser des pipelines de données robustes, scalables et performants, supportant des workflows métiers critiques. Co-construire des prototypes rapides avec les utilisateurs métiers pour valider les hypothèses et accélérer la création de valeur. Industrialiser ces prototypes en solutions prêtes pour la production, avec un fort accent sur la qualité des données, la maintenabilité et la performance. Contribuer aux processus de livraison et de déploiement continus en appliquant les bonnes pratiques de l’ingénierie logicielle et du DevOps. Participer à l’évolution de la stack data et promouvoir les bonnes pratiques au sein de l’équipe. Compétences techniques Expérience confirmée dans la manipulation de grands volumes de données en Python , avec des bibliothèques telles que Pandas ou Polars . Solide compréhension des principes de l’ingénierie logicielle : code propre, gestion de versions, tests et automatisation. Expérience avec les frameworks LLM et les outils d’orchestration d’agents IA. Maîtrise du prompt engineering , de la génération augmentée par la recherche (RAG) et de l’utilisation des modèles de fondation. Compréhension des architectures d’agents IA : boucles de raisonnement, utilisation d’outils, systèmes de mémoire et collaboration multi-agents. Expérience de l’intégration d’agents IA avec des bases de données vectorielles et des bases de connaissances. Connaissance des outils d’observabilité et d’évaluation de l’IA pour le suivi du comportement et des résultats des agents. Expérience des outils d’orchestration de pipelines de données, notamment Dataiku . Familiarité avec le DevOps , les pipelines CI/CD et les déploiements en environnement de production.
Contractor
Permanent

Job Vacancy
Architecte Data (28)

Published on
CI/CD
Terraform

1 year
40k-45k €
400-750 €
Ile-de-France, France
Hybrid
Définition du besoin La Direction Technique du Numérique d'une grande entreprise de médias mène des projets transverses en étroite collaboration avec les autres directions, notamment la direction Data. La Direction Data a été créée avec la volonté de faire de la Data un levier de croissance des offres numériques. La Direction Data a 3 grandes activités : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l'expérience utilisateurs et mettre à disposition auprès des équipes internes des outils de pilotage et d'aide à la décision. Dans ce contexte, la Direction Technique a besoin d'être accompagnée sur une prestation d'Architecture Data pour l'ensemble de la Data Platform et des dispositifs associés. Prestations attendues dans le cadre de la prestation Au sein des équipes Data composées de product owners, de data engineers, de data scientists et autres profils, la prestation portera sur l'accompagnement des équipes dans les domaines suivants :
1226 results

Contracts

Contractor Permanent

Location

Remote type

Hybrid Remote On-site

Rate minimum.

£150 £1300 and more

Salary minimum

£20k £250k

Experience

0-2 years experience 3 to 5 years experience 6 to 10 years experience +10 years experience

Date posted

Connecting Tech-Talent

Free-Work, THE platform for all IT professionals.

Free-workers
Resources
About
Recruiters area
2025 © Free-Work / AGSI SAS
Follow us