Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 5 014 résultats.
CDD
CDI
Freelance

Offre d'emploi
CHEF/DIRECTEUR de projets Sécurité - DLP & DATA PROTECTION - N3

KEONI CONSULTING
Publiée le
Big Data
Cybersécurité
Pilotage

18 mois
20k-60k €
100-600 €
Toulouse, Occitanie
CONTEXTE Objectif global : Piloter les chantiers du programme de sécurité Contrainte forte du projet : Le programme de sécurité est le plan stratégique Cyber du Groupe Le département DAS - Protection de la données de la Direction Sécurité recherche un chef de projet sécurité de formation ingénieur ou équivalente pour l'accompagner dans le delivery du chantier DLP & DATA PROTECTION du programme Cybersécurité . La mission s'inscrit dans la gouvernance globale du programme de Cybersécurité du groupe . MISSIONS Les principales activités seront les suivantes : - Organisation et animation des ateliers et des comités de pilotages avec les différents interlocuteurs du projet (Management, Direction Sécurité Groupe, établissement et filiales) - Gestion des planning et mise à jour de la roadmap - Pilotage du déploiement des différents programme dans les établissements - Support aux Product Owner et animation des rituels AGILE (Scrumaster) - Production des indicateurs et tableaux de bord de suivi de l'activité. Pour remplir cette mission les compétences suivantes sont demandées: - Gestion de projet Cybersécurité dans des environnement complexe - Expérience des méthodologie AGILE SCRUM et expérience Scrumaster - Bonnes connaissances en Cybersécurité et en particulier sur les risques associés aux métiers de la DATA - Compétences fonctionnelles et techniques sur les sujets Data Protection - Capacité à leader les ateliers sécurité si nécessaire et à présenter les bonnes informations aux comités de direction pour arbitrage. - Capacité à travailler en toute autonomies et sur de multiples sujets en parallèles. Les livrables sont - Pilotage du déploiement des différents programme dans les établissements - Gestion des planning et mise à jour de la roadmap - Production des indicateurs et tableaux de bord de suivi de l'activité. Compétences techniques Gestion de projet Cybersécurité - Confirmé - Impératif Connaissance métiers autour de la DATA - Confirmé - Important Travailler en toute autonomies - Confirmé - Important Connaissances linguistiques Anglais Professionnel (Impératif)
CDI
Freelance

Offre d'emploi
Senior Technical Business Analyst – Market Data to Data & Analytics Platform Migration (Trading) – Zurich Area / Remote

Avanda
Publiée le

Zurich, Suisse
Avanda is a Swiss professional services consultancy. We are currently looking for a Senior Technical Business Analyst to join our international team at our global end client in the Zurich area. This is a long term opportunity (project goes into 2028). Remote work accepted with once every 4-6 weeks onsite. THE ROLE You will join a multi-year Market Data to Data & Analytics Platform Migration programme in the Trading sector. As the Technical Business Analyst, you will support the Project Manager and workstream leads on the technical and business-related topics across the migration, with a focus on reconciliation, sign-off, requirements engineering, and unblocking the technical teams when business or risk context is needed. YOUR RESPONSIBILITIES Support reconciliation topics between legacy market data sources and the new platform, and bring them to sign-off with business and risk stakeholders Gather and clarify requirements from business and risk users, and translate them for the federated technical teams Support business users on data issues and act as the bridge to the technical teams Unblock technical teams on open business or risk questions Support the PM on technical follow-ups, open item tracking, and stakeholder clarifications. YOUR PROFILE Business Analyst background with solid technical understanding (data platforms, ingestion, APIs) Experience in Market Data, Risk, or Trading environments Comfortable engaging both business / risk users and development teams Able to work independently on requirements engineering and reconciliation / sign-off topics Fluent English (mandatory); German is a plus If this sounds like your next challenge and you would like to know more please send us your updated cv and we will call you shortly to discuss it in more details.
Freelance

Mission freelance
Ingénieur Power BI H/F

HAYS France
Publiée le
Google Analytics
Google Sheets
Power Apps

6 mois
350-550 €
Nevers, Bourgogne-Franche-Comté
Dans le cadre d'un renforcement stratégique de la cellule fiabilisation d'un site industriel d'envergure spécialisé dans la métallurgie lourde, nous recherchons un Consultant en Informatique Industrielle / Data Analyst Process. Rattaché directement au département maintenance et amélioration continue, votre mission principale consiste à structurer et à fiabiliser les outils d'aide à la décision et de suivi opérationnel. Face à des processus de transformation de l’acier à très haute température, la gestion des arrêts de production (planifiés et imprévus) est un enjeu critique. Vous interviendrez pour concevoir et mettre en place des outils structurants, notamment la création de templates d'analyse, l'optimisation des fichiers existants et l'automatisation des flux de données. En étroite collaboration avec les équipes de terrain, vous collectez les données de production (notamment issues de SAP), concevez des tableaux de bord dynamiques pour piloter les indicateurs de performance (KPI) et facilitez la communication interne sur l'état d'avancement des projets clés de fiabilité.
CDI

Offre d'emploi
Expert Collibra – Data Governance

Craftman data
Publiée le
Collibra
Microsoft Power BI

55k-65k €
Île-de-France, France
Contexte Dans le cadre du renforcement de sa stratégie Data, un acteur majeur du secteur bancaire recherche un Expert Collibra pour accompagner son Data Office au sein du Digital Excellence Center. Vous interviendrez sur une plateforme data stratégique, au cœur des enjeux de data governance, BI et valorisation des données, avec une forte interaction entre les équipes métiers et IT. Missions Analyse des besoins métiers et IT liés à la gouvernance des données Structuration et intégration de la documentation data dans Collibra Paramétrage de la solution (dashboards, vues, workflows) Accompagnement des data stewards et data custodians Animation d’ateliers (formation, démonstrations, adoption) Contribution à l’évolution de l’offre de service Collibra Tests des nouvelles fonctionnalités et releases Support utilisateurs et gestion des incidents Travail sur les intégrations avec l’écosystème data (BI, API, SGBD)
Freelance
CDI

Offre d'emploi
🚀 Opportunité – Business Analyst Data / AMOA (Niort)

OMICRONE
Publiée le
BI
Big Data
Cloudera

2 ans
40k-45k €
400-500 €
Niort, Nouvelle-Aquitaine
Dans le cadre du renforcement d’une équipe Data / SI Décisionnel , nous recherchons un Business Analyst Data / AMOA pour intervenir sur des sujets de valorisation de la donnée. 📍 Localisation : Niort (présence hebdomadaire sur site) 📅 Démarrage : ASAP 🎯 Vos missions : • Accompagner les métiers dans leurs usages de la donnée • Recueillir et analyser les besoins métiers • Apporter du conseil sur l’exploitation et la valorisation des données • Participer au cadrage des projets Data (études d’impact, faisabilité) • Réaliser les recettes fonctionnelles et suivre les anomalies • Produire les livrables fonctionnels (SFG, SFD, modélisation de données) • Contribuer à la qualité, la cohérence et la gouvernance des données 🛠 Environnement technique : • SI Décisionnel : Oracle / Informatica • Big Data : Cloudera ✅ Profil recherché : • Expérience sur des projets Data (BI / Big Data) • Bonne compréhension des enjeux de gouvernance et qualité des données • Capacité à interagir avec les métiers et à apporter du conseil • Une expérience dans le secteur assurance est un plus
CDI

Offre d'emploi
Ingénieur DevOps Azure (secteur luxe)

ASTRELYA
Publiée le
Azure
Azure Kubernetes Service (AKS)
CI/CD

Paris, France
Astrelya est un cabinet de conseil franco‑suisse en très forte croissance depuis sa création en 2017, spécialisé dans la transformation digitale, l’excellence opérationnelle et l’innovation technologique. Composé de 300 experts passionnés, le cabinet accompagne ses clients sur l’ensemble du cycle de transformation, du cadrage à la mise en production, avec une expertise reconnue en Data/IA, Cloud, DevOps et méthodes agiles. Notre modèle repose sur la proximité, la confiance et une culture humaine forte, où les collaborateurs sont au cœur de la création de valeur. Votre mission Dans le cadre du développement de nos activités, nous recherchons un(e) DevOps Engineer expérimenté(e) pour intervenir chez l’un de nos clients, acteur majeur du secteur du luxe. Concrètement, vous allez : Concevoir, déployer et maintenir des infrastructures Cloud Azure Industrialiser les environnements via Terraform (Infrastructure as Code) Orchestrer et gérer des clusters Kubernetes (AKS) Mettre en place et améliorer les pipelines CI/CD Garantir la performance, la sécurité et la scalabilité des plateformes Collaborer étroitement avec les équipes de développement et d’architecture Votre futur environnement technique : Microsoft Azure Kubernetes (AKS) Terraform CI/CD (Azure DevOps, GitHub Actions…) Bonne culture DevOps & automatisation
CDI
Freelance

Offre d'emploi
Data Scientist

VISIAN
Publiée le
Dataiku
Deep Learning
Elasticsearch

1 an
Paris, France
Missions Conception et développement de services Data et IA pour la connaissance clients et la performance business Pilotage de la performance commerciale Détection d’insights, recommandations, prédictions Détails techniques Machine Learning : IA générative et agentique : techniques de mises en œuvre de LLMs, architectures RAG et agentiques, … Techniques NLP / NLU : embeddings, transformers, BERT, … Machine learning : régression, classification, clustering, détection d’anomalies, moteur de recommandations, séries temporelles Deep learning (architectures, transfert learning, fine tuning, …) IA responsable et de confiance, IA explicable, maîtrise des biais Maîtrise de Python pour la data science (sklearn, pytorch, keras, LangChain, LangGraph, …) Bases vectorielles et d’indexation texte et embeddings : Elasticsearch, Faiss, … Expérience avec la plateforme Dataiku Outils informatiques Langage : Python Prototypage : Gradio, Streamlit Outil de versioning : git Cloud : AWS Bedrock Expérience avec une architecture On prem serait un plus Curiosité intellectuelle, autonomie et réactivité Capacité de communication : capacité à analyser et synthétiser, pédagogie Force de proposition : capacité à proposer des solutions innovantes
CDI
Freelance

Offre d'emploi
Data intégration Senior (H/F)

1G-LINK CONSULTING
Publiée le
AWS Cloud
CI/CD
Kubernetes

12 mois
Paris, France
Contexte : Dans le cadre de la construction du datalake des équipes Group Digital & IT International Cybersécurité de notre client, nous recherchons un(e) Consultant Data Integration Senior . Missions : Organiser et piloter votre activité ainsi que celle d’un consultant junior Garantir le respect des délais, de la qualité de livraison et des bonnes pratiques Assurer une communication claire et régulière sur l’avancement Concevoir et implémenter les flux d’ingestion de données (API, SFTP, DB) Développer et orchestrer les pipelines avec Azure Data Factory Alimenter et structurer le datalake dans Snowflake Concevoir des modèles de données (tables de faits, dimensions) Préparer les données pour les usages analytiques et le reporting Collaborer à la restitution via Power BI Participer à la mise en place de futures briques techniques telles que Apache Airflow (via Astronomer) et DBT Contribuer à l’amélioration continue de l’architecture data Comprendre les enjeux cybersécurité (gestion des assets, conformité, outils de sécurité) Exploiter les données issues des outils cyber pour produire des indicateurs pertinents Compétences techniques: Expertise sur Snowflake (modélisation, performance, structuration) Maîtrise de Azure Data Factory Bonne expérience en modélisation décisionnelle (schémas en étoile : faits/dimensions) Expérience en intégration de données multi-sources (API, SFTP, bases de données) Bon niveau en SQL Appréciées Expérience avec Power BI Connaissance de Apache Airflow (ou Astronomer) Notions ou expérience avec DBT Connaissance des environnements cloud Azure
Freelance

Mission freelance
Data Engineer confirmé (H/F) - 92

Mindquest
Publiée le
Apache Spark
Azure DevOps
Databricks

3 mois
400-550 €
Hauts-de-Seine, France
Nous recherchons un Data Engineer confirmé / sénior disposant d’une forte expertise sur Azure, Databricks, Spark et SQL. - Analyse des traitements existants dans le cadre de projets de migration - Conception et construction de pipelines de données pour transformer, enrichir et traiter les données au sein du Data Lake - Développement de notebooks Databricks pour des traitements avancés de données - Mise en œuvre de solutions de Cloud Data Warehousing (optimisation des traitements et tuning des requêtes SQL) - Rédaction de la documentation technique (Dossiers d’Analyse Technique, release delivery notes, etc.) - Réalisation de revues de code dans une logique de qualité et de bonnes pratiques - Conception et exécution de tests unitaires - Livraison des développements dans un environnement DevOps intégrant des processus CI/CD et les outils associés
Freelance

Mission freelance
Expert en Migration de Données H/F

SPIE ICS
Publiée le
Data analysis
Data Engineering
Migration

3 mois
400-580 €
Hauts-de-Seine, France
Nous recherchons pour notre client basé dans les Hauts-de-Seine (92) un Consultant en Migration de Données qui pilotera l’ensemble du processus de migration, de la préparation à la mise en production, afin de garantir la qualité et la cohérence des données. Missions principales : Accompagner les équipes locales de la définition de la stratégie à la validation métier des données. Gérer les phases MOCK1, MOCK UAT et chargement en production. Analyser en première ligne les anomalies détectées. Soutenir les responsables applicatifs pour la propagation des données. Être garant de la méthodologie DTM, définir la stratégie de nettoyage des données et suivre les KPIs. Maintenir les modèles de migration, outils, rapports et la bibliothèque de connaissances. Arbitrer les écarts méthodologiques et gérer les demandes de déviation. Former et animer la communauté des experts en migration (DME).
Freelance

Mission freelance
Business Analyst Technique – Plateforme Data & Investigations

ABSIS CONSEIL
Publiée le
Méthode Agile
Python
SQL

1 an
550-580 €
Île-de-France, France
Contexte Dans le cadre du renforcement de ses dispositifs de conformité, une organisation internationale met en place une plateforme technologique innovante dédiée à l’analyse et au traitement des alertes financières. Cette solution vise à améliorer l’efficacité opérationnelle, la qualité des analyses et la gestion des risques, en s’appuyant sur des technologies avancées orientées data et intelligence artificielle. Le projet s’inscrit dans une dynamique de transformation des outils internes, avec une approche moderne, évolutive et interconnectée. Mission Vous interviendrez dans le cadre du développement et de l’optimisation de cette plateforme, en lien avec des équipes métiers et techniques. Vos responsabilités incluent : Formalisation des processus fonctionnels de bout en bout Rédaction de spécifications fonctionnelles détaillées Élaboration et exécution des cahiers de tests Analyse et traitement de volumes importants de données Contribution à l’amélioration continue dans un environnement agile Participation à l’intégration de solutions innovantes, notamment liées à l’intelligence artificielle
Freelance

Mission freelance
[SCH] Administrateur Azure / Microsoft Fabric / Power BI - 1410

ISUPPLIER
Publiée le

10 mois
400-500 €
Saint-Denis, Île-de-France
Dans le cadre de la construction de la nouvelle BI d’entreprise, notre client recherche un Administrateur Azure / Microsoft Fabric afin de participer à la mise en place d’une nouvelle offre de Self-BI reposant sur Power BI, Microsoft Fabric et des Gateways On-Premises. Le consultant interviendra à la fois sur la co-construction de l’architecture avec les équipes internes et sur son implémentation, dans un environnement hybride mêlant cloud Azure et infrastructures on-premises. La mission nécessite une forte maîtrise des sujets d’administration, de sécurité, de DataOps et d’automatisation, ainsi qu’une bonne compréhension des enjeux de performance, de migration BI et de gouvernance. Missions : -Co-construire l’architecture BI cible avec les équipes internes -Assurer le build et l’administration de l’environnement Microsoft Fabric / Power BI / Azure -Configurer et administrer les capacités Fabric et les Workspaces -Gérer les sujets de tenant administration, sécurité, identités et service principals -Mettre en place et administrer les Gateways On-Premises -Gérer les Azure KeyVaults et les secrets techniques -Mettre en œuvre les pratiques DevOps / DataOps (CI/CD, automatisation, industrialisation) -Automatiser les tâches via API, PowerShell ou Python -Participer aux sujets de monitoring, performance, incidents et optimisation des coûts (FinOps) -Accompagner les problématiques de migration BI et d’évolution de la plateforme -Contribuer à l’industrialisation de la plateforme via Terraform et Azure DevOps -Collaborer avec les équipes techniques sur les sujets dbt, Airflow et intégration data Profil attendu : -Expertise confirmée sur Microsoft Fabric, Power BI et Azure -Expérience en design & build d’architectures data / BI -Bonne maîtrise des environnements hybrides cloud / on-premises -Compétences solides en administration, sécurité, identités et gouvernance -Expérience avec Azure DevOps, Terraform et les pratiques IaC -Bonne compréhension des enjeux DataOps / DevOps / CI-CD -Capacité à automatiser les tâches via PowerShell, Python ou API -Connaissance de dbt, Airflow et migration BI appréciée -Sensibilité aux problématiques de FinOps, monitoring et performance -Autonomie, rigueur et capacité à travailler en co-construction avec les équipes
Freelance

Mission freelance
DevOps Cloud Engineer GCP / Azure (H/F)

Izyfree
Publiée le
Google Cloud Platform (GCP)
Python
Terraform

3 ans
440-480 €
Lille, Hauts-de-France
Contexte Dans le cadre de l’évolution du produit Landing Zone, nous recherchons un DevOps Cloud Engineer pour participer au développement des plateformes cloud. Nous recherchons un DevOps Cloud Engineer capable de faire évoluer les Landing Zones cloud, avec une forte expertise GCP, Azure, Terraform et automatisation. La Landing Zone permet aux collaborateurs de commander en quelques minutes un espace sur le cloud public, principalement GCP mais aussi Azure, avec une pré-configuration de l’écosystème pour déployer leurs applications rapidement, de manière sécurisée et autonome. Missions contribuer au développement et à l’évolution des Landing Zones cloud automatiser le déploiement des infrastructures via Terraform développer et maintenir des outils d’automatisation cloud, réseau et sécurité implémenter des services backend en Python participer au développement de composants frontend en Vue.js concevoir des solutions cloud natives sécurisées et automatisées participer aux revues d’architecture et de code garantir la qualité, la maintenabilité et la performance des solutions corriger les anomalies et améliorer les plateformes existantes accompagner les équipes techniques dans l’usage des services développés
Freelance
CDI

Offre d'emploi
Data Engineer expérimenté – Plateforme Data (H/F)

Argain Consulting Innovation
Publiée le
Big Data
Data Warehouse
IBM DataStage

12 mois
40k-45k €
450-500 €
Nantes, Pays de la Loire
Contexte : Dans le cadre de l’évolution et de la modernisation d’une plateforme data stratégique, nous recherchons un Data Engineer expérimenté pour renforcer une équipe d’experts. Vous interviendrez dans un environnement agile et collaboratif, aux côtés d’ingénieurs data confirmés, avec un encadrement produit et méthodologique, favorisant l’excellence technique et l’innovation. Mission : La mission s’inscrit dans une dynamique ambitieuse autour de plusieurs axes : Build : Conception et développement de nouvelles solutions data Run : Maintien en conditions opérationnelles et optimisation continue Migration : Accompagnement des transitions techniques et fonctionnelles Modernisation : Évolution vers des architectures data modernes Responsabilités : Développer des traitements ELT (principalement à destination d’un datawarehouse) Concevoir et maintenir des templates ELT Participer à la définition de la feuille de route technique de migration ETL vers ELT Accompagner les équipes utilisatrices des solutions data Contribuer à la documentation des solutions du périmètre Garantir le bon fonctionnement du plan de production et le respect des engagements de service Identifier et proposer des optimisations dans une logique d’amélioration continue Partager ses connaissances et être force de proposition Attendus Développer des traitements ELT xDI principalement à destination du Datawarehouse Développer et maintenir des templates xDI Participer à la définition de la feuille de route technique de la migration ETL Datastage vers ELT xDI Accompagner les développeurs Participer à la Documentation de l'ensemble des solutions Assurer le bon fonctionnement du plan de production et l'ensemble de nos produits et solutions en respectant les engagements de service Identifier / proposer des optimisations des traitements dans une démarche d'amélioration continue du plan de production Partager ses connaissances avec ses pairs et être force de proposition
Freelance

Mission freelance
Cloud Infrastructure Engineer (terraform, kubernetes, Azure) H/F

Pickmeup
Publiée le
Ansible
Azure
Kubernetes

2 ans
400-600 €
Paris, France
Le Projet Rejoignez l'élite de la Tech publique au sein d'une structure d'envergure nationale dédiée à l'innovation par la donnée. La mission est capitale : concevoir, sécuriser et maintenir la plateforme technologique qui centralise les données de santé pour faire avancer la recherche médicale en France. 🏥📊 Dans un environnement Agile et ultra-sécurisé, vous intégrez l'équipe Secure Process Environment . Votre terrain de jeu ? Une infrastructure complexe, innovante et 100% automatisée. 🛠️ Votre Stack Technique Infrastructure : Azure, Terraform, Terragrunt, Packer, Ansible. Orchestration : Kubernetes (K8s), Helm. Automation/Scripting : Bash, Python. Outils : Gitlab, Keycloak, Nexus, Jupyter, Spark, PostgreSQL. 🎯 Vos Missions : "Design, Automate & Secure" Infrastructure-as-Code (45%) : Développer et maintenir une infrastructure 100% terraformée sous Azure à grande échelle. Kubernetes & Apps (30%) : Industrialiser le déploiement des composants transverses (Ingress, Keycloak) et des outils data (Jupyter, Spark) via Helm & Docker. Scripting & Outillage (25%) : Créer des utilitaires de check, de déploiement et collaborer avec les Data Engineers pour répondre aux besoins des utilisateurs finaux. Sécurité & Architecture : Participer activement à l'homologation de la plateforme et à l'évolution de l'architecture distribuée. Culture Ops : Documenter vos succès pour un partage de connaissance fluide au sein de l'équipe (12 développeurs passionnés).
CDI
Freelance

Offre d'emploi
Assistant RSSI e-Commerce & Big Data (H/F)

Clostera
Publiée le
Cybersécurité
Gouvernance

3 ans
50k-58k €
400-500 €
Île-de-France, France
Rejoignez-nous ! Dans le cadre de plusieurs projets liés au e-Commerce et à la gestion de la donnée, vous intervenez en support du Responsable de la Sécurité des Systèmes d’Information (RSSI). Vous contribuez à la gouvernance sécurité, à la sécurisation des processus métiers et techniques, ainsi qu’à la protection des applications et infrastructures. Le périmètre couvre des activités digitales variées (plateformes e-Commerce, services clients, data & analytics), avec des enjeux liés à l’exposition Internet, à la donnée sensible et aux risques de fraude. Ce que vous ferez : Assister le RSSI dans la définition et le pilotage de la gouvernance sécurité Contribuer à la sécurisation des processus métiers et IT Participer à la sécurité des développements (web et mobile) Accompagner les équipes techniques sur les bonnes pratiques de sécurité Identifier, analyser et challenger les risques liés aux projets Réaliser ou contribuer aux analyses de risques (méthode EBIOS RM) Sensibiliser les équipes aux enjeux de cybersécurité et de fraude Produire des livrables (rapports, synthèses, supports de présentation) Participer aux échanges avec les équipes métiers et IT Assurer un rôle de conseil, d’alerte et d’escalade si nécessaire Environnement technique : Écosystèmes e-Commerce (sites exposés Internet, parcours clients, paiement) Applications web et mobiles Environnements Big Data et gestion du cycle de vie de la donnée Protocoles de communication standards Référentiels de sécurité applicative (OWASP) Bonnes pratiques de sécurité (ANSSI) Contexte réglementaire lié aux données personnelles
5014 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous