Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 1 991 résultats.
CDI
Freelance

Offre d'emploi
Architecte technique sécurité

Ewolve
Publiée le
Active Directory
AWS Cloud
Azure

2 ans
40k-45k €
550-650 €
Île-de-France, France

Dans le cadre d’un vaste programme de transformation stratégique, notre client, acteur majeur du secteur bancaire, recherche un Architecte technique sécurité. Vous interviendrez sur des projets de convergence post-fusion/acquisition afin de garantir la sécurisation des infrastructures IT et des processus associés. Votre rôle consistera à piloter l’intégration des systèmes en veillant au respect des exigences de cybersécurité, en collaboration avec des équipes pluridisciplinaires (techniques, métiers, RSSI). Vos principales missions seront : Pilotage de projets : planification, suivi et coordination des projets de cybersécurité liés aux opérations de convergence. Analyse des risques : identification des vulnérabilités, évaluation des menaces et proposition de solutions adaptées. Intégration sécurisée : mise en place et supervision des architectures sécuritaires (cloud, on-premise, hybride). Coordination transverse : collaboration étroite avec les équipes techniques et fonctionnelles pour assurer la cohérence des solutions. Veille et conformité : suivi des évolutions technologiques, réglementaires (RGPD, LPM, etc.) et anticipation des nouvelles menaces. Accompagnement au changement : sensibilisation et formation des équipes aux nouvelles pratiques de cybersécurité.

CDI
Freelance

Offre d'emploi
Responsable Pôle Data / IA (H/F)

HOXTON PARTNERS
Publiée le
Data Lake
Data Warehouse
ETL (Extract-transform-load)

6 mois
85k-105k €
570-800 €
Essonne, France

Nous recherchons un(e) Responsable Pôle Data / IA pour piloter la stratégie, la gouvernance et la mise en œuvre de projets Data et IA dans le cadre d’un programme de transformation à grande échelle. La mission implique la coordination des équipes techniques et métiers et la supervision d’un écosystème Data complet. La mission débute par une prestation freelance de 6 mois avant une internalisation en CDI. Missions principales : Définir et piloter la stratégie Data et IA et assurer la cohérence des projets. Création de roadmap sur 3 à 5 ans Superviser la performance et la sécurité des plateformes Data et IA (Data Lake, Data Warehouse, environnements cloud, etc.). Collaborer avec les équipes métiers et les partenaires technologiques pour garantir la réussite des projets. Assurer la gouvernance des données, la modélisation et la qualité des informations. Conduire des projets complexes multi-plateformes et favoriser l’innovation au sein des équipes. Responsable d'une équipe de 5 à 6 personnes Compréhension des enjeux règlementaires

Freelance

Mission freelance
Data Engineer Suite MSBI

Nicholson SAS
Publiée le
ETL (Extract-transform-load)
Microsoft SSIS
OLAP (Online Analytical Processing)

14 mois
270-280 €
Montpellier, Occitanie

Site : Montpellier, 2 jours/ semaine sur site Date de démarrage : 01/10/2025 Mission : Data Engineer sur des activités de run et build Nb années d’expérience : 3 ans Profil : Data Engineer Data Engineer Suite MSBI Attendu : Concevoir et développer des solutions pour la collecte, l'organisation, le stockage et la modélisation des données, Développer un ensemble d'outils d'aide à la décision pour les métiers du client, Enrichissement de données, Production d'indicateurs (KPI), Optimisation et performance, Garantir l'accès aux différentes sources de données et de maintenir la qualité des données, Contribuer à la mise en place d'une politique de données et des règles de bonnes pratiques conformes aux réglementations client en vigueur, Assurer une veille technologique, notamment sur les langages de programmation utilisés afin d’aider à l'avancement des projets. Compétences techniques : ETL SSIS, Cube OLAP SSAS, Requêtage SQL, Connaissance ETL, préparation structuration de données, stockage de fichier (Talend, HDFS, SSIS), Expérience dans la modélisation et dans l’exploitation des bases de données (SQL et NoSQL, Oracle, …), Une connaissance en migration des traitements sous GCP serait un plus (BigQuery)

Freelance

Mission freelance
Cloud Security Risk Manager

Cherry Pick
Publiée le
EBIOS RM
Gestion des risques
Google Cloud Platform (GCP)

12 mois
550-570 €
Paris, France

🎯 Contexte Le groupe poursuit sa transformation digitale et a lancé sa Cloud Platform Engineering(CPE) . La sécurité est un pilier central de cette démarche. Pour renforcer la CPE, Le groupe recherche un Cloud Security Risk Manager , garant de la stratégie de gestion des risques et de la résilience des infrastructures cloud. 🛠️ Missions principales En lien avec le Security Officer CPE, l’équipe Sécurité United et les équipes techniques : Définir et déployer la stratégie d’analyse de risques (Ebios RM). Accompagner les Security Engineers dans la réalisation des analyses de risque (livrables, ateliers, plans de remédiation). Mettre en place une Risk Heat Map basée sur les analyses, audits et tests d’intrusion. Définir et piloter la stratégie DRP (Disaster Recovery Plan) : roadmap, templates, tests. Animer la planification trimestrielle du domaine pour prioriser les actions de remédiation. Construire et orchestrer un exercice de gestion de crise au niveau CPE. Définir et diffuser les politiques de sécurité au sein du groupe. Proposer et animer un processus de gestion des incidents de sécurité . Assurer le suivi des actions de sécurité et la sensibilisation des équipes aux enjeux sécurité, risque et conformité.

Offre premium
CDI

Offre d'emploi
Tech Lead Databricks

KOLABS Group
Publiée le
Big Data
CI/CD
Databricks

Lyon, Auvergne-Rhône-Alpes

Nous recherchons un Tech Lead Databricks pour rejoindre l’équipe Data en pleine expansion de notre client, leader dans le domaine de la maitrise des risques. Vous aurez la responsabilité d’assurer la conception et la mise en œuvre de solutions de data engineering et data science sur la plateforme Databricks, tout en assurant le leadership technique pour une équipe de développeurs et data engineers. MISSIONS Leadership technique Coacher une équipe de data engineers, data scientists, et développeurs travaillant sur la plateforme Databricks Mettre en place des bonnes pratiques de développement et veiller à la qualité du code (revues de code, tests unitaires) Conception et architecture Concevoir et implémenter des solutions techniques sur Databricks pour répondre aux besoins des équipes métiers (data analytics, data science) Définir des architectures évolutives et performantes pour l'ingestion, le traitement et l’analyse des données Participer à la modélisation de données Travailler en étroite collaboration avec les architectes, les équipes applicatives et équipes métiers pour définir des solutions adaptées Développement et intégration Développer des pipelines de données et des workflows de traitement de données dans Databricks Assurer l'intégration des solutions avec d'autres outils et systèmes (bases de données, systèmes de stockage, outils de BI) Participer au développement des tableaux de bord sous Power BI Optimisation des performances Identifier et résoudre les problèmes de performance dans les flux de données et l'architecture Mettre en place des mécanismes d'optimisation des coûts liés à l’utilisation de la plateforme Databricks Veille technologique et innovation Assurer une veille sur les nouvelles technologies et pratiques dans l’écosystème Big Data et Databricks Proposer des améliorations continues pour augmenter l’efficacité des processus et la qualité des données Accompagner et former les équipes IT aux bonnes pratiques ITIL

Freelance

Mission freelance
Data Engineer

Phaidon London- Glocomms
Publiée le
Apache Spark
Cloud
PySpark

6 mois
400-550 €
France

Développer et maintenir des pipelines de données robustes à l’aide de Python, Spark et SQL. Collaborer avec les data scientists, les analystes et les équipes d’ingénierie pour fournir des solutions de données de haute qualité. Optimiser les flux de données pour la performance, l’évolutivité et la fiabilité. Intégrer et gérer les données sur les plateformes cloud, en garantissant la sécurité et la conformité. Participer aux décisions architecturales et contribuer à l’évolution de l’infrastructure de données.

Freelance

Mission freelance
Data Modeler / Data Architect Bancaire

NEXORIS
Publiée le
Analyse

1 an
700 €
Paris, France

Notre client bancaire recherche un consultant Data Modeler / Data Architect (H/F) pour son équipe Gouvernance Métier dans le cadre d'un projet de transformation et de modernisation de son système d'information décisionnel afin de se conformer à la règlementation IReF BIRD. Votre rôle consistera à concevoir, formaliser et garantir la qualité et la cohérence des modèles de données destinés aux usages décisionnels et analytiques de notre client dans le cadre de son reporting règlementaire. Vous travaillerez en étroite collaboration avec les équipes data, les experts métiers et les data ingénieurs. A ce titre, vos activités principales seront : - revoir la normalisation et la modélisation des data products avec une cartographie - analyser les besoins métiers et les cas d'usage afin d'identifier les objets métiers et leurs relations. - effectuer le cadrage du recueil et de prétraitement des données effectué par le service IT - garantir la cohérence, la traçabilité et la gouvernance des données modélisées.

Freelance
CDI

Offre d'emploi
Business Analyst Data (F/H)

CELAD
Publiée le
Big Data
Business Analyst

12 mois
45k-55k €
400-500 €
Île-de-France, France

Dans le cadre d’un projet stratégique au sein d’un grand acteur du secteur bancaire, nous recherchons un Business Analyst Data / BI . Vous interviendrez en proximité avec les équipes métier pour les accompagner dans la définition des besoins , la conception de solutions et le suivi de la mise en œuvre , dans un environnement riche et complexe. Vos principales activités: Dans le cadre de votre mission, vous serez amené(e) à : Analyser l’existant : évaluer les deux entrepôts de données à décommissionner en termes d’audience, d’utilisation et de fonctionnalités. Réaliser une gap analysis en comparant les fonctionnalités existantes et celles de l’outil cible, puis proposer des recommandations de mise en œuvre. Alimenter le backlog en rédigeant des user stories complètes et détaillées, incluant l’ensemble des règles fonctionnelles. Accompagner les équipes de développement , en précisant ou en faisant préciser les points nécessitant des clarifications. Définir les critères d’acceptation et tester les fonctionnalités développées pour garantir leur conformité. Piloter la phase de change management afin de faciliter l’adoption de la nouvelle solution par les métiers.

CDI

Offre d'emploi
Developpeur Python/GCP (CDI)

Amontech
Publiée le
Google Cloud Platform (GCP)
Python

Aubervilliers, Île-de-France

Nous recherchons une personne avec une expérience réussie de 5+ ans en développement Python et conception logicielle, ainsi qu’une expérience d’implémentation de solutions AI. Vous devez maîtriser les bonnes pratiques de développement agile (Scrum, CI/CD, GitLab, etc.). Une connaissance de l'architecture Cloud (GCP un plus) et du design d’API est requise. Vous devrez démontrer d'excellentes qualités relationnelles, une capacité à travailler en équipe. En rejoignant l'équipe GreenPath, rattaché‧e au Product Manager au sein du département DB&T (Digital Business & Technology), vous aurez l'opportunité de contribuer à un projet ambitieux au service de la transition écologique. Vous évoluerez dans un environnement stimulant et collaboratif, au sein d'une équipe pluridisciplinaire engagée.

Freelance

Mission freelance
[TPR] Data Scientist / Data Engineer - EXPERT Minimum 10 XP - 941

ISUPPLIER
Publiée le

10 mois
650-727 €
Paris, France

Contexte et objectifs de la mission : Le client recherche un Data Scientist / Data Engineer confirmé disposant d’une expérience éprouvée en Data Science, en Large Language Models (LLMs) et dans l’utilisation avancée de LangChain et LangGraph. Le candidat participera à la conception, l’optimisation et l’industrialisation de solutions d’intelligence artificielle sur une stack Azure Fabric, Docker et App Container Services, incluant des modèles multimodaux et de Computer vision. Missions : • Concevoir, entraîner et déployer des modèles prédictifs et explicatifs (Machine Learning, Deep Learning). • Développer et maintenir des pipelines de données performants sur Azure Fabric. • Conteneuriser et orchestrer les modèles via Docker et App Container Services. • Implémenter et automatiser des workflows complexes via n8n. • Intégrer et exploiter des LLMs (fine-tuning, RAG, GraphRAG) dans des environnements de production. • Développer des solutions avancées à l’aide de LangChain et LangGraph pour la création d’agents intelligents et d’applications IA. • Mettre en œuvre des modèles multimodaux (texte, image, audio, vidéo) et de computer vision. • Concevoir des interfaces de visualisation et d’interaction via Streamlit. • Exploiter des LLMs Azure OpenAI et des modèles open source (Mistral, Llama, etc.) via Hugging Face. • Garantir la qualité, la robustesse et la documentation du code et des modèles. Compétences essentielles et expérience • Automatisation & Orchestration : n8n • LLMs & IA Générative : fine-tuning, RAG, GraphRAG, LangChain, LangGraph, modèles multimodaux, Azure OpenAI, Hugging Face, LLMs open source • Machine Learning / Deep Learning : Régression linéaire et non linéaire, Random Forest, XGBoost, Gradient Boosting, CNN, RNN, Transformers, Computer Vision • Cloud & Conteneurisation : Azure Fabric, Docker, App Container Services • Langages : Python, SQL • Frameworks & Outils : Streamlit, FastAPI, scikit-learn, PyTorch, TensorFlow Profil recherché • Bac+5 (Master / Ingénieur) en Data Science • Minimum 5 ans d’expérience en Data Science et Data Engineering. • Expérience éprouvée dans la mise en production de LLMs et l’usage de LangChain / LangGraph. • Bonne maîtrise des LLMs open source et Azure OpenAI via Hugging Face. • Solides compétences en modélisation prédictive, automatisation et industrialisation de modèles IA. • Esprit analytique, rigueur et autonomie.

Freelance

Mission freelance
Data Engineer / DevOps Big Data – CIB Données Client (Hadoop/Spark, Jenkins, DevSecOps)

CAT-AMANIA
Publiée le
API
Control-M
DevOps

1 an
400-490 €
Île-de-France, France

Contexte & mission Grand groupe bancaire – pôle IT Data Management & BI . Au sein de la squad Big Data & API (domaine CIB / Données Client ), vous renforcez l’équipe pour tenir la production , résorber la dette technique , faire évoluer l’architecture et livrer les développements projets. Vos responsabilités Moderniser : upgrades ( Spring Boot , Spark 2→3 ), optimisation du code (APIs & traitements). Industrialiser : CI/CD Jenkins (migration depuis TFS , création de pipelines from scratch), pratiques DevSecOps . Automatiser : déploiements via XLDeploy/XLRelease , orchestrations Control-M . Exploiter : Hadoop on-prem , Spark/PySpark , Hive/SQL/HQL , Unix/Bash . Développer : APIs et traitements data en Python/Java/.NET .

Freelance

Mission freelance
Data Engineer / T -SQL / Marchés Financiers / Data Warehouse

CAT-AMANIA
Publiée le
Méthode Agile
Transact-SQL

2 ans
270-450 €
Île-de-France, France

Description de la mission : Dans le cadre d’un projet stratégique de consolidation et d’analyse des données commerciales d’une grande institution financière, nous recherchons un Data Engineer SQL confirmé pour rejoindre une équipe Agile dédiée à la gestion et à la valorisation des données de marché. Vos principales missions : Concevoir, alimenter et faire évoluer les flux de données d’un entrepôt décisionnel (Data Warehouse / Datamart). Développer et optimiser des procédures stockées en T-SQL sur SQL Server 2019. Mettre en place et surveiller l’ ordonnancement des traitements via Control-M. Intégrer des données issues de diverses sources (fichiers plats, XML, API REST…). Effectuer les tests unitaires et recettes techniques . Rédiger la documentation technique et assurer le support applicatif . Travailler en méthodologie Agile (Kanban) avec les Business Analysts. Participer aux astreintes selon le planning de l’équipe.

Freelance

Mission freelance
Ingénierie et Pilotage de Projets de Transformation Data (Assurance)

FINAX Consulting
Publiée le
Data governance

12 mois
400-850 €
Paris, France

Ingénierie et Pilotage de Projets de Transformation Data (Assurance) Nous recherchons des consultants (Ingénieur Data, Analyste Fonctionnel Data ou Directeur de Programme Data) pour le compte d’un de nos clients assurance dans le cadre d’un projet de transformation et de modernisation de son écosystème Data. Contexte Notre client, un acteur majeur du secteur de l' assurance , est engagé dans un programme stratégique visant à moderniser son paysage applicatif analytique et à optimiser son infrastructure Data. Ce programme inclut l'intégration de données au sein de son datalakehouse et la refonte d'applications orientées client. Dans ce cadre, nous recherchons plusieurs profils Experts et Seniors pour garantir le succès de cette transformation Data. Rôles et Responsabilités Selon votre expertise, vous interviendrez sur l'une des missions suivantes : Pilotage de Programme Data : Diriger la modernisation d'applications analytiques ou assurer la gestion de projet Agile/Product Management pour des applications client. Ingénierie Data & Développement : Assurer la conception, la maintenance et l'industrialisation des applications web et applications orientées client, y compris le développement spécifique. Analyse Fonctionnelle Data : Prendre en charge l'analyse fonctionnelle des besoins en intégration de données vers le datalakehouse ou pour la maintenance d'applications web. Compétences Clés & Techniques Une expertise de niveau Expert ou Senior est exigée sur les points suivants : Expertise Métier : Solide connaissance du secteur de l'Assurance (ou Banque/Finance) et des problématiques de données associées. Compétences Data : Maîtrise des concepts de Data Integration, Data Lakehouse, et des outils ETL (Informatica IDQ, Data Stage, etc.). Technologies : Cloud & DevOps : AWS Cloud (EKS, ArgoCD), Azure, GIT. Langages & Frameworks : JAVA (8, 11, 17), Springboot, NodeJS, ANGULAR, API, REST, SOAP. Bases de Données : DB2, Oracle, Mainframe, NDBX. Outils Complémentaires : IBM WAS, SAS, Microstrategy, OneBI, Power BI, Cobol, JCL, PL/SQL (selon le poste visé). Anglais : Capacité à travailler dans un environnement international, la maîtrise de l'anglais technique étant un prérequis. Détails de la Mission Localisation : Paris (Île-de-France). Date de Démarrage : ASAP. Durée : 12 mois. Taux Journalier Cible (TJM) : Les TJM cibles varient en fonction du rôle et de l'expertise (e.g., Program Director <850€, Data Engineer <950€, Functional Analyst <450€, etc.).

Freelance
CDI

Offre d'emploi
Business Analyst Data Collibra

1G-LINK CONSULTING
Publiée le
Collibra
Data governance
Snowflake

1 an
La Défense, Île-de-France

Dans le cadre du développement de la data marketplace d'un de nos clients et de la mise en place d’une vision 360° client, nous recherchons un Business Analyst spécialisé Data . Vos missions : Organiser l'étude et recueillir les éléments de toutes les parties prenantes Comprendre l'ambition, les enjeux et les objectifs de l'entreprise Organiser et diriger des ateliers avec les entreprises Alimenter le semantic model / référentiel pour une vision 360° client. Recueillir les besoins métiers et concevoir les modèles sémantiques. Collaborer avec les équipes data

CDI

Offre d'emploi
Lead data (H/F)

Amiltone
Publiée le

40k-45k €
Lille, Hauts-de-France

Le poste Vos missions ? En tant que Lead Data vous serez en charge des missions suivantes: - Accompagner et faire monter en compétence les membres de l'équipe Data - Définir la vision et la roadmap data de l'entreprsie - Compréhension du besoin client et être capable de le traduire aux équipes métier - Veiller à la cohérence et la qualité des données utilisées - Suivi de l'évolution des outils data - Développer des algorythmes et des modèles Machine Learning - Mettre en production des solutions data en collaboration avec les équipes IT et DevOps La stack Technique : - MongoDB, PostgreSQL - Talend - Python (lib : Pandas, Scikit Learn, Tensorflow, Matplotlib, Plotly...) - Scala, R, - Docker, Jenkins - Gitlab/Github

Freelance

Mission freelance
Data Engineer confirmé Maintenance et Inspection pour la Digital Line

Signe +
Publiée le
Java
Python
Scala

6 mois
320-370 €
Pau, Nouvelle-Aquitaine

Bonjour, Nous recherchons pour l'un de nos clients intégrateurs un "Data Engineer confirmé Maintenance et Inspection pour la Digital Line". Objectifs et livrables : Conception, développement et maintenance de pipeline de données évolutifs sur la plateforme Data Fabric, incluant ingestion et optimisation des performances et de l'usage de la donnée Garantir la qualité, sécurité et intégrité des données tout au long des pipelines Collaboration transversale avec les équipes Data Science, BI, Devops Réalisation d'audits techniques et proposition d'améliorations continues

1991 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous