Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 1 953 résultats.
CDI
Freelance

Offre d'emploi
Consultant(e) Data Analyst F/H-Niort

Publiée le
LCB-FT
Python
SQL

120 jours
38k-45k €
400-550 €
Niort, Nouvelle-Aquitaine
Nous recherchons un(e) Consultant(e) Data Analyst pour notre cabinet à Niort🚀 En tant que Consultant(e) Data Analyst , vous interviendrez : Chez les clients, selon le cadre et les objectifs définis : Concevoir et mettre en œuvre des scénarios LCBFT (algorithmes de détection d’alertes LCBFT) et assurer leur maintenance. Participer à l’exploration des données pour : Identifier les sources pertinentes. Évaluer la qualité et la cohérence des données. Définir les indicateurs et règles métier avant la mise en production Au sein du cabinet : Contribuer au développement du cabinet (développement commercial, optimisation des processus internes, formation et mentorat), Participer à des projets internes relatifs à nos activités évènements, QVT, RSE… Mener et réaliser des projets associatifs (Mécénat auprès de nos associations partenaires). 🚀 L’aventure Argain, c’est : Un suivi et un accompagnement au quotidien par un trinôme (business manager, référent métier, référente RH), Un processus d’intégration personnalisé (individuel puis collectif), Des formations certifiantes (au minimum 1 formation tous les deux ans), De nombreux évènements : 2 évènements au minimum par mois (afterwork, soirée cuisine, cours de sport, karaoké), La possibilité d’évoluer en interne (rôle d’ambassadeur, key account leader, consultant manager), Un variable attractif et déplafonné (prime de cooptation, d’ouverture de compte, d’apport d’affaire), Un package (prime vacances, prime d’intéressement, avantages CSE, RTT, prise en charge de 60% des tickets restaurant). Si vous souhaitez savoir ce que nos argainers pensent de nous :
Freelance

Mission freelance
Data Engineer

Publiée le
Azure Data Factory
BI
Databricks

12 mois
400-550 €
Île-de-France, France
Télétravail partiel
Les livrables sont Code Source Documentation KPI qualité Compétences techniques Python / Pyspark / SQL - Expert - Impératif Databricks - Expert - Impératif Datafactory - Confirmé - Important Modélisation BI - Confirmé - Souhaitable Description détaillée Contexte : Le projet Data-RH vise à centraliser et modéliser les données issues des systèmes dans un modèle unifié, permettant des analyses transverses et une exploitation optimale des données métier. Environnement technique : Azure Data Factory, Databricks, Python, PySpark, SQL, Azure DevOps et Power BI. Missions : - Concevoir et développer des pipelines d’ingestion de données via Azure Data Factory. - Créer et optimiser des flux de transformation de données en PySpark/Python. - Maintenir et développer de nouveaux indicateur de qualité de données - Mettre en œuvre et industrialiser les pipelines CI/CD avec Azure DevOps. - Participer au refactoring du code existant pour améliorer sa performance et sa maintenabilité. - Garantir la qualité du code et veiller au respect des normes de développement au sein de l’équipe. - Implémenter des tests unitaires et assurer la fiabilité des solutions. - Mettre en place des solutions de monitoring et de supervision pour l’application Data-RH. Profil recherché : - Maîtrise avérée de SQL, Python, PySpark et Spark. - Expérience confirmée sur l’écosystème Microsoft Azure (Data Factory, Databricks, DevOps). - Bonne connaissance de Git et des pratiques DevOps. - Sens de la communication, force de proposition et capacité à travailler en équipe. - Rigoureux, attaché aux bonnes pratiques de développement et à la qualité du code. Définition du profil : Il est garant du bon fonctionnement et de la disponibilité des données dont il a la responsabilité. Il assure la prévention des dysfonctionnements des données et contribue à la bonne utilisation de celles-ci
Freelance

Mission freelance
EXPERT IAM / CLOUD / DATA

Publiée le
Cloud
Cryptographie
IAM

6 mois
490-700 €
Paris, France
🎯 Missions principales : - Capacité à travailler sur les orientations et directions stratégiques du programme cyber, à comprendre les enjeux et la structure du programme, et à proposer des améliorations continues - Rédaction et/ou révision de thématiques opérationnelles du Group Cyber Framework (exigences cyber sur 25 thématiques applicables à toutes les entités du groupe) - Identification des risques cyber, les objectifs et les preuves associées aux exigences cyber sécurité (les preuves à collecter parles entités afin de vérifier qu'elles ont bien implémentées ces exigences - Expertise sur les thématiques typées "Cryptography" "network security" "Data Security" , "AM" and « secure configuration » - Animation des workshops avec les experts de ces sujets cyber, les équipes de productions et les entités afin d'identifier la faisabilité des exigences et les aspects opérationnels associés - Animation des espaces de partage des livrables et des forums mis en place à cet effet.
Freelance

Mission freelance
Consultant Data Snowflake SQL

Publiée le
Snowflake
SQL

12 mois
Paris, France
Télétravail partiel
Analyse de la données Le consultant freelance accompagnera la mise en place, l’optimisation et l’automatisation des traitements de données sur Snowflake et Databricks, ainsi que le développement de scripts pour améliorer les processus internes. Missions principales Analyse de la donnée Analyser les besoins métiers et produire des jeux de données fiables et pertinents. Concevoir, optimiser et maintenir des requêtes SQL et objets Snowflake (tables, vues, pipelines). Développer des transformations et workflows sur Databricks Créer et maintenir des scripts d’automatisation (Python, PowerShell, .NET selon besoins). Documenter les traitements et assurer un niveau de qualité élevé des données. Collaborer avec les équipes internes pour faciliter l’utilisation et la compréhension des datasets.
Freelance

Mission freelance
PRODUCT OWNER DATA CRM / DIGITAL

Publiée le
Snowflake

12 mois
560 €
Paris, France
Télétravail partiel
CONTEXTE Le poste s’inscrit chez un grand acteur du Retail à portée internationale. Le PO évoluera au sein d’une équipe Data d’environ 30 personnes, organisée par domaines. Rattachement direct au Lead PO Data Sales / Finance / CRM. Mission : piloter la vision, la roadmap et la valeur produit sur les périmètres CRM, Digital et e-commerce. ENVIRONNEMENT TECHNIQUE – Excellente maîtrise du SQL, notamment sur gros volumes de données. – Stack technologique : – Snowflake (Data Warehouse) – Matillion (ETL), migration vers DBT prévue – QlikSense (reporting et visualisation) ENVIRONNEMENT FONCTIONNEL Le PO intervient sur l’ensemble des sujets Data liés au CRM, au Digital et à l’e-commerce. Responsabilités : – Conception des parcours utilisateurs et définition des KPIs clés. – Rédaction de spécifications fonctionnelles destinées aux Data Engineers / Data Analysts. – Gestion du Data Catalog sur le périmètre attribué. – Garantir le design produit, la cohérence fonctionnelle et la qualité des livrables Data. Cadre de travail : – Méthodologie Agile, sprints de 3 semaines – Outils : JIRA, Confluence Attentes fortes : vision produit, capacité à challenger les besoins métiers, esprit critique élevé. PROFIL RECHERCHÉ – Minimum 8 ans d’expérience dans la Data, dont 4 ans en tant que PO ou Chef de Projet Data. – Solide culture Retail, avec maîtrise des enjeux CRM, omnicanal et e-commerce. – Qualités recherchées : – Autonomie, prise d’initiative – Leadership et capacité à fédérer – Excellentes capacités d’analyse et de structuration – Capacité à challenger et à apporter de la valeur métier
CDI
Freelance

Offre d'emploi
Data Engineer - SPARK/SCALA

Publiée le
Apache Airflow
Apache Spark
PySpark

12 mois
40k-48k €
400-470 €
Montreuil, Île-de-France
Télétravail partiel
Nous sommes à la recherche d’un Développeur Big Data Java/Scala – Projet Migration DataHub V2 Objectif de la mission : Assurer un service de développement Big Data dans un environnement distribué à forte volumétrie. Accompagnement sur les phases de conception, développement, industrialisation et maintien des traitements. Stack et compétences techniques requises : Apache Spark (maîtrise attendue) Scala (langage principal sur la squad) SQL (avancé) Java (notions de base à confirmées) Kafka (bonnes bases sur les événements, topics) Apache Airflow (idéalement une première expérience) Écosystème Hadoop : HDFS, Hive, Yarn (bonnes bases requises) Cloud (une première expérience Cloud valorisée, idéalement GCP ou AWS) CI/CD : Jenkins, Gitflow, notions de DevOps Méthodologie Agile : backlog, rituels, communication proactive Responsabilités principales : Étude et conception technique des batchs Développement Spark/Scala pour traitement de données volumineuses Récupération, transformation, enrichissement, restitution Création de batchs de publication Kafka Participation à la maintenance de la chaîne CI/CD Collaboration étroite avec les Business Analysts pour garantir qualité et lisibilité des libellés Gestion autonome de certains sujets (reporting, suivi, coordination) Profil recherché : Confirmé (3 à 6 ans d’expérience sur des environnements similaires) Proactif, rigoureux, à l’aise dans les contextes techniques exigeants Capacité à interagir avec des interlocuteurs techniques et fonctionnels Démarrage : ASAP Durée : mission longue (visibilité +12 mois)
Freelance

Mission freelance
Linux Expert Technical Consultant Lille Mastering Packaging Redhat Centos

Publiée le
Linux
Red Hat Linux

6 mois
Lille, Hauts-de-France
Télétravail partiel
Linux Redhat Expert Technical Consultant Lille Mastering Packaging RedHat, CentOs, Ubuntu Scripting shell et/ou python Ansible / terraform / jenkins/packaging (2 jours TT apres 2-3 mois) Au sein d’une Direction Transverse en charge de construire et assurer le maintien en condition opérationnelle des souches systèmes linux dans un contexte cloud hybride fortement industrialisé, la mission consiste à : Créer et documenter des masters aux standards du client et customisés pour un usage. Créer des packages customisés Industrialiser et documenter via ansible Apporter support niveau 4, procédurer, faire monter en compétence le CDS N3 Contribuer aux projets : migrations, build nouveaux socles, etc. Compétences techniques : RedHat, CentOs, Ubuntu Scripting shell et/ou python Ansible / terraform / jenkins Connaissances appréciées : Gitlab, solutions de virtualisation (VMware, Nutanix)
Freelance

Mission freelance
Consultant SIRH Data / Chef de Projet MOA - Paris (H/F)

Publiée le
Microsoft Fabric
MOA
PLEIADES

6 mois
630-700 €
Paris, France
Télétravail partiel
Un grand groupe a lancé une stratégie Data (Microsoft Fabric, Power BI, Data Lake). Le domaine RH reste en retard : données silotées, dépendance à une ressource unique, enjeux importants liés à la masse salariale. Missions Recueillir et formaliser les besoins métiers RH (indicateurs : effectifs, absentéisme, turnover, masse salariale…). Rédiger les spécifications fonctionnelles (Pléiades, Horoquartz) et structurer un dictionnaire de données RH. Collaborer avec les équipes Data/BI pour assurer qualité et cohérence des flux (Microsoft Fabric, Power BI). Contribuer à la gouvernance et à la mise à disposition des données RH.
Freelance
CDI

Offre d'emploi
Software Architect Python- ile de France (H/F)

Publiée le
API
Django
Front-end

1 an
40k-45k €
400-500 €
Charenton-le-Pont, Île-de-France
techniquement une nouvelle squad dédiée à un projet stratégique d’automatisation. Le rôle consiste à encadrer des développeurs junior et confirmés (Paris) ainsi que des ingénieurs réseau, en collaboration avec une équipe déjà en place à Porto. L’objectif : structurer, professionnaliser et faire monter en maturité les pratiques de développement au sein de l’équipe. 🚀 Missions principales Définir des spécifications techniques précises et exploitables Établir des architectures logicielles standardisées Analyser l’existant et proposer des architectures modernes Mettre en place et diffuser de bonnes pratiques de développement Participer à la conception fonctionnelle et technique des besoins collectés auprès des équipes métier Documenter workflows, modèles de données et cahiers des charges Accompagner les analystes et garantir la cohérence globale du SI Contribuer à la réussite de projets de taille moyenne (200–300 j/h) 🧠 Compétences techniques requises (niveau expert) Python & écosystème : Django, FastAPI, Pydantic, SQLAlchemy, Starlette Architectures full stack (front + backend) REST API, GraphQL, OpenAPI Microservices dans Kubernetes Orchestrateurs Python (ex : Prefect) Git et bonnes pratiques d’ingénierie logicielle 🤝 Soft Skills Leadership technique et capacité à encadrer des profils junior/confirmés Forte orientation utilisateur et valeur produite Rigueur, pragmatisme, sens de l’organisation Excellente capacité d’analyse et de résolution de problèmes Anglais professionnel (B2 minimum)
Freelance

Mission freelance
Business Analyst Finances/Data - Spécs. fonct. et BAU

Publiée le

12 mois
500 €
75001, Paris, Île-de-France
Business Analyst Data - Spécifications Fonctionnelles & Support Opérationnel Contexte Un acteur majeur du secteur bancaire recherche un Business Analyst spécialisé en Data pour intervenir sur la conception des spécifications fonctionnelles et le support opérationnel (Business As Usual) dans un environnement complexe lié aux paiements, clients, transactions et finance . Missions principales Recueillir et analyser les besoins métiers, proposer des simplifications et optimisations. Identifier les processus à créer ou à modifier pour répondre aux enjeux business. Rédiger des spécifications fonctionnelles détaillées . Émettre des recommandations sur la faisabilité et l'implémentation des demandes. Assurer le support des équipes techniques (PO, squads DevOps) en apportant le contexte métier. Participer à la validation des développements pour garantir la conformité avec les attentes. Intervenir sur les phases de développement, test, déploiement et post-production. Collaborer avec des interlocuteurs transverses (autres domaines et entités). Compétences métiers recherchées Paiements : flux SEPA, virements, prélèvements, gestion des moyens de paiement. Clients : gestion des données clients (KYC, onboarding, segmentation). Transactions : suivi des opérations bancaires, reporting, conformité réglementaire. Finance : notions de comptabilité bancaire, rapprochements, indicateurs financiers. Data Governance : qualité des données, intégrité, respect des standards. Compétences IT recherchées SQL : niveau confirmé (requêtes complexes, optimisation). Modélisation de données : conception et validation de modèles relationnels. Outils de gestion de données : connaissance des environnements Data Warehouse / ETL. Tests fonctionnels : validation des développements et des flux. Connaissance des architectures bancaires : systèmes transactionnels, intégration des données. Séniorité attendue Niveau : Senior / Confirmé (Business Analyst Data - Niveau 4 Proficient) Expérience : 5 à 8 ans minimum en analyse fonctionnelle et data dans des environnements complexes. Capacité à travailler en autonomie, à challenger les besoins métiers et à interagir avec des équipes techniques. Maîtrise des outils et concepts (SQL, modélisation de données, gouvernance data). Anglais professionnel (échanges à l'international) et français courant
CDI
Freelance

Offre d'emploi
Chef de Projet VMware Infrastructure à Rennes - (H/F)

Publiée le
Comité de pilotage (COPIL)
ITIL
MOA

1 an
Rennes, Bretagne
CONTEXTE DE LA MISSION : Nous recherchons pour notre client Grand-Compte un Chef de Projet Infrastructure orienté VMware dans le cadre d'accompagnement et conduite des projets techniques à forte criticité. Le rôle consiste à piloter des projets d’évolution, de transformation et de modernisation des infrastructures IT notamment autour des socles virtualisation VMware en lien direct avec les équipes techniques et les instances de gouvernance interne. MISSIONS PRINCIPALES : Pilotage de projets d’infrastructure VMWARE : planification, coordination, reporting et gestion des risques Encadrement d’équipes techniques internes et prestataires Pilotage de projets liés à la virtualisation VMware : évolution des clusters vSphere, migrations, montée de version, optimisation des ressources, intégration stockage/réseau Animation des comités de suivi : COPIL, COPROJ, revues d’avancement Suivi budgétaire, gestion des charges, préparation et suivi des jalons Participation à la définition des architectures techniques avec les experts (virtualisation VMware, stockage, réseau, sécurité, automatisation…)
Freelance

Mission freelance
Machine Learning Engineer (Détection des fraudes)

Publiée le
Data science
Dataiku
Machine Learning

4 mois
580-600 €
Paris, France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un "Data Scientist" pour un client dans le secteur bancaire Description 🏢 Le Contexte Pour le compte d’un grand groupe bancaire français , nous recherchons un expert en Data Science pour rejoindre une équipe pluridisciplinaire (Conformité, IT, Gestion de projet) en pleine transformation. Le groupe lance une refonte majeure de son dispositif de surveillance LCB-FT (Lutte Contre le Blanchiment et le Financement du Terrorisme). L’objectif est de passer d’une approche traditionnelle (moteur de règles) à une solution interne innovante intégrant le Machine Learning et l'IA . 🎯 Votre Mission Au cœur de la Direction de la Conformité, votre rôle principal est de réduire significativement le taux de faux positifs et d'améliorer la capacité de détection de nouveaux schémas de fraude, tout en garantissant une explicabilité totale vis-à-vis du régulateur. Vos responsabilités principales : Modélisation & Data Science : Élaborer de nouveaux modèles de scoring et de segmentation de la clientèle. Combiner des approches supervisées et non supervisées pour détecter les comportements suspects (patterns connus et atypiques). Réaliser le Feature Engineering : sélection et validation des variables pertinentes (historique bancaire, KYC, transactions). Optimisation & Performance : Réviser les seuils de déclenchement des alertes pour optimiser le travail des analystes. Assurer la performance des modèles aussi bien en traitement Batch qu'en Temps Réel. Gouvernance & Explicabilité (Critique) : Garantir que chaque modèle produit est "auditable" et explicable (transparence des décisions, justification des variables) pour répondre aux exigences réglementaires strictes. Gestion de Projet & Accompagnement : Accompagner les phases de cadrage, recette et industrialisation. Rédiger les livrables (cahiers des charges, expressions de besoins, documentation technique). 🛠 Environnement Technique Stack principale : Python, Dataiku. Données : Historique opérations, KYC, relations clients, volumétrie bancaire standard.
Freelance
CDI

Offre d'emploi
Architecte Fabric Power BI / Data Platform

Publiée le
Azure
Data Lake
microsoft

6 mois
Paris, France
Télétravail partiel
Vous intervenez en tant que référent sur la fabrique BI d’un grand groupe international. Votre rôle : définir l’architecture de la data platform, structurer les modèles et pipelines Power BI/Fabric, établir les standards et bonnes pratiques, accompagner les équipes métiers et IT, piloter l’équipe opérationnelle et garantir la qualité des livrables. Vous travaillez à la frontière du conseil et de la technique, en lien avec les architectes et la stratégie Data du client. Environnement Azure moderne, contexte multi-filiales (28 pays), forte visibilité et autonomie.
Freelance
CDI

Offre d'emploi
Expert Infrastructure & Automatisation IA/Data

Publiée le
Linux

1 an
Paris, France
Télétravail partiel
Contexte de la mission Vous accompagnerez la modernisation des infrastructures logicielles et serveurs, tout en soutenant les projets IA/Data en production. Vous garantirez leur scalabilité, sécurité et traçabilité dans des environnements critiques du secteur financier. Vos missions • Moderniser et sécuriser les environnements applicatifs et serveurs • Automatiser les déploiements et configurations via Infrastructure as Code (IaC) • Assurer la scalabilité et la sécurité des projets IA/Data en production • Collaborer avec les équipes Data Scientists, DevOps et Sécurité • Participer aux audits et garantir la conformité réglementaire (RGPD, ISO 27001) • Mettre en place des solutions de monitoring et traçabilité des modèles IA
Freelance

Mission freelance
Data analyst - Alteryx / Power BI

Publiée le
Alteryx

12 mois
600 €
Île-de-France, France
Télétravail partiel
Notre Client bancaire recherche un consultant Data analyst (H/F) pour intervenir au sein d'une équipe de la Direction Finance traitant les besoins liés aux reportings règlementaires Finance et Risques, à savoir industrialisation de processus métiers et création de reportings automatisés. La mission interviendra sur différents processus (risques ou finance) en mode support, évolution et surtout projet : - Création de tableaux de bord sur Power BI - Industrialisation de processus métiers par le développement de workflows Alteryx et leur déploiement sur Alteryx Server - Création d’applications à l'aide de PowerApps. - Accompagner les équipes Finance et Risques dans l’automatisation de leurs reportings - Participer à des projets transverses Finance/Risques en mode projet, évolution ou support Environnement : Power BI, Alteryx, SSIS, SSAS, SQL Server, Sharepoint, PowerApps, Power Automate.
CDI

Offre d'emploi
 Ingénieur Mathématiques Appliquées / ML Data Scientist

Publiée le
Azure
Google Cloud Platform (GCP)

40k-54k €
Paris, France
Redlab cherche pour son client parisien , un Data scientist confirmé ( 4-6 ans d'expérience ) pour un démarrage en début d'année 2026 , le consultant interviendra sur : Rôle Modélise, développe et optimise des algorithmes d’IA : ML, Deep Learning, LLM, optimisation et pipelines cloud. Missions clés Concevoir pipelines de données (Azure/GCP/AWS). Développer modèles ML/DL/LLM (TensorFlow, PyTorch). Fine-tuning (BERT, LLaMA, etc.). Optimiser modèles (pruning, quantification). Collaborer avec équipes Data & Dev pour intégration.
1953 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous